Immer mehr Menschen haben Zugang zu immer mehr Information. Somit können immer Menschen dazu beitragen, die Wahrheit herauszufinden. Doch welche Werkzeuge und Prozesse eignen sich tatsächlich für die Verifizierung von Fakten? Was sollten die Standards für Informationsforensik sein? Der Medienaktivist und Berliner Gazette-Autor Patrick Meier meint: “Wahr oder falsch war gestern. Heute müssen wir uns den Wahrscheinlichkeiten zuwenden.”
*
„Niemals zuvor in der Geschichte des Journalismus – oder der Gesellschaft – waren mehr Menschen und Organisationen mit der Überprüfung von Fakten beschäftigt“, schreibt Craig Silverman in der Einleitung zu der Studie „Truth in the Age of Social Media“. Das ist eine valide Beobachtung. Doch um die Implikationen dieser Entwicklung zu verstehen, müssen wir uns von der Ansicht trennen, dass Dinge entweder wahr oder falsch sind. Stattdessen müssen wir uns den Wahrscheinlichkeiten zuwenden – wie in der statistischen Physik.
Wie aber sollten wir vorgehen? Auf der Grundlage von jahrelanger journalistischer Erfahrung lassen sich Entscheidungsregeln in Algorithmen und analytische Plattformen in Code umwandeln. Das bedeutet nicht, dass eine vollautomatische Lösung das Ziel sein sollte. Das Bauchgefühl des Experten sollte mit dem Wissen der Crowd und den fortgeschrittenen Techniken des Sozialen Computings verbunden werden. CNNs Lila King meint: „Allein durch Technologie lässst nicht beweisen, ob eine Story wahr ist, aber sie kann uns auf den richtigen Pfad schicken.“ Und je schneller wir auf den richtigen Pfad gelangen, umso besser.
Es stimmt, dass repressive Regimes „falsche Videos kreieren und Bilder auf YouTube und anderen Websites hochladen – in der Hoffnung, dass Nachrichtenorganisationen und die Öffentlichkeit diese finden und für echt halten“ (Silverman). Es stimmt auch, dass Akteure der Zivilgesellschaft diese Falsifikationen entlarven können. Dabei dürfen wir nicht vergessen, dass die Untersuchung in der Offline-Welt oft eine vergessene Option ist. Während der Parlamentswahlen in Ägypten 2010 konnten zivilgesellschaftliche Gruppen 91% der crowdgesourcten Informationen nahezu in Echtzeit verifizieren – dank überregionaler Überprüfung und Telefonaten. Sie haben mit einem erfahrenen Journalisten von Thomson Reuters gearbeitet, um ihre Verifizierungsstrategien zu entwickeln.
Was machen eigentlich Nachrichtenagenturen wie Associated Press (AP) aus den komplexer werdenden Anforderungen bei der Identifikation von falschen oder manipulierten Bildern? Santiago Lyon von der AP schreibt: „Wie auch andere Nachrichtenagenturen versuchen wir bestmöglich zu verifizieren, was die Bilder darstellen oder was sie behaupten darzustellen. Wir suchen nach Elementen, die Authentizität unterstützen können: Sagt der Wetterbericht, dass es an diesem Tag und Ort sonnig war? Fallen die Schatten richtig, wenn man die Lichtquelle betrachtet? Ist die Kleidung übereinstimmend mit dem, was Menschen dieser Region tragen? Wenn wir nicht mit dem Fotographen oder Videographen sprechen können, setzen wir einen Disclaimer hinzu, dass AP „nicht in der Lage ist, unabhängig die Authentizität, den Inhalt, den Ort oder das Datum dieses herausgebrachten Fotos/Videos zu verifizieren.“
Der Story auf der Spur: mit “menschlichen Algorithmen”
Santiago Lyon und seine Kollegen erforschen auch stärker automatisierte Lösungen. Sie glauben, dass „Software zum Finden von Manipulationen besser und hilfreicher in der Zukunft werden wird. Diese Technologie, zusammen mit gutem Training und klaren Richtlinien darüber, was akzeptabel ist, wird Nachrichtenorganisationen ermöglichen, die Stellung gegenüber böswillig manipulierten Bildern zu halten, und damit ihre Glaubwürdigkeit und ihren Ruf als Lieferanten der Wahrheit zu erhalten.“
Interessante Lektionen bietet auch der Einblick in den User-generierten Inhalt auf BBC. David Thurner schreibt: „Die goldene Regel, so sagen Veteranen, ist es denjenigen ans Telefon zu bekommen, der das Material gepostet hat.“ Doch wie sehr wird die Glaubwürdigkeit künftig von Menschen abhängen? Welche Macht werden Maschinen haben? Das Gebiet der „Informationsforensik“ wird industrialisierter werden, sagt Thurner. Damit meint er, dass einige Prozeduren wahrscheinlich simultan durch den Klick auf ein Icon ausgeführt werden. Er erwartet auch, dass technologische Verbesserungen die automatisierte Kontrolle von Bildern effektiver machen wird. Hilfreiche Onlinetools dafür sind Googles erweiterte Bildsuche oder TinEye, die nach ähnlichen Bildern wie dem in die Suchfunktion kopierten suchen. Bei user-generiertem Inhalt auf BBC wird auch auch Google Earth genutzt, um „zu bestätigen, dass die Eigenschaften des angeblichen Orts mit dem Bild übereinstimmen.“
Storyful verfolgt wiederum einen ganz eigenen Ansatz bei der Verifizierung von Fakten. „Bei Storyful glauben wir,“ so Mark Little, „dass eine Kombination von Automatisierung und menschlichen Fähigkeiten die beste Lösung bietet.“ Mark Little und sein Team nutzen den Begriff „menschlicher Algorithmus“, um ihren Ansatz zu beschreiben. In einem Zeitalter, in dem jedes Nachrichtenereignis eine spontane Community entstehen lassen kann, „wurde Autorität durch Authentizität als Währung im Sozialen Journalismus ersetzt“. Viele der angewandten Taktiken von Storyful zur Klärung der Authentizität sind die selben, die man beim Crisis Mapping nutzt, um crowdgesourcte Informationen zu überprüfen. Sie kombinieren den gesunden Menschenverstand eines investigativen Journalisten mit fortschrittlicher digitaler Bildung der Massen.
Anm.d.Red.: Hier geht es zur kompletten Studie Truth in the Age of Social Media. Der Verfasser des Beitrags arbeitet derzeit am Qatar Computing Research Institute an seinem eigenen Projekt zur Informationsforensik. Die Bilder im Text stammen aus dem WikiLeaks-Video Collateral Murder.
der überblick ist nicht umfassend, aber der hinweis und die beispiele, dafür bin ich dankbar!
Assange sprach von wissenschaftlichem Journalismus…
und meinte damit “Freiheit für die Daten” (Chaos Computer Club) -aber bekam reichlich Stress deswegen:
http://jasminrevolution.wordpress.com/category/assange/
So werden Normalmenschen in die Informationsmaschine eingestöpselt… und damit “medial” gemacht (Günther Anders): “…wir sind nur noch Mittel zu einem Zweck, der uns nichts anzugehen hat. Pochte Kant mit seinem Kategorischen Imperativ noch auf das Recht auf menschliche Würde, indem man den anderen immer als Zweck, nie als bloßes Mittel sehen sollte, so läuft diese Forderung heute scheinbar ins Leere. Es ist (angeblich) kein Gegenüber mehr vorhanden, bei dem wir unser Menschenrecht einfordern könnten. Die Technik, unsere technologische Lebensweise, möchten wir nicht missen. Wenn wir so leben wollen, haben wir uns einzufügen und anzupassen, ein Rädchen im Getriebe des „Makro-Geräts“, der Megamaschine, des Luhmann schen „Systems“ zu werden, so wird von uns implizit verlangt.”
http://netzphilosophie.org/technologie-macht-media/
…ist es naiv zu glauben, dass sich diese Metamorphose zum Cyborg auch im Sinne Kantischer Aufklärung nutzen lässt? Hoffentlich nicht.
heißt das:
Wir sind „medial“; wir sind nur noch Mittel zu einem Zweck, der uns nichts anzugehen hat. Pochte Kant mit seinem Kategorischen Imperativ noch auf das Recht auf menschliche Würde, indem man den anderen immer als Zweck, nie als bloßes Mittel sehen sollte, so läuft diese Forderung heute scheinbar ins Leere. Es ist (angeblich) kein Gegenüber mehr vorhanden, bei dem wir unser Menschenrecht einfordern könnten. Die Technik, unsere technologische Lebensweise, möchten wir nicht missen. Wenn wir so leben wollen, haben wir uns einzufügen und anzupassen, ein Rädchen im Getriebe des „Makro-Geräts“, der Megamaschine…
http://netzphilosophie.org/technologie-macht-media/
apropos Verifzierung: Sandy zeigt, was Journalismus
künftig leisten muss
http://netzwertig.com/2012/10/31/verifizierung-von-user-generated-content-sandy-verdeutlicht-was-journalismus-kuenftig-leisten-muss/