Informationsüberflutung war gestern: Data Driven Journalism und die Zukunft der Berichterstattung

Innerhalb eines halben Jahres hat sich das vormals exotische Thema Datenjournalismus zu einem ernstzunehmenden Genre gemausert. Es ist zwar weiterhin eine spezielle Nische, die sich zwischen Infografik und Multimedia-Storytelling behaupten muss. Aber 2011 dürfte deutlich werden, dass diese Nische ein wichtiges Alleinstellungsmerkmal für Onlinejournalismus werden kann. Auch in dem Zusammenhang sollten Zeitungsverlage und Medienhäuser endlich aktiv für Netzneutralität, Informationsfreiheit und OpenData eintreten, meint der Politikwissenschaftler Lorenz Matzat.

Klickstrecken, „Bewegtbild“, Podcasts und so weiter sind nur Remixe althergebrachter Medienformate. Datenjournalismus dagegen setzt auf Datenbanken und Interaktivität, die nur im Browser oder einer App funktionieren können. Er bohrt die Möglichkeiten auf, die über den Rahmen herkömmlicher Infografiken hinausweisen: data-driven journalism ist nicht nur Recherche sondern auch Veröffentlichungsformat; es kann Lesern Recherche-Umgebungen bieten, die den Einstieg in große Datensätze ermöglichen und diese dabei gleichzeitig in den Kontext klassischen Journalismus‘ setzen: Berichterstattung, Hintergrund, Analyse, Reportage.

Datenjournalismus grenzt sich vom althergebrachten CAR (computer-assisted reporting) ab, das rein auf Seiten der Recherche passiert. Letztlich meint Datenjournalismus ja immer auch die Bereitstellung der Rohdaten, bestenfalls im Sinne von OpenData in offenen maschinenlesbaren Formaten.

Die Veröffentlichung der Afghanistan-Kriegstagebücher im Juli 2010 dürfte als Durchbruch für Datenjournalismus gelten. Guardian und NYT demonstrierten, wie zehntausend von Dokumenten online aufbereitet werden können. Die zweite Welle, die Irak-Tagebücher, zeigte auch, wie die selben Redaktionen Erzählformate in Datenartikeln weiterentwickelten. Spiegel Online konnte in beiden Fällen nicht mithalten.

Grenzen von Datenjournalismus

Allerdings wies der dritte Wikileaks-Datensatz von Ende vergangenen Jahres – die Botschaftsdepeschen – auf, wo die Grenzen für Datenjournalismus liegen. Während die Militärdaten klar strukturiert und somit verhältnismäßig einfach aufzubereiten waren, sind die oft sehr ausführlichen diplomatischen Texte schwer automatisch zu sichten.

Klar ist aber, dass es immer mehr große Datensätze geben wird, die Mittelpunkt einer Berichterstattung werden. Das liegt nicht nur daran, dass die Zahl der Leakingplattformen wächst. Vielmehr ist der Aufstieg von OpenData und OpenGovernment im vergangen Jahr ein weiterer Hinweis auf die zunehmende Bedeutung von Datensätzen in Politik und Gesellschaft. Journalismus, der sich selbst ernst nimmt, muss sich diesem Feld widmen. Mit der ihm eigenen Spezifik und seinen Werkzeugen. Von letzteren gibt es immer mehr, die auch von Nicht-Programmieren zu bedienen sind.

Echtzeit und hyperlokal

Onlinejournalismus kennt keinen Redaktionsschluss mehr. Die Zunahme an „Live-Blogging“ ist ein Fingerzeig dafür. Datenjournalismus kann hier auftrumpfen, da er das Echtzeit-Web filtern kann: Twitter und Facebook sind Seismographen für aktuelle Vorgänge. Darauf setzt beispielsweise Yahoo, das seine Finanzmarktberichterstattung mit Informationen des Dienstes StockTwits aufwertet.

Genauso wie im Echtzeitweb der aktuelle Zeitpunkt immer bedeutender wird, besinnt sich die auf Globalität ausgelegte Internettechnologie wieder auf den aktuellen Standort des Users. Das führt einerseits zur „Gamification“ des Alltags durch Dienste wie FourSquare. Doch kann das viel gehypte „hyperlokal“ durch den Zugriff auf Datenbanken, etwa voll mit OpenData, wirklich qualitativen informationellen Mehrwert bieten. Hier ist viel Platz für neue Erzählformate und Journalismusformen.

Datenjournalismus hat allerdings zwei zentrale Probleme. Er ist arbeitsaufwendig, erfordert Recherche und „computer-literacy“, also die Fähigkeit des Journalisten, den Rechner zu bedienen und gar Programmierkenntnisse an den Tag zu legen. Sprich, es braucht das Berufsbild des Datenjournalisten, der in der Redaktion als Liaison dienen kann. Der einerseits als Vermittler zwischen Redakteuren und Programmieren fungiert; der in die Rolle des Produzenten von Datenartikeln schlüpft. Diese Person muss nicht zwangsläufig programmieren können, aber wissen, was technisch möglich und welcher Aufwand nötig ist. Der Datenjournalist muss dies allen Beteiligten, nicht zuletzt auch der Verlagsseite, deutlich machen können.

Mangelnder Mut bei Verlagen

Das zweite Problem ist fundamentaler. Die mangelnde Stiftungslandschaft in Deutschland im Vergleich zu der in den USA, die dort fleißig neue Journalismusformen sponsert, ist nur Ausdruck davon: Es handelt sich um ein kulturelles Problem, das des mangelnden Mutes in Verlagshäusern und Redaktionen, neue Formate und Konzepte auszuprobieren. Lieber wird sich weiterhin Online an Zeitungs- und Zeitschriftenformaten abgearbeitet. Oder es wird dem Marketing-Geblubber von Apple und den Prognosen journalistischer Unheilsbringer wie Rupert Murdoch und Mathias Döpfner hintergelaufen.

Denen wird geglaubt, dass der heilige Gral in Sachen Onlinejournalismus, ein schlüssiges Erlösmodell, hinter der Paywall – der Zahlschranke – liegt. Warum wird stattdessen nicht auf Micropayment gesetzt, das grandios in der Gamingindustrie funktioniert, bei Flattr brauchbare Ergebnisse zeigt und letztlich den Weg in Richtung Kulturflatrate weisen kann? Überhaupt stünde es den Zeitungsverlangen und ihnen anverwandten Unternehmen gut zu Gesicht, die Infrastruktur, von der sie profitieren, auch zu pflegen. Also konsequent eine Lanze für Informationsfreiheit und Netzneutralität zu brechen.

Doch wird das an einem nichts ändern: Einem Teil des Journalismus‘ steht der radikale Umbruch erst noch bevor. Neue semantische Fähigkeiten von Software werden einen Teil der gängigen Journalismusberufe durch Automatisierung ersetzen. „Demand Media“ ist ein Vorgeschmack davon, was Algorithmusjournalismus bedeuten wird: Software bereitet Artikel und Themen vor, Menschen fungieren nur noch als Kontrolleure. Die klassische Nachrichtenberichterstattung wird immer weniger Journalisten brauchen, vor allem falls Spracherkennung in den kommenden Jahren automatisch transkribieren kann.

Automatisierung des Journalismus

Wer dieser Prophezeiung nicht Glauben schenken mag, sollte sich den raschen Aufstieg der Statistik im Sportjournalismus betrachten, dem Vorreiter des Datenjournalismus. Oder einmal ein aktuelles Fußballcomputergame spielen und auf die automatisierten Kommentatoren achten. Diese Form von Automatisierung lässt sich auf diverse Themenbereiche ausweiten, die heutzutage die Seiten füllen. Nur zu oft sind das von Hand gekürzte Texte von Nachrichtenagenturen. Warum sollte eine Software nicht automatisch Sätze wegstreichen können?

Was bleibt also dem Journalist, der nicht Reportagen, Feuilletonartikel, Analysen und Kommentare schreibt? Er kann sich in die Richtung orientieren, die derzeit gerne als „Kurator“ bezeichnet wird. Er begibt sich auf Recherchereise in Datenberge, gräbt Zusammenhänge aus und bereitet sie in Datenanwendungen auf. Letztlich ist das die digitale Rückbesinnung auf journalistische Tugenden, die gerade ihre Renaissance in immer mehr Rercherchepools findet (die manche als verkappte Sparmaßnahmen sehen). So oder so: 2011 wird ein spannendes Jahr für den Online-Journalismus.

(Anm.d.Red.: Der Text steht unter einer Creative Commons-Lizenz (by:sa). Hier der Link zum Orignialartikel.)

14 Kommentare zu “Informationsüberflutung war gestern: Data Driven Journalism und die Zukunft der Berichterstattung

  1. der Datenjournalist muss as Handwerk des Journalisten beherrschen, ein Blogger-Amateur dürfte da nicht reichen, und er muss Informatik-/Programmier-Kenntnisse haben (Web 2.0 Userkenntnisse dürften da nicht reichen).

    erleben wir gerade eine Renaissance des guten alten Experten-Modells? Also einen konservativen Backlash, der den großen Verlagen in die Hände spielt?

    Oder eine Fokussierung von Fertigkeiten, die im Web 2.0 einer gewissen Verdummung gewichen sind?

  2. Ich glaube nicht, dass Voice Recognition Technology tatsächlich Journalisten überflüssig macht, eher ist es so, dass mit dieser Technologie die Arbeit der Journalisten sich verändert. Die Leute müssen sich neu orientieren. Ich glaube, wir müssen Abschied nehmen von dieser Nachkriegs-Dystopie, derzufolge Automatisierung und Maschinisierung Arbeitsplätze abschafft. Mit den Maschinen entstehen immer neue Arbeitsplätze (auf den Trümmern alter). So wird der Datenjournalismus auch keinen Akteur-Schwund im Journalismus-Sektor mit sich bringen. Nein, wir müssen vielleicht doch das Lied vom Life long learning singen

  3. Der Kurator stellt zusammen, stellt Zusammenhänge her. Eigentlich tut genau dies ein Redakteur, der ja auch immer diverse Artikel produziert und im Zuge dessen zusammenstellt, und manchmal auch ganz explizit: Zusammenhänge herstellt. Der datenjournalistische Autor als Redakteur kann in einem Umfeld arbeiten, das klassischen Journalisten fremd ist, er bedarf der klassischen Schreibmaschine nicht mehr, ein kleines, reduziertes Keyboard reicht, um die notwendigen Befehle auszuführen: search, copy, paste – in erster Linie. Was somit salonfähig wird, sind Handheld-Keyboards, die auch und immer öfter von unterwegs genutzt werden: der Datenjournalist kann sich von überall in die betreffenden Datenbanken einloggen. Hat er einen zusätzlichen Bildschirm? so wie beim iPad ein zusätzliches Keyboard mitgeliefert wird?

    In diesem Sinne: wir sollten beim Datenjournalismus den Faktor MOBILITÄT mitdenken. Und damit auch einen neuen Blick werfen auf mobiles Schreiben: Statt es zu reduzieren auf eine Literatur der Verknappung, sollte es auch als Filtern der Fülle gelesen werden.

    So oder so: Vieles, was dieser obige Text beschreibt (Techniken, Ansätze, Veränderungen) hat mit Entwicklungen zu tun, die ich auch am Beispiel der Mobilen Textkulturen ausgemacht habe:

    http://berlinergazette.de/mobile-textkulturen-zur-neubestimmung-des-schreibens/

  4. das berufsbild des datenjournalisten sollte ein bisschen platz für die kunst lassen. der datenjournalist (dj) ist ein stückweit ein künstler, wenn er an visualisierungen seiner befunde arbeitet und mit seiner ganzen arbeit als “kurator” hat er einen konzeptuellen (lies: erfinderischen) zugang zu dem umgang mit seinem material.

    @Rainald Krome: ich lese das anders: vrt ersetzt nicht journalistischen, sondern klassische berrichterstattung. fragt sich nur meines erachtens, was von klassischer berichterstattung übrigbleibt in zukunft, ganz unabhängig von vrt…

  5. Ich finde, dass der Text eine super zusammenfassung zum thema datenjournalismus liefert. was mich stört ist der vielleicht etwas naive blick in die usa. dass die dortige stiftungskultur neue formen des journalismus fördert ist doch nur dem krassen niedergang der zeitungen geschuldet. zum glück ist es in deutschland noch nicht soweit, dass ganze redaktionen wirklich um 80 Prozent ihrer Mitarbeiter eingestampft werden. Ich sehe auch, dass das Thema Online-Journalismus hier immer noch etwas stiefmütterlich behandelt wird, aber mit blick auf die rasanten entwicklungen im internet ist eine langsamere herangeshensweise vielleicht auch gar nicht so schlecht.

  6. gestern hieß es: jede/r kann journalist sein! mit dem aufkommen des daten-journalismus scheint sich die tür wieder zu schließen. jede/r soll zwar zugang zu daten bekommen (open data) aber nicht jede/r soll in der lage sein, diesen zugang zu gestalten.

    insofern teile ich “pes” bedenken.

    und die frage muss lauten, zumindest, wenn datenjournalismus eine zukunft haben soll: wie können wir die offenheit der daten mit der offenheit von zugangsbedingungen in einklang bringen?

  7. David Carr on how it’s WikiLeaks that’s been changed by journalism, not the other way around. [New York Times]:

    “Notice that with each successive release, WikiLeaks has become more strategic and has been rewarded with deeper, more extensive coverage of its revelations. It’s a long walk from WikiLeaks’s origins as a user-edited site held in common to something more akin to a traditional model of publishing, but seems to be in keeping with its manifesto to deliver documents with “maximum possible impact.” Julian Assange, WikiLeaks’s founder and guiding spirit, apparently began to understand that scarcity, not ubiquity, drives coverage of events.(Added 12/13/2010, 10:30am)”

    http://www.nytimes.com/2010/12/13/business/media/13carr.html?_r=2

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.