Foto von Euthman (by-nc-sa)
Zeitungssterben ist mittlerweile ein alter Hut. Was aber auf uns zukommt ist Webseitensterben. Onlinemedien, Nachrichten- und Zeitungswebsites werden es zukünftig noch schwerer haben. Das faktische Ableben von netzeitung.de vor einiger Zeit war davon nur ein Vorbote. Die Zwickmühle, tragfähige Erlösmodelle zu entwickeln, bevor sie Ertrag bringen; die Notwendigkeit, in Vorleistung zu gehen, wird noch größer durch schema.org, meint Journalist und Datenforscher Lorenz Matzat.
Die neue Auszeichnungssprache schema.org haben Anfang Juni Google, Bing und Yahoo Anfang in ungewohnter Allianz etabliert. Sie besteht bislang aus rund 300 Elementen, mit denen sich im HTML-Code der Seite Informationen wie Orte, Personen, Veranstaltungen, Produkte auszeichnen lassen. Der Besucher der Website selbst sieht das nicht, aber die Suchmaschinen, die in regelmässigen Abständen große Teile des Internets immer wieder indexieren, kartieren, „crawlen“ – sie profitieren davon.
schema.org könnte sich als wirklicher Startschuss für das Semantic Web, das Web 3.0 erweisen, das der WWW-Entwickler Tim Berners-Lee bereits 2001 skizzierte. (Allerdings freuen sich Aktivisten und Befürworter des Semantic Web nur bedingt über schema.org, das neben RDFa und den Microformats von HTML5 einen weiteren Standard etabliert. Mehr dazu in dem lesenwerten Artikel What schema.org means for SEO and beyond. Übrigens gibt es für Online-News auch ein extra RDF-Gerüst: rNews)
Es ginge den Suchmaschinenbetreibern darum, bessere Ergebnisse zu liefern, verharmlosen sie selbst ihre Intention. Faktisch dürfte ihre Motivation aber sein, noch besser automatisiert Content aus Webseiten auslesen zu können und als eigenen Inhalt in den Suchergebnissen zu zeigen. Und damit die User auf ihrer eigenen Seite zu halten und ihnen so länger die Werbung der eigenen Anzeigenkunden präsentieren zu können.
Eric Schmidt, mittlerweile im Verwaltungsrat von Google, sagte unlängst auf einer Konferenz: „Wir haben jetzt genug Künstliche-Intelligenz-Technologie und können ausreichend genug skalieren und so weiter, dass wir ihnen beispielsweise die richtige Antwort im wörtlichen Sinne berechnen können.“
In Ansätzen ist das seit einiger Zeit in den SERPs von Google schon zu erkennen (SERPS – Search Engine Result Pages). Suchen sie heute in einer großen Stadt nach „Kino & Stadtname“, bekommen sie bereits das Kinoprogramm angezeigt. Ähnliches gilt für Wetterinformationen, Wechselkurse oder Börsenkurse. Auch Preisvergleiche hat Google schon längst im Programm (Stichwort „rich snippets“). Auch wies der Kauf der Flugverbindungs-Website ITA Software durch Google im vergangenen Jahr daraufhin, dass sie Flüge bald direkt in der Suchmaschine suchen können.
Was heißt das nun für den Onlinejournalismus?
Was bedeutet es, wenn Google News demnächst nicht nur eine Übersicht über Nachrichtenartikel präsentiert, sondern automatisiert zusammengestellt die Nachricht selbst? Für Medienanbieter bedeutet schema.org zuerst einmal mehr Arbeit und Kosten. Sie müssen ihre Webseiten und Redaktionssysteme (CMS) anpassen, damit diese möglichst automatisch diese Auszeichnungen á la schema.org der Artikel und anderer Inhalte vornehmen. SEO, also Suchmaschinenoptimierung, von den großen Nachrichtenwebsites ohnehin betrieben, bekommt somit eine weitere Dimension.
Foto von Euthman (by-nc-sa)
Letztlich sind die meisten Newsseiten klickabhängig, da sie einen Teil des Traffics ihrer Seite über die unmittelbaren Suchergebnisse von Suchmaschinen generieren (die so genannten „organischen“ Ergebnisse). Ihnen bleibt nichts anderes übrig, als bei schema.org mitzumachen, wenn ihnen die „Einschaltquoten“ wichtig sind. Denn einen gemeinsamen Boykott aller journalistischen Angebote von schema.org wird es wohl kaum geben: Fängt einer an mitzumachen, müssen die anderen folgen. Und wenn nicht: Das Netz ist vielfältig genug, die faktische Unsichtbarkeit eines Teils der bestehenden Onlinemedien zu verkraften.
Das Dilemma: Journalistische Angebote sägen damit an dem Ast, auf dem sie zur Zeit sitzen. Wenn die Suchmaschinen Informationen gleich in mundgerechten Stücken geliefert bekommen, warum sollte der User die ursprüngliche Website, die Quelle der Nachricht, dann überhaupt noch besuchen und dort auf Anzeigen klicken? Eine Folge könnte sein – vielleicht nicht die schlechteste –, dass Onlinejournalismus, wie er zur Zeit besteht, in absehbarer Zeit der Vergangenheit angehören wird. Das bloße Reinpumpen von Content, das einfache Wiedergeben von Beiträgen der Nachrichtenagenturen, mit dem das eigene Angebot aufgebläht werden soll, wird nichts mehr bringen. (Siehe dazu auch die Analyse von Stefan Niggemeier über die Inhalte von stern.de: “Anatomie einer Attrappe”. Für diverse andere großen Nachrichtenseiten dürfte sich das ähnlich darstellen.)
Will man nun Suchmaschinen wie Google oder speziellen Angeboten wie Wolfram Alpha als Onlinemedium in Zukunft Paroli bieten, gibt es aber einen gangbaren Weg: Neben eigenem genuinen Content wie Reportagen, Analysen und Kommentaren gilt es, selber gute semantische Logiken zu entwickeln. Diese finden automatisiert neue Informationen, Wissen und Nachrichten auf anderen Seiten (auch in anderen Sprachen), bereiten diese auf und organisieren sie schlüssig. Es geht also um das derzeit gerne im Mund geführte Kuratieren von Informationen. Redakteure wird es weiterhin geben, aber ihre Arbeitsweise wird sich weiter verändern: Ihnen wird obliegen, die Parameter der Redaktionsrobotor zu justieren und die dann von Softwaremaschinen vorbereiteten Stücke mit einer eigenen Note zu versehen. (Siehe dazu auch: What does the journalist of the future look like?)
Dabei wird Datenjournalismus eine große Rolle spielen. Das junge Genre bringt die Werkzeuge und Methoden mit, um große Datenmengen zu erfassen, zu verknüpfen, zu filtern, zu strukturieren und in neuen Erzählformaten abzubilden. Das kommende Webseitensterben kann also zum Verschwinden der Dinosaurier des Internets führen. Schlimm für manches Geschäftsmodell. Der User aber kann dadurch gewinnen.
Anm.d.Red.: Der Text erschien gestern im Blog des Autors; er steht unter einer Creative Commons-Lizenz (by:sa).
Guter Artikel, aber ich verstehe noch nicht so ganz, warum durch Schema.org Websiten sterben sollen, denn die Informationen für die Plattform müssen doch weiterhin irgendwo publiziert werden. Oder?
“Wenn die Suchmaschinen Informationen gleich in mundgerechten Stücken geliefert bekommen, warum sollte der User die ursprüngliche Website, die Quelle der Nachricht, dann überhaupt noch besuchen und dort auf Anzeigen klicken?”
das Dilemma gut auf den Punkt gebracht!
@#1: ich habe das so verstanden, dass es eben keine klassischen Online-Content-Anbieter mehr braucht, weil die Suchmaschinen immer mehr das Angebot algoritmisch selbst zusammenstellen: von der Zeitung zur Webseite zur semantischen Suchmaschine. Das sind keine Schritte des Replacements sondern Verschiebungen, die den bisherigen publizistischen Hauptumschlagplatz obsolet machen.
In diesem Sinne: nur wer seine Publikationsweise und -strategie verändert, der übersteht das “Sterben” jener, die nicht mitgehen etc.
Also ich bin ja auch der neuen Technik zugetan, aber mir Nachrichten von einen Algorithmen anzeigen lassen, da bin ich sehr skeptisch. Auch wenn Spiegel Online, Tagesschau und Co nicht das Gelbe vom Ei sind möchte ich lieber auf der Seite eine Nachricht lesen, als von Robots generiert bei Google.
Ein sehr spannender Einblick! Eine Frage zu den Content-Anbietern, im Text steht: “Neben eigenem genuinen Content wie Reportagen, Analysen und Kommentaren gilt es, selber gute semantische Logiken zu entwickeln” — das bezieht sich auf den Journalisten als Kurator, im Text kommen auch einige Beispiele vor, allerdings kann ich mir noch nicht so richtig was darunter vorstellen – gibt es vielleicht noch weitere Beispiele aus der journalistischen Praxis?
spannend, ja, aber auch richtig und wichtig? ich meine, geht es hier tatsächlich um die zukunft des (online-)journalismus im zeichen eines neues demokratischen paradigmas (stichwort: vierte und fünfte gewalt in kooperation)? oder um die zukunft des (online-)journalismus wie sie durch die eliten, die sich natürlich reproduziert sehen wollen, gerettet wird?
ein sehr mühevoll und genau gearbeiteter Text, dafür vielen Dank! Leider verstehe ich nicht alles, viele technische Details und Ausdrücke, auch sie vermitteln mir: Technik ist wichtiger als alles andere. Aber ist das wirklich so?
@solfrank#: ich verstehe diese Fragen nicht.
Was?
@Silvia: wir lesen wie technik die gewohnten des publizierens und lesens immer weiter verändert, das internet wird immer weiterentwickelt und mit ihm ändern sich eben auch besagte gewohnheiten, soweit so gut. die “fünfte gewalt” (das ist die netzgemeinde mit blogs, micro-blogs, soziale netzwerke, etc. als neue form der öffentlichkeit) ergänzt nun die vierte gewalt, also die traditionelle presse und wenn ich mir die schlussfolgerungen dieses artikels so durchlese, bekomme ich den eindruck, dass nicht nur spätzünderwebseiten sterben werden, sondern auch diese neue landschaft, aus vierter und fünfter gewalt bestehend, da die erneuerungen, die hier beschrieben, nur von einer elite tatsächlich als anregende und zu bewältigende herausforderung begriffen werden können, weil hier soviel expertenwissen, soviel auch ressourcen wie geld und manpower etc. vonnöten ist, dass da die blogger und co. nicht mithalten können, selbst wenn sie wollen
das Ganze ist eben sehr von den großen Playern her gedacht, Google, stern (große Medienhäuser) und Co.
Wenn ein Verlag mit jener semantischen Verknüpfung weniger Page Impressions erreicht, ergo weniger Werbeeinnahmen, so wird jener Verlag auf eine semantische Verknüpfung verzichten. Das gilt für jede kommerzielle Form des Journalismus.
das ist eine anregende Diskussion! ich finde es auch wichtig, über die Veränderungen im Internet und im Online-Journalismus auch und v.a. aus der Perspektive der neuen Akteure im Netz zu reflektieren, die Sache also von unten aufzurollen und zu problematisieren. Wie sollte oder könnte eine Reaktion der Amateure, Bürger, Blogger oder wie sonst noch so genannt werden seitdem es Web 2.0 gibt, wie könnte deren Reaktion auf schema.org aussehen? Welche Möglichkeiten, Optionen, Werkzeuge, etc. stehen ihnen zur Verfügung?
es geht also einmal mehr um das Selbstverständnis des Journalisten/Journalismus und offenbar auch das Selbstverständnis des Menschen vis a vis der Maschine… Da hilft nur eines: alte Definitionen samt ihren Antagonismen hinter sich lassen und sich den neuen Entwicklungen aufgeschlossen zeigen!
@#4: liegt es am misstrauen gegenüber den robotern? oder am respekt gegenüber den menschlichen reportern? mit letzterem scheint es ja nicht weit her zu sein und ersteres ist doch etwas, dass man inzwischen weltweit unter dem stichwort GERMAN ANGST belacht. das kann man doch nicht als aufgeklärte haltung bezeichnen!
hier noch ein paar links zum thema:
( http://de.wikipedia.org/wiki/German_Angst )
( http://www.heise.de/tr/thema/Technikphobie )
Also, ich seh das auch nicht so negativ.
Wie die Untersuchung von Stefan Niggemeier zeigt, sind viele Webseiten (und insbesondere die Zeitungen) schon Aggregatoren. D.h. es befindet sich viel doppeltes und überflüssiges auf ihnen.
Wenn semantische Techniken mir helfen Überflüssiges auszusortieren, dann find ich das gut.
In Zukunft wird noch mehr die einmalige und individuelle Nachricht zählen. Also, die reine Differenz.
Information is any difference, which makes a difference (Bateson). Und darum gehts doch, oder?
Wider die Technikphobie
http://www.libinst.ch/?i=wider-die-technikphobie
Warum so ängstlich sein? Google & Co. haben keine Chance, wenn sich durchsetzt, was in der Berliner Gazette im vergangenen Jahr bereits eingehend behandelt wurde und in diesen Tagen als Buch erschienen ist, nämlich das “Modell Autodidakt”. Die Technik wird sich nicht mehr zurückdrängen lassen. Gestalten müssen wir sie! Das Problem ist das Wie und durch wen. Mehr dazu hier:
http://www.freitag.de/community/blogs/brunopolik/die-politik-schafft-es-nicht-ein-diskurs-ueber-bildung-und-schule
Dazu fällt mir auch Richard David Precht ein, der zu den Münchner Medientagen 2009 mal meinte, dass nur weil einmal etwas existiere, es keine Existenzberechtigung für die Ewigkeit erhalte. – In der Präsentation ging es speziell um die deutsche Fernsehlandschaft und der Angst privater Sender nicht mehr genügend Werbeeinnahmen zu erwirtschaften.
einige Antworten auf die Verwirrung oder Ratlosigkeit angesichts beschriebener Entwicklungen sollten sich aus den folgenden Zeilen ableiten lassen (übrigens auch für die “fünfte Gewalt”, die Amateure, etc.), ich zitiere zunächste die beiden Stellen des Texts:
“Faktisch dürfte ihre Motivation aber sein, noch besser automatisiert Content aus Webseiten auslesen zu können und als eigenen Inhalt in den Suchergebnissen zu zeigen.”
[…]
“Will man nun Suchmaschinen wie Google oder spezielle Angeboten wie Wolfram Alpha als Onlinemedium in Zukunft Paroli bieten, gibt es aber einen gangbaren Weg: Neben eigenem genuinen Content wie Reportagen, Analysen und Kommentaren gilt es, selber gute semantische Logiken zu entwickeln. Diese finden automatisiert neue Informationen, Wissen und Nachrichten auf anderen Seiten (auch in anderen Sprachen), bereiten diese auf und organisieren sie schlüssig.”
selbst wenn Suchmaschinen nun Ergebnisse semantisch intelligent kuratieren und das besonders potent können aufgrund von technischer Überlegenheit, so bleibt doch die wie “eigen” dieser Content ist. Wer selber semantische Logiken entwickelt, dürfte allein deshalb einen Wettbewerbsvorteil gegenüber den Datengiganten genießen, weil er/sie in der Lage ist, dem Kuratieren eine persönliche, individuelle oder wie auch immer geartete “eigene” Note zu verleihen.
Es kann also tatsächlich um die Angst vor den Maschinen gehen, sondern um die Überlegenheit einer mit Eigensinn ausgestatteten Liaison von Mensch und Maschine, die in Zukunnft Nachrichten und Geschichten hervorzubringen vermag.
Ich muss die ganze Zeit an dieses Video von 2006 denken: “Google Epic 2015”
http://media.aperto.de/google_epic2015_de.html
@#12: das ist 1) zu kurz und 2) zu unterkomplex gedacht! Wenn sich nämlich die meisten im Online-Feld an das neue semantische Standard angepasst haben (und der Autor sagt: es ist unwahrscheinlich, dass es ein koordiniertes “Dagegen” in der Netz-Welt geben wird, so wies auch unwahrscheinlich immer war, dass alle in der Netzwelt koordiniert sich für das Paywall-System entscheiden), dann halten die paar großen Online-Angebote nicht mehr lange ihre Stellung, dann ist um sie herum ein neues Web entstanden und sie sind Dinosaurier, die sich erneuern oder abdanken müssen.
@#17+21: das klingt durchaus plausibel… in der Theorie. Aber wie sieht es in Praxis aus?
@Krystian #21: Dein Kommentar ist für mich außerordentlich spannend, denn die Semantik ist seit Jahren ein Thema, was mit meinen Sprachexperimenten zusammenfällt. Hier könnten sich Hebel entwickeln, die der Technik eins auswischen! Welche kuriosen Wege meine Texte gehen, zeigt mir in jüngster Zeit Google, wo ich erfuhr, dass sie von der Pornoszene – wohl für Werbezwecke – hochgeladen werden. Mehr dazu in meinem MySpace-Blog:
http://www.myspace.com/brunopolik/blog/543253316
@Magdalena #5 & @Krystian #21:
Das spannendste, das ich in letztter Zeit zum Thema “Curating Journalism” gelesen habe ist von Roland Legrand:
“I’m sure that in 2026 there will be something we could call journalism: people who have a passion for certain subjects, making selections, verifying and commenting, providing context. The BBC already has a specialized desk analyzing images and texts which are distributed via social media: they check whether a specific picture could be taken where and when people claim it is taken, to give but one example. Almost every day there are new curating tools for journalists and bloggers, facilitating the use of social media.
This ‘curating’ of the news is an activity with high added value. Whether those curators call themselves ‘journalists’, ‘bloggers’, ‘newspaper editors’, ‘internet editors’ is not important: most important is the quality of the curation and the never-ending discussion about these practices.”
…nachzulesen in:
( https://www.mixedrealities.com/2011/05/29/finding-reality-while-looking-through-code/ )
Er schreibt aber nicht nur darüber, sondern probiert die Tools auch aus (storify.com, scoop.it. pearltrees ..)
ein paar Links habe ich zusammengefasst in:
http://on.fb.me/lhhXMx
@#25: das ist ein absolut total erstaunlicher fall, fast schon ein bisschen verrückt, vielleicht aber einfach nur genial, wenn man sieht, wie hier worte aus ihrem kontext gerissen werden, natürlich kann das einer maschine genauso passieren wie einem menschen, aber der hinweis auf fragen in sachen urheber-recht schon wichtig, denke ich, bin mir aber nicht sicher, denn mir ist nicht klar, wie das semantische web diese sache sieht, also gehört da noch irgednwas irgendwem oder alles pures allgemeingütertrallala? perlentaucher vs. süddeutsche war gestern ; )
@#22: das ist ein spitzenvideo auf den ersten blick, eine schöne satire auf gegenwart und zukunft, ein kluger kommentar, aber es macht auch stutzig, irgendwie: was will es eigentlich sagen? für wen ist es gemacht?
zur Intuitionspumpe “Filter Bubble”:
Es geht einerseits um Algorithen vs. Journalistische Intuition/ Genialität / persönliche Note / Überraschung (wie man auch immer den möglichen “Mehrwert” nennen mag :-)
( http://www.netzpiloten.de/2011/05/24/die-intuitionspumpe-filter-bubble-blase/ )
und die Moral?
“And the thing is that the algorithms don’t yet have the kind of embedded ethics that the editors did [the human gatekeepers]. So if algorithms are going to curate the world for us, if they’re going to decide what we get to see and what we don’t get to see, then we need to make sure that they’re not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important […] other points of view.”
( http://medea.mah.se/2011/04/social-curation-selection-mechanisms-and-transparency/ )
… aber was die Aggregations-Tools betrifft, so interessiert micht hautpsächlich gerade ein extrem persönlicher / zugesptitzter .. meinetwegen auch “poetischer” Gebrauch .. merke ich gerade bei der Diskussion …
@Heiko#26: vielen Dank für die Hinweise! die Journalismus vs. Blogger-Auseinandersetzung im “Kurator” aufgehen zu sehen, ist interessant, allerdings ist dieser Begriff unglücklich, da im Kunst-Kontext schon besetzt: Kuratoren sind Ausstellungsmacher. Ein Alternativ vorschlag wäre: wir erweitern den Begriff des Journalismus in jegliche Dimension, das würde nicht zuletzt einen Zuwachs an Stärke und Potenz für eine wichtige gesellschaftliche Instanz bedeuten.
@#29: bleibt doch aber immer noch die Frage, was dieses Stück human-erratischer Differenz in diesem Zusammenhang in der Praxis konkret bedeutet (siehe auch #24), also wie es zu praktizieren ist, oder
Ich war auch zuerst irritiert, Curating in diesem Zusammengang zu hören, finde es inzwischen aber ganz witzig, dass hier so ein Transfer aus dem Kunst-Kontext vorgenommen wird – ich habe das allerdings noch nicht begriffsgeschichtlich untersucht, aber Journalisten als diejenigen, die User-Generated-Content “kuratieren” .. warum nicht. (Es können doch nicht alle “Coaches” sein :-) Vielleicht das auch erst mal ein erster Ansatz, die neuen “Kommunikations- / und Kooperations- Verhältnisse” zu beschreiben, so wie man mein “Online-Lehrer”, ja zunächst auch von einem “Moderator” gesprochen hat. Es geht ja auch nich um Begriffs-Hudelei, hier fand ich gerade noch ein paar Szenarien und Beispiel, dann wird vielleicht deutlicher, was es heisst:
“… ournalists and media companies are increasingly treating the Web of user-generated content as an archive to curate. That is, they see the vast amounts of free content – videos, blog entries, comments, and pictures – as a tremendous source of value. They then select material from this archive and re-present it to their viewers and readers. In this way, they are doing a service ”
http://digitalresearchers.org/2009/07/journalists-and-web-2-0-curating-the-archive.html
@#31: “wir erweitern den Begriff des Journalismus in jegliche Dimension, das würde nicht zuletzt einen Zuwachs an Stärke und Potenz für eine wichtige gesellschaftliche Instanz bedeuten.”
es ist so eine Sache mit dieser schönen Idee…
wie gerade bei DW-World zu lesen ist: “World needs journalists now more than ever, says expert”
( http://www.dw-world.de/dw/article/0,,6549817,00.html )
damit sind v.a. die klassischen, professionell ausgebildeten Journalisten gemeint.
Aber noch etwas anderes: Organisationen, die sich den Schutz der Journalisten auf die Fahnen geschrieben haben, also etwa Schutz gegen Zensur, Einkerkerung, etc. — diese Organisationen positionieren sich eindeutig gegen die Erweiterung des Feldes, gegen die Aufnahme von Amateuren und Bloggern in diesem Lager. Kurz: Sie schützen auch die Idee vom herkömmlichen Journalisten.
Habe gerade – per Zufall – eine weitere “Kurating”-Plattform entdeckt: scoop.it
…als ich einige LInks für einen workshop schnell zusammengestellt habe … dort gibt es einen Button “Curate”, der Medienmaterial nach bestimmten Schlagworten aggregiert ( in meinem Fall “revoution, social media, politik, kampagnen” … ganz interessant :-)
http://www.scoop.it/t/socialmediapolitik