Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. Ihre Nachricht (optional mit Ihrer E-Mail):
unbekannter Gast

Wie Algorithmen die Schlagzeilen beherrschen #

Nicholas Diakopoulos macht sich über die Zukunft des Journalismus Sorgen. Sie wird automatisiert und in dieser Hinsicht – unmenschlich. #


Mit freundlicher Genehmigung übernommen aus der Wochenzeitschrift DIE FURCHE (26. September 2019)

Von

Adrian Lobe


Die Automatisierung macht auch vor dem Journalismus nicht Halt. Bei Nachrichtenagenturen wie der AP verfassen Computerprogramme schon seit einiger Zeit automatisiert standardisierte Sport- und Quartalsberichte. Obwohl das Thema auf Tagungen diskutiert wird, bleibt das Bild der automatisierten Textproduktion in der Öffentlichkeit seltsam diffus. Was auch daran liegen mag, dass meist von „Roboterjournalismus“ die Rede ist, was Assoziationen an einen autonomen Blechkameraden weckt, der selbst in die Tasten greift. Natürlich sitzen in Redaktionen keine Roboter – die Auswirkungen der Automatisierung im Medienbereich sind viel subtiler und weitreichender.

Der US-Journalist Nicholas Diakopoulos hat nun ein Buch („Automating the News“) vorgelegt, das aufzeigt, wie Computeralgorithmen und Softwareprozesse den Journalismus verändern. Die automatisierte Nachrichtenproduktion ist dabei nur ein, wenn auch wichtiger (Teil-)Aspekt des digitalen Wandels. Zum „computerisierten Journalismus“, wie es der Autor bezeichnet, gehören neben Schreibautomaten auch Data Mining, Newsbots, Moderationstools oder die algorithmische Nachrichtenverbreitung. Die Aufgaben von Roboter- bzw. Computerjournalisten sind vielseitig: Sie verfassen nicht nur Meldungen, sondern moderieren auch Kommentarspalten oder erstellen Info-Grafiken. So produziert die AP automatisch generierte Grafiken zu Themen wie Olympia oder Finanzen. Auch der Spiegel experimentiert mit automatisierter Datenvisualisierung.

Riesige Datenmengen #

Algorithmen fräsen sich durch riesige Datenmengen. Die Panama Papers, so Diakopoulos, hätten ohne die gigantische Rechenpower der Computer gar nicht veröffentlicht werden können. Mithilfe von Data-Mining-Techniken konnte der Datensatz von 100.000 Dokumenten auf ein Zehntel eingedampft werden. Das statistische Modell konnte den Reportern mit einer Genauigkeit von 84 Prozent sagen, wo ein Fall für weitere Recherchen vorliege.

Der Autor, der als Datenjournalist für namhafte Medien wie The Atlantic, die Washington Post und BBC arbeitet, spricht von einem „hybriden Journalismus“, wo Mensch und Maschine in einem Netzwerk zusammenarbeiten. Bei der LA Times nutzen Reporter beispielsweise ein Monitoring- System, das E-Mail-Anhänge von Polizeimeldungen scannt und in einer Datenbank speichert. Über die Datenbank wird dann ein Programm laufen gelassen, das besonders skurrile oder nachrichtenwerte Fälle aufspürt. Roboter, stellt Diakopoulos klar, werden Journalisten nicht die Arbeitsplätze wegnehmen, sondern eher als Zuarbeiter in Redaktionen fungieren. Insgesamt sei das ein Gewinn: Journalisten müssten nicht mehr unter Zeitdruck Meldungen schreiben – das können die Computer ohnehin besser und billiger –, sondern hätten Zeit für hintergründigere Stücke und Recherchen.

Doch die maschinelle Assistenz hat ihre Grenzen. Zwar seien Maschinen gut darin, regelbasierte Aufgaben zu übernehmen und Muster in Datensätzen zu erkennen. Unvorhergesehen Ereignisse stellten sie jedoch vor Probleme. Bis eine computergenerierte Meldung im Blatt und/oder online ist, muss immer noch ein Redakteur einen prüfenden Blick darauf werfen – wie bei einem Hospitanten. Auch mangele es Algorithmen nach wie vor an Kreativität. Dass Computersysteme irgendwann eigenständig Leitartikel oder Reportagen schreiben, hält auch Diakopoulos für unwahrscheinlich

Neue Regeln #

Das eigentlich Verblüffende an der Entwicklung ist aber nicht, dass Texte mit maschineller Hilfe entstehen, sondern dass Algorithmen die Spielregeln des Journalismus überschreiben. Diakopoulos nennt dazu einige Beispiele aus seiner Berufserfahrung. Bei der Chicago Tribune beispielsweise würden bis zu zehn Überschriften einem A-B-Test unterzogen, um zu sehen, welche beim Publikum am besten ankommt. Die Washington Post greift auf algorithmische Prognosetechniken zurück, um die „Performanz“ von Artikeln vorherzusagen. Auch die New York Times setzt solche prädiktiven Modelle ein, um ihren Redakteuren Hinweise zu geben, welche Artikel in Social-Media-Kanälen gepusht werden sollen. Das zeigt, wie technisiert und datengetrieben der Journalismus ist. In den Newsrooms starren die Redakteure auf Dashboards, wo die aktuellen Zugriffszahlen in Echtzeit angezeigt werden.

Die Metrisierung des Journalismus, in der alles messbar und skalierbar wird, ist eine unmittelbare Folge der algorithmischen Nachrichtenselektion, bei der Plattformbetreiber wie Google oder Facebook – der Autor nennt sie verniedlichend die „digitalen Zeitungsjungen“ – Inhalte gewinnbringend in ihre Schaufenster stellen. Das führt zu einer weiteren Ökonomisierung: Gepusht wird das, was Klicks verspricht. Inhalte, denen die Prognosetools im Vorfeld eine schlechte Performanz bescheiden, wie etwa Rezensionen, werden dagegen marginalisiert oder erst gar nicht publiziert.

Doch wo Redaktionen verstärkt auf automatisierte Systeme setzen, werden auch Fragen nach der Verantwortung und Transparenz virulent. Ein Lehrfall ist die Investigativ-Story „The Tennis Racket“, die das Portal Buzzfeed im Januar 2016 publizierte. Darin geht es um Wettbetrug im Profi-Tennis. Die Reporter hatten mithilfe einer statistischen Analyse eine Wahrscheinlichkeit errechnet, mit der Tennispartien manipuliert worden sein könnten. Der Verdacht: Einige Tennisspieler hätten ihre Spiele absichtlich verloren, sodass Wettpaten auf hohe Quoten setzen und abkassieren konnten. Buzzfeed wollte jedoch die Namen der verdächtigen Tennisprofis nicht nennen, auch nicht in den anonymisierten Daten und dem Code, der dem Artikel als Begleitinformation hinzugefügt wurde. Diese Intransparenz sorgte für medienethische Diskussionen. (Eine Gruppe von Stanford-Studenten gelang es schließlich mithilfe des Quellcodes, die Spieler doch noch zu identifizieren.) Für den Datenjournalisten Diakopoulos ist es nicht klar, ob Buzzfeed möglicherweise zu transparent war, indem es den Quellcode offenlegte. Der Fall werfe aber die Frage auf, inwieweit investigative Recherchen, die auf statistischen Analysen beruhen, reproduzierbar sein müssen.

Wie ein Computer denken #

Der Autor schließt seine Analyse mit der Forderung nach einer „algorithmischen Medienkompetenz“. Journalisten müssten sich ein „computerisiertes Denken“ aneignen, um Überschriften, Lead und Erzählweisen in ihrem Kopf so vorzuformatieren, dass sie in den algorithmischen Systemen gut laufen. Sie müssen nicht mehr primär für Menschen schreiben, sondern für Maschinen. Um Wissen zu produzieren, müssten Journalisten zudem erweiterte Statistik-Techniken beherrschen. Gerade in Zeiten, in denen man im Handumdrehen digitale Fake-Videos produzieren könnte, seien computerforensische Kenntnisse wichtig, um die Authentizität von Informationen zu gewährleisten und das Vertrauen in die Medien aufrechtzuerhalten. In der Technik liegt also auch eine Chance für Redaktionen, als Fakteninstanz wahrgenommen zu werden. Eine experimentelle Untersuchung der Universität Zürich hat ergeben, dass Leser zumindest bei polarisierenden Themen Textsoftware als glaubwürdiger wahrnehmen als menschliche Autoren.

Die Profession des Journalismus, das wird nach der Lektüre des Buchs rasch klar, wird sich in Zukunft stark verändern. Der Journalist der Zukunft wird nicht nur ein Texte, sondern auch ein Programme schreibender sein. Er muss lernen, mit komplexer Software und Datensätzen umzugehen. Eine solche Ausbildung kostet Geld. Doch an der IT-Kompetenz und technischen Ausstattung hängt die Zukunftsfähigkeit der Verlage. Nur wer die Analysetechniken beherrscht, wird Datenmengen einen Sinn abtrotzen können.

DIE FURCHE (26. September 2019)