#19/ 2018
17/21

der begriff „roboter-journalismus“ lenkt von zu vielen chancen ab

„Roboterjournalismus“ – das klingt wie Fastfood und Ladenkette, 99-Cent-Store und monotoner Fließbandarbeit. Stimmt oft genug auch. Weil der Begriff deswegen zu Recht auch eher negativ besetzt ist, haben die amerikanischen Urheber des plakativen Begriffs sich einen Bärendienst erwiesen: wer an fast-food denkt, kann sich kein Gourmet-Restaurant vorstellen. Aber „Roboterjournalismus“ kann beides sein, muss es sogar.
Am Ende der Eruption werden wenige Verlage überlebt haben
Wer in der Medienbranche denkt, dass der Transformationsprozess bereits seinen Höhepunkt erreicht hat, irrt: Die größten Umbrüche zeichnen sich erst vorsichtig ab und am Ende der Eruption werden wenige Verlage überlebt haben. Warren Buffet, der für die USA prognostiziert, dass neben der „Washington Post“ vielleicht noch die „New York Times“ und das „Wallstreet Journal“ eine Chance haben, sieht keine großen Perspektiven mehr für Verlage, die auf gedruckte Zeitungen setzen (müssen) und keine ausreichenden digitalen Erlösquellen gefunden haben. Gegenteilige Entwicklungen wie in Indien, in dem regionale Medien und sogar Zeitungen Umsatz- und Auflagenrekorde feiern oder in Nigeria, wo ausschließlich mobil angebotene Medieninhalte boomen, bleiben durchaus wichtige Ausnahmen, aber mit Weltmarkt-Perspektive betrachtet, eben doch nur Ausnahmen. Ebenso wie durchaus spannende Ansätze in Texas, wo hyperlokale Tageszeitungen personalisiert und digital in Mini-Auflagen gedruckt werden.

Neue Anbieter mit bekannten Namen werden im weltweit 590 Milliarden Dollar schweren Geschäft mit Werbung (Prognose für 2018, zenith) auch zu Anbieter eigener Inhalte werden: ob Apple, Facebook, Google, Microsoft oder Twitter. Inhalte – auch regionale Inhalte – haben für diese Tech-Giganten lediglich Transmissionsfunktion: Verbunden mit Inhalten verkauft sich Werbung wesentlich besser. Die Symbiose aus Inhalt und Werbung ist der Umsatztreiber, weit vor den Werbeformen, die ohne inhaltliche Einbettung auskommen (wie „Out-of-Home-Werbung“). Noch bezahlen Unternehmen viel Geld, um mit Content-Marketing, Affiliate-Marketing oder Online-Werbung in die Medien und dort möglichst nahe an reichweitenstarken Inhalten positioniert zu werden. Was liegt für Unternehmen, die fast ausschließlich von Werbe-Einnahmen und Produktplatzierungen leben, näher, als selbst Inhalte zu schaffen als Werbeumfeld? Vor allem, da die Kosten für die Erstellung von Inhalten drastisch sinken und gleichzeitig die Glaubwürdigkeit von „Medienmarken“ als Absender für die Mehrheit der Konsumenten immer unwichtiger wird. „Washington Post“, „London Times“, „Financial Times“, „Le Monde” oder die japanische „Asahi Shimbun“ werden zumindest noch einige Jahre ihre Bedeutung als Medienmarke behalten, aber auch sie werden massiv investieren müssen, um vor den entstehenden neuen, technologie-getriebenen Mediengiganten bestehen zu können. Für die 3,9 Milliarden Menschen weltweit, die heute noch ohne Internetzugang sind, werden die traditionellen Medienmarken nach dem Einstieg ins WorldWideWeb keine Rolle mehr spielen.

Ein Computer schreibt Wahlberichterstattung

90 Prozent aller Nachrichteninhalte, so die eher zurückhaltende BBC in ihrem „news report“, werden 2022 von „Robotern“ geschrieben. Es werden auch in 15 Jahren noch drei bis vier Redakteure in einer regionalen Zeitung in Japan, Brasilien oder Frankreich arbeiten – heute sind es trotz jahrelangen Stellenabbaus immer noch 10 bis 15 journalistische Mitarbeiter, die alle Medienkanäle befeuern: Print, Mobil, TV, Chatbots und Alexa & Siri. Die Digitalisierung und OpenData-Fortschritte, das weltweit immer schneller wachsende Datenaufkommen insgesamt, machen es möglich, große Teile der aktuellen Berichterstattung von einem Computer erledigen zu lassen: Wetter, Fußball und Börse waren die ersten Themen, zu denen „Natural Language Generation“-Programme gut lesbare Stories lieferten. Heute schreibt ein Computer bei der norwegischen Nachrichtenagentur NTB den großen Teil der Wahlberichterstattung. Immerhin betont Chefredakteur Mads Yngve Storvik, er sehe es in der nächsten Zukunft nicht, dass ein Roboter auch selbst Interviews führen könne. Bei den amerikanischen Agenturkollegen von Associated Press schreibt ein Rechner jeden Monat zehntausende von Wirtschafts- und Baseball-Meldungen, und die „Washington Post“ baute unter dem neuen Eigentümer Jeff Bezos, dem Milliardär und Amazon-Gründer, in Rekordgeschwindigkeit ein neues Content Management System (CMS) auf, in dem „automated content“-Generierung von Anfang ein fester Bestandteil war. Inzwischen ist das vielleicht weltweit innovativste CMS auch ein Verkaufsschlager der „Post“. Von solchen technischen Möglichkeiten sind europäische Verlage noch Lichtjahre entfernt.

Konzentration auf die hohe Schule des Journalismus

Damit entgeht Verlagen eine großartige, neue Erlösquelle. Die Kompetenz, komplexe Sachverhalte aus unterschiedlichen Quellen zu vergleichen, zusammenzuführen und für ganz unterschiedliche Zielgruppen zusammenzufassen, ist eine Aufgabenstellung, die im Big-Data-Zeitalter weit über journalistische Einsatzmöglichkeiten hinausgeht, aber bei der journalistischen Kompetenz durchaus hilfreich ist. Eine der deutschen Großbanken ließ von der eigentlich primär für Medien arbeitende „Agency data driven news“ (Berlin) aus hunderten von Excel-Seiten Vorstandsvorlagen für Kredit-Entscheidungen im Risk-Management schreiben. Die Kostenersparnis bei höherer Präzision und nicht von der menschlichen Sprache zu unterscheidenden Summaries lag bei rund 90 Prozent. Der Launch wurde aus einem Grund zurückgestellt, der in vielen Branchen eine Rolle spielt: Man könne gegenwärtig aus hauspolitischen Gründen unmöglich mit dem Stellenabbau bei Kredit- und Risk-Analysten beginnen.

In den Medien werden durch Roboterjournalismus weltweit viele Tausend Stellen wegfallen, aber dies ist für die Medienunternehmen auch eine großartige Chance: die verbleibenden Journalisten werden sich auf die hohe Schule des Journalismus konzentrieren können, auf investigative Geschichten („Panama Leaks“), hervorragende Portraits und Reportagen, also auf die Art von Inhalten, die den Unterschied zum Wettbewerb ausmachen. Ein noch so guter Börsenbericht wird kaum jemals einen Journalisten-Preis gewinnen, egal ob vom Roboter oder vom Menschen geschrieben. Ob der menschliche Highend-Journalismus als Erlösquelle reichen wird, wenn das tägliche, hochfrequente und personalisierte Nachrichtengeschäft von ununterbrochen arbeitenden Computern erledigt wird?

Schranken von KI

Ist Roboterjournalismus bereits der Einzug der Künstlichen Intelligenz in Redaktionsräume und Analystenbüros? „Machine learning“ funktioniert bereits hervorragend, wenn es darum geht, die Tonalität ganz bestimmter Medien (Boulevard, seriös, B2B) „nachzubauen“. Noch aber kann Artificial Intelligence nur schwer die relevantesten Aussagen aus Dokumenten und Daten zusammenschreiben, wenn der Mensch nicht zuvor exemplarisch geklärt hat, was die Key Findings sein können. Eine Software verfügt noch nicht über das Weltwissen, dass ein Kursrückgang bei dem Börsenschwergewicht VW von mehr als 3 Prozent an einem Tag normalerweise ungewöhnlich ist, aber im Zusammenhang mit neuen Enthüllungen rund um die Dieselaffäre durchaus vorkommen kann. Doch inzwischen, vor einem Jahr noch undenkbar, sucht die Software in einem solchen Fall nach einem passenden Zitat von Analysten zu genau dieser Kursentwicklung und baut es inhaltlich und sprachlich perfekt ein.
Der nächste Schritt der Evolution

Der Roboter-Journalist bereitet sich gerade auf dem nächsten Schritt in seiner Evolution vor: Noch müssen ihm menschliche Kollege sagen, über welche Themen es sich lohnt zu schreiben und welche Daten dazu zu verwenden sind. Relativ einfach ist es bereits, über Algorithmen Themen automatisch zu finden: nicht nur die Häufigkeit von Keywords bei der Internetsuche wird dazu herangezogen, das potentielle Thema wird quergecheckt mit der Intensität von Debatten zu diesem Ereignis in den sozialen Medien. So werden mit großer Zuverlässigkeit die meinungsbildenden aktuellen Themen gefunden, nun muss der „Robot“ nur noch schreiben und Bilder heraussuchen aus perfekt verschlagworteten Bild-Datenbanken. In wenigen Monaten werden zu vielen solchen Themen zusätzlich vollautomatisch Videos erstellt werden. In der Sekunde, in der dieses „Content-Paket“ generiert wird, sucht eine andere Software den meistbietenden Werbekunden für dieses Themenumfeld.

Mehr kürzere Inhalte, mit spezieller Tonalität

Es gibt einen weiteren wichtigen Grund dafür, mehr Medieninhalte zu entwickeln, in hoher Frequenz und mit schnellen Aktualisierungen. Thomas Scialom, Researcher bei der französischen „natural language generating”-Start-up Recital: „Die mobile Mediennutzung führt dazu, dass es immer weniger visuelle Hilfen gibt, um einen Inhalt zu verstehen und die Menge an Informationen ist durch die Bildschirmgröße zusätzlich beschränkt. Gleichzeitig nimmt auch die Zeit ab, die bei einem mobilen Gerät für einen Inhalt aufgebracht wird.“ Kürzere Informationen, in der Tonalität der jeweiligen Zielgruppe verfasst, sogar inhaltlich für Zielgruppen personalisiert – das ist von einem menschlichen Schreiber nicht leistbar.

Warum sollte jemand einen Bericht über alle NASDAQ-Werte lesen müssen, wenn er nur einen Bericht zur Entwicklung der Apple-Aktie braucht? Das kann auch eine Grafik leisten? Text-Generierung leistet mehr: in dem Bericht zur Apple-Aktie können nicht nur historische Entwicklungen zusammengefasst werden, sondern auch Einordnungen gegeben werden: ist heute nur die Apple-Aktie unter Druck geraten, sondern auch die chinesische Tencent? Hat Amazon einen Höhen- und Alibaba einen Sinkflug? Kann das mit dem Beginn der Ferien in den USA oder China zusammenhängen, hat es schlechte Konjunkturdaten gegeben? Je mehr Quellen genutzt werden, desto eher schlägt ein Text die Grafik.

Springer generiert Arbeitsmarktdaten auf Knopfdruck

Die deutsch-britische Wirtschaftsnachrichten-Agentur dpa-AFX war eine der ersten, die schon vor vielen Jahren mit Template-Lösungen gearbeitet hat: Hier werden einfach Lücken in vorgeschriebenen Sätzen mit neuen Daten gefüllt. Die vorgegebenen Sätze sind heute viel variantenreicher und filigraner, aber noch wird dieses Grundprinzip sehr langsam abgelöst. Der Hamburger Computerlinguist Dr. Patrick McCrae: „Die perfekte Lösung zur Content-Automatisierung muss daher nicht nur über umfangreiche Möglichkeiten der sprachlichen Diversifizierung verfügen, sondern insbesondere über die Möglichkeit, leistungsstarke Analytik mit einzubeziehen. Textgenerierung wird ohne Einbindung von künstlicher Intelligenz nicht weit über das dynamische Befüllen von Lückentexten hinauskommen wird. Wirklich interessante, inhaltlich diversifizierte Texte entstehen, wenn überraschende, nichttriviale Erkenntnisse aus den eingebundenen Datenquellen gewonnen werden. Genau dafür wird künstliche Intelligenz benötigt.“

Einer der am konsequentesten digitalisierten internationalen Verlage, Axel Springer in Berlin, kann auf Knopfdruck für 411 Regionen in Deutschland eine Betrachtung der monatlichen Arbeits- und Ausbildungsmärkte generieren, auf Wunsch mit Schwerpunkten auf unterschiedliche Berufs- oder Schulabschluss-Gruppen. Keine Chance für eine menschliche Redaktion – und die Software macht bei jeder Auswertung Entdeckungen in dem Datenberg, die ein Redakteur gar nicht oder nur durch einen Zufall bemerkt hätte.

Aber es gibt eine großartige Herausforderung in dieser relativ neuen Automatisierungswelt, an der sich alle Anbieter einschließlich Google und IBM Watson die Platinen ausbeißen: „Ein automatisiertes Textverstehen ohne jegliche thematische Beschränkung ist auch weiterhin ein wissenschaftlich ungelöstes Problem“, fasst es der Hamburger Experte Dr. McCrae zusammen.

Der Traum der Agenturen

Es wäre das Perpetuum mobile der Medien, wenn aus einer unübersehbaren Menge an Fließtexten neue Texte entstehen können. Es wäre die Rettung aller Nachrichtenagenturen, wenn aus einem einzigen, von der Software verstandenen Ausgangstext 120 unterschiedliche Versionen für 120 Zeitungskunden entstehen könnten. Wenn aus Dutzenden von Archiv-Artikeln zu Donald Trump die eine, neue Zusammenfassung geschrieben werden könnte, automatisch. In der Kundenkommunikation würden persönlich und passgenau geschriebene Antworten möglich sein, ohne dass zuvor auf hunderte von potentiellen Fragen Tausende von potentiellen Antworten in einer tabellarischen Form angelegt werden müssen. Wann wird eine Software einen Fließtext aber komplett verstehen, einschließlich Ironie, Sarkasmus oder kommentierenden Elementen? Auch der Franzose Thomas Scialom betont: „Die größte Herausforderung ist es zurzeit, dass die Maschinen unstrukturierte Daten verstehen.“

Ist auch diese Herausforderung keine mehr, wird es nur noch wenige Journalisten geben müssen. Diese aber werden Beiträge schreiben, für die Leser in aller Welt bereit sind, einen vernünftigen Preis zu bezahlen.


Wolfgang Zehrt hat eigene Unternehmen in der digitalen Medienbranche aufgebaut und ist international als Berater für Digital- und automatisierte Content-Projekte ("Roboterjournalismus") unterwegs. 1994 hatte er mit seiner Agentur für digitale Medien begonnen, für Kunden wie Stern, Spiegel und Springer zu arbeiten. Er gründete eine Web-TV-Firma in New York und berichtete als Journalist für Stern, Zeit und ARD über Neonazis und den Nahen Osten. Seine Digitalagentur wurde 2008 von der NYSE übernommen, 2010 wurde er Vorstandsmitglied der deutschen Nachrichtenagentur (DAPD) und gründete zwei Unternehmen zur automatisierten Texterstellung. Derzeit arbeitet er als „Roboterjournalist“ und „Digitalisierer“ vor allem für englischsprachige Medien und für den Axel Springer Verlag.