#9/ 2020
12/12

„Verlage machen viel zu wenig aus ihren Daten!“

Mit Künstlicher Intelligenz und Business Intelligence bessere Entscheidungen treffen im Verlagsgeschäft

“Daten als Öl des 21. Jahrhunderts” ist ein so bekannter wie abstrakter Slogan. Dass verlegerische und kaufmännische Entscheidungen auf der Basis valider, leicht erschließbarer Daten getroffen werden sollten, zweifelt dagegen kaum jemand an - bleibt nur die Frage, wie man diesen Komplex konkret angeht. Im Rahmen eines Forschungsprojekts arbeitet der Softwareanbieter PONDUS mit der Leibniz Universität Hannover zusammen, um konkrete Lösungen zu erarbeiten. 

Aber wie können diese Lösungen aussehen, um zukünftig bessere Entscheidungen zu treffen? Wie geht man vor, wer in den Verlagen muss sich damit beschäftigen? Diese Fragen stellten wir Anna Lena Fehlhaber, Leibniz Universität Hannover, und Dominik Huber, Geschäftsführer PONDUS Software GmbH. 

Wozu brauchen Verlage eigentlich Künstliche Intelligenz und sogenannte Business Intelligence, um bessere Entscheidungen zu treffen? Immerhin haben über Jahrzehnte doch das berühmte "Verlegerische Bauchgefühl" und die vorhandenen - zugegebenermaßen oft rudimentären - Analysesysteme ausgereicht. 

 Anna Lena Fehlhaber: Im Rahmen unseres Projekts haben wir viele Experten-Interviews durchgeführt. Alle haben übereinstimmend davon berichtet, dass zu große Lagerbestände und das Thema Lagerbereinigung oder die hohe Anzahl verramschter Bücher große Probleme sind und unnötig hohe finanzielle Mittel binden. Mehr Sicherheit und Genauigkeit in der Erst- und Nachauflagen-Planung mittels Data Science zu gewinnen, wäre ein großer wirtschaftlicher Vorteil. Und das ist nur ein Beispiel von vielen.

Dominik Huber: Man hat ja immer so seine “Aha”-Erlebnisse. Für mich war ein solcher Weckruf der Auftritt des Amazon-CTO Werner Vogels  auf dem Web Summit Lissabon, der über amazon.ai und Machine Learning referierte und darlegte, wie sehr Amazon inzwischen komplett datenbasiert arbeitet. Man kann zu Amazon stehen, wie man will, aber ich denke, einiges davon ist auch auf Verlage übertragbar: Publizieren muss zukünftig deutlich datenbasierter funktionieren. 

Wenn wir schon von “datenbasiert” reden: welche Datenquellen werden denn benötigt, um überhaupt sinnvolle Ergebnisse zu erzielen? 

Dominik Huber: Was man einfach auch konstatieren muss: Die Verlage machen leider zu wenig mit und aus ihren Daten, die sie sowieso schon besitzen. Deswegen ist ein erster Schritt, den Datenbestand zu analysieren. Allein in unserem System liegen etwa detaillierte Ausstattungsdaten vor, Vertriebsdaten, Verkaufszahlen über alle Kanäle und Quellen - und über die Anbindung von Partnersystemen lässt sich hier auch viel einbinden bis hin zu Kassendaten aus dem Buchhandel. Im Moment arbeiten wir schon unabhängig vom KI-Projekt an neuen Analyse-Dashboards. Und im Rahmen des Projekts schauen wir dann, wo KI und schlaue Algorithmen noch weiter unterstützen können, vor allem mit Blick auf Forecast-Daten.

Anna Lena Fehlhaber: Man muss hier auch zwischen internen und externen Datenquellen unterscheiden. Interne Datenquellen können etwa die Verkaufszahlen schon erschienener Titel sein, externe Daten können Prognosen aus dem Amazon-Ranking stammen. Wichtig ist dabei immer die Gewichtung der Quellen, die maschinell lernend vorgenommen wird und sich sozusagen selbstlernend verbessert. Im Idealfall werden Quellen, deren Daten keinen signifikanten Einfluss haben, in späteren Analysen gar nicht mehr einbezogen und die Ergebnisse dadurch immer valider.

Das dürfte in Teilen ja kein reines klassisches IT-Projekt in den Verlagen sein, es geht ja auch um Datenorganisation im ganzen Unternehmen, Prozesse usw. Welche Verlagsbereiche sind denn davon tangiert? 

Dominik Huber: Generell arbeiten wir bei der Entwicklung neuer Produktfeatures eng mit den Verlagen zusammen. Wir verstehen uns dabei nicht nur als Technologie-Partner, sondern beraten die Verlage und entwickeln iterativ neue Module.

Ausgangspunkt ist dabei immer der Bedarf der Unternehmen. So war auch der erste Schritt im Rahmen unseres KI-Projekts, in Experteninterviews herauszufinden, bei welchen Themen sich die Kunden konkrete Unterstützung vom Einsatz einer KI wünschen.  

Wie kann man sich denn die Implementierung im Unternehmen konkret vorstellen? 

Dominik Huber: Wir empfehlen immer ein sogenanntes Use-Case-basiertes Vorgehen. Konkret heißt das: Fragestellungen wie eine bessere Absatzprognose oder den Wunsch nach einem Werkzeug zur Ermittlung von Erst- und Nachauflagen aufzunehmen, Datenquellen zu identifizieren und die Lösungen dieser Use-Cases (wie z. B. Analyse-Dashboards) dann im Rahmen eines agilen Prozesses iterativ umzusetzen.

Anna Lena Fehlhaber: In einem ersten Schritt müssen die vorhandenen Datenquellen im Unternehmen analysiert und konsolidiert werden, beginnend mit einfachen, computerlesbaren Daten. Eine der größten Herausforderungen hier wird mit Sicherheit die Überführung unstrukturierter Daten, z.B. aus Excel-Daten oder ähnlichem, in strukturierte Daten sein. Und eine hohe Datenqualität muss gewährleistet sein, schlechte Rohdaten erzeugen logischerweise auch keine guten Ergebnisse.

Wir hatten bei der Frage “Warum eigentlich Künstliche Intelligenz” schon mögliche Einsatzszenarien skizziert. Welche Ergebnisse kann man sich denn durch den Einsatz von KI/BI idealerweise noch erhoffen?  

Anna Lena Fehlhaber: Ganz grundsätzlich gesagt entscheidungsvereinfachende Prognosen bzw. Forecasts, die das unternehmerische Risiko verringern und die Planbarkeit und vor allem die Planungssicherheit erhöhen. 

Dominik Huber: Wir hatten ja schon die Festlegung von Erstauflagen und Nachdrucken angesprochen, ein ganz elementares Element in der Verlagsarbeit. Aber es wäre doch gut, Fragen beantworten zu können im Hinblick auf die Auswirkung der Ausstattungsmerkmale auf den Abverkauf. Oder sehr genau zu wissen, welche Marketingmaßnahmen erfolgreich waren - und welche nicht. Letzteres erfassen wir jetzt schon in unserem System, also Rezensionen, Medientermine, Veranstaltungen usw. Daraus lässt sich noch viel Wissen generieren.

Hier handelt es sich ja um ein gemeinsames Forschungs-Projekt von PONDUS und der Leibniz Universität Hannover. Wie sieht denn die Roadmap aus, wie geht es weiter?

Anna Lena Fehlhaber: Das Projekt ist mit einer Laufzeit von zwei Jahren angelegt. Im Moment wird von unserer Seite aus an einem Forschungsantrag gearbeitet. Nach dessen Bewilligung untersuchen wir technische Parameter und implementieren dann erste Use Cases, zum Beispiel eine Vergleichsrechnung der Amazon-Verkaufszahlen.

Dominik Huber: Wobei wir im Rahmen dieser zwei Jahre immer wieder und frühzeitig bestimmte Funktionalitäten aufbauen wollen. Wie schon erwähnt, ist konkret ein neues Analyse-Dashboard eigentlich jetzt schon in der Entwicklung, bestimmte Funktionalitäten wollen wir dann auch frühzeitig unseren Kunden anbieten. Wir arbeiten hier prinzipiell mit Pilotkunden zusammen, der Kreis dieser soll auch erweitert werden. Denn diese neuen Module müssen nicht zwingend an unser Kernsystem angebunden sein, wir betreiben ja kein monolithisches System, sondern eines, das mit anderen Systemen im Unternehmen gut vernetzbar ist.

Anna Lena Fehlhaber ist wissenschaftliche Mitarbeiterin und Doktorandin am Institut für Praktische Informatik und am Arbeitsbereich Methoden der empirischen Sozialforschung des Instituts für Soziologie an der Leibniz Universität Hannover.

Dominik Huber ist Mitgründer und seit 2013 geschäftsführender Gesellschafter der PONDUS Software GmbH. PONDUS unterhält Standorte in Hannover und München. Zu den PONDUS-Kunden zählen rund 40 Verlage, darunter neben den Verlagsgruppen Bonnier und Holtzbrinck u. a. die Verlage Aufbau, Edel, Ernst Klett, Frech, Herder, Kein & Aber, Mare und Stiftung Warentest.
Zuvor war Dominik Huber viele Jahre bei Droemer Knaur, zuletzt als Leiter der Internetkommunikation und des Onlinemarketings. Dort wurde 2003 zusammen mit der Software-Firma ID.on die erste Version von PONDUS entwickelt.
Fotograf: Mathias Kögel