#5/ 2021
12/20

„Wir müssen uns endlich um standardisierte Abläufe und eine skalierbare Infrastruktur kümmern!“

Welche Vorteile entstehen aus dem Zusammenwirken von Planungs- und Produktionssystemen in der Verlagswelt?

Publizieren auf Knopfdruck, granular, in Kleinstauflagen – eine alte Vorstellung, die in der Realität auf viele Hemmnisse trifft, angefangen von der konsistenten Einhaltung von Standards bis hin zu Technologie-Systemen, die sich nicht untereinander austauschen können. Dominik Huber, Gesellschafter und Geschäftsführer der PONDUS Software GmbH und Tobias Ott, Geschäftsführer und Gesellschafter der pagina GmbH Publikationstechnologien, wollen diese Lücken schließen und Publikationsworkflows von der Planung bis zum fertigen Produkt aufbauen. Hier ein Gespräch mit beiden zu Standards in der Verlagsbranche, Möglichkeiten eines Zusammenspiels zwischen Prozess- und Produktionssystemen und möglichen Anwendungsszenarien.

  

Bevor wir uns dem Thema Standards zuwenden, kurz gefragt: Wie waren Ihre Erfahrungen mit den Verlagen zu Pandemie-Zeiten? Ein Digitalisierungsschock für die Haptik-Branche?

Huber: Der Trend zur Digitalisierung war tatsächlich vorher schon erkennbar, wurde durch Corona aber massiv befördert. Und wir merken das auch durch die steigende Anzahl an Neukundenanfragen, aber auch den Ausbau bestimmter Funktionen und Module, die jetzt bedingt durch mehr Arbeiten im Homeoffice forciert werden. 

Der Kostendruck ist ebenfalls zu spüren, im Moment natürlich verstärkt und folgerichtig das Bedürfnis, zu standardisieren, wo es geht und sinnvoll ist. Etwa bei optimierten Produktionsprozessen, die aus Kostengesichtspunkten extrem wichtig geworden sind. 

Ott: Wir machen die gleiche Beobachtung. Das Verständnis für die Notwendigkeit von durchgängigen Produktionsworkflows, von Standardisierung und von Prozessoptimierung ist sicherlich in den letzten anderthalb Jahren gewachsen. 

Die Investitionsbereitschaft, vor allem bei den kleineren und mittelständischen Verlagen, ist im Moment aber – so ist zumindest mein Eindruck – gering. Investitionsentscheidungen werden gern bis ans Ende des Lockdowns oder der Pandemie verschoben. Das hat zahlreiche Gründe – bis hin zu dem Punkt, dass Investitionsentscheidungen auch emotionale Entscheidungen sind und viel mit Vertrauen zu tun haben: Vertrauen in den passenden Dienstleister, in die passende Software, aber auch in die Abstimmungen und Austausch auf kollegialer Ebene, die im Moment, einfach nicht stattfinden. 

Wir merken aktuell einen deutlichen Anstieg der Nachfragen rund um das Thema Digitales Lernen. Das hat tatsächlich für uns den stärksten Boost gebracht. Durch den Lockdown, durch das Homeschooling, kommt jetzt einfach mehr Druck aus der Öffentlichkeit. Hier verändert sich das Mindset.  Das führt dazu, dass Verlage, aber auch verlagsnahe Organisationen, für die wir arbeiten, etwa Fernuniversitäten, jetzt die Konzepte, die zum Teil schon in der Schublade lagen, mit Hochdruck umsetzen wollen. Alles, was in Richtung digitale Lernkonzepte geht, sind natürlich langfristige Projekte, die jetzt aber mit deutlich mehr Ernsthaftigkeit betrieben werden.

Huber: Investitionsbereitschaft merken wir vor allem bei Projekten, mit denen man tatsächlich auch nachweislich Kosten sparen kann. So hat sich der Piper Verlag, bedingt durch die Corona-Situation und eben auch die vielen Verschiebungen im Programm, dazu entschieden, die automatisierte Katalogproduktion vorzuziehen und auf einen vollautomatisierten Produktionsprozess aus PONDUS heraus gewechselt und ein großer Teil unserer Kunden ist diesem Beispiel gefolgt und stellt gerade die Vorschauprozesse um. 

  

Wenden wir uns dem Thema Standards zu. Ich werfe mal provokativ in die Runde: nach der Einführung der ISBN im Jahre 1972 haben Verlage eigentlich nicht wirklich mit Standards gearbeitet, und wenn, dann nicht gerne. Und sie werden das Fremdeln, um es einmal so auszudrücken, nicht los.

Huber: Die fehlende Bereitschaft zur Standardisierung kann ich von unserer Seite nicht bestätigen. ONIX ist ein durchaus erfolgreiches Beispiel für Standards in Verlagen. Dieser Standard wird allerdings durch unterschiedliche ONIX-Mapper, durch unterschiedliche Anforderungen verschiedener Empfänger oft aufgeweicht. Aber dieser Trend ist nicht von den Verlagen befeuert, sondern kommt eher von der Empfängerseite, etwa den großen Shops. Aber auch die elektronischen Produktionsaufträge, die wir zusammen mit Bonnier und jetzt auch mit dem Aufbau Verlag umgesetzt haben, basieren auf Standardisierung. Der Impuls kam aus den Verlagen, insofern würde ich schon sagen, die Bereitschaft zu Veränderungen und zu Optimierungen ist durchaus gegeben. 

Ott: Ich glaube, wir müssen hier differenzieren. In der Frage werden „Standards“ und „Standard-Prozesse“ irgendwie gleichgesetzt. Aber das sind zwei sehr unterschiedliche Dinge. 

Verlage haben es tatsächlich mit einer ganzen Reihe von Standards zu tun, und zwar jeden Tag und weit über ISBN und ONIX hinaus. PDF ist ein Standard, HTML ist ein Standard, ePUB ist ein Standard. Und nicht zuletzt die deutsche Rechtschreibung. 

Was haben viele dieser Standards aber gemein? Sie kommen nicht aus unserer Branche. Und für mich liegt das Fremdeln mit Standards zu einem gewissen Teil eben daran, dass wir uns mangels eigener Branchenstandards zahlreicher Datenformate bedienen, die teilweise nicht gut auf die Anforderungen der Verlage passen. Was wiederum an der Kleinteiligkeit unserer Branche liegt. Es ist fast unmöglich, den einen Produktionsprozess zu definieren, der für die großen Wissenschaftsverlage genauso gilt wie für einen kleinen Kochbuchverlag. Von Datenstandards für die Abbildung der Inhalte ganz zu schweigen: Dafür ist unsere Branche zu vielfältig. Und umgekehrt stellen wir fest: Eine gemeinsame Lobbyarbeit, das Schaffen eigener Standards, um die ganze Branche digital nach vorne bringen, wurde jahrelang tatsächlich sträflich verschlafen.

Aber ich glaube, dass der Wunsch nach Standardisierung eher wächst. Das hat durchaus auch etwas mit Corona, digitalem Arbeiten, digitalem Lesen und anderen Veränderungen zu tun – eigentlich mit der gesamten digitalen Lebenswirklichkeit, in der wir als Verlage aufwachen und feststellen: Wir gehören noch nicht richtig dazu. Und um in der digitalen Welt anzukommen, ist es geradezu widersinnig, sich alles selbst auszudenken. Ich muss mich auf etablierte Verfahren einlassen und verlassen können. Und dafür bedarf es tatsächlich noch des einen oder anderen Standards. 

Huber: Würde ich absolut unterstreichen. Und das Problem ist sicherlich auch die Kleinteiligkeit der Branche. Wir sprechen ja auch von Verlagen, die vielleicht nur 15, 20, 30 Mitarbeiter haben, in denen häufig weder die personellen noch finanziellen Kapazitäten vorhanden sind. Deswegen ist es umso wichtiger, dass wir Gremien schaffen, in denen relevante Themen verlagsübergreifend diskutiert werden. Diesen Prozess wollen wir auch forcieren, zumindest in der Zusammenarbeit mit den PONDUS-Kunden. Wir haben damit begonnen, die Experten aus den Verlagen in User-Groups zusammenzubringen und neue Funktionalitäten gemeinsam zu spezifizieren. 

Ein gutes Beispiel ist das Aufgaben-Termin-Management, das wir jetzt vollkommen frei konfigurierbar implementiert haben. Die Funktionalität wurde mit Experten aus vielen unterschiedlichen Verlagen erarbeitet, und bildet die teilweise sehr unterschiedlichen Verlagsprozesse flexibel ab. Die verschiedenen Themenfelder und Zielgruppen, welche unsere Verlagskunden bedienen, führen auch zu differierenden Anforderungen. Beispielsweise in einem Taschenbuchverlag oder einem Verlag, der primär im Textbereich unterwegs ist, oder etwa einem Ratgeberverlag, wie Frech, der sehr kleinteilig granulare Produkte mit Anleitungen verschiedenster Autoren und vielen Bildern produziert. Dies führt zu unterschiedliche Entstehungsprozesse der Produkte, welche wir im System dynamisch abbilden müssen. 

Ott: Vielleicht müssen wir auch den Begriff Standards noch ein bisschen eingrenzen, dies ist ja ein unglaublich inflationär gebrauchter Begriff. Dominik Huber hat jetzt vor allem über Standards gesprochen, die die Produktion unterstützen. Wir beschäftigen uns mit einem anderen Bereich, nämlich mit Datenformaten, um die eigentlichen Verlagsinhalte digital abzubilden. 

Und wieder kommt uns die Vielfalt unserer Branche in die Quere: die verschiedenen Verlagssparten lassen sich hinsichtlich einer „Content Strategie“ nicht gleichbehandeln. Ein Kochbuchverlag hat einfach andere Anforderungen an die Abbildung seiner Inhalte und plant andere digitale Geschäftsmodell als beispielsweise ein Belletristik-Verlag, ein juristischer Loseblattverlag oder ein Ratgeberverlag. 

In allen anderen Branchen außerhalb der Verlagsbranche sind Datenstandards zur Übermittlung, zum Austausch, über Schnittstellen und so weiter eigentlich immer Mittel zum Zweck: Es geht nicht darum, diese Daten selbst zu vermarkten, sondern etwas Drittes zu ermöglichen, eine Dienstleistung oder ein Produkt zu vermarkten, in einem Handbuch zu dokumentieren oder ähnliches.

Wir sind die einzige Branche, die tatsächlich ausschließlich vom Content selbst lebt. Und diesen Content digital zu sichern in einer digitalen Zeit, in einer digitalen Gesellschaft, ist so elementar, dass ich glaube, das sollte nicht jeder einzelne Verlag allein verantworten müssen. Hier müssen wir hier auf weithin akzeptierte Standards zurückgreifen. Zum einen, um keine „Anfängerfehler“ zu machen. Und zum zweiten, weil wir in dem Moment, wo jeder Verlag seine Inhalte in anderer Weise abspeichert, schon einen Webfehler auf dem Weg ins digitale Zeitalter eingebaut haben: Die Daten sind untereinander nicht kompatibel. Wie soll da die digitale Transformation einer ganzen Branche gelingen?

Die Erkenntnis, dass ein Datenstandard nicht nur dazu dient, Kosten zu reduzieren, sondern möglicherweise eine Vitalfunktion ist, um in der digitalen Gesellschaft überhaupt zu überleben, um teilzuhaben an den ganzen digitalen Vermarktungsprozessen etc. – diese Erkenntnis setzt sich so langsam durch. 

ONIX als Metadatenstandard etwa ist bewusst so angelegt, dass er für alle Verlagssparten funktionieren kann. Bei den eigentlichen Inhalten ist das schwieriger – und die Verlage reagieren hier auch empfindlicher, wenn ihre Inhalte nicht optimal abgebildet werden können. Hier bedarf es also eher Verlagssparten-Standards. Für einige Disziplinen gibt es diese schon, für andere noch nicht. 

Wenn wir über die Vereinheitlichung von Verlagsprozessen sprechen, geht es eher um einen „Prozess-Baukasten“. Dieser besteht aus sogenannten Sub-Prozessen, die zu einem Gesamtprozess kombiniert werden können, ohne dass man alle Subprozesse anwenden muss. Einen elaborierten Prozess für die Bild-Beschaffung oder Bildrechteverwaltung braucht nicht jeder Verlag, Prozesse für die Lektoratsarbeit oder die Übergabe der Daten an Druckereien oder in einen E-Book-Prozess hingegen schon.

Huber: Ich denke, wir haben hier auch schon einen ganz wesentlichen Unterschied identifiziert, der das Zusammenspiel zwischen Systemen, wie denen von PONDUS auf der einen und Pagina auf der anderen Seite, beschreibt. PONDUS steuert die Prozesse auf der Meta-Ebene, stößt Produktionsprozesse an und „managed“ die damit verbundenen Aufgaben und Termine, während Pagina die tatsächlichen Inhalte strukturiert verwaltet. Wenn wir diese beiden Ansätze verbinden, lässt sich der Workflow von der Planung und Manuskriptabgabe bis zum wirklich fertigen Produkt, stärker automatisieren. Daraus ergeben sich sehr viele spannenden Möglichkeiten, deswegen brauchen wir aber auch eine weitgehendere Standardisierung von Prozessen. 


Solche Entwicklungen werden doch eigentlich nur von den Technologieunternehmen in der Branche angestoßen, mit entsprechendem Know-how im Hintergrund. Und natürlich auch mit dem Wissen über die aus der Zusammenführung von Systemen und Prozessen entstehenden Synergieeffekte. Und eigentlich nicht zwingend von den Verlagen. 

Ott: Ich hätte mir hier immer eine größere Beteiligung der Verlage an diesem Diskurs gewünscht. Es ist die Frage, wer eine Lösung oder Bedarf triggert. Und das ist die typische Henne-Ei-Frage. Kommen zuerst die digitalen Geschäftsmodelle und man sucht anschließend nach einem passenden Datenmodell dafür, oder entsteht zunächst ein Standard, aus dem, wenn er sich durchsetzt, neue Geschäftsmodelle entstehen? Solange der Standard noch nicht da ist, gibt es nichts, an dem ein Verlag anknüpfen kann. Das ist eine große Einstiegshürde. 

Nehmen wir mal ein Beispiel aus einer anderen Branche: Unternehmen wie zalando wären doch nie erfolgreich gewesen, wenn sie sich erstmal drum hätte kümmern müssen, Millionen Haushalte mit Browsern auszustatten, oder sich um Abrechnungssysteme zu kümmern. Stattdessen konnte man auf eine digitale Infrastruktur aufsetzen. Das gilt für alle digitalen Geschäftsmodelle. Und viele solcher digitaler Geschäftsmodelle für unsere Branche werden erst entstehen, wenn wir problemlos auf den Content zugreifen können – idealerweise sogar verlagsübergreifend. Denken Sie an den Schulbuchmarkt: Es ist dem einzelnen Lehrer doch nicht zu vermitteln, warum er zwischen zwei Unterrichtsstunden die komplette Infrastruktur wechseln muss, nur weil das eine Lehrwerk von Verlag A und das zweite von Verlag B kommt. Und das wäre auch mein Appell an die Gremien, hier an der Schaffung von Standards mitzuwirken. Und auch gemeinsame Visionen und Ziele zu definieren, wofür solche Standards eigentlich dienen sollen. 

Huber: Wir als Anbieter sehen z. B., wie viele Daten in der Zwischenzeit in unseren Systemen zusammengefasst und abgelegt werden. Und wie wenig dann leider mit diesen Daten wiederum gemacht wird. Oder wo Systembrüche entstehen. Wir sehen unsere Aufgabe auch darin, auf Möglichkeiten hinzuweisen, etwa um Prozesse zu optimieren und zu standardisieren.

Nur ein Beispiel: Wir erzeugen elektronische Produktionsaufträge aus dem System heraus, übergeben diese über Schnittstellen an die Druckereien, etwa die Höhe der gedruckten Auflage. Von den Druckereien bekommen wir aktuell aber nur einen Status und keine Termine oder Mengen zurückgespielt. Kommt dann irgendwann viel später der Lieferschein von der Druckerei zum Verlag, muss der Hersteller die Zahl der tatsächlich gedruckten Bücher manuell eingeben. Man weiß eigentlich viel später, wie viele Bücher der Verlag überhaupt bekommen hat, und das löst zudem einen manuellen Prozess aus. Dafür gibt es unwahrscheinlich viele Beispiele, bei denen wir ansetzen und uns überlegen, ob man das nicht optimieren kann. Im beschriebenen Beispiel lässt sich das Problem relativ einfach durch eine Erweiterung der Schnittstelle lösen. Der Vorschlag ist aus dem Dialog zwischen zwei Dienstleistern – in diesem Fall CPI und PONDUS – entstanden.

Ott: Das Spannende in der Zusammenarbeit unserer beiden Firmen ist, dass wir zusammen die beiden wichtigsten Bereiche für den Eintritt eines Verlages in die digitale Welt abbilden: Bei PONDUS alles rund um Metadaten und bei pagina alles rund um den eigentlichen Verlagscontent. Wir wollen diese Bereiche so weit wie möglich standardisieren und Prozesse so verbinden, dass am Ende etwas maximal Nützliches herauskommt – über die Bedarfe eines einzelnen Verlages hinaus.

Der Anlass für die Zusammenarbeit zwischen pagina und PONDUS war ein ganz konkreter. pagina ist Urheber von parsX, einem XML-Datenformat, das wir vorletztes Jahr im Rahmen eines Drittmittelprojekts Open Access gestellt haben, um der Verlagsbranche ein einheitliches Datenformat anzubieten. 

Wir haben parsX in enger Abstimmung mit insgesamt 16 Verlagen, die mitgewirkt haben, entwickelt – und hier stimme ich Dominik Huber absolut zu, dass die Entwicklung nur zusammen mit Verlagen sinnvoll ist. parsX umfasst neben der kostenlosen XML-Grammatik auch lizenzpflichtige Tools, um aus parsX-Daten sämtliche typische Verlagsmedien hochautomatisiert zu produzieren. Und unser Kunde Holtzbrinck setzt PONDUS und parsX ein und bat uns, eine Schnittstelle zwischen den beiden Softwares zu entwickeln, also eine Verbindung der beiden Systembereiche Metadaten und Content-Daten. 

 
Wir haben über die Wichtigkeit von Standards gesprochen, auch über Möglichkeiten eines Zusammenspiels zwischen Prozess- und Produktionssystemen. Welche konkreten Anwendungsszenarien wären denn hier denkbar?

Ott:  Ich denke da vor allem an neue Geschäftsmodelle und Produkte. Ich greife nochmal das Beispiel digitales Lernen auf: Wir stellen im Moment fest, dass eigentlich alle großen Schulbuchverlage sich auf einen gemeinsamen XML-Standard eingelassen haben. Und das führt im Moment dazu, dass nolens volens die Verlagsinhalte aus unterschiedlichen Häusern erstmalig in einem einheitlichen Format vorliegen. Und das könnte die Grundlage für Verlage sein, in bestimmten Geschäftsbereichen zusammenzuarbeiten –  im Sinne und zum Nutzen der SchülerInnen und Lehrkräfte. Wir könnten in wenigen Jahren erstmalig auf einen Content-Schatz zugreifen, der überhaupt erst neue Geschäftsmodelle erlaubt. Ich denke hier etwa an Lernplattformen, die den einzelnen Schüler, die einzelne Schülerin in den Mittelpunkt stellen, was nur verlagsübergreifend funktionieren kann. Und das ist auch ein Beispiel für meine feste Überzeugung: wenn Standards da sind, dann entstehen auch neue Geschäftsmodelle. 

Eine andere User Story, die ich immer sehr gerne verwende und auch mit meinen Studenten von der HdM zusammen ausgearbeitet habe. ist folgende: Es soll möglich sein, dass mir der Buchhändler meines Vertrauens mir mehrere Leseproben individuell zu einem Leseproben-E-Book zusammenstellen kann. Er geht an den Rechner, sagt „Okay, Sie interessieren sich für Schweden-Krimis“ – dann gibt es vier Klicks und ich bekomme ein E-Book, das besteht aus den Leseproben von vier verschiedenen Verlagen, in einem E-Book zusammengefasst, und hinten an jeder Leseprobe ist der Link auf den Shop des Buchhändlers dran. So könnten wir die Wertschöpfungskette verlängern, so könnten wir auch den stationären Buchhandel wieder einbeziehen in digitale Verkäufe, weil er seiner Aufgabe nachkommen kann, zu beraten, und das eben auch modern in einem digitalen Format tun kann. Und ich kann mich als Kunde verlagsübergreifend beraten lassen und muss jetzt nicht vier einzelne Leseproben mit nach Hause nehmen.

Huber: Das Thema granulare Content-Verwaltung ist auf jeden Fall zukünftig ganz wesentlich. Das ist auch eine Möglichkeiten zu erkennen, welche Schätze in den Verlagsdatenbanken schlummern und weitere Erlöspotentiale zu erschließen. Entscheidend ist, dass diese Assets dann aber auch schnell und günstig verwertet werden können. Wenn der manuelle Aufwand, aus einem Kapitel ein E-Book oder ein Download-Produkt erzeugen zu können, zu groß ist, dann rechnet sich das am Ende nicht. Aber wenn ich hier einen hohen Automatisierungsgrad habe und digitale Produkte sozusagen auf Knopfdruck erzeugen kann, dann rechnet sich die Mehrfachverwertung erst richtig. 

Das hängt entscheidend von zwei Faktoren ab: einmal das Erschließen von Umsatzpotenzialen. Und dann das möglichst schnelle und günstige Produzieren der Ausgabeformate. Die granulare Content-Verwaltung drängt sich im Ratgeberbereich natürlich besonders auf. Da sind die Produkte schon deutlich kleinteiliger und haben auch mehr Potenziale zur Vermarktung. Die Metadaten spielen natürlich auch hier wieder eine große Rolle, also das Verwalten dieser Metadaten auf Content-Ebene. Diese müssen aber deutlich umfangreicher und passender sein als es heute oft noch der Fall ist.  Auch hier sind Automatismen wichtig, etwa das automatische Auslesen der Inhalte, Generieren von Schlagwortvorschlägen beziehungsweise Ableiten von Klassifikationen. Hier ist durch technische Unterstützung noch vieles möglich, das derzeit nicht ausgeschöpft wird.

Ein weiterer Aspekt, den wir uns vorstellen, ist die Optimierung und Automatisierung des gesamten Produktlebenszyklus. Und viele Dinge, die in der Vergangenheit schon entstanden sind oder gerade entstehen, greifen hier langsam, aber sicher ineinander, um diese Vision auch zu verwirklichen. 

Um auch hier einmal ein konkretes Beispiel zu nennen, stellen wir uns die Frage:  wie findet eigentlich ein Nachdruckprozess zukünftig statt? Im Rahmen unserer KI-Aktivitäten sind wir gerade dabei, ein Forecasting auf Basis von Absatzprognosen und Algorithmen zu entwickeln. Wenn wir die Kassendaten der Buchhandlungen in den Prozess der Nachauflagenplanung einbeziehen, wissen wir deutlich früher, wann der berühmte Stapel in der Buchhandlung kleiner wird. Also schon deutlich bevor bei der Auslieferung eine Bestellung eingeht, und der Verlag ggf. eine Knappmeldung erhält. Und wenn wir nun noch die Wiederbeschaffungszeit über den automatisierten Produktionsprozess einbeziehen, lässt sich das Risiko von Lieferengpässen deutlich reduzieren.


Denken wir uns doch einmal folgendes Szenario: ich identifiziere über mein Verlags-Cockpit ein bestimmtes Thema, für das eine Zielgruppe existiert. Dann selektiere ich Content-Einheiten, versehe diese automatisiert mit Metadaten, natürlich alles mit einer automatisierten Rechteverwaltung hinterlegt, vielleicht sogar einem Honorarabrechnungssystem. Dann produziere ich über Print CSS und andere Mechanismen ein beliebiges von mir gewünschtes Produkt in einer Minimalauflage von einem Stück. Oder, in kurz: Ich gebe vorne meine Parameter ein und erhalten auf Knopfdruck hinten das fertige Produkt. Wieviel Traumvorstellung steckt in diesen Gedanken?

Huber: Ich finde, das ist sehr realistisch – bei PONDUS arbeiten wir ja schon geraume Zeit an diesem Cockpit. Durch das Zusammenspiel mit anderen Systemen wie das von Pagina laufen automatisierte Prozesse ab, die mit möglichst geringem oder idealerweise keinem manuellen Aufwand die gewünschten Produkte generiert. 

Ott: Alles, was wir jetzt gerade diskutieren, ist richtig und wichtig für die nächsten Jahre, damit die Verlage gut durch den digitalen Wandel kommen. Wir sprechen gerade über das Thema Produktionsoptimierung, um auf schrumpfende Märkte zu reagieren, also kleinere Auflagen kosteneffizient herstellen zu können. Das ist richtig und wichtig – aber es ist nicht mehr als ist eine lebensverlängernde Maßnahme für Verlage. Und das reicht in meinen Augen nicht. Wenn wir sagen, wir haben in einer sich verändernden Gesellschaft mit geringeren Auflagen zu kämpfen und wir reagieren darauf reflexartig mit dem Mittel der Kostenoptimierung, dann fehlt der visionäre Teil. Ja, ich kann mit PrintCSS meine Satzkosten radikal senken. Aber der revolutionäre und visionäre Aspekt dieser Technologie ist ein anderer: Endlich können Verlage individuelle Produkte vollautomatisiert fertigen. Ich kann mit PrintCSS also einem gesellschaftlichen Megatrend begegnen, der Individualisierung unserer Gesellschaft. Damit wird Auflage 1 nicht zum mathematisch logischen Ende einer Auflagenreduktion, sondern ein neues, innovatives Geschäftsmodell mit neuen Produkten, die Wachstum versprechen. 

Noch weiter in die Zukunft gedacht: in wenigen Jahren wird PrintCSS wahrscheinlich in jedem Browser laufen. Wir werden also in Deutschland Hunderte Millionen installierte Satzsysteme haben, mit denen jedermann PDF professionell ausgeben kann. Das wird auch in Teilen das Verständnis dafür verändern, welche Rolle Verlage in Zukunft haben werden. Und das wird nicht sein – um es provokativ zu formulieren – Bäume bedrucken zu können. 

Ganz ähnlich ist die Aufgabenstellung hinsichtlich der Barrierefreiheit. Ist diese ein notwendiges Übel, das ich mehr schlecht als recht an meine Prozesse hinten anbinde, wird barrierefreies Publizieren immer ein ungeliebtes, notwendiges Übel sein. Gleichzeitig kommt der European Accessibility Act jetzt ja so langsam in die Implementierungsphase, was vielen Verlagen Magenschmerzen bereitet. Jetzt drehen wir den Spieß einmal um: In dem Moment, in dem ich meine Prozesse und Daten im Griff habe, sollte eine voll barrierefreie Produktion schlicht das normale sein. Und genau das sollte es für Verlage auch sein: nämlich unser selbstverständlicher Beitrag zu einer bunten und inklusiven Gesellschaft. Für mich ist Barrierefreiheit ein Aspekt der globalen Nachhaltigkeitsziele der Vereinten Nationen und ein künftiges Merkmal professioneller Verlagsarbeit, mit dem wir unsere gesellschaftliche Rolle neu definieren.  

Ich würde mir wünschen, dass die neuen Vorgaben zur Barrierefreiheit von vielen Verlagen als Chance begriffen werden, über ihre Prozesse systematisch nachzudenken und sich technologisch neu aufzustellen. Und zwar nicht nur, um die verlagsinternen Prozesse zu optimieren. Darüber haben wir jetzt ja schon ausführlich gesprochen. 

Wir müssen noch zwei andere Bereiche mit einbeziehen: unseren Beschaffungsmarkt, nämlich die Autorinnen und Autoren und unsere Absatzmärkte, also die Leserinnen und Leser. Die Anbindung von Autorinnen und Autoren wird eine immer wichtigere Aufgabe für Verlage. Wir müssen ihnen eine digitale Heimat bieten, damit sie nicht ins Selfpublishing abwandern. Wir brauchen eine Infrastruktur für eine kontinuierliche Zusammenarbeit an permanent aktualisierten Inhalten.

Und für die Leserinnen und Leser müssen sich Verlage immer wieder fragen: haben wir das richtige digitale Produkt bzw. wie verändern sich diese Produkte? Und daraus ergibt sich, ob wir die richtigen Prozesse haben, um agil auf Marktveränderungen reagieren zu können Wir haben es heute mit einem sehr schnelllebigen Markt zu tun, während unsere Branche aus einem Umfeld kommt, wo wir 500 Jahre Zeit hatten, um unser Produkt – das Buch – immer weiter zu optimieren. Ich bin mir sicher, wir schöpfen das Potenzial an möglichen neuen Verlagsprodukten überhaupt nicht aus, auch nicht bei gedruckten Produkten. Während man sich heute sogar seine Turnschuhe individuell designen kann, gilt bei Büchern immer noch das alte Prinzip der Auflagenproduktion. 

Das heißt, Verlage sollten sich um eine skalierbare Infrastruktur kümmern, die sich problemlos erweitern lässt auf neue Geschäftsmodelle. Und die gleichzeitig durch Prozessoptimierung Einsparpotenziale freisetzt und den finanziellen Freiraum verschafft,  um auf diese neuen Märkte auch adäquat reagieren zu können.

Huber: Die Infrastruktur, die Tobias Ott gerade angesprochen hat, ist hier essenziell. Denn ansonsten kann ein Verlag seine Substanzen schlicht nicht verwerten.

Mit Sicherheit gibt es hier spannende Ansätze, zum Beispiel durch den Einsatz von schwacher KI-Marktimpulse abzufragen, automatische Mappings zu erstellen, und damit Entscheidungsprozesse in den Verlagen anzustoßen. Oder auch Impulse zu geben, über welche Themen zum Beispiel im Internet gesprochen wird und welche Themen in den inhaltlichen Substanzen schlummern. 

Ich bin hier ein großer Freund eines iterativen Vorgehens und der Erschließung naheliegender Quick Wins. Nehmen wir beispielsweise das automatische Generieren von Titeleien. Alle Daten, die dafür benötigt werden, liegen zum Beispiel in unserem System. Genauso die Technologie, um das umzusetzen. Fakt ist aber, dass dies im Moment nur einer unserer Kunden nutzt, dafür aber mit viel Erfolg. Auch hier war der Verlag Impulsgeber. Und dabei lernen wir auch selbst. Im Rahmen dieses Lernens entstehen dann auch wieder neue Impulse, das Ganze noch zu erweitern und auszubauen. 

Deswegen bin ich immer ein großer Fan davon, auf jeden Fall die langfristige Perspektive, die Vision zu haben, aber auch nicht zu lang zu warten, sondern auch einfach mal zu machen.

Vielen Dank für das Gespräch!

Das Interview führte Steffen Meier


 

Dominik Huber ist Mitgründer und seit 2013 geschäftsführender Gesellschafter der PONDUS Software GmbH. PONDUS unterhält Standorte in Hannover und München. Zu den PONDUS-Kunden zählen rund 40 Verlage, darunter neben den Verlagsgruppen Bonnier und Holtzbrinck u. a. die Verlage Aufbau, Edel, Ernst Klett, Frech, Herder, Kein & Aber, Mare und Stiftung Warentest.
Zuvor war Dominik Huber viele Jahre bei Droemer Knaur, zuletzt als Leiter der Internetkommunikation und des Onlinemarketings. Dort wurde 2003 zusammen mit der Software-Firma ID.on die erste Version von PONDUS entwickelt.
Fotograf: Mathias Kögel

 

Tobias Ott studierte an der Hochschule der Medien (der damaligen Fachhochschule für Druck) in Stuttgart Verlagswirtschaft, Verlagsherstellung sowie Werbetechnik und Werbewirtschaft. Er leitet seit 1996 die pagina GmbH Publikationstechnologien und unterrichtet seit 1996 an der Hochschule der Medien im Bereich Elektronisches Publizieren. Er hat u. a. bei K. G. Saur, Duden Brockhaus, Oxford University Press und Niemeyer diverse Fachbücher publiziert.