#3/ 2021
4/13

Deep Fakes, Chatbot und Rassismus, Einsatzmöglichkeiten von KI im Buch- Lebenszyklus

Serie KI in Medien und Publishing

Ministerien lassen KI-Millionen liegen

Die Regierung will Künstliche Intelligenz in Deutschland pushen, doch die Ministerien lassen Millionen an Fördergeldern liegen, meldet die WirtschaftsWoche. Von den rund 215 Millionen Euro, die 2020 verfügbar waren, riefen die Ministerien bislang nur 137 Millionen Euro ab. Damit wurden rund 77,7 Millionen KI-Fördergelder nicht genutzt, zeigt die Antwort des Forschungsministeriums (BMBF) auf eine Anfrage der Grünen. Im Rahmen ihrer KI-Strategie wollte die Bundesregierung eigentlich sogar 500 Millionen Euro pro Jahr für KI ausgeben.

Besonders wenige KI-Millionen rief 2020 im Vergleich etwa das Arbeitsministerium (BMAS) ab: Lediglich 6,5 Millionen der 31 Millionen Euro wurden für KI-Projekte genutzt. Das Verkehrsministerium (BMVi) gab gerade einmal die Hälfte der zur Verfügung stehenden Mittel aus, nur 12,5 Millionen der 26,5 Millionen Euro. Das Finanzministerium rief aus dem Elf-Millionen-Euro-Etat nur 1,5 Millionen Euro ab, das Umweltministerium nur 3,6 Millionen aus seinem 13-Millionen-Topf. Gleiches gilt für das Ministerium mit dem größten KI-Posten: Von den rund 61 Millionen Euro hat das Forschungsministerium nur rund 51 Millionen Euro ausgegeben. Rückstau gibt es ebenfalls bei den kleineren KI-Etats: Das Landwirtschaftsministerium (BMEL) nutzte von seinen drei Millionen lediglich 400.000 Euro. Die Bundesbeauftragte für Kultur und Medien (BKM), Monika Grütters (CDU), hatte aus ihrem Eine-Millionen-KI-Budget nur Verwendung für rund 170.000 Euro.

Reale Bedrohung durch Deep Fakes

Deep Fakes sind Medieninhalte, die durch den Einsatz von Künstlicher Intelligenz gezielt völlig automatisiert manipuliert und über soziale Netzwerke verbreitet werden. Was als Spielerei begann, entwickelt sich immer mehr zur realen Bedrohung für Unternehmen und Politik. Die Abteilung Cognitive Security Technologies am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC stellte nun fest, dass die Manipulation von Bildmaterial und Video- oder Audiomaterial mittlerweile bereits zu unserem Alltag gehört: Nicht nur in Zeitschriften oder auf Dating-Portalen wird mit Bildbearbeitungsprogrammen nachgeholfen, auch in sozialen Medien sind manipulierte Bilder allgegenwärtig. Durch den Einsatz von Machine Learning und Methoden der Künstlichen Intelligenz ändert sich die Bedrohungslage: Hochwertige Video-Fälschungen wie dieses Video mit dem Titel „Boris Johnson has a message for you. (deepfake)“ können mittlerweile mit frei verfügbarer Open-Source-Software (Link zu einem Programm von DeepFaceLab) automatisiert erstellt werden. Auch die Manipulation von Audio-Dateien ist technisch so ausgereift, dass einer Person ein beliebiger Satz sozusagen in den Mund gelegt werden kann – vorausgesetzt, es steht genug Ausgangsmaterial zur Verfügung, um die KI zu trainieren. Insbesondere bei Personen des öffentlichen Lebens stellt das angesichts der Menge an Daten, die auf den gängigen Social-Media-Plattformen zur Verfügung stehen, keine wirkliche Hürde mehr dar. Eine Demonstrator-Software, die am Fraunhofer AISEC entwickelt wurde, zeigt beispielsweise, wie Angela Merkel beliebige Sätze in den Mund gelegt werden, ihre Stimme also geklont werden kann.

Vier Bereiche, in denen Deep Fakes bereits jetzt zur realen Herausforderung geworden sind

•    VoiceID-Systeme: Um sich am Telefon bei einer Bank, einer Versicherung oder einem Mobilfunkanbieter zu legitimieren, werden zunehmend Voice-ID-Systeme eingesetzt. Der Nutzer wird bei einem Anruf anhand der Stimme identifiziert: Der Stimme kommt also die Bedeutung eines Passworts zu. Eine Fälschung der Stimme kann einen Angreifer beispielsweise legitimieren, Überweisungen zu tätigen oder ganze Konten zu leeren.

•    ID-Provider: Anbieter von digitalen Identitäten erlauben es Kunden, rein digital über das Internet ihre Identität zu bestätigen. Diese Identitäten können anschließend genutzt werden, um Bankkonten zu eröffnen oder Verträge abzuschließen. Deep Fakes ermöglichen hier nicht nur Angriffe auf Privatpersonen (Person A handelt im Namen von Person B); sondern ermöglichen auch Straftaten wie Geldwäsche, da beliebige Bankkonten erzeugt werden können.

•    Kriminalistik: Deep Fakes können dazu eingesetzt werden, Beweismittel zu fälschen oder Straftaten zu verschleiern. Aufnahmen von Stimmen und Geräuschen werden häufig als Beweismittel zugelassen, um Betrüger zu überführen. Die Manipulation dieser Aufnahmen stellt eine große Herausforderung für die Justiz und das Rechtssystem dar.

•     Social Engineering: Nicht zuletzt öffnen Deep Fakes auch Trickbetrügern Tür und Tor. Im Bereich Social Engineering, also der gezielten Irreführung von Zielpersonen mit dem Zweck, an sensible Informationen zu gelangen und Zugriffsrechte auf IT-Systeme zu erhalten, eröffnen sich durch Deep Fakes neue Risiken.

KI im Newsroom 

Der Dienstleister Retresco hat ein Whitepaper veröffentlicht, das die Chancen von automatisierter Berichterstattung mit Natural Language Generation  beschreibt: Es erläutert,  wie Natural Language Generation funktioniert, stellt die Mehrwerte und Potenziale von automatisierter Berichterstattung dar, zeigt mit Praxisbeispielen, wie NLG neue Maßstäbe im Datenjournalismus setzt und entwirft eine NLG Success Roadmap, die zeigen soll, wie Planung & Umsetzung von NLG-Projekten in Medienhäusern gelingen

Einsatzmöglichkeiten von künstlicher Intelligenz im Buch-Lebenszyklus

Der Software-Hersteller Pondus analysierte in unterschiedlichen Projekten die Einsatzmöglichkeiten von künstlicher Intelligenz im Buch-Lebenszyklus. In einigen Projekten wurden dabei Verlags- und Handelsdaten informationstechnisch zusammenbracht, wie etwa bei einer Bedarfsanalyse und Konzeption von KI-Use-Cases (Schwerpunkt Absatzprognose) im Rahmen eines Forschungsprojekts mit der Leibniz Universität Hannover oder der Integration der Datenquellen in die KI-Applikation (u.a. Media Control, Kassendaten des Handels, Absatzdaten der Verlage, Salesranks).  Daraus ist eine Liste dieser Einsatzmöglichkeiten entstanden:

Stadium    Anwendung

Titelplanung    Zielgruppenanalyse, Absatz-Forecasts

Redaktion    Sprachprüfung, Kollationieren

Materialwirtschaft    Mengendisposition

Marketing    Individuelle Programmvorschläge, Erfolgskontrolle

Datenmanagement    Automatisierte Anreicherung von Metadaten

Bestandsbewirtschaftung    Reichzeitprognose

Einkauf    Druckplattform-Wechsel zu PoD

Programmpflege    Backlistbewertung

Buchhaltung    Elektronische Rechnung (E-Invoicing)

Chatbot gegen Rassismus: Wie ein Erfinder die Beratung gegen Diskriminierung revolutionieren will

Im Kundenservice vieler Firmen werden Chatbots bereits eingesetzt. „Warum nicht auch zur Beratung gegen Diskriminierung“, fragte sich Erfinder Said Haider und programmierte den ersten Beratungs-Chatbot im Internet gegen Diskriminierung und Rassismus. Mehr als 500 Personen haben nach den Worten Haiders den Chatbot in den ersten drei Wochen genutzt. Viele hätten Fälle von Diskriminierung gemeldet, manche eine Beratungsstelle gesucht. Haider schwebt vor, dass die Antidiskriminierungs-Beratung der Zukunft „ein Tandem zwischen Chatbot und persönlicher Beratung“ ist. https://meta-bot.de

KI hat kein Innen

Olaf Deininger über den sehr gelungenen KI-Versuch von Daniel Kehlmann

Man darf Daniel Kehlmann unendlich dankbar sein. Denn was dieser hochgeschätzte Autor auf sich genommen hat – und zwar vollkommen angst- und vor allem vorurteilsfrei –, das kann man nicht hoch genug einschätzen. Er hat damit – wie ich finde – unserer Gesellschaft einen wirklich wertvollen Dienst erwiesen. Geht es auch etwas kleiner, mag man fragen. Im Augenblick nicht, halte ich dagegen. Was ist passiert?

Als Schriftsteller wagte sich Daniel Kehlmann an ein einzigartiges Schreibexperiment: Im Silicon Valley experimentierte der Autor von „Die Vermessung der Welt“ mit einer Künstlichen Intelligenz. Er versuchte zusammen mit der KI namens „Control“ einen oder mehrere Texte zu schreiben. Und zwar keine Lyrik wie in früheren Schreibversuchen mit einer Künstlichen Intelligenz als Co-Autor, sondern Prosa, eine Erzählung oder zumindest ein Essay. Daniel Kehlmann lieferte dazu meist den ersten Satz, die KI den zweiten, er einen dritten und so weiter. Wir können uns vorstellen: Das Experiment scheiterte. Nach mehreren Runden verlor die KI meist den Handlungsfaden, driftete ins Absurde oder Dadahafte ab oder verfing sich in einer Endlosschleife. Ende der Geschichte.

Doch darum ging es nicht. Denn wo viele andere wahrscheinlich triumphierend erklärt hätten, dass wir der KI immer noch haushoch überlegen seien, weil sie noch nicht einmal eine kleine Kurzgeschichte aus wenigen Seiten zustande brächte, nutzte Autor Kehlmann die Gelegenheit, um sich zu fragen, warum das so ist: Warum kommt die KI nicht weiter? Und dabei analysierte er, wie Künstliche Intelligenz und Maschinelles Lernen funktionierte.

Er zeigte, wie ein solcher Schreibalgorithmus arbeitet. Dass er nämlich auf Basis seiner Trainingssets – in diesem Fall eine Menge von Menschen geschriebener Text, darunter möglicherweise auch einige Bestseller –, also auf Basis seines gelernten Wissens versucht, einen solchen Anschlusssatz zu entwerfen, wie es am wahrscheinlichsten die Menschen getan hätten. Die KI entwickelt Anschlusssätze auf Basis gelernter Wahrscheinlichkeit. Und dabei kommt ihr halt schnell der Kontext abhanden. Nicht mehr und nicht weniger. 

Damit erreichte Kehlmann die Frage, ob sich die KI eigentlich darüber bewusst sei. Ob sie wisse, was sie tut. Seine Antwort: Nein! KI hat kein Bewusstsein, also auch kein Innen. Und damit macht er deutlich, was KI ist: Kein Konkurrent zur menschlichen Intelligenz – auch wenn die Bezeichnung dies nahezulegen scheint. Es ist lediglich eine Methode oder ein Verfahren, um in großen Datenmengen Muster zu erkennen und auf dieser Basis Wahrscheinlichkeiten vorherzusagen. Das klappt in unterschiedlichen Bereich unterschiedlich gut: Bei der Vorhersage von Verkäufen im Einzelhandel liegt die Genauigkeit mittlerweile bei rund 66 Prozent. Ebenso bei der Vorhersage von Reichweiten in Social Media. Selbst Kenner können mittlerweile nicht zuverlässig zwischen menschlicher Lyrik und solcher von KI unterschieden. Doch beim Schreiben von Kurzgeschichten, da hakt es. Wie wir gesehenen haben.

Kehlmann hat damit die Debatte vom Kopf auf die Füße gestellt: Denn während andere Autoren in den letzten Jahren über KI rumgeschwurbelt, orakelt, philosophische Experimente konstruiert, das Thema mit unnötigen ethischen Fragen überhöht haben, erklärt Daniel Kehlmann einfach, wie es funktioniert. Er schafft damit die Grundlage, dass mehr Menschen diese Technologie verstehen, die schon bald zur Basis-Technologie unserer Wirtschaft werden wird. Das ist wichtig, damit etwa Mediennutzer besser verstehen wie Social-Media funktioniert. Oder damit wir als Bürger über eine höhere Expertise verfügen, wenn wir etwa politisch diskutieren, ob und wie diese Technologie reguliert werden muss. Dabei bringen uns Fragen nach dem Muster „Entscheidet die KI besser als der Mensch?“ echt nicht weiter. Eher im Gegenteil. Sie führen uns weg von den entscheidenden Fragen. Was uns dagegen weiterbringt, ist das Verständnis, wie diese Technologie funktioniert. Dafür hat Daniel Kehlmann einen wertvollen Beitrag geleistet. Und dafür gebührt ihm Dank.

Seine Erfahrungen und Einschätzungen hat Daniel Kehlmann bei der 1. Stuttgarter Zukunftsrede am 9. Februar 2021 im Stuttgarter Schriftstellerhaus unter dem Titel „Mein Algorithmus und ich“ vorgetragen. In einem gleichnamigen Buch ist die Rede nachzulesen.



Kolumne Saim Rolf Alkan: Achtung, KI-Tourist*innen!