Künstliche Intelligenz - die zweite Chance

Mit dem rasanten Fortschritt von Künstlicher Intelligenz steht die Zeitungsbranche – wie schon bei der Etablierung des Internets – erneut an einem Scheideweg. Die Frage ist, wie die Verlage damit umgehen und ob der Journalismus gestärkt daraus hervorgehen wird.

Es ist erst ein gutes halbes Jahr her, dass ChatGPT wie aus dem Nichts auftauchte und in der Öffentlichkeit präsent war. Mittlerweile sind unzählige Workshops, Use-Cases und Artikel zum Thema veröffentlicht worden – auch wir haben unsere „ZMG-Digital“ mit einem Übersichtsartikel zu Künstlicher Intelligenz (KI) gestartet. Die Entwicklung ist seither so dynamisch, dass wir dieses Thema nur wenige Monate später hiermit erneut aufnehmen.

Längst reden wir nicht mehr nur über ChatGPT. Mittlerweile sind neue, noch umfangreichere Versionen verfügbar - und OpenAI als Anbieter des Programms bekommt starke Konkurrenz von den großen Techkonzernen wie Google oder Microsoft, die ihrerseits mit eigenen Algorithmen das verlorene Terrain zurückgewinnen wollen.

Auswirkungen des KI-Versums auf Menschen und Gesellschaft

Der Startschuss ist gefallen und das Rennen in vollem Gange. In den Entwicklungsabteilungen wird derzeit der Fokus auf jede Weiterentwicklung gelegt, die technisch machbar erscheint. Gleichzeitig zerbrechen sich Juristen die Köpfe, ob und wie man die Auswirkungen des KI-Versums regulieren kann, und wo überhaupt Rechtsgebiete betroffen sind. Andere stellen sich ethisch-normative Fragen: Welche Auswirkungen haben die Ergebnisse von generativen Algorithmen auf unsere Gesellschaft, den Menschen und das Zusammenleben?

Fest steht: Der Geist ist längst aus der Flasche, ein Zurück wird es nicht geben. KI hat Auswirkungen auf Unternehmen, auf Organisationen, auf jeden von uns. Google hat dies unlängst leidvoll erfahren: Im Februar produzierte der von Google eingesetzte Algorithmus „Bard“ ausgerechnet während einer Live-Vorführung in Paris inhaltliche Fehler. Kann passieren? Vielleicht – doch die Folgen können dramatisch sein: Der Aktienkurs des Mutterkonzerns Alphabet brach innerhalb weniger Stunden um acht Prozent ein und Alphabet war plötzlich 100 Milliarden US-Dollar weniger wert.

Man kann sich leicht ausmalen, welche Anstrengungen daraufhin im Silicon Valley unternommen worden sind. Denn nur wenige Monate später wurde eine völlig überarbeitete Version präsentiert - die übrigens beinah schon wieder eine Revolution der Revolution ankündigt.

ChatGPT ist jetzt schon veraltet

Während ChatGPT Informationen bis 2021 berücksichtigt und derzeit nur auf Ein- und Ausgabe von Text reagiert, berücksichtigen neue Modelle das aktuelle Internet, können durch Sprache gesteuert werden und auch Informationen aus Bildern und Videos extrahieren.

Welche Auswirkungen hat das alles auf die Medienbranche? Es gibt verschiedene Szenarien: Ein mögliches Einsatzgebiet von KI in Verlagen liegt im Bereich der Assistenzsysteme, also bei Unterstützung und Zuarbeit. So können Marketingkampagnen weiter auf Leser- und Werbemärkte zugeschnitten werden, und zwar nicht nur beim sichtbaren Ergebnis einer zielgerichteten Kampagne, sondern vor allem bei der Vorbereitung und den internen Prozessen.

Generative KI kann zum Beispiel bei der Formulierung eines E-Mail-Textes unterstützen oder auch eine Serien-E-Mail per Spracheingabe vorbereiten, sofern die Funktionen in den Redaktions- und Anzeigensystemen implementiert sind. Auf diese Weise können interne Abläufe schneller und stabiler werden. Denkt man diese Idee zu Ende, bedeutet das allerdings auch, dass diese Abläufe schließlich mithilfe der KI automatisiert werden. Somit wären keine Mitarbeiter:innen mehr nötig, wodurch der Vorwurf laut werden könnte, dass die KI Arbeitsplätze vernichtet. Tatsächlich sind Mitarbeitende wegen des Fachkräftemangels ohnehin schwer zu finden und überdies kaum für die Verlagsbranche zu begeistern.

Sinnvoller Einsatz bei Rechtschreibprüfung

Künstliche Intelligenz ist ebenfalls sinnvoll für die Überprüfung von Rechtschreibung und Grammatik und dürfte in diesem Bereich vermehrt eingesetzt werden. Tatsächlich gilt: Je weniger Fehler in einem Beitrag vorkommen, desto mehr nehmen User und Leser:innen den Inhalt als qualitativ hochwertig wahr – und umgekehrt. Künftig könnten Algorithmen zudem Tonalität und Stil eines Textes anpassen. Ob das allerdings zu besseren Inhalten führt, ist derzeit kaum zu beurteilen – und erst recht, ob es nötig ist. Denn eine Grundkompetenz von Journalisten ist schließlich der Umgang mit Sprache und dem geschriebenen Wort.

Damit kommen wir zu einem zentralen Punkt bei der Auseinandersetzung mit generativer KI und den möglichen Auswirkungen auf die Medienbranche: dem Inhalt. Wer produziert eigentlich in Zukunft den Content? Nach welchen Kriterien und Standards werden in Zukunft Texte erstellt? Ist denn das bisherige Geschäftsmodell überhaupt noch zukunftsfähig? Die Medien und Redaktionen haben eine besondere, im Grundgesetz verankerte Aufgabe, die der Generalsekretär der Vereinten Nationen, António Guterres, formuliert: „Die freie Presse hat eine essenzielle Bedeutung für Frieden, Gerechtigkeit, nachhaltige Entwicklung und Menschenrechte.“

Roboterjournalismus contra Idee der freien Presse

Was passiert, wenn künftig Nachrichten von Large-Language-Modellen (LLM) wie ChatGPT oder Bard erschaffen und produziert werden? Ein Verleger mag darin vielleicht eine Chance sehen, in der Redaktion weiter Kosten einzusparen und vermehrt „Roboterjournalismus“ einzusetzen – schließlich gerät sein Geschäftsmodell zunehmend unter Druck, da die Print-Auflagen sinken und insbesondere die junge Zielgruppe wenig motiviert ist, für Inhalte zu bezahlen.

Einer solchen ökonomischen Perspektive muss aber eine ethisch-philosophische Position gegenübergestellt werden. Auch, weil mittlerweile selbst KI-Pioniere wie Geoffrey Hinton von den Entwicklungen in der KI überrascht sind – und Hinton ist immerhin der Miterfinder von Deep-Learning, ehemaliger Top-Manager bei Google und Doktorvater von Ilya Sutskever, dem Mitbegründer von OpenAI. In einem Artikel der „MIT Technology Review“ wird Hinton mit dem Satz zitiert: „Manchmal glaube ich, dass es so ist, als ob Außerirdische gelandet wären, und die Menschen es nicht bemerkt hätten, weil sie sehr gut Englisch sprechen.“ Er spricht in dem Artikel auch davon, dass eine neue Art von Intelligenz erschaffen worden sei, die in manchen Bereichen eine ernsthafte Gefahr für die Menschheit darstellen könne, da sie nicht mehr beherrschbar sei. Mittlerweile gibt es eine Vielzahl von prominenten Köpfen aus der Techbranche, allen voran Elon Musk oder Apple-Chef Steve Wozniak, die ein Moratorium bei der KI-Entwicklung fordern.

Gefahr von Fake News und Manipulation – Medien müssen aufwachen

Das sollte ein Weckruf für die Medien- und Zeitungsbranche sein. Die Entwicklung der KI wird nicht aufzuhalten sein; daher sollte die Rolle des Journalismus in diesen Szenarien neu justiert und definiert werden. Die Kernformel aus der Kommunikationswissenschaft, die so genannte Lasswell-Formel, kann dabei helfen: „Who says what in which channel to whom with what effect?“ Die Gefahr, dass Menschen durch mediale Inhalte manipuliert werden können, ist bekannt und alles andere als abstrakt. Fake News, Kriegspropaganda, Einschränkungen beim Zugang zu Medien und Zensur sind in vielen Ländern der Welt üblich.

Auch in Deutschland wächst das Misstrauen: Einer Studie des Statistik-Unternehmens Statista zufolge schätzen 33 Prozent der Bevölkerung journalistische Inhalte als „nicht glaubwürdig“ ein. Und die Zahl der Skeptiker wächst. KI macht es nicht unbedingt besser: Es ist oft kaum erkennbar, ob KI oder ein Mensch einen Text geschrieben hat und ob man dem Inhalt glauben kann. Das kann Menschen verunsichern und überfordern, sodass viele sich vom nachrichtlichen und journalistischen Medienkonsum abwenden und sich nur noch mit unterhaltenden Inhalten beschäftigen. Darin liegt eine große Gefahr. Denn die Basis unserer Demokratie und unserer Kultur ist eine aufgeklärte und informierte Gesellschaft. Und das ist gleichzeitig die Chance für Medienunternehmen und Zeitungshäuser.

Mensch statt Algorithmus: Professionelle Recherche und journalistische Standards

Die Medienmarke wird in Zukunft also noch mehr in den Fokus rücken, denn sie steht bei Usern und Leser:innen für Seriosität und Glaubwürdigkeit, für verlässliche und professionelle Recherche und für Inhalte gemäß qualitativ hochwertigen journalistischen Standards – und zwar von Menschen erstellt und erarbeitet, nicht von Algorithmen. Die Zeitungsbranche spielt also eine zentrale Rolle, der sie sich bewusst sein muss. Und zwar deutlich mehr als vor zwei Jahrzehnten bei der Etablierung des Internets, als die Tragweite des World Wide Web an manchen Stellen unterschätzt wurde.

Medien, Verlage, Journalisten und Verantwortliche müssen die aktuellen Entwicklungen bei den generativen Algorithmen kritisch begleiten, aus ethischer Perspektive beurteilen und die Bedeutung des Journalismus in einer digitalen und vernetzten Welt stärken. Dazu gehört auch, sich intensiv mit Fragen der Transparenz, Verantwortlichkeit und Ethik im Umgang mit KI-basiertem Journalismus auseinanderzusetzen.

Journalismus stärken statt schwächen

Transparenz heißt zum Beispiel, dass KI-generierte Inhalte klar gekennzeichnet werden und Leser:innen und User so den Unterschied zwischen von Journalisten geschriebenen Artikeln und von Algorithmen erstellten Texten erkennen können. Neben den technischen und ethischen Aspekten müssen überdies rechtliche Rahmenbedingungen geschaffen werden, um den Einsatz von KI im Journalismus zu regulieren. Fragen des Urheberrechts, der Haftung und des Datenschutzes müssen dabei sorgfältig bedacht werden.

Nur durch einen interdisziplinären Dialog zwischen Medienschaffenden, Technologieentwicklern, Wissenschaftlern und der Gesellschaft wird sichergestellt, dass KI verantwortungsvoll genutzt wird und der Journalismus seine wichtige Rolle als vierte Gewalt in der Demokratie weiterhin erfüllen kann.

Juli 2023