ChatGPT – eine Bedrohung für die Zukunft des Journalismus?

Gundel Henke

Künstliche Intelligenz (KI) revolutioniert zunehmend die Medienlandschaft und verändert grundlegend, wie Journalismus betrieben wird.

ChatGPT – eine Bedrohung für die Zukunft des Journalismus?

Künstliche Intelligenz (KI) revolutioniert zunehmend dieMedienlandschaft und verändert grundlegend, wie Journalismus betrieben wird. Indiesem Artikel untersuchen wir, wie KI-Technologien in der journalistischenPraxis eingesetzt werden, welche Herausforderungen sie mit sich bringen undwelche Möglichkeiten sie bieten, um die Qualität und Effizienz derNachrichtenproduktion zu verbessern.

Definition: Was ist ChatGPT?

ChatGPT ist ein auf künstlicher Intelligenz basierenderTextgenerator, der (gegenwärtig) auf der GPT-4-Architektur von OpenAI basiert. Dieses hoch entwickelte Modell verwendet maschinelles Lernen und große Mengen anTextdaten, um menschenähnliche Texte in natürlicher Sprache zu generieren.ChatGPT kann dabei auf verschiedenste Arten eingesetzt werden, etwa für dasVerfassen von Artikeln, das Beantworten von Fragen oder das Erstellen von kreativen Texten. Obwohl ChatGPT sehr leistungsfähig ist, kann es  ungenaue oder unvollständige Informationen liefern, da sein Wissen auf den bis September 2021 verfügbaren Daten basiert.

ChatGPT ist zugleich das Programm, das die Grenzen von 100 Millionen Nutzer:innen in einer rasanten Geschwindigkeit verbuchen konnte. Selbst Social Media Dienste wie Instagram konnten nicht von einem derartigen Wachstum innerhalb eines so kurzen Zeitraums profitieren.

Wichtig ist, dass die Dinge, die wir heute als KI bezeichnen, noch Prognosemodelle sind. So berechnen dieModelle eine Vorhersage, welcher Anwendungsfall für die Anwender:innen am besten ist. Somit berechnet ChatGPT etwa die Wahrscheinlichkeit, mit der bestimmte Wörter aufeinanderfolgen.  Die heutigen KIs sind noch spezifisch, aber noch nicht generell. Spezifische KI bezeichnet eine KI, die eine Aufgabe ausführen kann. Wohingegen eine generelle KI alle Formen intellektueller Ausgaben ausführen kann. Der Chatbot besitzt aktuell(noch?) kein sogenanntes Weltwissen. Generelle KIs kommen bisher nur inScience-Fiction vor. Von einem Star-Wars-Szenario mit einer KI wie C-3PO sind wir also noch eine ganze Weile entfernt.

Was passiert bei einem Large Language Model?

Ein Large Language Model (LLM) ist eine KI-Anwendung, die darauf trainiert ist, menschenähnliche Texte basierend auf den eingegebenenInformationen zu generieren. Im Kern besteht ein LLM aus einem Algorithmus, der große Mengen an Text analysiert und dabei Muster und Zusammenhänge in der natürlichen Sprache erkennt. Das momentan bekanntesten Language Models ist dieGPT-Serie von OpenAI.

Ein Language Model arbeitet in drei grundlegenden Schritten:

-     Vortrainieren: Im ersten Schritt wird das LLM auf riesigen Textmengen, beispielsweise aus demInternet, trainiert. Dabei lernt es sowohl grundlegende Sprachstrukturen als auch komplexe Zusammenhänge und Informationen aus verschiedenenThemenbereichen. Der Algorithmus verwendet dabei statistische Verfahren, um dieWahrscheinlichkeiten der aufeinanderfolgenden Wörter in einer Sequenz zu berechnen.

-     Feintuning:Im zweiten Schritt wird das LLM auf spezifische Datensätze oder Textmengen, die bestimmte Themen oder Stile enthalten, weiter trainiert. Dies ermöglicht es, dem Model eine gezielte Expertise oder Schreibweise beizubringen. Dabei werden oft menschliche Feedbackschleifen einbezogen, um die Qualität der generiertenTexte zu überprüfen und die Modellparameter entsprechend anzupassen.

-    Generierung: Schließlich kann das LLM zur Generierung von Texten verwendet werden. Dabei wird dem Model eineEingabeaufforderung oder ein Teil eines Textes gegeben, woraufhin es basierend auf den gelernten Mustern und Zusammenhängen versucht, den Text sinnvoll fortzusetzen. Die Textgenerierung erfolgt dabei tokenweise, wobei ein Token meist ein Wort oder ein Satzzeichen ist. Die Qualität und Relevanz der generierten Texte hängen von der Komplexität des Modells und der Qualität derTrainingsdaten ab.

Ein Large Language Model kann in verschiedenen Bereichen eingesetzt werden, wie bei der automatischen Übersetzung, Textzusammenfassung,Textklassifikation, Chatbots und vielen weiteren Anwendungen. Die Magie kommt aber dann ins Spiel, wenn dieses Training mit Feedback von Nutzer:innen noch weiter trainiert wird.

Es ist wichtig zu beachten, dass ein LLM nur so gut ist wie die Daten, auf denen es trainiert wurde. Daher können Modelle wie GPT-4 keine aktuellen Informationen über Ereignisse nach September2021 bereitstellen. Fragen Sie die KI, ob Lionel Messi Weltmeister ist, wird ChatGPT dies verneinen.

https://lifearchitect.ai/chatgpt/

Was kann ChatGPT (noch nicht)?

Um es kurz zu machen: ChatGPT kann Texte verstehen und Texte erstellen. Was sich auf den ersten Blick selbstverständlich anhört, ist aber bahnbrechend. ChatGPT hat jedoch gegenwärtig noch zwei Achillesfersen, nämlich die Aspekte Wahrheit und Verlässlichkeit.

Wer sich mit ChatGPT beschäftigt hat, wird schon festgestellt haben, dass nicht alle Informationen zu 100 %stimmig und wahr sind. In der aktuellen Version neigen die Tools noch zu Fantastereien. Möchte man zum Beispiel für eine gegebene Antwort die Quellen haben, kommt ChatGPT dieser Bitte nach und nennt auch welche. Es ist aber auf keinen Fall sicher, dass diese Quellen auch mit der gegebenen Antwort übereinstimmt. Wer in seinen Texten Quellen angeben möchte, sollte sie aus Sicherheit noch einmal gegenprüfen.

Darüber hinaus mangelt es ChatGPT noch an Verlässlichkeit. Stellt man ChatGPT wiederholt die gleiche Frage oder die gleiche Aufgabe, so präsentiert es unterschiedliche Antworten. Dies hängt damit zusammen, dass KI-Modelle auf  Wahrscheinlichkeiten und nicht auf absoluter Wahrheit beruhen.

So wird ChatGPT den Journalismus verändern

Künstliche Intelligenz (KI) hat das Potenzial, denJournalismus in vielerlei Hinsicht zu revolutionieren. Wie bei jeder technologischen Innovation gibt es jedoch sowohl Vor- als auch Nachteile, die berücksichtigt werden müssen.

Es liegt auf der Hand, dass gerade Menschen im journalistischen Umfeld die Sorge haben, ihre Tätigkeiten könnten bald von Bots übernommen werden. Diese Sorge ist aber unbegründet. Denn die journalistische Tätigkeit besteht nicht nur aus dem Schreiben von Texten, sondern vielmehr aus der Recherche von Inhalten und Zusammenhängen vonEreignissen. Beim eigentlichen Schreiben des finalen Textes setzen die Schreiber:innen ihre Ergebnisse zusammen und organisieren das Zusammengetragene.

In den vergangenen Jahren wurde immer deutlicher, dass eine Bereitstellung von textlichen Inhalten kaum noch ausreicht, um Sichtbarkeit im Internet zu erzeugen. Wer von Google auf den vorderen Rängen ausgespielt werden wollte, benötigt nicht nur einen guten Text, sondern auch Verlinkungen, Videos oder implementierte Feeds aus den sozialen Netzwerken. Der journalistische Prozess wurde immer aufwendiger, man kann in diesem Zusammenhang von einer Tätigkeitsverdichtung sprechen. Denn die finalen Texte müssen auch noch auf die diversen Ausgabekanäle angepasst werden.

Die Vorteile künstlicher Intelligenz im Journalismus

Expertinnen und Experten gehen davon aus, dass gerade in diesem Umfeld die Arbeit von Journalist:innen von der KI-Technologie profitieren kann. Zum Beispiel können SEO-Titel und-Beschreibungen ohne Probleme von einer KI erstellt werden und eine Recherche für SEO-Laien entfällt. In der täglichen Arbeit kann weniger kreative Arbeit dadurch minimiert werden.

Eine weitere Stärke wird zukünftig in der Unterstützung der Recherche liegen. So kann man die KI mit Texten füttern und in diesen Texten nach speziellen Zusammenhängen suchen und die Ergebnisse grafisch aufbereiten lassen.

Ein weiterer Vorteil für Verlage liegt in den Möglichkeiten, die eigenen Inhalte zu verwenden. Verlage können Ihren Nutzern dadurch neue interaktive Angebote unterbreiten, indem Sie KI-Modelle nutzen, die ausschließlich auf die eigenen Inhalte zugreifen. So ist z.B. ein Ratgeber-Chat denkbar, der die Daten der eigenen Ratgeber-Rubrik verwendet.

Die Kosten für eine Texterstellung haben sich in den vergangenen Jahren immer weiter nach unten orientiert. Durch die neuen Möglichkeiten wird es zu einer Schwemme an KI-generierten Texten kommen. Viele dieser Texte werden für bestimmte Anwendungsbereiche qualitativ ausreichend sein und werden Texter:innen in weiten Teilen überflüssig machen.

Auf der anderen Seite kann es sein, dass eben daher die handgeschriebenen Texte an Wert gewinnen. Einen Text kreativ aufzubereiten, durch Anekdoten anzureichern oder intertextuell zuverknüpfen, ist noch immer domänenspezifisches Hoheitsgebiet menschlicher Schreiber:innen.

KI kann einfache und zeitaufwendige Aufgaben wie die Erstellung von kurzen Nachrichtenartikeln oder das Zusammenstellen von Daten automatisieren. Dadurch können Journalisten mehr Zeit in anspruchsvollere Recherchen und Berichterstattungen investieren. Ferner wird KI zunehmend dazu beitragen, die Effizienz im Redaktionsprozess zu erhöhen, indem sie insbesondere Rechercheergebnisse schneller zusammenträgt oder den Fluss von Nachrichten optimiert. KI-Systeme können dabei helfen, Fakten in Artikeln schneller und genauer zu überprüfen, was zur Verbreitung verlässlicher und glaubwürdiger Informationen beiträgt.

Mithilfe von KI werden Nachrichteninhalte besser auf die Interessen und Bedürfnisse der Leserzugeschnitten werden können, was zu einer größeren Zufriedenheit und Bindung des Publikums an bestimmte Publikationsorgane führen wird.

Diesen verlockenden Vorteilen stehen auch eine Reihe an Nachteilen gegenüber.

So disruptiv die KI-Technologien auch sein mögen, sie bergen auch Risiken. Bisher ist zum Beispiel noch überhaupt nichtgeklärt, wie es mit dem Copyright der von ChatGPT erstellten Texte aussieht. In der nahen Zukunft ist davon auszugehen, dass gerade dieser Bereich viel Aufmerksamkeit erfordern wird.

Die Automatisierung könnte dazu führen, dass einige Arbeitsplätze im Journalismus verloren gehen, vorwiegend in Bereichen, in denen menschliche Fähigkeiten durch KI ersetzt werden können. Zudem besteht die Gefahr, dass der Einsatz von KI zu einer stärkeren Betonung von Quantität statt Qualität führt, was möglicherweise zu einer Verschlechterung der Berichterstattung beiträgt.

KI-Systeme können unbeabsichtigt menschliche Vorurteile und Stereotypen übernehmen, die in den Daten enthalten sind, mit denen sie trainiert wurden. Dies kann zu einer verzerrten Berichterstattung führen. Eine zu starke Abhängigkeit von KI könnte dazu führen, dass grundlegende journalistische Fähigkeiten verloren gehen odervernachlässigt werden.

Handgeschriebene Inhalte könnten in einer von Künstlicher Intelligenz (KI) dominierten Welt aus verschiedenen Gründen an Wert gewinnen:

Handgeschriebene Texte transportieren Emotionen und Persönlichkeit besser als maschinell erstellte Inhalte. Sie vermitteln eine authentische und individuelle Note, die es Leser:innen ermöglichen, eine stärkere Verbindung zu den Autor:innen herzustellen.

KI-basierte Texte können zwar effizient und informativ sein, aber ihnen fehlt oft die Kreativität und Originalität, die handgeschriebene Texte auszeichnen. Gerade in Bereichen wie Literatur, Kolumnen oder Kommentaren kann der menschliche Faktor entscheidend sein, um sich von der Masse abzuheben.

Zwar kann künstliche Intelligenz Muster und Zusammenhänge erkennen, aber sie ist (noch) nicht in der Lage, auf die gleiche Weise kritisch zu denken wie ein Mensch. Handgeschriebene Inhalte können komplexe Zusammenhänge und Reflexionen besser darstellen, was gerade in der Meinungsbildung und im investigativen Journalismus von hoher Bedeutung ist.

Ausblick: Was kommt als Nächstes?

ChatGPT wird sich weiterentwickeln und die Menge an Daten, aus denen die KI ihre Antworten bezieht, werden immer besser trainiert werden. Ferner werden die Ergebnisse immer genauer werden und auch verlässlicher. Spannend wird es, wenn die KI in Zukunft auch tagesaktuell auf das Internet zugreifen und die aktuellen Daten mit den alten in Verbindung setzen kann. Spannend wird auch, inwiefern sich unterschiedliche KI-Modelle und Programme miteinander verbinden lassen.

 

Sie interessieren Sich für den Einsatz künstlicher Intelligenz in Ihrer Redaktion? Sprechen Sie uns gerne an.

Nicht sicher, ob Purple DS zu Ihnen passt?

Oder Sie haben individuelle Anforderungen?
Wir beraten Sie gerne.
Kevin Kallenbach
Head of Sales