Maschinelle Fehlerteufel Künstliche Dummheit: US-Nachrichtenwebsite lässt Dutzende Artikel von KI schreiben – und blamiert sich

Roboter tippt auf Laptop-Tastatur
Künstliche Intelligenz ist auch im Journalismus längst kein Neuland mehr. Allerdings wird sie mindestens kritisch beäugt (Symbolbild)
© Andrey Popov / Imago Images
Künstliche Intelligenz sollte per Definition was sein? Intelligent natürlich. Doch, wie ein Onlinemagazin in den USA unfreiwillig bewiesen hat, stößt auch fortschrittlichste Technologie (noch) an ihre Grenzen.

"Investieren kann ein effektiver Weg sein, um mit Ihrem Geld mehr Geld zu verdienen." So beginnt ein kürzlich auf der US-Nachrichtenwebsite Cnet veröffentlichter Ratgeberartikel zum Thema Zinseszins. Zugegeben: Die Erkenntnis in diesem ersten Satz ist nicht gerade überraschend. Womöglich sind es aber die Fehlerteufelchen, die sich im weiteren Textverlauf eingeschlichen haben.

In dem Artikel heißt es unter anderem, dass bei einer Einlage von 10.000 US-Dollar und drei Prozent Zinsen nach einem Jahr stolze 10.300 Dollar Gewinn abfielen. Da hat sich der Autor um schlappe 10.000 Dollar verschätzt. Nur dürfte sich der Verfasser eigentlich keine Fehler leisten, schließlich ist der kein Mensch, sondern eine Maschine. Eine künstliche Intelligenz hatte den Text verfasst. Das wusste der Leser auf den ersten Blick allerdings nicht. Als Autor wird bis heute lediglich eine ominöse "Cnet Money"-Redaktion angegeben.

Rund 75 Artikel sollen seit November 2022 auf der Nachrichtenwebsite des US-Medienunternehmens Cnet, einer CBS-Tochter, allein oder mithilfe von künstlicher Intelligenz verfasst und veröffentlicht worden sein. Einige davon wiesen inhaltlich gravierende Fehler auf.

"Redaktionelles Versagen"

Auf die Schliche kam der bekannten Nachrichtenseite das Technikmagazin "Futurism". Dessen Redakteure wiesen nach, dass eine namenlose KI Dutzende fehlerhafte Artikel für Cnet generiert hatte. Cnet gab dies daraufhin zwar zu, erklärte aber, dass das Ganze eher als Experiment zu verstehen sei, schließlich habe man sich "seit mehr als zwei Jahrzehnten [...] den Ruf erworben, neue Technologien zu testen", schrieb Chefredakteurin Connie Guglielmo. Man habe lediglich herausfinden wollen, "ob die Technologie unseren vielbeschäftigten Reportern und Redakteuren bei ihrer Arbeit helfen kann, Themen aus einer 360-Grad-Perspektive zu behandeln", so Guglielmo.

Am Dienstag begann Cnet damit, einige der fraglichen Artikel mit ellenlangen Korrekturhinweisen zu versehen. Bei Dutzenden Texten auf Cnet und dessen Partnerwebsite "Bankrate" heißt es inzwischen, dass "wir diesen Artikel derzeit auf seine Richtigkeit überprüfen" und, dass "wir ihn aktualisieren und korrigieren werden, wenn wir Fehler finden". Wenn das stimmt, "dann ist dies in erster Linie ein redaktionelles Versagen", sagte Hany Farid, Professor für Elektrotechnik und Informatik an der University of California in Berkeley der "Washington Post". Dennoch sind bislang längst nicht alle Fehler ausgebügelt, wie "Futurism" anmerkt.

Künstliche Intelligenz: kein journalistisches Neuland

Künstliche Intelligenz ist nicht mehr aus unserem Alltag wegzudenken: Smartphones erkennen mit ihrer Hilfe unsere Gesichter, die Algorithmen von Netflix empfehlen uns passgenaue Filme und Serien, sie fährt uns sogar in Autos eigenständig von A nach B. Auch im Journalismus ist KI schon lange kein Neuland mehr. Sie wird allerdings äußerst kritisch beäugt. Auch für diesen Artikel bräuchte die KI theoretisch nur wenige Sekunden – die Frage der Qualität einmal hintenangestellt. Für Aufsehen gesorgt hatte jüngst auch der Chatroboter ChatGPT, der teils enorm komplexe Antworten auf Nutzerfragen liefert ().

Die US-Nachrichtenagentur Associated Press nutzte KI bereits 2014 für Berichte über Unternehmensgewinne und Sportergebnisse. Diese Artikel waren allerdings deutlich oberflächlicher und beschränkten sich größtenteils darauf, aktualisierte Zahlen in vorgefertigte Rahmentexte einzusetzen. Andere Bots, so die "Washington Post", würden zur internen redaktionellen Kontrolle verwendet. Ein Algorithmus der "Financial Times" durchforste beispielsweise Artikel, um festzustellen, ob in einem Text zu viele Männer zitiert werden. 

Die KI-Texte von Cnet hingegen sind auf den ersten Blick kaum von "handgemachten" Artikeln zu unterscheiden – abgesehen davon, dass sie schlichtweg plump formuliert sind (unabhängig vom Thema). Inzwischen verweist die Redaktion bei den entsprechenden Texten auf die maschinelle Beteiligung hin: "Dieser Artikel wurde von einer KI-Engine unterstützt und von unserer Redaktion geprüft, auf Fehler überprüft und redigiert."

Ein weiteres Problem bei KI im Journalismus besteht in der Plagiatsgefahr. Algorithmen sind weder kreativ, noch von sich aus kritisch. Anders gesagt: KI-Artikeln mangelt es an Transferleistung, sie geben immer nur wieder, was Menschen bereits geschrieben haben. Trotz all dieser Bedenken ist KI auch im Journalismus der Zukunft sicherlich kein No-Go, sondern vielmehr ein Werkzeug. Und bei einem Werkzeug kommt es am Ende immer auf den Handwerker an. Vielleicht finden Sie auch in diesem Text den einen oder anderen Patzer – trotz sorgfältiger Kontrolle. In diesem Fall bitten wir Sie um Verzeihung. Dass wir Journalisten Fehler machen, kommt vor – schließlich sind wir keine Maschinen.

PRODUKTE & TIPPS