Dass ChatGPT gerne mal Tatsachen erfindet, ist bekannt. Jetzt hat das aber ganz konkrete Folgen im echten Leben: Ein Professor in den USA wurde unschuldig sexueller Übergriffe beschuldigt.
Lange Texte verfassen, komplexe Themen im Chat erklären oder einfach quatschen: Es ist mehr als beeindruckend, was die KI hinter ChatGPT alles zusammenschreiben kann. Dass sie dabei etwas fehleranfällig sein kann und Fakten erfindet, sollte einem natürlich bewusst sein. Für Jonathan Turley, einen Professor in den USA, hat der Erfindungsreichtum der KI nun überraschende Folgen.
"Es war ziemlich erschreckend", berichtet Turley der "Washington Post". Ein Kollege hatte den Chatbot im Rahmen einer Studie nach Forschern gefragt, die schon mal jemanden sexuell belästigt hatten. Und hatte dann auch Turley auf der Liste entdeckt.
Erfundene Nachrichten über echte Menschen
Nach Angaben ChatGPTs habe Turley sich mehrfach gegenüber Studentinnen anzüglich geäußert, während einer Studienreise nach Alaska soll er 2018 sogar versucht haben, eine Studentin zu begrapschen. Als Quelle nannte der Bot einen Artikel der "Washington Post". Das Problem dabei: Dieser Artikel existierte nie. Turley war zu keiner Zeit unangemessenes Verhalten gegenüber Studierenden vorgeworfen worden. Und selbst die Reise nach Alaska hatte nicht stattgefunden.
Turley war entsprechend geschockt. "Solche Anschuldigungen können extrem schädlich sein", erklärt er seine Sorge. Die Metoo-Bewegung und das daraus entstandene Bewusstsein zur Problematik sexueller Übergriffe in Machtungleichgewichten ist in den amerikanischen Universitäten seit Jahren ein riesiges Thema. Mögliches Fehlverhalten oder auch nur der Verdacht davon kann sehr schnell sehr harte Konsequenzen haben.
Keine Kontrollinstanz
Das Versagen der KI ist daher besonders problematisch. Durch das vermeintliche Zitat einer seriösen Zeitung wirken die Vorwürfe echt, wenn man sich nicht die Mühe macht, sie genau zu prüfen. Und: Die KI trägt ihre Aussagen sehr selbstbewusst vor. Bei einem unbedachten Leser vermitteln sie den Eindruck: So ist das.
Einfach korrigieren ließ sich der Fehler indes nicht. Obwohl Turley regelmäßig in den Medien ist und auch schon Korrekturen in Geschichten veranlassen musste, wusste er diesmal nicht, an wen er sich wenden sollte. Schließlich gab es keinen Autor, der einen Fehler gemacht hatte. Die Firma hinter dem Bot, OpenAI, hatte zwar mit der neuesten Version versprochen, dass ChatGPT weniger "halluzinieren" soll, ausführliche Tests deuten allerdings darauf hin, dass Version 4 des Bots sogar noch mehr faktische Fehler macht als der Vorgänger.
Der Professor ist entsprechend nicht der einzige, der durch Falschbehauptungen der KI um seinen Ruf fürchten muss. Erst am Mittwoch hatte "Reuters" gemeldet, dass ein australischer Bürgermeister eine Klage gegen OpenAI erwägt. Der KI-Bot hatte dem Politiker eine Gefängnisstrafe angedichtet – ausgerechnet wegen Bestechung.
Quellen: Washington Post, Reuters