Künstliche Intelligenz Informatik-Professorin Katharina Zweig: "Wir können den Entscheidungen von Computern nicht vertrauen"

Futuristisches Portrait einer Frau zum Thema Künstliche Intelligenz
Teams, die Künstliche-Intelligenz-Systeme trainieren, sollten möglichst divers sein – dafür plädiert Informatik-Professorin Katharina Zweig.
© Getty Images
Katharina Zweig, Bestsellerautorin und Informatik-Professorin an der Technischen Universität Kaiserslautern, erklärt die Tücken Künstlicher Intelligenz und verrät, wie man sich gegen diskriminierende Algorithmen am besten wehrt.

Frau Professor Zweig, Sie nehmen in Ihren Büchern Menschen die falsche Ehrfurcht vor künstlicher Intelligenz. Jeder von uns, so schreiben Sie, wendet im Alltag ständig Algorithmen an. Zum Beispiel beim Doppelkopf. Das müssen Sie bitte erklären.
Der Begriff Algorithmus ist schon fast ein Mythos geworden. Dabei ist alles, was man regelhaft tut, um ein Ziel zu erreichen, ein Algorithmus. Wenn man zum Beispiel beim Doppelkopf die Karten aufnimmt, sortiert man sie in einer bestimmten Reihenfolge. Das tut man regelhaft. Also ist das ein Algorithmus. Oder nehmen Sie das schriftliche Multiplizieren von zwei Zahlen. Da wissen wir alle, in welcher Reihenfolge wir welche Schritte machen müssen. Auch das sind Algorithmen. Es gibt keinen Grund, sie zu mystifizieren.

Als in den 1980er Jahren die ersten Personal Computer auf den Markt kamen, waren das Werkzeuge, die man für Daten- und Textverarbeitung nutzte. Wenn man sich aber heutige KI-Systeme anschaut, etwa ChatGPT, dann hat man das Gefühl, das ist viel mehr als ein Werkzeug, nämlich ein menschliches Gegenüber. Wie konnten Computer so gut sprechen lernen?
Das ist wirklich erstaunlich, vor allen Dingen, wenn man die Geschichte der künstlichen Intelligenz bedenkt. In den 80er Jahren haben Übersetzungsprogramme teilweise noch sehr lustige Texte produziert. Aus dem Satz "das passt mir nicht in den Kram“ wurde im Englischen: "That does not usually suit me in the stuff“. 

Portrait der Informatik-Professorin Katharina Zweig
Ihre Bücher sind ebenso kritisch wie ermutigend: Informatik-Professorin Katharina Zweig schreibt Bestseller über KI. Sie forscht und lehrt an der Rheinland-Pfälzischen TU Kaiserslautern-Landau
© Felix Schmitt

Damals hat man versucht, Computern Grammatikregeln und Wortbedeutungen beizubringen, was kläglich scheiterte. Was hat sich verändert?
Wir haben heute viel mehr Hardware, also Rechenleistung. Und sehr viel mehr Daten. Das bedeutet, wir können die Maschinen nun mit diesen Daten lernen lassen. Sie erkennen darin Muster und entscheiden aufgrund von Wahrscheinlichkeiten, welches Wort in welchem Kontext als nächstes vermutlich folgen wird. Mehr können die gar nicht. 

Zum Beispiel?
Angenommen ich sage: "Ich höre mitten im Satz auf zu….." und mache danach eine Pause. Dann weiß jeder, welche Worte als nächstes kommen sollten, nämlich reden, sprechen, antworten. Und genau diese Fähigkeiten besitzen Sprachroboter wie Chat GPT jetzt auch. Sie fügen Sätze aufgrund von Wahrscheinlichkeiten zusammen. Dahinter stecken statistische Verfahren. Ich finde es erstaunlich, dass man allein mit dieser Fähigkeit so tolle Texte formulieren kann.

Sie schreiben in Ihrem Buch, KI-Systeme seien "merkwürdig intelligent". Was meinen Sie damit?
Na ja, KI-Systeme können sehr viel, aber man weiß nie, wann sie etwas sehr Merkwürdiges tun, das einem Menschen nie einfallen würde. 

"Verstehen" Sprachroboter, wenn wir sie zu etwas auffordern?
Darüber wird in der Fachwelt intensiv diskutiert. Tatsächlich können Sprachmodelle ja eine Aufforderung wie: "Dieser Brief liegt in Sie-Form vor, wandle ihn bitte um in Du-Form", problemlos umsetzen. Also, wenn mein Sohn dieser Bitte nachkäme, würde ich schon sagen, das war intelligent, er hat verstanden, worum ich ihn gebeten habe. Andererseits haben Wörter für den Computer keinerlei Bedeutung. Wenn ich von einem Glas Wasser spreche, dann weiß ich, dass ich das Glas anfassen kann, dass ich Wasser trinken muss, weil ich sonst sterbe. Dieses Wissen hat für mich eine Bedeutung als Mensch. Für die Maschine hat das Wort Wasser keine Bedeutung. Es ist eine Zeichensequenz, die in manchen Kontexten eine große Wahrscheinlichkeit hat zu erscheinen, in anderen eine kleine.

Wir müssen verstehen, wie diese Technologie funktioniert, damit wir wissen: Wo muss der Mensch ran und wo kann die Maschine unterstützen? Sie ist ein Werkzeug.

Längst treffen Computer Entscheidungen. Banken prüfen mit Hilfe von KI die Kreditwürdigkeit von Kunden, Polizisten fahnden nach Verdächtigen, Professorinnen bewerten Prüfungsleistungen von Studierenden. Können wir diesen Entscheidungen vertrauen?
Nein, auf keinen Fall. Vor allem nicht, wenn es um Werturteile geht. Das sind Urteile, die nicht allein auf Fakten beruhen, sondern gut begründet werden müssen. Wir haben ein Experiment gemacht und eine Klausur bei ChatGPT hochgeladen und um Bewertung gebeten. Die Maschine sagte, das sind 17 von 20 möglichen Punkten und begründete das auch. Als ich die gleiche Arbeit hochlud und sagte, das sei eine nicht so gute Klausur, bitte bewerte sie, lieferte sie mir genauso bereitwillig eine schlechte Bewertung. Wir müssen verstehen, wie diese Technologie funktioniert, damit wir wissen: Wo muss der Mensch ran und wo kann die Maschine unterstützen? Sie ist ein Werkzeug.

Sie plädieren dafür, dass die Teams, die KI-Systeme trainieren, möglichst divers sein sollten. Warum ist das so wichtig?
Ein Beispiel, über das vor allem in den USA viel diskutiert wurde, ist das einer dunkelhäutigen Doktorandin, die ein Kunstprojekt mit einer Gesichtserkennungssoftware machen wollte. Doch die Software hat ihr Gesicht einfach nicht erkannt. Die hat gesagt, da sitzt niemand vor dem Bildschirm. Stellen Sie sich das einmal vor: Das ist wirklich extrem und ein schreckliches Gefühl. Die Doktorandin hat schließlich herausgefunden, dass die Bilddatenbanken, mit denen diese Gesichtserkennung trainiert wurde, viel zu wenig Personen mit dunkler Hautfarbe enthielten und ganz wenige Frauen mit dunkler Hautfarbe. In einem diversen Team wäre der Fehler vermutlich viel früher aufgefallen, und man hätte andere Datensätze genutzt.

Zur Diversität gehören deutlich mehr Frauen. Doch obwohl Mädchen in Mathe in der Schule sehr gute Leistungen bringen, gehen sie selten in die Informatik. Warum ist das so?
Wenn wir das so genau wüssten. Ich war tatsächlich eine der ersten Professorinnen an meinem Fachbereich. Inzwischen sind wir fünf Frauen und 22 Männer. Ich kann nur allen Mädchen sagen: Es ist ein toller Beruf! Man kann die Gesellschaft verändern, denn Software setzt Regeln, wie wir miteinander leben und arbeiten wollen. 

Buchcover: "Die KI war´s" von Kaharina Zweig
Katharina Zweig: "Die KI war's! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz". Heyne Verlag, 320 S., 20 Euro
© Heyne Verlag

Sie haben den bundesweit ersten Studiengang für Sozioinformatik aufgebaut. Worum geht es da?
In der Sozioinformatik versuchen wir zu modellieren, wie Menschen auf Software reagieren. Ein Beispiel: 2016 haben sich mazedonische Jugendliche in den Präsidentschaftswahlkampf von Donald Trump und Hillary Clinton eingemischt. Wir wollten verstehen, warum. Es kamen mehrere Faktoren zusammen: Da war die hohe Jugendarbeitslosigkeit in Mazedonien. Die Jugendlichen hatten zudem mitbekommen, dass sie mit Traffic auf ihrer Website bis zu 10.000 Dollar monatlich an Werbeeinnahmen erhalten konnten. Und als Drittes kam die Psychologie amerikanischer Wähler hinzu, die einfach stärker reagierten, also mehr Traffic generierten, wenn gegen Clinton geschossen wurde statt gegen Trump. So hat ein eigentlich politisch neutraler Werbealgorithmus zusammen mit der Psychologie amerikanischer Wähler und einer politisch neutralen Gruppe von Jugendlichen in Mazedonien dazu geführt, dass Trump unterstützt wurde. So etwas untersuchen wir in unserem Studiengang und programmieren Software, mit der das nicht passiert.

Sam Altman, der Gründer der Firma, die ChatGPT entwickelt hat, warnte vor dem Risiko, dass die Menschheit durch KI vernichtet werden könnte. Das Risiko sei vergleichbar mit dem einer Pandemie oder eines Atomkrieges. Teilen Sie diese Angst?
Ich persönlich habe im Moment keine Angst, dass KI ein Bewusstsein bekommt und sich in böser Absicht gegen die Menschheit richtet, sondern eher, dass wir schlecht gemachte KI in die freie Wildbahn entlassen und sie dann Menschen Schaden zufügt, die sich kaum dagegen wehren können. Das ist meine größte Sorge. 

PRODUKTE & TIPPS