Ehemalige Google-Forscherin Expertin warnt: Warum die Angst vor KI in die falsche Richtung geht – und wovor wir uns wirklich fürchten sollten

KI ChatGPT AI
Gute KI, böse KI: Da nicht bekannt ist, mit welchen Daten Modelle wie ChatGPT wirklich trainieren, und wohin das führt, braucht es nach Ansicht vieler Menschen klare Regeln.
© marvinh / Getty Images
Schon vor Jahren warnte Meredith Whittaker, dass Künstliche Intelligenz auch Risiken mit sich bringt. Durch die jüngsten Entwicklungen hat sich ihre Befürchtung nicht verändert. Vor allem wie Konzerne wie ihr ehemaliger Arbeitgeber damit umgehen, macht ihr Sorgen.

Es ist die Urangst des Menschen vor Künstlicher Intelligenz: Die Vorstellung, dass die Software irgendwann ihre Schöpfer übertrumpft. Und die Kontrolle über sie übernimmt. Die ehemalige Google-Forscherin sieht allerdings deutlich konkretere Risiken der Technologie. Und der Art, wie die Unternehmen damit umgehen.

"Es erinnert mich daran, wie man sich als Kind Geistergeschichten erzählt, etwas mit viel emotionalem Gewicht. Plötzlich haben alle panische Angst und reagieren darauf. Und dann wird es schwer, es nicht zu glauben", fasste sie gerade in einem Gespräch mit "Fast Company" ihre Sicht auf die Angst vor einer Übernahme durch Künstliche Intelligenz zusammen. Menschen würden intuitiv auf die Technologie reagieren, weil sie sich als begierig zuhörender Gesprächspartner präsentiere. "Und daraus entsteht eine Art Wunschdenken, etwas Menschliches in ihr zu sehen", glaubt sie.

Widerstand bei Google

Whittaker hatte Google im Streit verlassen. 2017 wollte der Konzern unter dem Projektnamen "Maven" Zielsysteme für das US-Militär auf KI-Basis entwickeln. Whittaker und einige Kollegen wehrten sich lautstark gegen die Pläne. Und auch wenn Google sich letztlich aus dem Projekt zurückzog, wurde Whittaker nach eigenen Angaben gedrängt, das Unternehmen zu verlassen. "Es war mir schon klar, dass das passieren würde", erinnert sie sich. "Man legt sich nicht auf diese Art mit dem Geld an und wird nicht hinausgedrängt." Nach Angaben Googles hat sie das Unternehmen freiwillig verlassen.

Den Abgang eines anderen KI-Forschers des Unternehmens sieht sie trotzdem überraschend kritisch. KI-Urgestein Geoffrey Hinton hatte diese Woche angekündigt, das Unternehmen verlassen zu haben. Und wegen der Gefahren sein Lebenswerk zu bereuen (hier erfahren Sie mehr). Seine Sicht auf die Technologie und ihre Gefahren hätte sich dramatisch verändert, erklärte er. "Was, wenn das, was in den Systemen passiert, eigentlich viel besser ist, als was in unserem Hirn geschieht?", fragte er mit Blick auf die sich immer weiter beschleunigende Entwicklung. Und forderte überraschend gesetzlich Grenzen. "Wir sollten das nicht weiter wachsen lassen, wenn wir nicht wissen, ob wir es kontrollieren können."

Benachteiligung im System

Whittaker sieht diese Aussagen überraschend kritisch. "Es enttäuscht mich etwas, wenn jemand in seinem Lebenabend plötzlich auf Reue-Tour geht", gesteht sie auf Hinton angesprochen. Die beiden hatten zeitgleich bei Google gearbeitet, wenn sie sich auch nicht besonders gut gekannt hätten, wie sie betont. Ihre Enttäuschung begründet sie mit einer einfachen Tatsache: Hinton habe geschwiegen, als sie und andere Kollegen schon vor Jahren auf die Gefahren der Technologie hingewiesen hätten.

An dieser Stelle hat unsere Redaktion Inhalte von Riddle Technologies AG integriert.
Aufgrund Ihrer Datenschutz-Einstellungen wurden diese Inhalte nicht geladen, um Ihre Privatsphäre zu schützen.

Neben der militärischen Nutzung war es Whittaker und ihrer Kollegin Timnit Gebru vor allem darum gegangen, immer wieder auf einprogrammierte Ungerechtigkeiten der Programme hinzuweisen. Weil die Software vor allem von weißen Männern entwickelt werde, reflektierten auch die KI-Systeme die in der Gesellschaft bestehenden Ungerechtigkeiten, argumentierten diese Kritiker:innen. Tatsächlich lassen sich solche Unterschiede immer wieder entdecken, wenn etwa Menschen mit dunkler Haut schlechter von Gesichtserkennungsprogrammen erkannt werden oder Bildgenerationsprogramme Frauen sichtbar sexualisierter darstellen als Männer. Die Befürchtung der Kritiker: Wenn KI diese Unterschiede als normal oder gar als richtig lernt, werden die daraus entstehenden gesellschaftlichen Probleme noch größer.

Andere Sorgen

"Das ist nicht nur bei Google so", betont Whittaker. In der gesamten Entwicklung von KI hätten immer wieder Betroffene und dabei besonders oft Frauen auf diese Problematik hingewiesen. Und seien ignoriert worden. "Aber wenn sich endlich der Vater der KI dazu äußert, muss es ja stimmen", kommentiert sie zynisch Hintons Äußerungen. Der seit den 1970er Jahren an der Technologie forschende Experte wird oft als "Urvater der KI" bezeichnet.

Seine Wahrnungen vor einer zu smarten Künstlichen Intelligenz sieht Whittaker aktuell noch als überzogen an. "Wir haben immer noch keinen Beweis, dass diese Modelle […] einen Funken von Bewustsein hätten", wischt sie die Angst beiseite. "Wir können immer noch die Stecker ziehen oder die Serverräume fluten."

Wer hat die Kontrolle?

"Es lenkt uns ab, indem es Angst vor hypothetischen Problemen wie im Film 'War Games' erzeugt, die aber größtenteils ausgedacht sind", ist sie sich sicher. "Die echten, wirklich bestehenden Probleme sind aber viel schwerer zu lösen." Das größte Risiko sieht sie an einer anderen Stelle: "Die Technologie liegt in der Hand einiger weniger, sehr mächtiger Konzerne. Und die treffen letztlich die Entscheidungen, wie sie entstehen, wozu sie in der Lage sind und wem sie dienen", erläutert sie ihre Sicht. "Und wenn wir uns die Interessen dieser Firmen anschauen, bekommt man schon eine ganz gute Idee, wohin es gehen könnte", raunt sie. "Wozu sie benutzt wird, wer sie benutzt und wie gut die Chancen stehen, echten Schaden zu verhindern."

Dass man die Vorgaben zur Erstellung zur KI nicht nur den Konzernen überlassen sollte, wird auch der Branche und der Politik immer bewusster. In einem offenen Brief hatten im März zahlreiche Silicon-Valley-Größen einen Entwicklungsstop für KI gefordert, in den USA und der EU kommen entsprechende politische Initiativen ins Rollen. Whittakers ehemaliger Arbeitsgeber Google bietet aus Vorsicht seinen seit Mittwoch weltweit verfügbaren KI-Chatbot Bard in der EU gar nicht erst an.

Hintons Ansatz, erst nach dem Ausscheiden öffentlich seine Sorgen zu bekunden, kann Whittaker angesichts der Herausforderungen wenig abgewinnen. "Es liegt Macht darin, sich als Mitarbeitende zusammenzuschließen und zu sagen: Das machen wir nicht mit. Aber das geht nur, wenn die Leute in den Firmen auch dabei sind."

Quelle: Fast Company

PRODUKTE & TIPPS