"Es sollte globale Priorität haben, das Risiko der Ausrottung durch KI zu verhindern – neben anderen gesellschaftlichen Risiken wie Pandemien oder Atomkrieg". Dieses kurze und durchaus prägnante Statement veröffentlichten führende Köpfe der Branche auf der Webseite des "Center for AI Safety". Zu den Unterzeichnern gehören der "Urvater der KI" Geoffrey Hinton ("Urvater der KI" bereut sein Lebenswerk), OpenAI-Chef und ChatGPT-Schöpfer Sam Altman, zahlreiche Google-Mitarbeitende, der Microsoft-CTO und andere Experten.
Es ist bereits der zweite öffentliche Brandbrief, den führende Köpfe der Branche in die Welt senden. Zuvor hatten unter anderem Elon Musk und Apple-Mitbegründer Steve Wozniak ihre Unterschrift unter eine ausführliche Forderung gesetzt, dass man so schnell wie möglich Regeln und engmaschige Kontrollen brauche, wenn es um den Einsatz von künstlicher Intelligenz in wichtigen Bereichen des Lebens gehe (Sofortige Entwicklungspause gefordert).
Eine offene Warnung – um alle führenden Köpfe zu vereinen
Gegenüber der "New York Times" erklärte Dan Hendrycks, Geschäftsführer des Center for AI Safety, warum man die Warnung diesmal so kurz und unpräzise gehalten habe. Bei der Warnung solle es sich um eine Art "Coming Out" unterschiedlicher Experten handeln, die bisher zwar ebenfalls vor KI warnten, dies aber meist nur im kleinen Kreis taten. Um möglichst viele Sorgen und Nöte abzudecken, aber auch Uneinigkeit in einzelnen Fragen zu vermeiden, fasste man das Statement derart offen.
"Wir wollten nicht auf eine sehr große Auswahl von 30 möglichen Maßnahmen drängen", sagte Hendrycks dem Blatt. "Wenn das passiert, verwässert es die Botschaft". Weiter heißt es: "Es gibt ein weit verbreitetes Missverständnis, sogar in der KI-Gemeinschaft, dass es nur eine Handvoll Untergangspropheten gibt. Tatsächlich aber äußern viele Menschen privat Bedenken über diese Dinge".
Die Sorgen und Ängste bleiben indes vielfältig. Während das Thema der Stunde wohl meist die Verwässerung der Wahrheit von Texten und Bildern ist, was zuletzt durch ein gefälschtes Bild des Papstes nur allzu deutlich wurde (Warum wir unseren Augen nicht mehr trauen können), denken besonders Experten größer und weiter.
Vielen macht die schnelle Entwicklung der Technologie die größten Sorgen. Was noch vor wenigen Jahren oder gar Monaten undenkbar schien, ist inzwischen mit wenigen Klicks erledigt. Das könnte in nicht allzu langer Zeit in einer sogenannten "AGI" enden, fürchten einige. "AGI" steht für "Artificial General Intelligence", was so viel wie eine menschenähnliche Intelligenz bedeutet. Eine solche KI wäre in der Lage, jede Aufgabenstellung zu verstehen und den Menschen darin sogar zu übertrumpfen.
Immer wieder fordern Experten daher, allen voran OpenAI-Gründer Sam Altman, dass man schnellstmöglich handeln müsse, bevor es zu spät ist. In einem Blogbeitrag macht eine der aktuell wohl wichtigsten Personen der Branche konkrete Vorschläge: Altman fordert eine enge Zusammenarbeit aller Konzerne, die eine KI entwickeln, und hält eine internationale und unabhängige Kontrollinstanz für unabdingbar, ähnlich wie es sie für Atomwaffen gibt.
Regulierung durch Regierungen oder Konzerne kritisch
Das aktuelle Statement enthält eine solche Forderung allerdings nicht. Das meinte Hendrycks wohl mit der offenen Formulierung. Denn wieder andere setzen ihre Kritik an der Entwicklung von KI an ganz anderer Stelle an. Zum Beispiel die ehemalige Google-Forscherin Meredith Whittaker (Wovor wir uns wirklich fürchten sollten). Whittaker hält es bereits für gefährlich, dass die Entwicklung von KI und die vielgenutzten Produkte schon heute in der Hand einiger weniger Konzerne liegen – und damit nur ein kleiner Personenkreis über entsprechend viel Macht verfügt.
Das haben auch einige Regierungen erkannt, die aus Vorsicht ganze KI-Projekte zeitweise gesperrt haben und den Betreibern Forderungen im Sinne des Datenschutzes geschickt haben. In Italien war ChatGPT rund einen Monat lang nicht erreichbar. Googles Chatbot Bard ist derweil in der gesamten EU nicht verfügbar, da Google ähnliche Hürden präventiv vermeiden will.
Die Verantwortung für KI lässt sich aber auch nicht in die Hände von Regierungen legen – denn was in der EU oder den USA vielleicht reguliert werden kann, lässt sich in anderen Ländern, vielleicht sogar mit böser Absicht problemlos entwickeln. Es kann bei der Entwicklung von künstlicher Intelligenz also nicht auf einzelne Akteure ankommen, die sich zwar selbst, nicht aber andere kontrollieren.
Einen solchen Ansatz, aber auch den einer internationalen Kontrollinstanz, sehen daher viele kritisch und fürchten, dass sich die Entwicklung von KI nicht mehr aufhalten lasse – unabhängig davon, in welche Richtung es geht.
Lesen Sie auch: