Wie stark die Dominanz bei der Internetsuche ist, verrät das Wort, das fast jeder dafür verwendet: googeln. Trotz zahlreicher Bemühungen hat der Suchmaschinengigant seit Jahren keine relevanten Herausforderer. Doch jetzt sollen die Karten neu gemischt werden. Mit künstlicher Intelligenz will sich Microsoft endlich gegen die Übermacht aufbäumen. Aber der Weg ist noch lang.
Die Idee klingt zunächst einfach: Statt nach Schlagworten oder einfachen Sätzen zu suchen, sollen Chat-Bots mit Hilfe von künstlicher Intelligenz ganz natürliche Gespräche mit den Nutzern führen und ihnen so die gewünschten Informationen präsentieren können. Die entsprechenden Produkte hatten Microsoft und Google letzte Woche vorgestellt. Bei Microsofts Suchmaschine Bing gibt es nun eine Chat-Funktion, die auf die Hype-KI ChatGPT setzt. In Googles Projekt Bard werkelt eine selbst entwickelte KI. Noch sind allerdings beide in der Testphase – und dafür gibt es gute Gründe.
Holpriger Start
Schon die Vorstellung war holprig. Sowohl Bard als auch der Bing-Chat leisteten sich noch in der Präsentation peinliche sachliche Fehler. Bei Google war man darüber alles andere als glücklich. Mehrere Medien berichten, dass die internen Foren die scheinbar überhastete Vorstellung des Projekts alles andere als professionell empfanden. "Es ist fast lustig, wie kurzsichtig das war", beschwerte sich etwa ein Mitarbeiter laut "CNBC". Die Präsentation lief so schlecht, dass der Konzern in der Folge fast zehn Prozent seines Börsenwertes verlor.
Aber auch bei Bing fielen die Reaktionen nicht nur positiv aus. Obwohl nur ausgewählte Tester den neuen KI-Chat ausprobieren durften, machten sehr schnell absurdeste Chat-Verläufe die Runde. Tester brachten die KI dazu, sich im Ton zu vergreifen, sie zu bedrohen oder herablassend zu werden. Fehler wollte sie nicht zugeben, reagierte stattdessen verärgert. Anderen gelang es, der KI eine Sucht einzureden oder sie traurig wirken zu lassen. Mehr erfahren Sie in diesem Text.
Viel zu tun
Dass nicht alles ideal lief, gab nun auch Microsoft in einem Blogpost zu. Generell sei die Testphase ein Erfolg, betont der noch zu Anfang. Allerdings gäbe es auch Probleme. Zum einen würden nur 71 Prozent der gegebenen Antworten als sachlich korrekt und hilfreich bewertet. Zum anderen gäbe es gerade in längeren Chats mit 15 und mehr Fragen Probleme, weil das Programm verwirrt würde und sich in der Folge im Ton vergreife, gibt der Konzern zu.

Daher plane man ganz konkrete Maßnahmen. Um die Antwort-Qualität zu verbessern, will Microsoft die Menge der genutzten Daten vervierfachen. Der Hauptgrund für die Verwirrung sei, dass es bei mehreren Fragen schwierig sei zu wissen, was den jetzt die richtige Antwort ist. Bei längeren Sessions soll es dem Programm etwa künftig leichter fallen, einfach von vorne anzufangen. Eine Begrenzung der Nachrichten sei denkbar, erklärte ein Sprecher gegenüber "Insider". "Bisher sind fast 90 Prozent der Chats kürzer als 15 Nachrichten." Auch der ungewünschte Ton des Bots tritt laut dem Blogpost eher in Ausnahmesituationen auf. Man suche trotzdem nach Wegen, wie man den Nutzern mehr Kontrolle darüber geben kann, heißt es dort.
Selbst schreiben für die KI
Wie dieser Prozess aussehen kann, zeigen Berichte aus dem Google-Hauptquartier. Googles Suchchef Prabhakar Raghavan soll in internen Memos seine Mitarbeiter darum gebeten haben, Antworten für die KI vorzuschreiben. "Bard lernt am besten aus guten Beispielen", heißt es laut "CNBC" in den internen Mails. Man solle dem Programm daher in Bereichen, in denen man sich auskenne, Texte vorlegen. Zwei bis vier Stunden solle jeder Mitarbeiter dafür einplanen. "Das wird noch eine lange Reise, für jeden von uns", so Raghavan.
Ganz auf die freiwillige Mitarbeit will sich der Konzern offenbar aber nicht verlassen. Nach Angaben der "Los Angeles Times" bezahlt Google sogenannte "Rater", die nichts anderes tun, als Antworten der KI nach ihrem Ton und der Nützlichkeit zu bewerten. Er sei dabei auch auf Fragen gestoßen, wie mit welcher Seillänge man sich am besten erhänge, berichtet einer dieser Rater. Besonders gut bezahlt wird er dafür nicht. "Ich verdiene drei Dollar weniger als meine Tochter in ihrem Fastfood-Job", berichtet er.
"Wir werden Fehler machen"
Dabei dürfte dieses Training ihrer KI für die Konzerne zu den wichtigsten Maßnahmen der nächsten Jahre gehören. Anders als klassische Computer-Programme lässt sich künstliche Intelligenz nicht nach Wunsch zusammenbauen. "Es ist eher, wie einen Hund zu trainieren", schreibt die Firma OpenAI in einem aktuellen Blogpost über sein Hype-Programm ChatGPT. Es bildet auch die Basis für Microsofts Bing-Chat.
Wie man diese KI trainiert, sorgt nicht nur dafür, ob die Antworten korrekt sind, sondern auch in welchem Ton sie gegeben werden und welche Weltsicht sich dahinter verbirgt. Weil das Silicon Valley immer noch sehr männlich ist und dort wenige Afroamerikamer arbeiten, gibt es etwa zahlreiche Beispiele für KI, die gegenüber Frauen und Schwarzen Vorurteile hegt. Auch ChatGPT wurde in den letzten Wochen mehrfach dazu gebracht, sich im Zweifel lieber für Männer zu entscheiden.
Das will man nun angehen, betont das Unternehmen in seinem Blog. In den nächsten Entwicklungsstufen will man die Vorurteile reduzieren, die von der KI zur Orientierung genutzten moralischen Werte klarer herausarbeiten und auch die Öffentlichkeit mehr dabei teilhaben lassen, erklärt OpenAI. "Wir machen manchmal Fehler. Wenn das passiert, werden wir daraus lernen und die Modelle anpassen."
Offenes Ende
Wie schnell das den Unternehmen gelingt, dürfte auch über den Erfolg im KI-Konkurrenzkampf entscheidend sein. Denn die Programme werden nur dann auch dauerhaft besser, wenn sie auch wirklich benutzt werden. Damit das passiert, müssen sich die Nutzer:innen aber erst einmal darauf verlassen können und wollen. Das Rennen ist noch lange nicht gelaufen. Einen Sieg hat Microsoft allerdings schon für sich verbucht: Soviel wie in der letzten Woche wurde über Bing seit Jahren nicht mehr gesprochen.
Quellen: Microsoft, CNBC, Wired, Computerworld, The Atlantic, New York Times, Los Angeles Times