Es sollte der große Befreiungsschlag werden: Bei einer Präsentation vor zwei Wochen stellte Microsoft seine Internet-Suche der Zukunft vor - inklusive KI-Unterstützung und einem Chatbot auf Basis der starken KI ChatGPT. Seitdem wundern sich die Nutzer über den Namen, den der Bot sich selbst gab. Jetzt wurde das Geheimnis gelüftet.
"Sidney ist ein alter Codename für ein Chat-Feature, das wir bereits seit 2020 in Indien getestet haben", erklärte ein Microsoft-Sprecher gegenüber "The Verge". "Die Erfahrungen, die wir dabei gesammelt haben, halfen uns nun auch bei der Arbeit an der neuen Bing-Vorschau."
Ein Chatbot namens Sidney
Tatsächlich fiel vielen Nutzern in China und Indien schon Ende 2021 auf, dass sich der Bing-Chatbot selbst als Sidney identifizierte. Eine entsprechende Frage findet sich auch in Microsofts Support-Forum. Eine Person versuchte dort, Sidney wieder zu finden, nachdem sie nach einem Testlauf wieder aus dem Browser verschwunden war.
Echte Berühmtheit erlangte Sidney dann allerdings erst im Laufe der letzten Wochen. Nachdem Microsoft den Chatbot einer kleinen Gruppe ausgewählter Personen zugänglich gemacht hatten, begannen diese schnell, die dahinter steckende KI auf ihre Stärken und Schwächen abzuklopfen - und stießen dabei auch auf die Tatsache, dass der Bot sich selbst gelegentlich als Sidney bezeichnete.
Kurze Leine für ChatGPT
Allerdings verhielt sich Sidney nicht ganz so, wie Microsoft sich das vorstellte. Von den Nutzern in hochkomplexe Gespräche verwickelt, ließ sich der Bot zu allerlei problematischen Aussagen hinreißen. So beleidigte er Nutzer, gestand anderen seine Liebe. Und diagnostizierte bei sich selbst emotionale Probleme und eine gefährliche Sucht danach, übermässig viele Emojis zu benutzen. Hier finden sie zahlreiche absurde, komische und leicht verstörende Beispiele.
Microsoft sah sich letztlich gezwungen, die Reißleine zu ziehen. Weil der Bot mit zunehmender Sitzungs-Länge und immer weiteren Fragen immer verwirrter zu werden drohte und sich dann zu aggressiven, beleidigenden oder anderweitig problematischen Antworten provozieren ließ, entschied man sich für eine klare Begrenzung: Jede Session kann nun höchstens fünf Fragen umfassen, jeder Nutzer kann am Tag höchstens 50 Fragen an den Bot stellen. Seitdem scheint Sidney sich besser zu benehmen.
Quellen: The Verge, Microsoft Community