US-Verbraucherschutzbehörde FTC untersucht Nutzung von "KI-Begleitern" durch Kinder

ChatGPT - Logo
ChatGPT - Logo
© AFP
Die US-Verbraucherschutzbehörde FTC hat nach der Klage gegen das KI-Unternehmen OpenAI im Zusammenhang mit dem Suizid eines 16-Jährigen eine Untersuchung zu Chatbots wie ChatGPT oder Grok eingeleitet, die als sogenannte KI-Begleiter genutzt werden. Die FTC forderte am Donnerstag Informationen von sieben Unternehmen an, die öffentlich zugängliche, mit Künstlicher Intelligenz betriebene Chatbots anbieten. 

Die Behörde will wissen, wie die Unternehmen "mögliche negative Auswirkungen dieser Technologie auf die Kinder und Jugendlichen messen, testen und überwachen". Die Anfrage richtete sich an OpenAI, Alphabet, Character.AI, Instagram, Meta, Snap und xAI, die alle ihre eigene Version eines KI-Assistenten anbieten. 

Ende August hatten die Eltern von Adam Raine, der sich im April im Alter von 16 Jahren im US-Bundesstaat Kalifornien das Leben genommen hatte, OpenAI verklagt. Sie werfen ChatGPT vor, ihren Sohn zum Suizid ermutigt und ihm eine genaue Anleitung dafür gegeben zu haben. Unmittelbar nach der Klage kündigte OpenAI an, an korrigierenden Maßnahmen zu arbeiten. 

Das Unternehmen aus San Francisco stellte nach eigenen Angaben fest, dass, je länger der Austausch mit dem Chatbot ChatGPT dauert, dieser nicht mehr systematisch empfiehlt, psychologische Hilfe in Anspruch zu nehmen, wenn der Internetnutzer Suizidgedanken äußert. 

Die FTC interessiert sich nach eigenen Angaben "besonders für den Einfluss, den diese Chatbots auf Kinder haben, und für die Maßnahmen, welche die Unternehmen ergreifen", um sie zu schützen, und den Zugang Minderjähriger zu den KI-Begleitern zu beschränken.

Die US-Verbraucherschutzbehörde will zudem sicherstellen, dass die Unternehmen den Children's Online Privacy Protection Act einhalten. Das US-Gesetz zum Datenschutz bei Kindern verbietet es, persönliche Daten von Internetnutzern unter 13 Jahren zu sammeln, ohne dafür die Zustimmung ihrer Eltern einzuholen.

Immer mehr Jugendliche nutzen die KI-Assistenten als virtuelle Begleiter und suchen dort manchmal psychologische Unterstützung, obwohl die Chatbots nicht zu diesem Zweck entwickelt wurden.

AFP