Hintergrund ist ein Streit zwischen Washington und dem KI-Unternehmen. Der Konzern um den Chatbot Claude hatte dem Pentagon die uneingeschränkte militärische Nutzung seiner Technologie verweigert. Anthropic hatte dazu erklärt, es wolle seine KI-Technologie nicht wie von der Regierung gewünscht für die "Massenüberwachung im Inland" oder in vollautonomen Waffensystemen einsetzen lassen.
Das Pentagon stufte Anthropic daraufhin in einem beispiellosen Schritt als "Sicherheitsrisiko in der Lieferkette" ein. Damit war es für US-Behörden unmöglich, KI-Anwendungen von Anthropic zu nutzen. Das Unternehmen verklagte die US-Regierung deshalb. Der Beschluss der US-Bundesrichterin setzt die Einstufung der US-Regierung nun aus.
Lin erklärte, die Einstufung von Anthropic als Lieferkettenrisiko sei "höchstwahrscheinlich sowohl rechtswidrig als auch willkürlich und launenhaft" gewesen. Das geltende Gesetz stütze nicht "die orwellsche Vorstellung, dass ein US-Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden kann, weil es seine Meinungsverschiedenheit mit der Regierung zum Ausdruck bringt".
Anthropic begrüßte die Anordnung der Bundesrichterin. Das Verfahren sei notwendig gewesen, "um Anthropic, unsere Kunden und unsere Partner zu schützen", erklärte das Unternehmen. Dennoch "liegt unser Fokus weiterhin darauf, konstruktiv mit der Regierung zusammenzuarbeiten, damit alle Amerikaner von sicherer, verlässlicher KI profitieren", fügte Anthropic hinzu.