Datum05.05.2026 04:38
Quellewww.zeit.de
TLDRDie US-Regierung erwägt staatliche Kontrollverfahren für neue KI-Modelle. Eine Arbeitsgruppe aus Branchen- und Regierungsvertretern soll die Sicherheit prüfen, insbesondere wegen des neuen Anthropic-Modells Mythos, das Hackerangriffe ermöglicht. Dies wäre eine Abkehr von Trumps geringer Regulierung. Anthropic will Mythos vorerst nicht veröffentlichen und teilt es mit Tech-Unternehmen zur Sicherheitsprüfung. Zuvor gab es bereits Spannungen zwischen Anthropic und dem Pentagon.
InhaltDie US-Regierung plant laut Berichten Kontrollverfahren für KI-Anwendungen. Hintergrund sollen Bedenken über ein unter Verschluss gehaltenes Produkt von Anthropic sein. Die US-Regierung erwägt offenbar die Einführung staatlicher Kontrollverfahren für neue KI-Modelle. Den Überlegungen zufolge soll eine Arbeitsgruppe aus Branchenvertretern und Regierungsmitgliedern für die staatliche Aufsicht verantwortlich sein, wie die New York Times unter Berufung auf Regierungsvertreter und mit der Angelegenheit vertraute Personen berichtet. Demnach sollen Vertreter von Anthropic, Google und OpenAI bereits über die Pläne informiert worden sein. Wie Axios unter Berufung auf zwei anonyme Quellen berichtet, würde die Gruppe dem Pentagon unterstehen. Ihre Aufgabe wäre es demnach, KI-Modelle, die bei Bundes-, Landes- und Kommunalbehörden zum Einsatz kommen, auf ihre Sicherheit zu prüfen. Beiden Berichten zufolge sind Bedenken wegen des neuen KI-Modells Mythos der Firma Anthropic der Auslöser für die Überlegungen. Ein Sprecher der US-Regierung bezeichnete Diskussionen über mögliche Dekrete als Spekulation. Ein Eingreifen der Regierung wäre eine deutliche Kehrtwende für US-Präsident Donald Trump. Der Präsident hatte sich bislang für möglichst wenig staatliche Regulierung eingesetzt. Er hatte an seinem ersten Amtstag im Jahr 2025 ein Dekret seines Vorgängers Joe Biden widerrufen, das Entwickler von KI-Systemen zur Weitergabe von Sicherheitstests an die Regierung verpflichtete. Die Anthropic-KI Mythos ermöglicht es selbst Laien, komplexe Hackerangriffe zu starten. Bei ersten Tests hatte Mythos dem Unternehmen zufolge Sicherheitslücken entdeckt, die trotz zahlreicher Prüfungen durch Menschen jahrelang unerkannt geblieben waren. Anthropic beschloss daraufhin, Mythos erst einmal nicht zu veröffentlichen und stattdessen wichtigen Unternehmen wie Apple, Microsoft und Nvidia zur Verfügung stellen, damit diese ihre Systeme wappnen können. Zuletzt war ein Streit zwischen Anthropic und der Regierung unter Trump eskaliert. Nachdem Anthropic der US-Regierung untersagt hatte, seine KI Claude für Überwachung sowie in autonomen Waffensystemen zu nutzen, stufte das Pentagon das Unternehmen als Sicherheitsrisiko ein. Anthropic klagte dagegen.