»Claude Mythos«: Wie gefährlich ist Anthropics geheimes KI-Modell wirklich?

Datum23.04.2026 11:37

Quellewww.zeit.de

TLDRAnthropic hält sein KI-Modell "Claude Mythos" geheim und begründet dies mit Cybersicherheitsrisiken. Nur wenige Organisationen haben Zugang, was eine unabhängige Überprüfung erschwert. Experten diskutieren, ob dies Marketing ist oder eine echte Gefahr darstellt. Die NSA nutzt das Modell, obwohl das Pentagon Anthropic als Lieferkettenrisiko einstuft. Die Demokratisierung des Programmierens durch KI schafft zudem neue Sicherheitsrisiken, da nicht jeder Code auf Sicherheit geprüft wird.

InhaltClaude Mythos bleibt unter Verschluss, weil es ein Risiko für die Cybersicherheit sein soll. Wie viel davon ist Marketing – und wie viel echte Gefahr? Der Digitalpodcast Wenn es ein neues KI-Modell gibt, geben Firmen gerne damit an, was die künstliche Intelligenz nun alles besser können soll als ihr Vorgänger. Nutzer und Expertinnen können das dann zügig überprüfen. Anders bei Anthropic: Sein neues Modell Claude Mythos will das Unternehmen nicht veröffentlichen. Der Grund: Claude Mythos sei zu gefährlich. Nur knapp 50 ausgewählte Organisationen – darunter Apple, Google und Microsoft – haben im Rahmen des sogenannten Project Glasswing Zugang dazu erhalten. Das heißt, die Behauptungen lassen sich nicht unabhängig prüfen. Können sie stimmen? Neustart-Host Henrik Oerding spricht mit ZEIT-Cybersicherheitsexpertin Eva Wolfangel, die sich die Veröffentlichungen von Anthropic zum neuen Modell genauer angeschaut hat. Die beiden unterhalten sich darüber, warum die National Security Agency der USA Mythos offenbar nutzt, obwohl das Pentagon Anthropic zuletzt als Lieferkettenrisiko eingestuft hat. Sie diskutieren, wie Anthropic vom Narrativ des "gefährlichsten Modells" profitieren könnte, warum BSI-Chefin Claudia Plattner von einem "Paradigmenwechsel" spricht – und weshalb mehr als 80 Prozent aller Cyberangriffe gar keine ausgefeilte KI brauchen. Im Rabbithole spricht Eva Wolfangel darüber, wie die Demokratisierung des Programmierens durch KI neue Sicherheitsrisiken schafft: Wenn jeder eine App bauen kann, aber niemand prüft, ob der Code sicher ist. Zum Weiterlesen: Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT-Podcast "Neustart" ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden zweiten Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists.