Florida ermittelt nach tödlichen Schüssen gegen Softwareunternehmen OpenAI

Datum21.04.2026 22:12

Quellewww.spiegel.de

TLDRFlorida untersucht, ob ChatGPT einem Amokschützen bei der Vorbereitung eines Angriffs auf dem Universitätscampus geholfen hat. Der mutmaßliche Schütze soll vor der Tat Informationen von der KI eingeholt haben. OpenAI weist jede Verantwortung zurück und betont, dass ChatGPT lediglich öffentlich zugängliche Informationen geliefert habe und nicht zu schädlichen Handlungen angestiftet habe.

InhaltEin Mann soll vor einem tödlichen Schusswaffenangriff an einer Universität in Florida Informationen bei ChatGPT eingeholt haben. Die Entwicklerfirma OpenAI weist jede Verantwortung zurück. Hat die künstliche Intelligenz ChatGPT einem Amokschützen bei der Vorbereitung seiner Tat geholfen? Dieser Frage geht die Staatsanwaltschaft in Florida ein Jahr nach einem Angriff auf einen Universitätscampus nach. Die Entscheidung sei getroffen worden, nachdem Staatsanwälte den Austausch zwischen dem OpenAI-Chatbot ChatGPT und dem mutmaßlichen Schützen überprüft hatten, erklärte der Generalstaatsanwalt von Florida, James Uthmeier, am Dienstag. "Wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt werden", sagte Uthmeier in einer Pressemitteilung . ChatGPT habe dem Schützen "wichtige Hinweise gegeben, bevor er dieses Hassverbrechen beging", erklärte der Staatsanwalt. Bei der Schießerei an der Florida State University waren im vergangenen Jahr zwei Männer getötet und sechs weitere Menschen verletzt worden. Der Schütze – ein ehemaliger Student der Universität – soll die Waffe seiner Mutter genutzt haben. Die Frau arbeitete als Vize-Sheriff bei der Polizei. Der Tatverdächtige schoss auf dem Universitätscampus auf Studierende, bevor er von Sicherheitskräften niedergeschossen und verletzt wurde. Genauere Details zu der Kommunikation zwischen dem Schützen und ChatGPT wurden nicht öffentlich gemacht. Allerdings habe sich der Schütz vor der Tat erheblich von dem KI-Chatbot beraten lassen, so Uthmeier. Dazu habe gehört, welche Waffe er verwenden solle, welche Munition zu welchen Waffen passe, sowie wo und zu welcher Zeit die meisten Menschen anzutreffen sein würden. Das Gesetz in Florida sehe vor, dass jeder, der jemanden beim Begehen einer Straftat unterstützt, dazu anstiftet oder dazu rät, als dessen Helfer gesehen wird und dieselbe Verantwortung trägt wie der Täter, erklärte Uthmeier. Seine Behörde forderte bei OpenAI Informationen unter anderem zu Vorkehrungen für den Fall von Bedrohungs-Situationen ein. Chatbots wie ChatGPT sind eigentlich so programmiert, dass sie keine Fragen beantworten, wenn sie dahinter die Absicht eines Nutzers erkennen, sich oder anderen Schaden zuzufügen. In einigen Situationen sollen sie auch Zuständige im Unternehmen alarmieren, die wiederum Sicherheitsbehörden einschalten können. Zugleich war es manchmal möglich, die Vorkehrungen auszuhebeln. Das Softwareunternehmen OpenAI, das hinter der KI steht, hatte das mit dem mutmaßlichen Schützen verknüpfte ChatGPT-Konto identifiziert und es der Polizei zur Verfügung gestellt. Ein OpenAI-Sprecher sagte der Nachrichtenagentur AFP: "Die Massenerschießung an der Florida State University im vergangenen Jahr war eine Tragödie, aber ChatGPT ist nicht für dieses schreckliche Verbrechen verantwortlich." Der Chatbot habe sachliche Antworten auf Fragen geliefert – mit Informationen, die öffentlich im Internet zu finden seien. Es habe nicht "zu illegalen oder schädlichen Handlungen" angestiftet, betonte OpenAI.