Datum21.04.2026 22:51
Quellewww.zeit.de
TLDRFlorida untersucht, ob OpenAI haftbar gemacht werden kann, nachdem ein Schütze ChatGPT-Informationen zu Waffen und potenziellen Zielen abgefragt hat. Der Angriff an der Florida State University im April 2025 forderte zwei Tote und sechs Verletzte. Die Behörden prüfen, ob die KI als Gehilfin betrachtet werden kann, da ihr Rat, auch wenn er sachlich war, zur Tat beitrug. OpenAI betont, dass ChatGPT nicht zu illegalen Handlungen aufrief und die Anfrage rein informativ war.
InhaltWelche Rolle spielte ChatGPT bei einem Angriff an einer US-Hochschule? Dieser Frage gehen Ermittler in Florida nach. Der Täter soll die KI zu Waffen befragt haben. Die Behörden in Florida haben Ermittlungen gegen OpenAI eingeleitet. Untersucht werden soll, welche Rolle die von dem Unternehmen entwickelte künstliche Intelligenz ChatGPT bei einem Schusswaffenangriff an einer Universität gespielt hat. Laut ersten Erkenntnissen wurde der Täter vor der Tat von dem KI-Chatbot beraten, wie Floridas Generalstaatsanwalt James Uthmeier auf einer Pressekonferenz sagte. Laut Staatsanwaltschaft fragte der Schütze über ChatGPT unter anderem, welche Waffen er benutzen solle, welche Munition zu welchen Waffen gehöre und wo und wann sich die meisten Menschen aufhalten würden. Bei dem Anschlag auf dem Gelände der Florida State University im April 2025 tötete der Schütze – ein ehemaliger Student – zwei Menschen. Sechs weitere wurden verletzt. Wäre der Rat nicht von einer KI, sondern von einem Menschen gekommen, wäre er wegen Mordes angeklagt worden, sagte Generalstaatsanwalt Uthmeier. Das Gesetz in Florida sieht vor, dass jeder, der eine andere Person bei einer Straftat unterstützt, anstiftet oder ihr dazu rät, als Gehilfe gilt und dieselbe Verantwortung wie der Täter trägt. Daher muss nun geprüft werden, ob in diesem Fall auch ein Unternehmen haftbar gemacht werden kann. OpenAI hatte den mit Schützen in Verbindung stehenden ChatGPT-Account identifiziert und der Polizei zur Verfügung gestellt. Ein Unternehmenssprecher erklärte: "Der Anschlag an der Florida State University im vergangenen Jahr war eine Tragödie, aber ChatGPT ist für dieses schreckliche Verbrechen nicht verantwortlich." Der Chatbot lieferte sachliche Antworten auf Fragen mit Informationen, die öffentlich im Internet zu finden waren. Er rief nicht zu "illegalen oder schädlichen Handlungen" auf. Chatbots wie ChatGPT sind so programmiert, dass sie Fragen nicht beantworten, wenn sie die Absicht eines Nutzers erkennen, sich selbst oder anderen Schaden zuzufügen. In manchen Fällen sollen sie auch die zuständigen Stellen im Unternehmen alarmieren, die dann die Sicherheitskräfte einschalten können. Allerdings sind in der Vergangenheit mehrere Fälle bekannt geworden, in denen diese Sicherheitsvorkehrungen nicht angewendet wurden.