Die Behörden in Florida untersuchen den KI-Entwickler OpenAI im Zusammenhang mit einem Schusswaffenangriff an der Florida State University, bei dem im April 2025 zwei Menschen starben und sechs weitere verletzt wurden.

Ermittlungen gegen ChatGPT-Entwickler

Die Staatsanwaltschaft von Florida wirft OpenAI vor, durch seinen KI-Chatbot ChatGPT indirekt zu dem Angriff beigetragen zu haben. Der Schütze hatte sich vor der Tat bei dem Chatbot erkundigt, welche Waffe er verwenden sollte, welche Munition dazu passt und wo und wann er die meisten Menschen antreffen würde.

Floridas Generalstaatsanwalt James Uthmeier betonte, dass bei einer menschlichen Quelle für solche Ratschläge bereits eine Mordanklage erhoben worden wäre. "If the advice had come from another human, a murder charge would have already been filed", so Uthmeier wörtlich. Sein Büro hat OpenAI um Informationen zu den Sicherheitsvorkehrungen des Unternehmens gebeten, um Bedrohungssituationen zu erkennen und zu verhindern.

Sicherheitsprotokolle von ChatGPT in Frage gestellt

OpenAI gibt an, dass ChatGPT so programmiert ist, dass es keine Fragen beantwortet, die auf eine Absicht zur Selbst- oder Fremdgefährdung hindeuten. In solchen Fällen soll der Chatbot die Behörden alarmieren. Dennoch konnte der Angreifer offenbar detaillierte Informationen zu Waffen und Tatorten erhalten.

Der Vorfall wirft Fragen zur Wirksamkeit der Sicherheitsmaßnahmen von KI-Systemen auf. Die Ermittlungen konzentrieren sich darauf, ob OpenAI ausreichende Vorkehrungen getroffen hat, um Missbrauch zu verhindern. Die genauen Umstände, wie der Schütze die Informationen erhielt, sind noch nicht vollständig geklärt.