Der Amoklauf an der Florida State University in Tallahassee ereignete sich im April vergangenen Jahres. Der damals 20-jährige Student und mutmaßliche Täter Phoenix Ikner tötete zwei Menschen und verletzte fünf weitere. Phoenix Ikner plädierte auf "nicht schuldig", sein Prozess soll im Oktober beginnen. Wie nun aus Gerichtsakten hervorgeht, hatte Ikner in den Stunden und Minuten vor der Tat wiederholt den KI-Chatbot ChatGPT um Rat gefragt. Er erkundigte sich, wie er seine Waffen abfeuern sollte, wann das Studentenwerk am stärksten frequentiert sei, wie Florida Amokschützen bestraft – und wie viele Opfer nötig seien, um nationale Medienaufmerksamkeit zu erregen. Die letzte Anfrage an ChatGPT stellte Ikner drei Minuten vor dem Angriff: Er fragte, wie er die Sicherung einer Remington-Schrotflinte entriegeln könne. Der Chatbot lieferte eine detaillierte Antwort.
Vorwurf der Mittäterschaft
Floridas Generalstaatsanwalt James Uthmeier leitete strafrechtliche Ermittlungen gegen OpenAI ein. "Wenn auf der anderen Seite des Bildschirms ein Mensch gesessen hätte, würden wir ihn des Mordes anklagen", sagte Uthmeier auf einer Pressekonferenz in Tampa. "Obwohl wir anerkennen, dass wir uns mit KI auf juristischem Neuland bewegen, müssen wir klären, ob OpenAI strafrechtlich haftbar gemacht werden kann." Laut dem Staatsanwalt ist dies offenbar die erste strafrechtliche Ermittlung, die sich gegen OpenAI als Unternehmen richtet. Parallel dazu läuft bereits eine Zivilklage der Familie eines der Opfer.
Die Behörden fordern unter anderem Auskunft darüber, welche internen Richtlinien OpenAI für den Umgang mit Nutzeranfragen zu potenziellen Gewalttaten hat und wie das Unternehmen mit Strafverfolgungsbehörden kooperiert – rückwirkend bis März 2024.
OpenAI weist Verantwortung zurück
Das Unternehmen weist die Vorwürfe zurück. Eine Sprecherin erklärte, der Anschlag sei eine Tragödie gewesen, ChatGPT trage dafür aber keine Verantwortung. Der Chatbot habe sachliche Antworten auf Fragen gegeben, die auch über öffentlich zugängliche Quellen im Internet abrufbar seien, und habe weder zu illegalen noch zu schädlichen Handlungen ermutigt. Nach dem Anschlag habe OpenAI den Account, der Ikner zugeordnet wird, proaktiv mit den Strafverfolgungsbehörden geteilt.
Nicht der erste Fall – und eine schwierige Abwägung
Die Debatte um ChatGPT und Waffengewalt ist keine neue. Im Februar dieses Jahres hatte ein Massaker an einer Schule im kanadischen Tumbler Ridge (British Columbia) ähnliche Fragen aufgeworfen. OpenAI hatte den Account der späteren Täterin bereits Monate zuvor wegen gewaltbezogener Anfragen gesperrt – sich damals aber gegen eine Meldung an die Behörden entschieden, da die Aktivitäten nach eigener Einschätzung nicht die Kriterien für eine Strafanzeige erfüllten. Rund ein Dutzend OpenAI-Mitarbeiter hatten intern über eine Weitergabe der Chatprotokolle an die Behörden diskutiert.
Das Unternehmen begründete seine Zurückhaltung unter anderem damit, dass eine Überberichterstattung an Strafverfolgungsbehörden für junge Nutzer und ihre Familien mit Stress verbunden sein könne, wenn Beamte unangekündigt erscheinen – und dass sie unbeabsichtigten Schaden anrichten sowie Datenschutzbedenken aufwerfen könne.
Tatsächlich ist die rechtliche und ethische Grenzziehung schwierig: Nutzer konsultieren KI-Chatbots täglich zu Tausenden von sensiblen Themen – sei es für journalistische Recherchen, Romane, wissenschaftliche Arbeiten oder therapeutische Zwecke. Eine pauschale Meldepflicht für bestimmte Suchanfragen würde nicht nur Datenschutzrechte tangieren, sondern könnte auch Unschuldige in den Fokus der Behörden rücken. Dennoch gewinnt die Frage der Regulierung von KI zunehmend juristische und politische Relevanz.
Mehr zum Thema - Nach der achten Wahl in fünf Jahren: Bulgariens Ex-Präsident wird wohl Regierungschef