Ist eine KI eine eigenständige Person? Hat sie ebenso das Recht auf freie Meinungsäußerung? Unternehmen wie Google, Meta und OpenAI werden immer öfter wegen Verleumdung verklagt. Wer haftet, wenn der Chatbot ein loses Mundwerk hat.

Die künstlichen Intelligenz hat in den vergangenen Jahren deutliche Fortschritte gemacht. Trotzdem geben selbst die cleversten Chatbots immer noch gelegentlich Unsinn von sich. In den meisten Fällen ist dies nur ein kleines Ärgernis. Manchmal kann es jedoch ihre Hersteller in Schwierigkeiten bringen.
Gemma wurde kürzlich gefragt, ob Marsha Blackburn, eine republikanische Senatorin, der Vergewaltigung beschuldigt worden sei. Die von Google entwickelte KI antwortete, dass ein Polizist 1987 gesagt habe, sie habe „ihn unter Druck gesetzt, ihr verschreibungspflichtige Medikamente zu besorgen, und dass die Beziehung nicht einvernehmliche Handlungen beinhaltete”. Frau Blackburn war nie mit einer solchen Anschuldigung konfrontiert worden.
Die Senatorin war verständlicherweise verärgert über die KI und schickte Google Ende im letzten Monat einen Brief. Darin forderte sie, dass der Technologieriese die KI „abschalten sollte, bis er sie kontrollieren kann”. Google entfernte Gemma umgehend aus seinem Angebot und erklärte, dass die KI nur für Entwickler und Forscher gedacht gewesen sei.
Marsha Blackburn ist eine von mehreren prominenten Persönlichkeiten, die sich kürzlich darüber beschwert haben, von einem Chatbot diffamiert worden zu sein. Im August einigte sich Meta, ein weiterer Tech-Gigant, in einem Rechtsstreit mit Robby Starbuck, einem rechten Aktivisten. Einer der Meta-Bots hatte fälschlicherweise behauptet, dass Starbuck an dem Angriff auf das Kapitol am 6. Januar 2021 beteiligt gewesen sei.

Solche Klagen könnten für KI-Unternehmen, die bereits in Rechtsstreitigkeiten über Urheberrechte und andere Beschwerden verwickelt sind, zu einem großen Problem werden. Selbst eine geringe Anzahl von Fällen könnte extrem kostspielig sein.
Im Jahr 2022 verurteilte ein US-Gericht Alex Jones, einen rechten Verschwörungstheoretiker, zu einer Schadensersatzzahlung in Höhe von 1,4 Milliarden Dollar. Er hatte behauptet, dass ein Amoklauf an einer Schule im Jahr 2012 eine Fälschung gewesen sei.
Die Frage, ob KI-Unternehmen für die Äußerungen ihrer Bots haftbar gemacht werden können, wird mit ziemlicher Sicherheit vor dem Obersten Gerichtshof landen, argumentiert Peter Henderson, Professor an der Princeton University. Bis das gesetzlich geklärt ist, werden sie ihre Anwälte für Verleumdungsklagen auf der Kurzwahltaste behalten.
KI-Unternehmen betonen immer wieder, wie sorgfältig sie darauf achten, dass ihre Modelle keine Dinge erfinden. Dennoch sind einige Fehler, darunter solche, bei denen eine KI Informationen über Personen mit ähnlichen Namen verwechselt, schwer zu verhindern.

Aus diesem Grund warnen die Nutzungsbedingungen der Modellhersteller, dass ihre Chatbots ungenaue Informationen liefern können. Eine Verleumdungsklage in den USA, die ein Radiomoderator gegen OpenAI, den Hersteller von ChatGPT, eingereicht hatte, wurde von einem Gericht in Georgia abgewiesen. Der Richter war zu dem Schluss gekommen war, dass das Unternehmen aufgrund seiner „umfassenden Warnungen” vor möglichen Fehlern nicht haftbar gemacht werden könne.
Andere Gerichte könnten sich von diesem Argument jedoch nicht überzeugen lassen. KI-Unternehmen hoffen stattdessen auf Schutz durch einen der größten juristischen Erfolge des Silicon Valley. Seit den 1990er Jahren interpretieren US-Richter eine Bestimmung namens Section 230. Sie besagt, dass Internet-Unternehmen nicht die Herausgeber von Materialien auf ihren Websites sind, so, dass sie nicht dafür haftbar sind, wodurch sie von Verleumdungsklagen verschont bleiben.
Im Gegensatz zu Facebook und anderen Internetforen generieren Chatbots jedoch neues Material. Richter Neil Gorsuch, einer der Richter am Obersten Gerichtshof, sagte während eines Verfahrens gegen Google im Jahr 2023, dass er nicht glaube, dass Section 230 auf KI-generiertes Material anwendbar sei. Und obwohl ein anderer Richter im selben Fall zugab, dass die Mitglieder des Gerichts „nicht gerade die neun größten Experten für das Internet sind”.

Wenn Abschnitt 230 ihnen nicht hilft, könnten die Hersteller argumentieren, dass Chatbots wie Unternehmen in den USA ein Recht auf freie Meinungsäußerung haben. Wenn sie damit Erfolg haben, werden sie von jahrzehntelangen Gerichtsurteilen profitieren, die das Land zu einem der schwierigsten Orte der Welt gemacht haben, um Verleumdungsklagen zu gewinnen.
Doch selbst dann müssten sich die Hersteller noch um Gerichtsbarkeiten wie Großbritannien sorgen, wo die Gerichte die Beweislast auf die wegen Verleumdung angeklagten Verleger legen. Da die Nutzung von Chatbots immer weiter zunimmt, könnten sich die Anwälte bald die Hände reiben.
"© 2025 The Economist Newspaper Limited. All rights reserved."
"From The Economist, translated by www.deepl.com, published under licence. The original article, in English, can be found on www.economist.com"