Wer einen Chatbot betreibt, muss für Falschangaben seiner KI haften. So hat das Oberlandesgericht Hamm jüngst eine Schönheitsklinik verurteilt, das Verwenden bestimmter Facharztbezeichnungen zu unterlassen, die ein KI-Chatbot für Kundenanfragen auf der Webseite der Klinik halluziniert hatte (Az.: 4 UKl 3/25).
In dem Fall behauptete der Chatbot auf Anfragen hin, die beiden hinter der Klinik-GmbH stehenden Mediziner seien „Fachärzte für plastische und ästhetische Chirurgie“, „Fachärzte für ästhetische Medizin“ und „Fachärzte für ästhetische Behandlungen“.
Das Problem: Die beiden letztgenannten Facharzt-Disziplinen existieren gar nicht - und die beiden geschäftsführenden Ärzte sind keine Fachärzte für plastische und ästhetische Chirurgie.
Verbraucherschützer mahnten die Klinik deshalb zunächst ab und forderten sie in diesem Zusammenhang unter anderem zur Unterzeichnung einer strafbewährten Unterlassungserklärung auf. Zwar wurde der Chatbot in der Folgezeit deaktiviert, die entsprechende Unterlassungserklärung aber nicht unterzeichnet.
Deshalb klagten die Verbraucherschützer auf Unterlassung und bekamen Recht. Die OLG-Senat stufte die Chatbot-Aussagen als irreführende geschäftliche Handlung ein, die geeignet sei, Verbraucher und andere Marktteilnehmer zu Entscheidungen zu veranlassen, die sie andernfalls nicht getroffen hätten.
Selbst wenn die Klinik den Chatbot ausschließlich mit korrekten Datensätzen habe programmieren lassen, trage sie für die unstreitigen Falschangaben betreffend der nicht existenten Facharzttitel ihrer Geschäftsführer die Verantwortung, so die Richter.
Dass Betreiber eines Chatbots für unwahre oder ehrverletzende Tatsachenbehauptungen der KI haften, wenn die Falschinformationen auf dem Account eines sozialen Netzwerks dauerhaft und öffentlich abrufbar sind, hatte Ende 2025 etwa auch schon das Landgericht Hamburg in einem Urteil entschieden (Az.: 324 O 461/25).
In dem Fall ging es um den KI-Chatbot Grok auf der Kurznachrichten-Plattform X (ehemals Twitter). Ein Nutzer hatte Grok nach Institutionen gefragt, die stark von staatlicher Förderung abhängen. Die KI generierte daraufhin eine Liste, in der explizit auch ein deutscher Verein genannt wurde. Der Chatbot behauptete etwa fälschlicherweise, dass der Verein hohe Bundesmittel erhalte und verwies dabei auch auf angebliche Quellen.
Der betroffene Verein klagte deshalb auf Unterlassung und bekam Recht. Die Tatsache, dass der fehlerhafte Inhalt von einer Maschine generiert wurde, ändere nichts an der rechtlichen Unzulässigkeit der Darstellung, bemerkten die Hamburger Richter.
Der Betreiber müsse sich den Output „zu eigen machen“, da er das System so konfiguriert hat, dass die Ergebnisse ungeprüft direkt veröffentlicht würden. Damit hafte der Betreiber nach den Grundsätzen der Störerhaftung für die Verletzung des Vereinspersönlichkeitsrechts. Die Richter untersagten X, die Behauptung weiterzuverbreiten.
© dpa-infocom, dpa:260515-930-84701/1