Disney und Universal verklagen Midjourney wegen Urheberrechtsverletzung

Haftung von KI

Am 1. Juli 2025 haben die US-Filmstudios Disney und Universal vor einem Bezirksgericht in Kalifornien Klage gegen das KI-Unternehmen Midjourney eingereicht. Der Vorwurf: Die Software verletze systematisch Urheberrechte, indem sie Bilder generiert, die auf geschützten Charakteren wie Spiderman, Shrek oder Homer Simpson beruhen – ohne Lizenz oder Einwilligung der Rechteinhaber. Midjourney, 2022 gegründet und mit einem Gewinn von 300 Millionen US-Dollar im Jahr 2024 einer der weltweit größten Anbieter von KI-Bildgeneratoren, verteidigt sich mit dem Hinweis auf das „Fair Use“-Prinzip des US-Rechts. Dieses erlaubt unter bestimmten Voraussetzungen die Nutzung urheberrechtlich geschützter Werke ohne Zustimmung, wenn ein gesellschaftlicher Nutzen überwiegt.

Die Klageschrift, über 100 Seiten stark, führt aus, dass Midjourney gezielt mit dem Versprechen wirbt, urheberrechtlich geschützte Inhalte nachbilden zu können – ein Verhalten, das laut den Studios einem systematischen Plagiat gleichkomme. Frühere Aufforderungen, die Nutzung geschützter Inhalte zu unterlassen, blieben unbeantwortet.

Relevanz für das deutsche Urheberrecht

Auch im deutschen Recht wirft der Fall zentrale Fragen auf. Denn hier ist das „Fair Use“-Prinzip nicht anwendbar. Stattdessen gelten enge Ausnahmen zugunsten der Rechteinhaber. Bereits das Training von KI mit geschützten Werken kann als urheberrechtlich relevante Vervielfältigung oder Nutzung gelten. Auch das Generieren von Bildern, das Anzeigen, Herunterladen sowie die öffentliche Zugänglichmachung über eine Plattform wie Midjourney könnte Verstöße gegen § 16, § 19a UrhG (Vervielfältigungsrecht und Recht der öffentlichen Zugänglichmachung) darstellen.

Die Entscheidung des kalifornischen Gerichts dürfte damit auch international Signalwirkung entfalten – insbesondere für die urheberrechtliche Einordnung von KI-generierten Inhalten im europäischen Raum. Sollte den Klägern Recht gegeben werden, könnte dies weitere Verfahren und gesetzgeberische Entwicklungen nach sich ziehen.

Haftung für KI-generierte Inhalte: Urteil des LG Kiel

Haftung für Ki -Inhalte

Das Landgericht Kiel hat mit Urteil vom 29. Februar 2024 (Az.: 6 O 151/23) eine wichtige Entscheidung zur Haftung bei fehlerhaften, durch Künstliche Intelligenz (KI) erzeugten Informationen getroffen. Unternehmen, die automatisierte Systeme zur Datenverarbeitung einsetzen, haften demnach auch dann, wenn die Fehler von der KI selbst verursacht wurden – vorausgesetzt, sie übernehmen inhaltlich die Verantwortung.

Der Fall: Falsche Unternehmensinformationen durch KI-Fehler

Ein Unternehmen hatte auf einem Online-Informationsportal fehlerhafte Angaben zu seiner finanziellen Lage entdeckt. Die Betreiberin des Portals nutzte ein vollautomatisiertes KI-System, das Daten aus öffentlichen Registern (z. B. Handelsregister, Bundesanzeiger) extrahierte, aufbereitete und visualisierte. Die Informationen wurden suchbasiert angezeigt – jedoch ohne manuelle Prüfung.

Durch einen Verarbeitungsfehler ordnete die KI fälschlicherweise Daten eines anderen Unternehmens der Klägerin zu. Es erschien der Hinweis, das Unternehmen werde wegen Vermögenslosigkeit gelöscht – eine gravierende Fehlinformation. Zwar wurde der Eintrag nach Hinweis gelöscht, doch eine Unterlassungserklärung und die Erstattung der Anwaltskosten verweigerte die Betreiberin mit dem Verweis auf den automatisierten Prozess.

Das Urteil: Haftung trotz Automatisierung

Das LG Kiel stellte klar: Die Beklagte haftet als unmittelbare Störerin, da sie sich bewusst eines automatisierten Systems bedient hat. Wer Informationen eigenverantwortlich über eine KI auswertet und öffentlich darstellt, übernimmt auch die inhaltliche Verantwortung – selbst bei automatischen Abläufen.

Das Gericht betonte, dass es unerheblich sei, ob der Fehler „menschlich“ oder durch eine Maschine entstanden sei. Entscheidend sei, dass der Eindruck vermittelt wurde, die Betreiberin übernehme die inhaltliche Kontrolle und Verantwortung – etwa durch strukturierte Darstellung, Verknüpfung von Daten und eigene visuelle Aufbereitung.

Praxistipps für Unternehmen: Haftung vermeiden, Systeme prüfen

Das Urteil hat Signalwirkung: Der Einsatz von KI-Systemen entbindet Unternehmen nicht von ihrer Sorgfaltspflicht. Hinweise in den AGB, wonach Fehler möglich seien, reichen nicht aus, um sich von der Verantwortung zu befreien.

Was Unternehmen jetzt beachten sollten:

  • Systeme regelmäßig prüfen: Automatisierte Datenverarbeitung muss technisch zuverlässig funktionieren. Prüfmechanismen zur Fehlervermeidung sind unerlässlich.

  • Inhaltliche Verantwortung klären: Wenn ein Unternehmen Informationen aufbereitet und präsentiert, entsteht der Eindruck, es stehe inhaltlich dafür ein – und haftet im Zweifel.

  • Reaktionsprozesse etablieren: Bei Fehlern sollten sofortige Korrekturen und transparente Prozesse zur Schadensbegrenzung bereitstehen.

Fazit

Das LG Kiel setzt klare Maßstäbe: Wer KI einsetzt, haftet auch für deren Fehler – sofern eine inhaltliche Verantwortung erkennbar übernommen wurde. Die Entscheidung dürfte eine wichtige Grundlage für zukünftige Urteile im Bereich der KI-Haftung bilden. Unternehmen sind gut beraten, ihre Systeme nicht nur technisch, sondern auch rechtlich im Blick zu behalten.

KI und Haftung in der Praxis: Was Unternehmen jetzt wissen müssen

Die rasante Entwicklung künstlicher Intelligenz (KI) bringt nicht nur Innovationen, sondern auch rechtliche Herausforderungen mit sich – insbesondere in der Frage: Wer haftet, wenn etwas schiefläuft?

In diesem Beitrag geben wir einen Überblick über die aktuelle Rechtslage (Stand: Juli 2025) und zeigen auf, wie sich das Haftungsrecht durch die neue EU-Produkthaftungsrichtlinie ändern wird.

1. Aktuelle Rechtslage: Haftung nach BGB und Produkthaftungsgesetz

Haftung nach dem BGB

Das Bürgerliche Gesetzbuch (BGB) enthält keine speziellen Vorschriften zur Haftung bei KI – dennoch greifen die allgemeinen Regeln:

  • Verwender haftet: Wer KI-generierte Inhalte nutzt (z. B. Unternehmen auf Websites oder in Marketingmaterialien), trägt die Verantwortung.
  • Keine Haftung der KI selbst: Künstliche Intelligenz ist kein Rechtssubjekt.
  • Haftung des Herstellers: Nur bei mangelhafter Beschaffenheit oder fehlender Sicherheit der KI kann der Hersteller in Anspruch genommen werden.

Praxisbeispiel:
Ein Plattformbetreiber veröffentlichte mittels KI-generierter Auswertung öffentlich zugänglicher Registerdaten fälschlich die Löschung eines Unternehmens. Das Landgericht Kiel (Urt. v. 29.02.2024) entschied: Der Betreiber haftet, da er sich die fehlerhafte KI-Auswertung „zu eigen gemacht“ hat.

Wichtig: Ein bloßer Disclaimer („Die KI kann Fehler machen“) schützt nicht vor Haftung.

Haftung nach dem Produkthaftungsgesetz

Noch ist unklar, ob KI-Systeme als „Produkt“ im Sinne des § 2 ProdHaftG gelten. Aktuell tendiert die Rechtsprechung dazu, Software nicht als Produkt einzustufen. Damit ist eine Produkthaftung derzeit meist ausgeschlossen – aber nicht mehr lange.

2. Das neue Haftungsregime: Die Produkthaftungsrichtlinie (ab 2026)

Die am 18. November 2024 veröffentlichte neue Produkthaftungsrichtlinie (ProdHaftRL) muss bis Ende 2026 in deutsches Recht umgesetzt werden – mit tiefgreifenden Folgen für Unternehmen, die KI entwickeln oder einsetzen.

Was ändert sich konkret?

Software = Produkt

KI-Systeme und -Modelle gelten künftig eindeutig als Produkt – Hersteller haften für Fehler.

Beweislastumkehr

In vielen Fällen wird zugunsten der Geschädigten vermutet, dass das Produkt fehlerhaft war und den Schaden verursacht hat. Hersteller müssen das Gegenteil beweisen.

Substanzielle Änderungen = volle Haftung

Betreiber und Anbieter haften auch dann, wenn sie KI-Systeme nachträglich verändern – z. B. durch Updates, Finetuning oder neue Prompts.

Verlängerte Fristen

Die Haftungsfrist steigt auf bis zu 25 Jahre – vor allem bei sich ständig weiterentwickelnden KI-Systemen wird eine lückenlose Dokumentation entscheidend.

3. Was aus der KI-Haftungsrichtlinie wurde

Die geplante KI-Haftungsrichtlinie (KI-HaftRL) sollte spezifische Regeln für Hochrisiko-KI einführen. Doch sie ist vorerst vom Tisch:
Am 11. Februar 2025 erklärte die EU-Kommission das Vorhaben offiziell für gescheitert – es fehle die politische Einigung.

4. Was Unternehmen jetzt tun sollten

🔍 Risiken analysieren

Prüfen Sie, ob und wie Ihre KI-Systeme haftungsträchtig sind – auch bei scheinbar „harmlosen“ Anwendungen.

📄 Dokumentation optimieren

Wer später haftet, muss heute dokumentieren: Trainingsdaten, Änderungen, Sicherheitsbewertungen.

🔧 Produktpflege überdenken

Auch Updates oder kleinere Anpassungen können als „substantielle Modifikation“ gelten – mit voller Haftung.

Fazit

Noch greifen allgemeine zivilrechtliche Grundsätze – aber mit der neuen Produkthaftungsrichtlinie wird es ernst für alle, die KI entwickeln, einsetzen oder vertreiben. Unternehmen müssen ihre Prozesse rechtzeitig anpassen, um nicht in die Haftungsfalle zu tappen.

Proaktiv handeln statt später haften – das ist die Devise für den sicheren Umgang mit KI.