Das Tauziehen um die KI-Haftungsrichtlinie scheint entschieden. Das Skript „Grundwissen KI-Recht“ thematisiert an mehreren Stellen potenzielle Konsequenzen. Vor diesem Hintergrund ist eine neue Studie der EU interessant. Sie wurde im Juli 2025 veröffentlicht. Kai Zenner, Mitarbeiter des Büros des Europa-Abgeordneten Axel Voss (CDU), hat die Studie geteilt und kommentiert. Juristen* sollten die Studie als auch die dazu geäußerten Ansichten aufmerksam zur Kenntnis nehmen!
Worum geht es?
In einem LinkedIn-Beitrag hat Kai Zenner, Mitarbeiter des Europaabgeordneten Axel Voss (CDU), eine Studie geteilt, die von der EU in Auftrag gegeben wurde. Autor der Studie ist der Zivilrechtsprofessor Andrea Bertolini.
Nachfolgend die Links zum LinkedIn-Beitrag, zur Studie und Kommentaren zur Nichtverabschiedung der KI-Haftungsrichtlinie:
- LinkedIn-Beitrag von Kai Zenner
- Link zur Studie der EU
- Link zu Kommentar der Nichtverabschiedung der KI-HRL

Was sagt Kai Zenner?
Der Wortlaut des Beitrags von Kai Zenner wird an dieser Stelle automatisiert übersetzt und unkommentiert wiedergegeben. Jeder Leser kann und sollte sich selbst zu den Aussagen Gedanken machen:
„Eine weitere Expertenstudie, gleicher Schluss: Die Rücknahme der KI-Haftungsrichtlinie (#AILD ) wäre ein schwerer strategischer Fehler für die #EU.
In seiner neuesten Analyse für das European Parliament demontiert Prof. Andrea Bertolini die Vorstellung, dass die aktualisierte Produkthaftungsrichtlinie (#PLD ) für sich allein die Komplexität von KI-bedingten Schäden bewältigen kann. Er plädiert überzeugend für ein eigenständiges, verschuldensunabhängiges Haftungsregime, das auf hochriskante KI-Systeme abzielt … genau die Art von harmonisiertem Ansatz, die Axel Voss und ich seit nunmehr sechs Jahren fordern.
Die Studie spiegelt unsere wichtigsten Bedenken wider:
▪︎ Die nationale #fragmentation ist kein Risiko mehr, sie findet bereits statt.
▪︎ Die #PLD ist in ihrem Umfang begrenzt und in vielen KI-Szenarien unwirksam.
▪︎ Ein verbesserter AILD-Vorschlag würde – wenn er richtig gemacht wird – KI #protect #victims, die Prozesskosten senken und die Rechtsunsicherheit verringern; insbesondere für europäische KMU und Start-ups.
▪︎ Eine uneingeschränkte Angleichung an den #AIAct und eine klare Haftung entlang der #AI #valuechain sind von entscheidender Bedeutung, um Fairness und Innovation zu gewährleisten.
Das bringt mich zu der Frage: Wie viel mehr wissenschaftliche Beweise brauchen die Staats- und Regierungschefs der EU, bevor sie es zugeben? Dies ist die zweite Studie eines unabhängigen Forschers für den Rechtsausschuss (JURI) zur Haftung von KI in weniger als 12 Monaten und eine von vielen für die EU-Organe in den letzten 10 Jahren. Sie alle deuten auf dasselbe hin: Die Abschaffung der AILD würde die Rechtslandschaft nicht vereinfachen, sondern unserer Wettbewerbsfähigkeit schaden (Draghi⚡️) und das Chaos unter den Opfern der KI wie Bürgern und EU-Unternehmen verankern.
❓Ist es nicht an der Zeit, den Tatsachen ins Auge zu sehen und das Problem zu beheben, bevor es zu spät❓ ist“
Benötigen wir eine KI-Haftungsrichtlinie?
Es gibt diverse Argumente dagegen. Die brauchte es aber kaum mehr, denn es scheint ohnehin kaum wahrscheinlich, dass die bisherige oder eine modifizierte Version der KI-Haftungsrichtlinie in absehbarer Zeit tatsächlich verabschiedet wird. Zwar sagt die EU, dass es sich bei der Nichtverabschiedung lediglich um eine vorläufige Entscheidung halte und nach wie vor geprüft werde, ob ein neuer Vorschlag unterbreitet oder ein anderer Ansatz gewählt werden könne. In Anbetracht der Deregulierung von KI in den USA ist aber zumindest bis zum Ende der zweiten Amtszeit von Donald Trump ein Neuanlauf in der EU wenig wahrscheinlich.
Warum sich also weitere Gedanken zum Thema machen?
Fakt bleibt, dass auch die Nichtverabschiedung der KI-Haftungsrichtlinie mit guten Argumenten kritisiert werden kann und vielleicht auch sollte. Gerade die Haftung entlang von mitunter sehr komplexen KI-Wertschöpfungsketten ist ohne eine einheitliche EU-Lösung kaum berechenbar. Nicht wirklich von Vorteil für diejenigen, die (Hochrisiko-)KI produzieren und vermarkten wollen. Und ebenso wenig von Vorteil für Verbraucher. Und für Juristen: Kein Spaß im Hinblick auf die Frage, ob und wie weit noch Analogien verwendet werden können, wenn es an einer planwidrigen Regelungslücke fehlt.
Fazit:
Im Hinblick auf die KI-Haftungsrichtlinie scheint das Kind bereits in den Brunnen gefallen zu sein. Insofern wird es vor allem für die Rechtsprechung von Bedeutung sein, möglichst viele und gute Quellen zum Thema KI-Haftung zu kennen. Die beigefügte Studie könnte nicht zuletzt im Hinblick auf die Möglichkeit richterlicher Rechtsfortbildung von Bedeutung sein.
Bezug zum Skript „Grundwissen-KI-Recht“ u.a.: Einleitung u. Anhang
Inhalte des Beitrags, u.a.:
- Berufliche Zukunft
- Sinn von Dissertationen
- Zeitvergeudung durch juristische Ausbildung
* Aus Gründen der besseren Lesbarkeit wird im Text die männliche Form verwendet, die weibliche Form ist selbstverständlich immer mit eingeschlossen.
