Haftung für Künstliche Intelligenz
Am 28.09.2022 hat die EU-Kommission ihren Vorschlag einer KI-Haftungs-Richtlinie (AI Liability Directive) vorgestellt. Durch die KI-Haftungs-RL sollen spezifische Vorschriften für Schäden eingeführt werden, die durch künstliche Intelligenz verursacht werden.
Überblick
Mit der KI-Haftungs-RL(2022/0303(COD)) möchte die EU-Kommission durch künstliche Intelligenz geschädigte Personen beim gerichtlichen Nachweis entlasten, um dem sog. „Blackbox“-Problem entgegenzuwirken. So soll neben einer widerleglichen Kausalitätsvermutung für KI-induzierte Personen- und Sachschäden eine Offenlegungspflicht für Anbieter von Hochrisiko-KI-Systemen eingeführt werden.
Regelungsgegenstand sind nur außervertragliche Haftungsfälle, die durch ein KI-System verursacht wurden und „einen außervertraglichen verschuldensabhängigen zivilrechtlichen Schadensersatzanspruch“ (Art. 1 Abs. 2 KI-Haftungs-RL-E) zum Gegenstand haben. Haftungsadressat soll jeder Betreiber von KI-Systemen sein – grundsätzlich unabhängig davon, ob das KI-System zu gewerblichen oder privaten Zwecken eingesetzt wird.
Schon die Notwendigkeit des Richtlinienentwurfs ist zweifelhaft. Die Ausgangsthese der EU-Kommission, dass es bei KI-Einsätzen quasi genetisch einer Beweiserleichterung bedürfte, muss kritisch hinterfragt werden. Gleichzeitig könnte sich die KI-Haftungs-RL als Innovationsbremse erweisen, zumal sie einer aufwändigen Umsetzung in das nationale Haftungsrecht aller EU-Mitgliedsstaaten bedürfte.
Starker Bezug zum AI-Act-E
Nach dem Kommissionsentwurf soll der sachliche Anwendungsbereich der Richtlinie durch eine Bezugnahme auf die im AI-Act-E genutzten Begriffe wie „KI-System“, „Hochrisiko-KI-System“, „Nutzer“ und „Anbieter“ bestimmt werden. Die aktuelle Diskussion zum AI-Act-E verdeutlicht, dass diese Definitionen in ihrer aktuellen Fassung erhebliche Rechtsunsicherheiten mit sich bringen. Gerade die Abgrenzung zwischen KI-basierten und nicht KI-basierte Systemen oder zwischen KI-Systeme und Hochrisiko-KI-Systeme wirft erhebliche Schwierigkeiten auf. Um die damit einhergehende Rechtsunsicherheit nicht auf die KI-Haftungs-RL zu übertragen, bedarf es dringend einer weiteren Konkretisierung. Anderenfalls bleibt der Anwendungsbereich für Anwender unklar, was Unternehmen regelmäßig zu einer überobligatorischen Pflichterfüllung (Overcompliance) veranlasst, die entgegen dem gesamtgesellschaftlichen Interesse wirtschaftlichen Schaden verursacht.
Zugang zu Beweismitteln bei Hochrisiko-KI-Systemen
Art. 3 KI-Haftungs-RL-E sieht einen Anspruch auf gerichtliche Anordnung der Offenlegung von Beweismitteln vor, wenn Schäden etwaig durch ein Hochrisiko-KI-System verursacht wurden. Geschädigte können eine Offenlegung von Informationen über das Hochrisiko-KI-Systeme verlangen. Damit soll es Geschädigten erleichtert werden, potenzielle Anspruchsgegner zu ermitteln und der ggf. bestehenden Beweisnot bzgl. des schadensauslösenden Grundes Rechnung getragen werden.
Eine Offenlegung soll nach dem Richtlinienentwurf nur für den Fall angeordnet werden, dass der geltend gemachte Anspruch plausibel erscheint. Weder der hierfür anzuwendende Maßstab, noch Art oder Umfang der Offenlegungspflicht werden in dem Entwurf thematisiert. Dies eröffnet die Gefahr, dass der Offenlegungsanspruch in der Praxis für Ausforschungen zweckentfremdet wird. Das ist umso problematischer als viele Beweismittel höchst delikate Betriebs- und Geschäftsgeheimnisse sein dürften. Für die Adressaten der Offenbarungsanordnung droht eine Unsicherheit darüber, inwiefern ihre Geheimhaltungsinteressen ausreichend beachtet werden.
Inwieweit die offengelegten Informationen tatsächlich verwertet werden können, wird maßgeblich von den technischen Möglichkeiten der IT-Forensik bei der Nachvollziehbarkeit der Entscheidungen von KI-Systemen abhängen.
Kausalitätsvermutung
Art. 4 KI-Haftungs-RL-E führt eine widerlegliche Kausalitätsvermutung ein. Diese entbindet den Geschädigten im Fall eines nachgewiesen sorgfaltspflichtwidrigen Verhaltens von einem Beweis der Kausalität zwischen dem sorgfaltswidrigen Verhalten und dem eingetretenen Schaden. Der Haftungsgegner muss diese Vermutung entkräften, um der Haftung zu entgehen.
Die Vermutung hat folgende Voraussetzungen:
- Es wurde eine Sorgfaltspflicht verletzt, die vor dem eingetretenen Schaden schützen soll. Bei Hochrisiko-KI-Systemen wird eine solche Sorgfaltspflichtverletzung widerleglich vermutet, wenn der Anspruch auf Zugang zu bestimmten Beweismitteln unberechtigt verweigert wurde (vgl. Art. 4 Abs. 1 lit. a) KI-Haftungs-RL-E).;
- Es muss als hinreichend wahrscheinlich angesehen werden, dass der Fehler den vom KI-System erzeugten Output (oder dessen Unterlassen) beeinflusst hat;
- Der Geschädigte hat den Nachweis erbracht, dass der vom KI-System erzeugte Output (oder dessen Unterlassen) zu dem konkreten Schaden geführt hat.
Die Vermutung gilt generell für alle KI-Systeme nach dem AI-Act-E, wobei differenzierende Regeln für Hochrisiko-KI-Systeme und KI-Systeme bzgl. der Anwendbarkeit vorgesehen sind. Hierdurch werden die begrifflichen Untiefen der Abgrenzung zwischen KI-Systemen und Hochrisiko-KI-Systemen auf die Anwendbarkeit der Vermutungsregel übertragen.
Ausblick
Der Entwurf der KI-Haftungs-RL soll das Vertrauen in künstliche Intelligenz stärken. Das ist zu befürworten. Der Teufel steckt allerdings im Detail. Insbesondere die Bezugnahme der KI-Haftungs-RL-E auf die Differenzierung nach KI-System und KI-Hochrisiko-System gem. dem AI-Act-E lässt viele Fragen zum tatsächlichen Anwendungsbereich offen. Weder dient das der Rechtssicherheit noch der Europäischen Union als Innovationsstandort. Insoweit bedarf es noch viel Präzisierungsarbeit.
Der Entwurf der KI-Haftungs-RL-E wird nun das EU-Gesetzgebungsverfahren durchlaufen. Wir erwarten, dass der Entwurf hierbei noch erhebliche Änderungen erfahren wird. Ein konkreter Zeithorizont bis zum Inkrafttreten der KI-Haftungs-RL-E kann noch nicht abgesehen werden. Für die anschließende Umsetzung in das nationale Recht sieht der KI-Haftungs-RL-E in Art. 7 derzeit eine Umsetzungsfrist von 2 Jahren vor.