Recht 30.10.2023

KI-verursachte Schäden: Wann haftet der Zahn-(Arzt)?

KI-verursachte Schäden: Wann haftet der Zahn-(Arzt)?

Foto: tippapatt – stock.adobe.com

Die Europäische Kommission hat am 28.09.2022 ihren „Vorschlag für eine Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung), 2022/0303/COD“ veröffentlicht. Dieser beinhaltet haftungsrechtliche Regelungen für durch KI verursachte Schäden.

Der Vorschlag ist im Zusammenhang mit dem „Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz)“ zu sehen, wodurch die EU eine internationale Vorreiterrolle hinsichtlich einer ganzheitlichen Regulierung von KI einnehmen will. Vor dem Hintergrund des wachsenden Einsatzes von KI in der Medizin befasst sich dieser Beitrag neben der Darstellung der geplanten Regelungen insbesondere mit den sich daraus ergebenden haftungsrecht-
lichen Folgen für (Zahn-)Ärzte, die KI-Systeme im Rahmen ihrer Behandlungen einsetzen.

I. Vorschlag für eine Richtlinie über KI-Haftung

1. Hintergrund und Ziele

Nach geltendem Recht existieren in den Mitgliedstaaten keine haftungsrechtlichen Regelungen, die explizit Schäden, die durch KI-Systeme verursacht werden, erfassen. Vielmehr beziehen sich sämtliche Haftungsregelungen auf Schäden, die durch menschliches Tun bzw. Unterlassen verursacht werden. Die Kommission führt in der Vorschlagsbegründung aus, dass insbesondere die bestehenden Vorschriften über die verschuldensabhängige Haftung für die Bearbeitung von Haftungsansprüchen für Schäden, die durch KI-gestützte Produkte und Dienstleistungen verursacht werden, ungeeignet sind und konstatiert, dass es den Unternehmen derzeit schwerfällt, vorherzusagen, wie die bestehenden Haftungsvorschriften von den Gerichten angewandt werden. Die Bewertung und Versicherung eigener Haftungsrisiken stellt aktuell somit eine kaum lösbare Aufgabe für Anbieter sowie Nutzer von KI-Systemen dar. Es ist daher auch keine Überraschung, dass die Haftung zu den drei größten Hindernissen für den Einsatz von KI durch europäische Unternehmen zählt und somit eine echte Innovationsbremse darstellt.

Auf der anderen Seite stehen die potenziellen Opfer KI-bedingter Schäden, insbesondere vor dem Hintergrund des sog. „Blackbox“-Effekts , derzeit vor dem Problem, im Haftungsprozess Verschulden und Kausalität nachweisen zu müssen.

Unter Berücksichtigung dieser divergierenden Interessenlagen beabsichtigt die Europäische Kommission mit ihrem Vorschlag für eine Richtlinie über KI-Haftung die Erreichung der folgenden Ziele:

  • Förderung der Einführung vertrauenswürdiger KI, um ihre Vorteile für den Binnenmarkt voll auszuschöpfen;
  • gleicher Schutz für Opfer von durch KI verursachten Schäden wie für Opfer von Schäden, die durch Produkte im Allgemeinen verursacht werden;
  • Verringerung von Rechtsunsicherheit von Unternehmen, die KI entwickeln oder nutzen, in Bezug auf ihr mögliches Haftungsrisiko;
  • Verhinderung des Entstehens fragmentierter KI-spezifischer Anpassungen der nationalen Vorschriften über die zivilrechtliche Haftung.

2. Regelungsgehalt

Dem veröffentlichten Vorschlag lagen ursprünglich drei Optionen zugrunde, die die Kommission im Rahmen einer Mehrkriterienanalyse in Bezug auf Wirksamkeit, Effizienz, Kohärenz und Verhältnismäßigkeit verglichen hat:

Option 1 sah „drei Maßnahmen zur Erleichterung der Beweislast für Opfer, die ihre Haftungsansprüche nachweisen wollen“ vor. Option 2 ging über Option 1 hinaus, indem zusätzlich zu den Maßnahmen aus Option 1 die „Harmonisierung verschuldensunabhängiger Haftungsvorschriften für KI-Anwendungsfälle mit einem besonderen Risikoprofil, gekoppelt mit einer Pflichtversicherung“, vorgesehen wurde.

Letztlich entschied man sich für den stufenweisen Ansatz der Option 3, der die ersten beiden Optionen kombiniert. Dieser sieht nun vor, dass zunächst die Maßnahmen zur Erleichterung der Beweislast für Opfer, die ihre Haftungsansprüche nachweisen wollen, eingeführt werden (Option 1). Nach fünf Jahren soll sodann eine Überprüfung der Auswirkungen der Maßnahmen auf die Verwirklichung der mit der Richtlinie verfolgten Ziele durchgeführt werden (Art. 5). Werden diese nach Überzeugung der Europäischen Kommission verfehlt, sollen in einem weiteren Schritt erforderlichenfalls die zusätzlichen Maßnahmen der Option 2, d. h. Einführung einer Gefährdungshaftung sowie einer Pflichtversicherung, umgesetzt werden.

Der Richtlinienvorschlag enthält somit in seiner aktuellen Fassung keine eigenen Haftungsansprüche. Vielmehr begnügt er sich mit Regelungen zur Offenlegung von Beweismitteln sowie mit Verschuldens- und Kausalitätsvermutungen, um dem (potenziellen) Kläger die Beweisführung bei der Geltendmachung eines Schadensersatzanspruchs nach nationalem Recht zu erleichtern.

Im Folgenden sollen aufgrund des Umfangs nur die wichtigsten Regelungen dargestellt werden.

Der Richtlinienvorschlag beansprucht gem. Art. 1 Abs. 2 Geltung für außervertrag-
liche verschuldensabhängige zivilrechtliche Schadensersatzansprüche in Bezug auf durch ein KI-System verursachte Schäden. Somit sind weder vertragliche oder verschuldensunabhängige Schadensersatzansprüche noch etwa eine strafrechtliche Haftung erfasst. Zudem muss der Schaden unmittelbar durch ein KI-System bzw. dessen Output verursacht worden sein.

Art. 3 Abs. 1 sieht einen Auskunftsanspruch des (potenziellen) Klägers insbesondere gegen den Anbieter oder den Nutzer auf Offenlegung einschlägiger Beweismittel zu einem bestimmten Hochrisiko-KI-System vor, das im Verdacht steht, einen Schaden verursacht zu haben.

Beachtlich sind die weitreichenden Konsequenzen bei Missachtung der Anordnung zur Offenlegung der Beweismittel. So wird gem. Art. 3 Abs. 5 automatisch ein Sorgfaltspflichtverstoß und damit ein Verschulden des Anbieters bzw. Nutzers (widerlegbar) vermutet. Dieser (ggf. gem. Art. 3 Abs. 5 vermutete) Sorgfaltspflichtverstoß ist jedoch zugleich auch die erste Voraussetzung für die (widerlegbare) Kausalitätsvermutung zwischen dem Verschulden (= Sorgfaltspflichtverstoß) des Anbieters/Nutzers und dem Output des KI-Systems des Art. 4 Abs. 1, sodass die Nicht-Offenlegung der Beweismittel eine Kettenreaktion an Rechtsfolgen auslöst bzw. zumindest begünstigt. Weitere Voraussetzungen für die Kausalitätsvermutung des Art. 4 sind, dass das Verschulden das KI-Ergebnis bzw. dessen Fehlen beeinflusst hat sowie die (vom Kläger zu beweisende) Kausalität zwischen Output des KI-Systems und dem Schaden.

Der für die Kausalitätsvermutung des Art. 4 Abs. 1 erforderliche Sorgfaltspflichtverstoß wird in den Absätzen 2 und 3 für Anbieter und Nutzer von Hochrisiko-KI-Systemen konkretisiert, indem eine Verknüpfung zu den Pflichten dieser Adressaten aus dem geplanten Gesetz über

künstliche Intelligenz vorgenommen wird. Demnach muss der Nutzer gem. Art. 4 Abs. 3 insbesondere seiner Pflicht zur Verwendung oder Überwachung des KI-Systems entsprechend der beigefügten Gebrauchsanweisung oder gegebenenfalls zur Aussetzung oder Unterbrechung seiner Verwendung (nach Artikel 29 des Gesetzes über künstliche Intelligenz) nachkommen bzw. nur solche Eingabedaten, die seiner Kontrolle unterliegen, auf das KI-System anwenden, die der Zweckbestimmung des Systems (nach Artikel 29 Absatz 3 des Gesetzes über künstliche Intelligenz) entsprechen. Der Richtlinienvorschlag schafft auf diese Weise gezielt Anreize, den im Gesetz über künstliche Intelligenz vorgesehenen Sorgfaltspflichten nachzukommen.

II. Auswirkungen für die (Zahn-)Ärzteschaft

Doch welche konkreten Folgen ergeben sich aus dem Richtlinienvorschlag für (Zahn-)Ärzte, die KI-Systeme im Rahmen einer Behandlung einsetzen?

Die gute Nachricht vorweg: Eine verschuldensunabhängige Gefährdungshaftung sieht der Richtlinienvorschlag in seiner derzeitigen Fassung (noch) nicht vor, sodass ein durch ein KI-System verursachter Schaden nicht automatisch zur Haftung des (Zahn-)Arztes führt. Zudem richtet sich die Haftung nach wie vor grundsätzlich nach dem nationalen Recht des jeweiligen Mitgliedstaats.

Gleichwohl können (Zahn-)Ärzte grundsätzlich vom Anwendungsbereich der geplanten Richtlinie erfasst werden, mit der Folge, dass potenziell geschädigte Patienten die Offenlegung von Beweismitteln verlangen können, um einen Schadensersatzanspruch entsprechend belegen zu können. Ferner kommt es ggf. zu oben genannten Verschuldens- und Kausalitätsvermutungen, die der (Zahn-)Arzt wiederum widerlegen kann und muss, will er sich nicht einem Schadensersatzanspruch ausgesetzt sehen.

Adressaten des Richtlinienvorschlags sind Anbieter und Nutzer insbesondere von Hochrisiko-KI-Systemen. Art. 2 Nr. 4 verweist zur Definition des „Nutzers“ auf Art. 3 Nr. 4 des Gesetzes über künstliche Intelligenz. Dort bezeichnet der Ausdruck „Nutzer“ eine „natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet“. Ärzte aber auch Krankenhäuser sind somit grundsätzlich als Nutzer i. S. des Richtlinienvorschlags anzusehen. Auch hinsichtlich der Definition von Hochrisiko-KI-Systemen verweist Art. 2 Nr. 2 auf Art. 6 des Gesetzes über künstliche Intelligenz, der die Voraussetzungen für die Klassifizierung von KI-Systemen als hochriskant enthält. In diesem wird auf Anhang II des Gesetzes über künstliche Intelligenz verwiesen, der wiederum in Nr. 11 auf die „Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte“ verweist. Dementsprechend dürften KI-Medizinprodukte regelmäßig als Hochrisiko-KI-Systeme i. S. des Richtlinienvorschlags einzustufen sein.

Diese grundsätzliche Anwendbarkeit der Richtlinie auf (zahn)ärztliche Behandlungen unter Einsatz von KI-Medizinprodukten erfährt jedoch insofern eine bedeutende Einschränkung in Art. 1 Abs. 2, Art. 2 Nr. 5, als dass vorausgesetzt wird, dass der maßgebliche Schaden durch das KI-System verursacht werden muss. In
Erwägungsgrund 15 des Richtlinienvorschlags wird insoweit konkretisiert, dass es nicht notwendig sei, „Haftungsansprüche in Fällen abzudecken, in denen der Schaden durch eine Bewertung durch Personen und eine anschließende Handlung oder Unterlassung dieser Personen verursacht wurde, wenn das KI-System nur Informationen oder Entscheidungsgrundlagen zur Verfügung stellte, die von der betreffenden handelnden Person berücksichtigt wurden. Im letzteren Fall ist es möglich, den Schaden auf eine menschliche Handlung oder Unterlassung zurückzuführen […], sodass die Feststellung der Kausalität nicht schwieriger ist als in Situationen, in denen kein KI-System beteiligt ist“. Stellt das KI-System dem (Zahn-)Arzt lediglich Informationen bzgl. einer möglichen Diagnose/Behandlung zur Verfügung, auf dessen Basis der Behandelnde noch eine eigenverantwortliche Entscheidung zu treffen hat, findet die Richtlinie demnach keine Anwendung. Da derzeit noch kaum KI-Medizinprodukte im Einsatz sind, die unmittelbar einen Schaden verursachen könnten, wäre die Bedeutung der Richtlinie für die (Zahn-)Ärzteschaft zumindest aktuell recht gering.

Doch auch bei künftiger Nutzung von KI-Medizinprodukten, die unmittelbar Schäden verursachen, dürfte zumindest die Kausalitätsvermutung des Art. 4 Abs. 1 keine entscheidende Bedeutung erlangen, da die Sorgfaltspflichten des Nutzers nicht den Umfang haben wie die des Anbieters. So werden (Zahn-)Ärzte, die ein KI-System entsprechend der Gebrauchsanweisung verwenden und dieses nur mit Daten entsprechend der Zweckbestimmung des Systems versorgen, mangels Sorgfaltspflichtverstoß weitgehend von einer Haftung verschont bleiben (vgl. Art. 4 Abs. 3).

III. Fazit

Abschließend ist zu konstatieren, dass der Richtlinienvorschlag über KI-Haftung in seiner aktuellen Fassung keine bahnbrechenden Änderungen für die Haftung von (Zahn-)Ärzten enthält, da keine neuen Haftungsansprüche vorgesehen sind, sondern es dem Vorschlag vielmehr um Beweiserleichterungen für potenzielle Opfer geht, die aufgrund der mangelnden Transparenz von KI-Systemen regelmäßig (Beweis-)Schwierigkeiten bei der Durchsetzung eines Schadenersatzanspruchs haben dürften. Um dem Problem Abhilfe zu schaffen, sieht der Entwurf einen Auskunftsanspruch sowie Verschuldens- und Kausalitätsvermutungen gegen den Nutzer eines Hochrisiko-KI-Systems vor. Adressat kann somit grundsätzlich auch ein (Zahn-)Arzt sein. Voraussetzung ist jedoch, dass der Schaden unmittelbar durch ein autonomes KI-Ergebnis bzw. dessen Fehlen verursacht wurde. Da jedoch derzeit kaum KI-Medizinprodukte unmittelbar einen Schaden herbeiführen, sondern regelmäßig der (Zahn-)Arzt auf Grundlage des Outputs einer KI eigenverantwortliche Entscheidungen zu treffen hat, ändert sich an dessen Haftung wegen Sorgfaltspflichtverletzungen vorerst wenig, da die Situation mit dem Einsatz klassischer Medizinprodukte vergleichbar ist.

Mit Spannung abzuwarten bleibt das Ergebnis der geplanten Überprüfung der Wirksamkeit der Richtlinie fünf Jahre nach deren Einführung, da bei einem Verfehlen der Ziele der Richtlinie (insbesondere Schließen von Haftungslücken) eine verschuldensunabhängige Gefährdungshaftung für Betreiber von KI-Systemen droht, was freilich weitreichende Folgen auch für die (Zahn-)Ärzteschaft hätte. Auch wenn die Richtlinie wohl frühestens 2026 (vgl. Art. 7 Abs. 1) in den Mitgliedstaaten in nationales Recht umgesetzt wird, empfiehlt sich eine kritische Begleitung des Gesetzgebungsverfahrens.

Dieser Beitrag ist im BDIZ EDI konkret erschienen.

Autor: Moritz Wagner /Ratajczak & Partner

Mehr News aus Recht

ePaper