HaftungsrechtWann haften Ärzte beim Einsatz von KI? Diese beiden Szenarien sind möglich
Von Rechtsanwalt, Fachanwalt für Medizinrecht Dr. Rainer Hellweg, Hannover
Wenn Künstliche Intelligenz (KI) etwa in der Diagnostik in der Klinik eingesetzt wird, wirft dies haftungsrechtliche Fragen auf für den Fall einer fehlerhaften Behandlung. Für die Patientenaufklärung gelten beim Einsatz KI-gestützter Anwendungen strengere Anforderungen als bei herkömmlichen Eingriffen. Doch wer haftet eigentlich unter welchen Voraussetzungen, wenn ein Radiologe bei der Anwendung von KI – oder wenn die KI selbst einen Fehler macht?
Der Radiologe macht einen Fehler
Angenommen, der behandelnde Arzt bzw. der diagnostizierende Radiologe macht bei der Anwendung der KI einen Fehler, etwa durch Nichtbeachtung der Gebrauchsanweisung oder falsche Eingabe von Daten. In diesem Fall gelten erst einmal die „normalen“ rechtlichen Vorgaben zum Behandlungsfehler: Der Arzt hat bei sämtlichen Behandlungsmaßnahmen die zum Zeitpunkt der Behandlung bestehenden, allgemein anerkannten fachlichen Standards zu befolgen. Verstößt er hiergegen und bleibt die Behandlung hinter diesem Standard zurück, begeht er einen Behandlungsfehler. Wenn dem Patienten hieraus ein Schaden entsteht, hat der behandelnde Arzt hierfür zu haften.
Ein grober Behandlungsfehler kehrt die Beweislast um
Wenn der Arzt einen derart eklatanten Fehler begeht, der aus objektiver Sicht nicht mehr verständlich erscheint, weil er einem Arzt schlechterdings nicht unterlaufen darf, nehmen die Gerichte sogar einen sogenannten groben Behandlungsfehler an. Dies hat die für die Behandlerseite negative beweisrechtliche Konsequenz, dass die Ursächlichkeit des groben Behandlungsfehlers für die Schädigung des Patienten vermutet wird; der Arzt müsste das Gegenteil beweisen.
Diese Grundpflichten hat der Arzt beim Einsatz von KI
Die Grundpflichten beim Einsatz von KI liegen zum einen in der Kenntnis der KI-Technik und deren Anwendung sowie zum anderen im Bewusstsein über KI-spezifische Risiken wie Intransparenz, Cyberrisiken oder Datenqualität. Hieraus folgt der vom Behandler zu erwartende Standard im Umgang mit KI. Unterschreitet der Arzt diesen, etwa indem er die KI falsch oder entgegen der Gebrauchsanweisung anwendet, falsche Daten eingibt oder diagnostische Ergebnisse der KI falsch auswertet, wäre dies als Behandlungsfehler zu werten.
Merke |
Ergebnisse der KI dürfen nicht blind übernommen werden, sondern sollten kritisch hinterfragt werden. Ferner muss das technische System regelmäßig überprüft werden – wie auch bei anderen technischen medizinischen Geräten. |
KI-Verordnung der EU beachten
Wird KI als Medizinprodukt eingesetzt, gelten neben den sonstigen Pflichten beim Einsatz von Medizinprodukten auch die Pflichten aus der KI-Verordnung der EU (KI-VO). Dort finden sich u. a. folgende Regelungen:
Wer gilt als Betreiber i. S. d. KI-VO? |
Aufgrund seiner hervorgehobenen Stellung als medizinisch Gesamt-verantwortlicher seiner Abteilung könnte neben dem Krankenhausträger auch der Radiologie-Chefarzt als Betreiber im Sinne der KI-VO für die KI-Anwendungen in der Radiologie in Betracht kommen. Daraus folgend würde etwa die hinreichende Ausbildung und Fortbildung der Mitarbeiter für die Handhabung des KI-Systems in dessen rechtlicher Verantwortlichkeit liegen. Dies sollte der Chefarzt prüfen und in Abstimmung mit dem Klinikträger sicherstellen. |
- Medizinprodukte dürften regelmäßig als sog. Hochrisiko-KI-Systeme gemäß Art. 6 KI-VO gelten.
- Daraus folgen besondere Verpflichtungen, etwa die dauernde menschliche Beaufsichtigung der KI durch eine Person, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügt (Art. 26 KI-VO).
- Gemäß Art. 5. Nr. 4 KI-VO haben nicht nur die Anbieter, sondern auch die Betreiber von KI-Systemen Maßnahmen zu ergreifen, um nach besten Kräften sicherzustellen, dass das Personal über ein ausreichendes Maß an KI-Kompetenz verfügt. Als Betreiber in diesem Sinne gilt gemäß Art. 3 Nr. 4 KI-VO diejenige Institution oder natürliche Person, die das KI-System in eigener Verantwortung verwendet.
Die KI macht einen Fehler, der Patient wird geschädigt
Hier stellt sich die juristisch interessante Frage, ob der Fehler der KI genauso zurechenbar sein könnte wie menschliches Fehlverhalten. Der sich menschlicher Hilfspersonen bedienende Arzt hat für deren Verhalten und Verschulden nach den allgemeinen rechtlichen Regelungen einzustehen. Aber gilt das auch für die KI gleich einer menschlichen Hilfsperson? Dass Gerichte dies auf Grundlage der aktuellen Gesetzeslage gleichstellen könnten, erscheint nicht ausgeschlossen, ist zurzeit aber eher unwahrscheinlich. Denn momentan werden KI-gestützte Anwendungen nur unterstützend eingesetzt. Gerichtsurteile hierzu gibt es derzeit noch nicht und wären abzuwarten.
Vertrauensgrundsatz bei horizontaler Arbeitsteilung mit KI?
Ein Arzt kann sich darauf verlassen, dass ein bei der Behandlung hinzugezogener Kollege eines anderen Fachgebiets seine Aufgaben sorgfaltsgemäß erfüllt, sofern nicht offensichtliche Qualifikationsmängel oder Fehlleistungen erkennbar sind oder werden. Wenn im Krankenhaus ein Konsil einer anderen Fachrichtung veranlasst wird, darf der behandelnde Arzt somit grundsätzlich auf die Richtigkeit der Beurteilung des konsiliarisch hinzugezogenen Kollegen innerhalb dessen Fachgebiets vertrauen – etwa wenn es um radiologische Abklärungen, augenärztliche oder HNO-ärztliche oder sonstige Konsile geht. Diese rechtliche Privilegierung folgt aus dem Vertrauensgrundsatz bei horizontaler Arbeitsteilung.
Aber greift diese Privilegierung auch, wenn der mitarbeitende Kollege kein Mensch, sondern die KI zum Beispiel im Rahmen diagnostischer Maßnahmen ist? Dafür würde sprechen, dass bei Begrenzung auf bestimmte umgrenzte Tätigkeitsfelder die KI statistisch durchaus bessere Ergebnisse liefern kann als menschliche Ärzte. Trotzdem dürfte es nach jetzigem Stand unwahrscheinlich – und eher noch Zukunftsmusik sein, dass Gerichte die Privilegierung des Vertrauensgrundsatzes bei horizontaler Arbeitsteilung auch auf die KI anwenden. Daraus folgt die Empfehlung, dass Ärzte die Ergebnisse etwa einer Diagnostik der KI im konkreten Fall noch kritischer auf Plausibilität und Richtigkeit der Schlussfolgerung prüfen sollten als bei einem menschlichen hinzugezogenen Kollegen.
KI als „voll beherrschbares Risiko“?
Im Arzthaftungsprozess wird ein Behandlungsfehler vermutet, wenn sich ein allgemeines Behandlungsrisiko verwirklicht hat, das für den Behandelnden voll beherrschbar war und das zur Schädigung des Patienten geführt hat. Als voll beherrschbare Risiken in diesem Sinne werden insbesondere die bei einer medizinischen Behandlung eingesetzten Geräte angesehen. Hier müsste dann im Streitfalle vor Gericht nicht der Patient beweisen, dass der Schaden durch eine Fehlfunktion des Geräts herbeigeführt wurde und worin genau diese bestand – weil ihm dies gerade bei Gerätefehlern häufig nur schwerlich möglich ist. Vielmehr wäre es dann an der Behandlerseite zu beweisen, dass beim Geräteeinsatz die gebotene Sorgfalt eingehalten wurde betreffend Wartung, Überprüfung, Einweisung der Mitarbeiter etc.
Aber würden Gerichte diese Beweislastregel zugunsten der Patientenseite auch anwenden, wenn KI im Spiel war? Dies ist schwierig vorherzusagen. Unter Medizinrechtlern wird dies zum Teil verneint mit dem Argument, dass KI eher ein „Intelligenzrisiko“ darstellt – und gerade kein durch die Behandlerseite zumindest theoretisch in vollem Umfang beherrschbares Risiko wie ein medizinisches Gerät. Auch hierzu bleiben erste höherinstanzliche Gerichtsurteile abzuwarten, sobald Streitfälle bei den Gerichten vermehrt anhängig werden sollten.
Sorgfältiger Umgang des Arztes und Erkennbarkeit des Fehlers dürften juristisch entscheidend sein
Soweit man dies nach jetzigem Gesetzesstand überhaupt vorhersagbar ist, kann unter dem Strich festgehalten werden: Im Arzthaftungsverfahren dürfte es entscheidend darauf ankommen, ob der Behandler die erforderlichen Sorgfaltspflichten eingehalten hat und ob er den jeweiligen Fehler der KI hätte erkennen können und hätte eingreifen müssen.
Praxistipp |
Ärzte können sich im Streitfalle nicht mit dem Schutzargument Erfolg versprechend verteidigen: „Das war ich nicht. Das war die KI.“ Für den Fall eines Gerichtsprozesses sollte jederzeit darlegbar sein, dass
|
- „Wann haften Ärzte beim Einsatz von KI? Das ist zu beachten, bevor es losgeht!“, in RWF Nr. 4/2025
(ID:50331880)
Sie möchten gerne kostenfrei weiterlesen?
Sie sind neu auf rwf-online.de?
Dann registrieren Sie sich bitte einmalig für das Radiologen WirtschaftsForum, um alle Beiträge kostenfrei in voller Länge lesen zu können.
RegistrierungSie sind bereits Leser des Radiologen WirtschaftsForum?
Super! Dann geben Sie bitte einfach Ihre E-Mail-Adresse an.