KI in radiologischen Diagnosesystemen: die wichtigsten rechtlichen Fragen

von RA und FA für MedizinRDr. Thomas Willaschek, D+B Rechtsanwälte Partnerschaft mbB, Berlin, www.db-law.de

Radiologische Diagnosesysteme verbinden hochauflösende Bildgebungsverfahren mit von künstlicher Intelligenz (KI) gestützter Mustererkennung, Diagnoseassistenz und Therapieempfehlung. Deren Einsatz ist nicht nur für den medizinischen Bereich potenziell disruptiv – sondern auch für den juristischen. Für radiologische Abteilungen und Praxen, die in solche KI-Systeme investieren wollen, ist es hilfreich, diese rechtlichen Fragen zu kennen, um sich u. a. bei den Anbietern gezielt danach zu erkundigen.

Zahlreiche Vorteile durch KI-Systeme

Die Vorteile des Einsatzes von KI in der Radiologie liegen auf der Hand: enorme Zeit- und Kostenersparnisse aufgrund schnellerer Diagnosen und gezielterer Therapien, aber auch eine Effizienzsteigerung und damit eine Entlastung von Ärzten. Das erlaubt diesen mehr Zeit für den einzelnen Patienten. Neue Studien zeigen, dass zudem die Diagnosequalität von KI gleichwertig der von Ärzten ist oder diese angeblich sogar noch übersteigt (Stichwort: „satisfaction of search“). Denn Algorithmen, die auf die Erkennung von Details, Formen und Mustern besonders spezialisiert sind, sind immer gleich effektiv sowie belastbar und „vergessen“ nie. Zudem sind sie unbegrenzt aufnahmefähig.

Neue Möglichkeiten durch Big Data und Deep Learning

Experten gehen davon aus, dass sich das weltweit verfügbare medizinische Wissen aktuell innerhalb von nur 75 Tagen verdoppelt. Vor diesem Hintergrund sind die KI-basierten Unterstützungssysteme allein schon zur Verarbeitung der enormen Datenmengen (Big Data) notwendig, um das bisherige medizinische Niveau zu halten.

Aber die Systeme können noch mehr: Das sog. Deep Learning ermöglicht ihnen, aus Korrekturen und unmittelbar aus eigenen Fehlern zu lernen. Darüber hinaus können sie den Bilddaten ganz neue wissenschaftliche Informationen entnehmen.

Diese Fülle von Möglichkeiten bringt Herausforderungen mit sich – nicht nur im Spannungsfeld von Medizin und Technik, sondern auch auf rechtlicher Ebene.

Grenzen im Datenschutzrecht und bei Rechten an Daten

Das ordnungsgemäße Funktionieren, vor allem aber die stetige Weiterentwicklung radiologischer Diagnosesysteme fußt auf der Gewinnung und Verarbeitung von Daten. Voraussetzung für jede Datenverarbeitung ist deshalb, dass überhaupt Daten zur Verfügung stehen. Und das setzt aus der juristischen Warte eine Datenerhebung im Einklang mit dem Datenschutzrecht voraus. Die zentrale Frage lautet dann: Ist eine anonymisiert automatische Datenverarbeitung zulässig?

Zweckbindung, Datenminimierung und Speicherbegrenzung

Unter dem Bundesdatenschutzgesetz und der Datenschutz-Grundverordnung (DS-GVO) gelten auch die datenschutzrechtlichen Grundsätze der Zweckbindung, der Datenminimierung und der Speicherbegrenzung, wobei Big-Data-Sachverhalte in den Bereichen Forschung und Medizin privilegiert sind.

Merke

Mit Zustimmung der betroffenen Patienten erscheint die Nutzung von Daten zunächst möglich. Rechtlich ungelöste Fragen stellen sich aber bei der Speicherung und Zuordnung der durch Deep Learning neu generierten/aggregierten Daten.

 

Arzt muss Dienstleister zur Geheimhaltung verpflichten

Im Hinblick auf die Einhaltung der ärztlichen Schweigepflicht wurde § 203 StGB bereits angepasst. Die Einbeziehung externer Dienstleister, etwa von IT-Wartungsunternehmen, ist erleichtert worden. Allerdings hat der Arzt nach § 203 Abs. 4 S. 2 Nr. 1 StGB auch dafür Sorge zu tragen, dass diese Dienstleister zur Geheimhaltung verpflichtet werden. Dies hat zur Folge, dass nunmehr auch externe Dienstleister vom Anwendungsbereich der Strafnorm erfasst sind.

Persönliche Leistungserbringung

Dass „Kollege Algorithmus“ nicht so bald gleichberechtigt im Arztzimmer sitzt, liegt an den rechtlichen Grundsätzen des Arztvorbehalts und der persönlichen Leistungserbringung. Danach obliegen bestimmte Tätigkeiten im heilkundlichen Kernbereich ausschließlich Ärzten und können nicht an Nichtärzte delegiert werden. Diese Grundsätze verhindern, dass künstliche Systeme ärztliche Entscheidungen vollständig ersetzen, anstatt diese nur zu unterstützen.

Es lohnt ein Blick zur Labormedizin: Dort unterscheiden die Regelungen zwischen der „laboratoriumsmedizinischen Analyse“ und der „ärztlichen Beurteilung der Ergebnisse“. Die „Analyse“ ist das Einfallstor für KI. Einzig die letzte „Beurteilung“ erfolgt durch einen Laborarzt, der oft mit nur einem Mausklick zahlreiche, bereits auf Plausibilität geprüfte Parameter freigibt. Damit dem Arzt dieser „technische Leistungsteil“ zugerechnet wird und er sich die Leistung gänzlich zu eigen machen und abrechnen kann, muss er regelmäßig die ordnungsgemäße Gerätewartung einschließlich der Durchführung der Qualitätssicherungsmaßnahmen überprüfen. Außerdem wird „die persönliche Überprüfung der Plausibilität der aus einem Untersuchungsmaterial erhobenen Parameter“ gefordert. Letztlich verlangen die Regelungen also eine doppelte Plausibilitätsprüfung durch das technische System und den Arzt. Dabei liegt nahe, dass die technische Plausibilisierung für den Laborarzt die Richtigkeit des Befunds indiziert.

Merke

Die Einordnung beim Einsatz von KI-Systemen in der Radiologie gilt wie in der Labormedizin: Unterstützungssysteme sind bislang nicht zur Ersetzung der ärztlichen Leistung, sondern zur Ergänzung und Optimierung vorgesehen. Durch KI werden letztlich Wahrscheinlichkeiten errechnet, anhand derer der Arzt seine Diagnose- und Therapieentscheidung treffen kann.

Die letzte Entscheidung – und Verantwortung – liegt immer beim Arzt. Dieser bleibt auch bei radiologischen Diagnosesystemen gehalten, deren Anwendung zu überwachen.

 

Haftungsrechtliche Fragen

Die spannendsten Fragen stellen sich hinsichtlich der Anwendung von KI-Systemen in der Radiologie derzeit in puncto Haftung. Der Arzt muss sich mangels eigener Durchdringung der technischen Gegebenheiten z. B. auf eine Anleitung des Geräteherstellers über die Benutzung verlassen können. Hier besteht ein Spannungsfeld. Denn zugleich ist auszudrücken, dass das Diagnosesystem als eine Art „Erfüllungsgehilfe“ des Arztes fungiert. Dies hätte zur Folge, dass ihm Fehler der KI zugerechnet würden.

Eine Haftung des Herstellers über Produkt- oder Produzentenhaftung ist hier naheliegend. Problematisch ist aber bereits der Nachweis von Verschulden und Produktfehler. Auch erscheint die Haftung nur dann gerechtfertigt, wenn das Risiko für den Hersteller beherrschbar ist.

Wie werden sich die KI-Systeme weiterentwickeln?

Im Bereich Deep Learning ist für den Hersteller weder absehbar noch begrenzbar, wie sich das System mit den vom ärztlichen Anwender generierten Daten fortentwickelt. Schwierig wird es also rechtlich dann, wenn die KI Ihrer Überprüfung „enteilt“, wenn also der Arzt fachlich nicht mehr in der Lage sein wird, den Zustand des Diagnosesystems und die Plausibilität seiner Ergebnisse zu überprüfen – erst recht gilt dies, wenn den Hersteller dasselbe Problem trifft.

Zukünftige Abdeckung technischer Fehler durch Berufshaftpflicht?

Die derzeitige Diskussion der Haftung beim Einsatz von KI-Systemen sucht die Verantwortung vorrangig beim Anwender. Dies ist aktuell aufgrund der noch bestehenden Letztentscheidungsmacht des Arztes auch zweckmäßig.

Zu überlegen wird aber sein, ob in Zukunft die Berufshaftpflichtversicherung auch Haftungsfälle durch technische Fehler abdeckt oder ob es etwa – vergleichbar der Pflichtversicherung für Kraftfahrzeug-Halter – ein eigenes Versicherungssystem für Diagnosesysteme geben muss.

Wer haftet, wenn der Arzt den „Befundvorschlag“ nicht annimmt?

Haftungsrechtlich jetzt schon relevant sind Fälle, in denen das Diagnosesystem ein anderes Ergebnis erzielt als der Arzt, dem aber die letzte Entscheidung obliegt. Es ist unklar, wie sich ein – fehlerhaftes – Hinwegsetzen über einen „Befundvorschlag“ des KI-Systems auswirken würde; bisher jedenfalls ist die Rechtsprechung in Fällen sogenannter Diagnosefehler relativ nachsichtig. Sehr interessant wird die Situation, wenn KI in Zukunft – anerkanntermaßen – Befundvorschläge in einer Qualität liefern würde, die den Facharztstandard erreicht oder sogar übertrifft. Denn im Hinblick auf Befunde ärztlicher Kollegen gilt haftungsrechtlich der sogenannte Vertrauensgrundsatz, d. h., dieser darf ohne weitere Prüfung der weiteren Behandlung zugrunde gelegt werden. Gelingt so die Enthaftung hinsichtlich radiologischer Befunde? Zahlen Ärzte dafür mit eingeschränkter Therapiefreiheit?

Werden KI-Systeme in der Radiologie zum Standard?

Fragen stellen sich auch zum Komplex des sogenannten Organisationsverschuldens: Kann z. B. einer Klinikleitung das Nichtvorhalten von Diagnosesystemen bzw. die Behandlung trotz Nichtvorhaltens vorgeworfen werden, wenn der Einsatz entsprechender KI-basierter Systeme haftungsrechtlich geschuldet ist? Anders gewendet: Kann es passieren, dass der Algorithmus den Facharztstandard setzt?

Weiterführender Hinweis