||
 

ISSN 2699-8084

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 
Beitrags Sprache: Deutsch
Sponsored Article: Nein
Unter-Überschrift: Potenziale und rechtliche Herausforderungen für intelligente Medizinprodukt
Lesezeit 5 Min.
Beitrags Kategorie: Künstliche Intelligenz
Beitrags Art: Artikel
Farbe: Blau
Prof. Dr. Heinz-Uwe Dettling
Lawyer, Head of Life Science Law GSA | EY

Künstliche Intelligenz gehört ohne Zweifel zur Medizin der Zukunft: Telemedizin, Gesundheits-Roboter oder automatische Bildanalyse sind nur die ersten Schritte in der Digitalisierung des Gesundheitswesens. Während bereits erste Anwendungsszenarien entstehen, bleibt der rechtliche Umgang mit der Technologie juristisches Neuland. Aber was bedeutet der Einsatz von KI für den Gesundheitssektor zurzeit wirklich? Und welche rechtlichen Anforderungen müssen berücksichtigt werden, wenn die Software unmittelbar zu einem Medizinprodukt wird, das ungewisse Ergebnisse hervorbringt? Denn KI darf nur dann für medizinische Zwecke eingesetzt werden, wenn sie zuvor nach den einschlägigen Regelungen des Medizinprodukterechts dafür zertifiziert wurde. Je nach Risikoklasse muss dafür auch eine sogenannte „benannte Stelle“, gewissermaßen als „TÜV der Medizinprodukte“ eingeschaltet werden. In den USA ist mit der Food and Drug Administration (FDA) sogar eine Behörde zuständig. Die US-amerikanische FDA hat schon eine ganze Reihe von Medizinprodukten mit KI zugelassen.


 

 

 

Rechtliche Definition von KI

Die Revolution in der Medizinbranche hat daher längst begonnen. Künstliche Intelligenz ist schon jetzt ein zentraler Spieler auf dem Feld der Digitalisierung in der Medizin. Doch was verbirgt sich hinter den bedeutungsschweren Buchstaben KI? Die Bundesregierung definiert KI technisch als eine auf Computern betriebene Form von Software und wissenschaftlich als ein Teilgebiet der Informatik – mit dem Ziel, Systeme zu erschaffen, die menschliche Intelligenz nachbilden beziehungsweise unterstützen. Doch was bedeutet es, die menschliche Intelligenz nachzubilden? Die Antwort darauf finden wir bei dem alten griechischen Philosophen Aristoteles, der die Regeln für logisches Schließen beschrieben hat. Wir schließen „induktiv“ durch den Vergleich von vielen Beispielen vom Besonderen auf das Allgemeine und lernen so allgemeine „Wenn-Dann-Regeln“. Anhand dieser allgemeinen Wenn-Dann-Regeln treffen wir dann „deduktiv“ unsere Entscheidungen im Einzelfall. Nach demselben Schema erfolgt auch sogenanntes „maschinelles Lernen“, bei dem Software durch den Vergleich vieler Beispiele mit Hilfe von Wahrscheinlichkeitsformeln Ähnlichkeiten als „Muster“ identifiziert. KI schafft so induktiv eigene, künstliche Wenn-Dann-Regeln als numerische Referenzmodelle und wendet sie im Einsatz deduktiv an. Durch die enorme Rechenkapazität heutiger Mikroprozessoren ist es KI-Software sogar möglich, in einzelnen Bereichen den Menschen in seinen logischen Fähigkeiten zu übertreffen.


Wenn KI zur Medizin wird

Wenn sie medizinischen Zwecken dient, ist auch Software ein Medizinprodukt. Wird KI-Software zu medizinischen Zwecken eingesetzt, ist sie damit zugleich automatisch ein Medizinprodukt und zertifizierungspflichtig. Das wirft die weitere Frage auf, was ein medizinischer Zweck ist. Als „Daumenregel“ gilt hier, dass zum Beispiel Gesundheitsapps auf Smart Watches keinem medizinischen Zweck dienen, wenn sie – wie etwa die Pulsuhr eines Läufers – nur zur Gesunderhaltung gesunder Personen beitragen. Anders ist dies immer dann, wenn mit Hilfe von KI Krankheiten diagnostiziert oder behandelt werden sollen. So sind Assistenzsysteme, die beispielsweise den Arzt dabei unterstützen, Krankheiten zu identifizieren und passende Therapien zu finden, Medizinprodukte. Ein Beispiel ist etwa die Analyse von Röntgenbildern mit Hilfe von KI. Auch bei der Behandlung kann KI unterstützen und etwa Chirurgen bei Operationen navigieren oder gar selbst in Operationsrobotern operieren. Damit ist das Anwendungsfeld für KI breit gefächert und die Erfolgschancen sind vielversprechend. Doch regulatorisch gibt es einige Herausforderungen: Wenn die KI selbstlernend eigene Regeln schafft, wie kann der Mensch diese kontrollieren und sicherstellen, dass die Klassifizierung auch wirklich richtig ist? Wie kommen wir zu einer vertrauenswürdigen KI?


Die Blackbox regulieren

Diese Kontrolle von KI wird zu einer zentralen Herausforderung für das Medizinprodukterecht. Wenn KI als Medizinprodukt ausgelegt wird, muss sie die Anforderungen der EU-Medizinprodukte-Verordnung erfüllen. Dazu müssen Wiederholbarkeit, Zuverlässigkeit und Leistung entsprechend der bestimmungsgemäßen Verwendung gewährleistet sein. Zudem sind die Grundsätze des Software-Lebenszyklus, des Risikomanagements einschließlich der Informationssicherheit, der Verifizierung und der Validierung zu berücksichtigen. Oder anders gesagt: Es muss nachgewiesen werden, dass die KI die produktbezogenen und anwenderbezogenen Anforderungen erfüllt.

Da die KI jedoch Entscheidungen anhand eines selbst geschaffenen, numerischen Referenzmodells trifft, das von zahlreichen stochastischen Kriterien abhängt, ist die KI selbst für den eigenen Programmierer eine „Blackbox“ mit ungewissen Ergebnissen – insbesondere dann, wenn sie in der Praxis weiterlernt und sich damit selbst kontinuierlich anpasst. In diesem Fall kann die KI zum Beispiel ihre Wenn-Dann-Regeln weiterbilden und so das Ergebnis ihrer Leistung verändern. Bei der Veränderung der Leistung müsste ein Medizinprodukt aber wieder neu zertifiziert werden. Daher ist KI als Medizinprodukt bislang auch nur mit abgeschlossenem Lernen als „locked algorithms“ von der FDA zugelassen.

Auch unter Datenschutzgesichtspunkten gibt es Herausforderungen bei Künstlicher Intelligenz mit sogenanntem „ongoing learning“. Denn die kontinuierliche und einheitliche Anpassung von KI setzt die simultane Übertragung von Patientendaten an den Hersteller als zentrale Stelle voraus. Es ist aber nicht sicher, dass immer alle Patienten die notwendige Einwilligung zur Übertragung ihrer Daten an den Softwarehersteller erteilen. Damit bleibt unklar, inwieweit die regulatorischen Herausforderungen eines ongoing learning bewältigt werden können. Nichtsdestotrotz zeichnet sich bereits ab, dass sich KI zu einer regulierten Technologie entwickeln wird. Beim Aufbau dieses neuen Regulierungsrechts sollte insbesondere auf eine präzise Definition von KI, auf die Verhältnismäßigkeit der Mittel und eine internationale Harmonisierung geachtet werden.

Noch ein Tipp: Die Einordnung als Medizinprodukt muss keine schlechte Nachricht sein. Insbesondere bei Medizinprodukten mit niedrigen Risiken, die in Klasse I einzustufen sind, ist eine Selbstzertifizierung und auf dieser Grundlage auch eine Werbung mit dem medizinischen Zweck möglich.


Wer haftet?

Nicht zuletzt stellt sich im Zusammenhang mit den regulatorischen Herausforderungen stets die Frage nach der Haftung. Was passiert im Fall einer Fehldiagnose durch die KI? Fakt ist: Auch bei digitaler Unterstützung gilt eine abgegrenzte Verantwortlichkeit in Diagnostik und Therapie. Das bedeutet im Umkehrschluss: Der Arzt trägt die Verantwortung für die Auswahl der Therapieziele und -mittel, also auch die Verantwortung für die Auswahl der richtigen KI. Der Hersteller des KI-basierten Medizinprodukts haftet wiederum für die ordnungsgemäße Leistung der KI gemäß der Gebrauchsanweisung. Letztlich entscheidet nach ärztlicher Aufklärung, die in Zukunft auch den Einsatz von KI umfassen dürfte, jedoch der Patient, indem er in die Diagnose oder Behandlung unter Einsatz von KI einwilligt.