KI in der Medizin – eine Gefahr für die Patientenautonomie?

Der Einsatz künstlicher Intelligenz (KI) in der Medizin droht die Fähigkeit von Patient*innen zu untergraben, personalisierte Entscheidungen zu treffen.

Eine neue Forschungsarbeit von Dr. Christian Günther, Wissenschaftler am Max-Planck-Institut für Sozialrecht und Sozialpolitik, analysiert anhand der Fallstudien von Großbritannien und Kalifornien, ob und wie das Recht dieser Gefahr für die Patientenautonomie begegnen kann.

Der Rechtswissenschaftler kommt zu dem Ergebnis, dass das Recht eine proaktive Dynamik besitzt, mit der es sehr gut auf Innovationen reagieren kann – und dies sogar besser als außerrechtliche Regulierungsansätze

. „Das Recht ist entgegen weit verbreiteter Annahmen eben kein Hindernis, das der Entwicklung und dem Einsatz zukunftsweisender Technik nur im Weg steht. Im Gegenteil: Es gestaltet die Entwicklung aktiv mit und spielt eine zentrale Rolle bei der Steuerung neuer Technologien“, erklärt Günther.

Derzeit wird eine Vielzahl klinischer KI-Systeme für den Einsatz in Gesundheitssystemen weltweit zugelassen.

KI wird dabei als eine Technologie definiert, die in der Lage ist, Aufgaben zu übernehmen, die bislang von menschlichen Expert*innen mithilfe ihres Wissens, ihrer Fähigkeiten und ihrer Intuition gelöst wurden.

Besonders der Ansatz des maschinellen Lernens hat die Entwicklung klinischer KI, die derartige Fähigkeiten besitzt, maßgeblich vorangetrieben.

Bei allen damit verbundenen Vorteilen können KI-Systeme aber eine potenzielle Bedrohung im Hinblick auf die gesetzlich vorgeschriebene Patientenaufklärung und -einwilligung darstellen. Diese Verpflichtung verlangt von medizinischem Fachpersonal, Patient*innen ausreichend Informationen offenzulegen, um das Ungleichgewicht der Fachkenntnisse zwischen beiden Seiten auszugleichen.

In seiner Forschung identifiziert Christian Günther vier spezifische Probleme, die in diesem Zusammenhang auftreten können:

1. Der Einsatz klinischer KI erzeugt ein gewisses Maß an Unsicherheit, das auf der Eigenart von KI-generiertem Wissen und den Schwierigkeiten bei der wissenschaftlichen Überprüfung dieses Wissens beruht.

2. Einige ethisch bedeutsame Entscheidungen können von der KI relativ unabhängig getroffen werden, das heißt, ohne wesentliche Einbindung der Patient*innen.

3. Die Fähigkeit der Patient*innen, im Rahmen des medizinischen Entscheidungsprozesses rationale Entscheidungen zu treffen, kann erheblich beeinträchtigt werden.

4. Patient*innen könnten Schwierigkeiten haben, angemessen zu reagieren, wenn nicht offensichtlich ist, dass menschliche Expertise durch KI ersetzt wurde.

Um diesen Problemen zu begegnen, untersuchte Günther die Normen, die dem Prinzip der informierten Patienteneinwilligung in Großbritannien und Kalifornien zugrunde liegen, und zeigt anhand eines konkreten Regulierungsvorschlags auf, wie gesetzliche Regelungen gezielt weiterentwickelt werden können, um sowohl den technologischen Fortschritt zu fördern als auch die Rechte von Patient*innen zu wahren.

Quelle:
Max-Planck-Institut für Sozialrecht und Sozialpolitik - Mitteilung vom 14. Februar 2025

Originalpublikation:
Günther, Christian: Artificial Intelligence, Patient Autonomy and Informed Consent, Nomos: Baden-Baden 2024.
Open Access: https://www.nomos-elibrary.de/10.5771/9783748948919/artificial-intelligence-pati