vALID: Artificial-Intelligence-Driven Decision-Making in the Clinic. Ethical, Legal and Societal Challenges (vALID)

Third Party Funds Group - Overall project


Acronym: vALID

Start date : 01.11.2019

End date : 31.10.2022


Project details

Short description

AI is on everyone’s lips. Applications of AI are becoming increasingly relevant in the field of clinical decision-making. While many of the conceivable use cases of clinical AI still lay in the future, others have already begun to shape practice. The project vALID provides a normative, legal, and technical analysis of how AI-driven clinical Decisions Support Systems could be aligned with the ideal of clinician and patient sovereignty. It examines how concepts of trustworthiness, transparency, agency, and responsibility are affected and shifted by clinical AI—both on a theoretical level, and with regards to concrete moral and legal consequences. This analysis is grounded in an empirical case study which deploys mock-up simulations of AI-driven clinical Decision Support Systems and systematically gathers clinician and patient attitudes on a variety of designs and implementations. One key output of vALID will be a governance perspective on human-centric AI-driven Decision Support Systems in the context of shared clinical decision-making.

Scientific Abstract

Künstliche Intelligenz (KI) scheint in aller Munde. Von zunehmender Bedeutung sind Anwendungen von KI im Bereich klinischer Entscheidungsfindung. Liegen einige der denkbaren Anwendungen klinischer KI noch in der Zukunft, verändern andere bereits die Praxis. Das Projekt vALID unternimmt eine normative, rechtliche und technische Analyse der Frage, wie KI-gesteuerte klinische Entscheidungsunterstützungssysteme mit dem Ideal der Arzt- und Patientensouveränität in Einklang gebracht werden können.

vALID besteht aus vier Teilprojekten. Im ethischen Teilprojekt wird auf Basis einer eingehenden Analyse bestehender normativer Arbeiten zur KI in der Klinik untersucht, welche Aspekte das Ideal der Souveränität von ÄrtzInnen und PatientInnen umfasst. Das rechtliche Teilprojekt wird auf Basis einer De Lege Lata Analyse verschiedene Regulierungsoptionen im nationalen und internationalen Kontext analysieren und bewerten. Beide Teilprojekte untersuchen, wie Konzepte von Vertrauenswürdigkeit, Transparenz, Akteurschaft und Verantwortung durch klinische KI beeinflusst und verschoben werden—sowohl auf theoretischer Ebene als auch im Hinblick auf konkrete moralische und rechtliche Konsequenzen.

Im technischen Teilprojekt werden vor dem Hintergrund einer eingehenden Analyse technisch möglicher sowie in der Klinik bereits eingesetzter Anwendungen Mock-Up-Simulationen von konventionellen, automatisierten sowie integrativen Entscheidungsunterstützungssystemen entworfen. Im empirischen Teilprojekt werden anhand dieser Mock-Ups sowie mittels quantitativer und qualitativer Erhebungsmethoden die Perspektiven und Argumentationsmuster von Patientinnen und ÄrztInnen zu einer Bandbreite von Designs und Implementierungen KI-getriebener, klinischer Entscheidungsunterstützungssysteme systematisch erfasst.

Während dieses Prozesses sind die Teilprojekte fortwährend methodologisch verzahnt: Die normwissenschaftlichen Teilprojekte erarbeiten einerseits den konzeptionellen Rahmen für die empirischen Untersuchungen, und nehmen andererseits deren Zwischenergebnisse in die Argumentationsgänge auf.

Auf Basis dieser Arbeiten werden die vier vALID-Teilprojekte schließlich gemeinsam eine ethisch, rechtlich, technisch, und empirisch informierte Governance-Perspektive für KI-getriebene Entscheidungsunterstützungssysteme im Kontext eines shared decision-making erarbeiten.

Involved:

Contributing FAU Organisations:

Funding Source