Vermeidung von Diskriminierung durch Künstliche Intelligenz in der Medizin
Künstliche Intelligenz (KI) ist eine der Schlüsseltechnologien der Moderne und revolutioniert nicht zuletzt auch die Medizin. Die Technologie beruht auf hochkomplexen Algorithmen, welche durch ihre hohe Vorhersagegenauigkeit imponieren. Hierdurch finden sie zunehmend praktischen Einzug in die Kliniken weltweit, auch in Hamburg. Jedoch haben sich KI Algorithmen jüngst in einer Vielzahl von Studien als benachteiligend gegenüber geschützten Minderheiten herausgestellt. In unserem Forschungsprojekt beschreiben wir Methodik zur Vermeidung von Diskriminierung durch Künstliche Intelligenz in der Medizin und wägen diese ethisch ab.
Algorithmen mit blinden Flecken
Bei der Diskriminierung durch Algorithmen werden Gruppen mit geschützten Merkmalen (vor allem Alter, Geschlecht, Religion, ethnische Herkunft, sexuelle Orientierung und Behinderung) durch Algorithmen ungerechtfertigt benachteiligt. Dies kann u.a. durch die Unterrepräsentierung von Trägern geschützter Merkmale im Datensatz entstehen. Beispielsweise bestehen dermatologische Datensätze zumeist aus Hautläsionen hellhäutiger Patienten, wodurch ein Algorithmus nicht erlernt, Läsionen dunklerer Hauttöne zu erkennen. Außerdem können Datensätze, anhand derer die Algorithmen lernen, Biase gegenüber Trägern geschützter Merkmale enthalten. Diese Biase werden durch Algorithmen übernommen und teils amplifiziert. Diese Art der Diskriminierung existiert bereits in traditionellen Algorithmen.
Deep Learning und Black Boxes
Heutzutage findet vor allem das Deep Learning - KI mit hochkomplexen großen Neuronalen Netzen - zunehmend Einzug in die Statistik, doch sind diese Neuronalen Netze prädisponiert für algorithmische Diskriminierung. Einerseits bedingt ihre Größe und Komplexität oft eine geringere Generalisierbarkeit von einer Gesamtpopulation auf Subgruppen. Andererseits sind die Entscheidungen der Algorithmen aufgrund ihrer Vielzahl von Parametern für den Menschen nicht mehr nachzuvollziehen; sogenannte Black-Box Algorithmen.
Trainingsprogramm für KI
In unserem Forschungsprojekt trainieren wir große Neuronale Netze zur Prädiktion von kritischen Ereignissen und Überleben auf amerikanischen Intensivstationen, welche ethisch und auf Grundlage ihrer Vorhersagegenauigkeit und Generalisierbarkeit in Hinblick auf Minderheiten mit geschützten Merkmalen beurteilt werden. Wahlweise werden im Lernprozess der KI gezielt geschützte Merkmale zur Verfügung gestellt, diese Merkmale samt Korrelate entfernt, einzelne KI Modelle für einzelne Subgruppen erstellt und zusätzliche Ziele neben der optimalen Vorhersagegenauigkeit auf eine Gesamtpopulation mit in den Trainingsprozess der KI mit eingebunden.
Studentische Forschungsgruppe
- Ansgar Beuse
- Jan Bremer
- Marius Knorr
Mentor
- Prof. Dr. Olaf von dem Knesebeck