Künstliche Intelligenz: KI lernt unsere Vorurteile und wiederholt sie

349
KI
Gender Data Gap: Die Pharmabranche muss sich die Frage stellen, wie mithilfe von  KI neue Medikamente oder andere Therapeutika entwickelt werden sollen, wenn ein großer Teil der späteren Zielgruppe mit ihren Daten nicht vertreten ist. © kras99 / Adobe Stock
Künstliche Intelligenz (KI) in der Pharma hat viele Vorteile doch es gibt auch Nachteile: Die Technik reproduziert Vorurteile – mit negativen Folgen für die Gesundheit von Patient:innen. Pharma muss das im Blick haben und gegensteuern.

Die Möglichkeiten der Digitalisierung für die Medizin und Pharma scheinen unbegrenzt. Ein wichtiges Trendthema, das in den letzten Jahren immer mehr an Bedeutung gewonnen hat, ist das der Künstlichen Intelligenz (KI). Die Hoffnung: Durch die Analyse von medizinischen Daten mithilfe intelligenter Algorithmen sollen beispielsweise Krankheiten besser erkannt, die Entwicklung von Medikamenten und die Therapie optimiert oder passgenau auf unterschiedlichste Zielgruppen zugeschnittene Marketingkonzepte entwickelt werden. Diese Erwartungen sind durchaus berechtigt, allerdings hat die schöne neue Digitalwelt auch Nachteile und damit muss sich auch Pharma auseinandersetzen.

Es gibt nämlich ein ethisch-moralisches Problem, das in der alltäglichen Nutzung von KI nur zu oft ignoriert oder übersehen wird: Die Technik ist keineswegs so neutral ist, wie man vielleicht meinen könnte, denn KI lernt unsere Vorurteile und wiederholt sie. Der Grund ist simpel: KI operiert nicht im luftleeren Raum, sondern reproduziert die Realität – und diese ist geprägt durch Vorurteile. Unser Leben ist jedoch inzwischen so sehr von KI durchdrungen, dass es eigentlich keinen Bereich mehr gibt, den sie nicht berührt. Folglich kann die Technik die Vorurteile auch in alle Lebensbereiche hineintragen, sie unbegrenzt wiederholen und dazu beitragen, sie zu zementieren.

Diskriminierung aufgrund von Geschlecht und Hautfarbe

Inzwischen sind auch schon zahlreiche Beispiele öffentlich geworden, bei denen sich herauskristallisierte, dass Algorithmen diskriminierend sein können. Ein in der Presse bekannt gewordener Fall aus dem Jahr 2014 war ein Algorithmus von Amazon. Dieser sollte anhand von Lebensläufen entscheiden, welche Bewerber oder Bewerberinnen eingestellt werden. Die Technik schlug hauptsächlich Männer vor, weil die KI im Trainingsdatensatz gelernt hatte, dass in der Vergangenheit häufiger Männer eingestellt wurden. So hatte der Algorithmus ein Vorurteil angenommen und dieses prompt weitergegeben.

Auch in der Pharmaindustrie kann vorurteilsbelastete KI Schaden anrichten. Ein Beispiel: Die Branche setzt für die Entwicklung neuer Medikamente große Hoffnungen auf die Auswertung großer Datenmengen mithilfe intelligenter Algorithmen. Doch wie gut können diese neuen Arzneien sein, wenn etwa sexistische KI am Werk ist? Bereits heute ist bekannt, dass ein massives Gender Data Gap existiert. Der Begriff beschreibt das Phänomen, dass es in Bezug auf wissenschaftliche Daten eine geschlechterbezogene Lücke gibt, die Frauen außen vor lässt. Diese werden bei der Datenerfassung oft vergessen oder schlicht ignoriert. Die fehlende Berücksichtigung geschlechtsspezifischer Unterschiede bei Datenerhebungen stellt eine subtile Form von Diskriminierung dar. Die Pharmabranche muss sich die Frage stellen, wie mithilfe von  KI neue Medikamente oder andere Therapeutika entwickelt werden sollen, wenn ein großer Teil der späteren Zielgruppe mit ihren Daten nicht vertreten ist, weil diese Daten gar nicht erhoben werden und demnach von KI auch nicht berücksichtigt werden kann.

Dass KI nicht das Allheilmittel für alles ist, hat sich in der Medizin bereits gezeigt. Hier hat diskriminierende Technik unmittelbare, negative Folgen. Hier wird KI etwa eingesetzt, um Krankheiten möglichst früh zu erkennen oder gar Entscheidungen über den weiteren Behandlungsbedarf zu treffen. Seit einigen Jahren ist allerdings bekannt, dass Algorithmen Menschen mit dunkler Hautfarbe diskriminieren und etwa Hauterkrankungen schlechter detektieren. Das hat einen direkten Einfluss auf den Gesundheitszustand dieser Personengruppen. Das US-Gesundheitssystem ist davon besonders betroffen, weil es von vornherein eine strukturelle Ungleichheit zwischen Menschen unterschiedlicher Hautfarbe aufweist.

KI muss sich weiterentwickeln können

KI -Experten mahnen daher, dass sich Entwickler:innen und Forscher:innen – auch aus der Pharmabranche – diese Probleme bewusst machen und sich um die deren Beseitigung bemühen. Erste Schritte sind schon gemacht: Inzwischen forschen weltweit verschiedene Arbeitsgruppen an der sogenannten „explainable AI“. Diese soll aufzeigen, wie Algorithmen zu ihren Entscheidungen kommen. Sprich: Mit welchen Daten wurde trainiert? Was macht der Algorithmus und warum? Die gewonnenen Erkenntnisse sind für deren Anwender:innen wichtig, um die Voraussagen der Technik besser nachvollziehen zu können und im Falle von vorurteilsbelasteten Entscheidungen der KI gegensteuern zu können.

Gleichzeitig sind die Entwickler:innen intelligenter Systeme aufgefordert, sich des Problems anzunehmen. Unternehmen, wie z.B. Microsoft und Google, haben bereits reagiert und arbeiten an der Entwicklung eigener ethischer Richtlinien für KI. Allerdings ist das ein schwieriges Unterfangen, denn es gibt zahlreiche kulturelle und soziale Nuancen, die sich auf die unterschiedliche Auslegung von ethischem Verhalten auswirken. Dennoch ist das langfristige Ziel, diskriminierungsfreie KI in die Anwendung zu bringen, die flexibel genug ist, um sich im Zuge des kulturellen und sozialen Wandels weiterentwickeln zu können.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein