KI in der Pharmaindustrie: Haftung, Datenschutz und Marketingstrategien

299
Reese_Orthmann
Hendrik Reese (l.) und Jan-Peter Ohrtmann, KI-Experten von PwC © Fotos: PwC (Hintergrund/Collage: KI-generiert/Canva)
Im Expertengespräch beleuchten Hendrik Reese und Jan-Peter Ohrtmann von PwC die komplexen rechtlichen Aspekte von KI-gestützten Entscheidungen in der Pharmaindustrie. Sie diskutieren Herausforderungen der Haftung, Datenschutzbedenken im Pharmamarketing und Anforderungen an die Entwicklung und Implementierung von KI-Systemen in der Arzneimittelvermarktung.
In diesem Beitrag lesen Sie:
  • Wie die Haftung in Bezug auf KI-gestützte Entscheidungen in der Pharmaindustrie geregelt ist
  • Was Pharmamarketer in Sachen Datenschutz bedenken müssen
  • wie KI-gestütze Marketingstrategien mit geltenden Vorschriften in Einklang zu bringen sind
  • Ob es schon Best-Practise-Beispiele gibt, von denen man lernen kann
  • Wie sich die rechtlichen Rahmenbedingungen für die Verwendung von KI in der Pharmaindustrie in der Zukunft entwickeln werden

Health Relations: Wie steht es um die Haftung im Zusammenhang mit KI-gestützten Entscheidungen in der Pharmaindustrie, insbesondere wenn es um die Sicherheit und Wirksamkeit von Medikamenten geht?

Jan-Peter Ohrtmann: Die Haftung hängt immer vom Einzelfall ab. Fehlerhafte KI-gestützte Entscheidungen können in der Regel auf drei unterschiedliche Haftungsgrundlagen gestützt werden: (1) die Produkthaftung – in Deutschland nach dem Produkthaftungsgesetz (ProdHaftG). Danach haftet ein Hersteller für Personen- oder Sachschäden, die durch ein fehlerhaftes Produkt verursacht werden. Die KI kann hier die Fehlerhaftigkeit verursacht haben. (2) nach arzneimittelrechtlichen Vorschriften – in Deutschland nach dem Arzneimittelgesetz (AMG) und entsprechender Verordnungen. Ein Verstoß gegen die Vorgaben zur Sicherung und Kontrolle der Qualität kann z.B. zum Widerruf der Zulassung oder der Anordnung von Maßnahmen hinsichtlich der Qualität und Sicherheit der Produkte führen. Und (3) nach Deliktsrecht: Danach kann ein Hersteller von Pharmaprodukten für von ihm schuldhaft verursachte Schäden haftbar gemacht werden, insbesondere auf Schadensersatz oder Schmerzensgeld. Vor allem, wenn KI-gestützte Entscheidungen nicht hinreichend durch Menschen kontrolliert werden, kann darin ein haftungsbegründendes Verschulden liegen.

Hendrik Reese: Gerade in Bezug auf Technologien bringt die EU neue Regulatorik auf. Neben dem kommenden EU AI Act ist das auch eine KI-Produkthaftungsrichtlinie. Der EU AI Act stellt konkrete Anforderungen an die Entwicklung, die Nutzung und den Betrieb von KI-Systemen, die in die Konformitätsbewertung für beispielsweise Medizinprodukte integriert werden können.

Health Relations: Kommen wir einmal zu Pharmamarketing. Welche Datenschutz- und datenschutzrechtlichen Bedenken müssen Pharmamarketer berücksichtigen, wenn sie KI-basierte Technologien zur personalisierten Werbung und Kundeninteraktion einsetzen?

Jan-Peter Ohrtmann: Pharmamarketers müssen vor allem prüfen, ob für die Verarbeitung von personenbezogenen Daten durch KI eine Rechtsgrundlage besteht. Kunden werden in aller Regel nicht in die Verarbeitung durch KI eingewilligt haben. Deshalb kommt es in der Praxis in der Regel auf eine Abwägung der Interessen des Pharmamarketers einerseits mit dem Interesse des Kunden am Schutz seiner Privatsphäre andererseits an. Oft wird bei personalisierter Werbung das Interesse des Kunden am Schutz seiner Privatsphäre überwiegen und der Einsatz von KI in diesem Einsatzfeld unzulässig sein. Dagegen kann der Einsatz von KI bei sonstiger Kundeninteraktion durchaus rechtmäßig sein.

Beim Einsatz in der Werbung für verschreibungspflichtige Medikamente, muss durch Menschen kontrolliert werden, ob die Anforderungen z.B. aus dem Heilmittelwerbegesetz eingehalten werden.

Health Relations: Wie können Pharmamarketer damit umgehen? Wie stellen sie sicher, dass KI-gestützte Marketingstrategien mit den geltenden Gesetzen und Vorschriften im Einklang stehen, auch in Bezug auf verschreibungspflichtige Medikamente?

Jan-Peter Ohrtmann: Pharmamarketers müssen beim KI-Einsatz zwischen den unterschiedlichen Marketingmaßnahmen unterscheiden: Der KI-Einsatz bei Personalisierung und Predictive Analytics ist – zumindest datenschutzrechtlich – kritischer als die Optimierung von Werbekampagnen durch die Analyse von Daten, die Content-Erstellung oder Social-Media-Analysen. Wichtig ist bei dem Einsatz in der Werbung für verschreibungspflichtige Medikamente, dass durch Menschen kontrolliert wird, ob die Anforderungen z.B. aus dem Heilmittelwerbegesetz eingehalten werden.

Health Relations: Gibt es schon rechtliche Anforderungen, die bei der Entwicklung und Implementierung von KI-Systemen für die Arzneimittelvermarktung zu beachten sind? Oder können Sie Best-Practice-Beispiele nennen?

Jan-Peter Ohrtmann: Es gibt noch keine Best Practice für die Entwicklung und Implementierung von KI-Systemen für die Arzneimittelvermarktung. Es gibt auch noch keine spezifischen rechtlichen Anforderungen an KI-Systeme in der Arzneimittelvermarktung. Durch den EU AI Act werden zumindest in der EU künftig derartige spezifische rechtliche Anforderungen vor allem beim Einsatz von Hochrisiko-KI-Systemen gelten.

Hendrik Reese: Genau für solche Anforderungen werden aktuell in CEN-CENELEC (Europäisches Komitee für elektrotechnische Normung, Anm. d. Red.) sogenannte harmonisierte Standards entwickelt. Solange diese nicht zur Verfügung stehen, herrscht noch Unsicherheit, was die Anforderungen für Hochrisikosysteme nach dem EU AI Act konkret bedeuten. Daher ist es begrüßenswert, dass Deutschland mit beispielsweise der MISSION KI eigene gleichermaßen anschlussfähige Initiativen für Kriterien und Standards auf den Weg bringt.

Health Relations: Welche Rolle spielen eigentlich Ethik und Transparenz bei der Nutzung von KI in der pharmazeutischen Industrie, und wie können diese Aspekte rechtlich verankert werden?

Jan-Peter Ohrtmann: Ethik und Transparenz spielen eine sehr hohe Rolle bei der Nutzung von KI in der pharmazeutischen Industrie, die kaum unterschätzt werden kann. Die Transparenz wird vor allem durch den EU AI Act rechtlich verankert und (auch) für die Pharmaindustrie verpflichtend. Inwieweit sektorspezifische KI-Regeln für die Pharmaindustrie erforderlich und erlassen werden, wird abzuwarten sein. So hat die US FDA in 2023 eine Diskussion zum Einklang mit den GMP gestartet.

„Zusätzliche Investitionen in AI Governance, Compliance und die Validierung von KI-Systemen werden erforderlich.“

Health Relations: Was glauben Sie, wie sich die zukünftige Entwicklung der rechtlichen Rahmenbedingungen für die Verwendung von KI in der Pharmaindustrie künftig gestaltet?

Jan-Peter Ohrtmann: Die Nutzung von KI in der Pharmaproduktion wird voraussichtlich rechtlich sektorspezifisch reguliert werden. Dies wird zu erhöhter Rechtssicherheit führen. Pharmamarketers werden die Möglichkeiten und Chancen der KI-Nutzung sorgsam an bestehendem Recht prüfen und ausrichten müssen.

Hendrik Reese: Zusätzliche Investitionen in AI Governance, Compliance und die Validierung von KI-Systemen werden erforderlich. Die genannten Investitionsfelder zahlen darauf ein, Grundbausteine der KI-Transformation auszugestalten. Und genau hier setzen die Chancen an. Pharmamarketer können KI nutzen, um personalisierte Marketingstrategien zu entwickeln, die auf individuelle Patientenbedürfnisse zugeschnitten sind. Durch die Analyse großer Datenmengen können sie präzisere Zielgruppenidentifikation, gezielte Werbung und eine verbesserte Patientenkommunikation erreichen.

Zur Person

Jan-Peter Ohrtmann, Partner und Global Privacy & Cyber Legal Network Lead bei PwC Legal

Jan-Peter Ohrtmann ist Experte für Informationsrecht mit mehr als 20 Jahren Berufserfahrung und Leiter des globalen Privacy & Cyber Netzwerks von PwC Legal. Vor seiner Tätigkeit für PwC hat er 8 Jahre für eine angelsächsische Kanzlei in gleichem Bereich gearbeitet sowie zwei Jahre in einem Start-up. Er war Lehrbeauftragter der Heinrich-Heine-Universität im Weiterbildungsstudiengang Informationsrecht. Er ist akkreditierter EuroPriSe Legal Expert und Certified OneTrust Professional.

Hendrik Reese, Partner bei PwC Deutschland und verantwortlich für Responsible AI

Hendrik Reese ist AI-Experte bei PwC Deutschland. Er fokussiert sich darauf, Unternehmen in der AI Transformation rund um ethische Fragestellungen, Risikomanagement, Sicherheit und Compliance im Lösungsdesign (einschl. „Human in the Loop“), Datenqualität für Input- und Trainingsdaten sowie Monitoring Konzepte zu unterstützen. Er leitet die Practice rund um Responsible AI in Deutschland. Ebenso arbeitet Hendrik Reese gemeinsam mit führenden nationalen und internationalen Forschungseinrichtungen an Lösungen und Anforderungen rund um Trust in AI. Sein Team unterstützt darüber hinaus Unternehmen dabei, AI-Lösungen in Compliance-Funktionen zu implementieren und die Transformation durch praktikable Lösungen voranzubringen.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein