Direkt zum Inhalt

PERSPEKTIVEN ...

... UND MATERIALIEN ZUM DOWNLOAD

EU AI Act – für eine bessere digitale Welt?

EU AI Act – für eine bessere digitale Welt?

Der neuen EU AI Act (1) ist mehr als eine weitere Richtlinie, die das regulatorische Korsett für Unternehmen der Life Science- und MedTech-Branche einschnürt. Diese EU AI Act läutet, nach Einschätzung von Kevin Schawinski (2), Gründer der Modulos AG (3) und Experte für die Datenqualität von KI-Anwendungen, einen Shift ein hin zu einer vollkommen neuen Daten-Philosophie, so der Tenor beim HCS Live-Talk der Healthcare Shapers. Warum ist das so, und was heißt das für Unternehmen aller Branchen, die automatisierte Entscheidungssysteme entwickeln und nutzen möchten?

Es geht im Kern um den Schutz der Bürger. Denn automatisierte Entscheidungssysteme können Leben und Gesundheit maßgeblich beeinflussen, wenn aus großen Datenmengen mit Methoden der Künstlichen Intelligenz (KI) und des Maschinellen Lernens (ML) Empfehlungen abgeleitet werden, z. B. medizinische Diagnosen, die Eignung für Jobs, die Kreditwürdigkeit von Bürgern und Unternehmen etc.. Und die EU denkt dabei durchaus groß: Sie will mit dem EU AI Act den Grundstein legen für eine „bessere“, digitale Welt – auch außerhalb der EU.

„Faire“ KI-Anwendung – bessere, digitale Welt?

KI-Anwendungen sollen überall auf der Welt und in allen Lebensbereichen – Gesundheit, Finanzen, Infrastruktur und Bildung – die bürgerlichen Grundrechte wahren. Keine Bevölkerungsgruppe soll durch die Nutzung automatisierter, KI-gestützter Entscheidungssysteme benachteiligt werden. Das ist ein großer Anspruch, der den vielen Chancen und den großen potenziellen Risiken dieser neuen Anwendungen Rechnung tragen und der den Grundstein legen soll für Vertrauen und Akzeptanz in diese Systeme.

Für Entwickler heißt das: Wer KI-Systeme trainiert, muss dies mit Daten tun, die die höchstmögliche Qualität aufweisen, die valide sind, alle relevanten Bevölkerungsgruppen einschließen und Ergebnisse erzeugen, die mit den Grundrechten von EU-Bürgern vereinbar sind. Die erforderlichen Maßnahmen zur Einhaltung dieser Standards sind bereits im Entwicklungsprozess zu dokumentieren und bei unangekündigten Audits den Nationalen AI Regulatoren ggfls. offenzulegen, sonst drohen empfindliche Strafen.

KI – keine Spielwiese für Entwickler

Was bezweckt die EU damit? KI-Systeme sollen keine Spielwiese für Entwickler werden, denn die Gefahr ist viel zu groß, das Vertrauen in diese zukunftsweisenden Technologien zu verspielen. Deshalb wird Data Science grundsätzlich reguliert, wenn KI-Anwendungen mit „hohem Risiko“ entwickelt werden. Was „hohes Risiko“ genau bedeutet, bleibt gesetzgeberisch absichtlich vage, um Hersteller grundsätzlich für die hohen Anforderungen an die Qualität der verwendeten Daten zu sensibilisieren, auch wenn weniger risikobehaftete KI-Anwendungen entwickelt werden. Wer KI-Methoden in der Entwicklung von Produkten und Services nutzt, muss zeigen, dass er die Risiken sorgfältig analysiert hat und den Kontext umfassend einschätzen kann, in dem z. B. automatisierte Entscheidungshilfen genutzt werden. Fragen zur möglichen Verzerrung von Daten (Bias), zu potenziellen Störgrößen, die unliebsames “Grundrauschen” (Noise) verursachen, sowie zur Respräsentativität (Repräsentanz) der Daten muss der Hersteller überzeugend beantworten können. Potenzielle Risiken, die sich aus der KI-Anwendung für Bürger ableiten, müssen eingeschätzt und durch entsprechende Maßnahmen mitigiert werden können. Denn die Anwendungen sollen diskriminierungsfrei funktionieren, bei Frauen ebenso gut, wie bei Männern, unabhängig von Alter oder Hautfarbe, Bildungsstatus, Einkommen etc.

Damit ist der EU AI Act nach Einschätzung des Experten für Data-centric AI – Kevin Schawinski – nicht die Bremse, die durch hohe Regulierungshürden Innovation abwürgt. Vielmehr setzt dieser zukunftsweisende EU AI Act die schützenden Rahmenbedingungen, damit KI-Anwendungen ihre Potentiale zum Nutzen aller Bürger entfalten können. Der EU AI Act hat nach Einschätzung von Kevin Schawinski das Potential, als globaler Standard weltweit exportiert zu werden, wie die Europäische Datenschutzgrundverordnung. Die GDPR hat sich als Qualitätsstandard etabliert, der in globalen Märkten akzeptiert wird und als Gütesiegel für den Schutz der persönlichen Daten der Anwender gilt. Der EU AI Act kann der nächste Exportschlager werden und einen Beitrag leisten für „faire“ KI-Anwendungen in einer besseren, digitalen Welt.

Quellen:

  1. EU AI Act – Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights, Press Release Dec 2022
  2. Kevin Schawinski. LinkedIn Profile
  3. Modulos AG, Zurich. Data-centric AI enterprise platform that helps to find the errors, noise and bias in data so fairer and better AI can be built even faster.

Beim HCS Live Talk dabei sein?

Die HCS Live-Talks – einmal im Monat, 60 Minuten – bieten die Chance, sich mit Experten zu vernetzen und auszutauschen, oder selbst eine innovative Idee oder ein Produkt zur smarten Nutzung von Daten im Healthcare Kontext einzubringen. Gerne direkt anmelden oder bei Fragen Günther Illert, Dr. Ursula Kramer oder Brigitte Lippmann aus dem Netzwerk kontaktieren. Die Teilnahme an den HCS Live Talks ist kostenlos.

Autoren des Beitrags

Dr. Ursula Kramer

The Digital Health Expert advises companies on successfully placing their innovations in the healthcare market, establishing sustainable business models and thus expanding the competitive position and growth of small and medium-sized pharmaceutical and medtech companies as well as start-ups.

Weitere Infos