Sie sind hier

EU: Erstes KI Regulierungsgesetz fordert Unternehmen

Im August ist mit der EU-Verordnung über Künstliche Intelligenz (engl. »AI Act«) das weltweit erste umfassende Gesetz zur Regulierung von KI in Kraft getreten.
Risiken minimieren, Qualität sichern, Vertrauen fördern: Im August ist mit der EU-Verordnung über Künstliche Intelligenz (engl. »AI Act«) das weltweit erste umfassende Gesetz zur Regulierung von KI in Kraft getreten. Nun müssen betroffene Unternehmen die neuen Regularien fristgerecht umsetzen, andernfalls drohen Strafzahlungen. Mit einem neuen Angebot im Bereich KI-Governance & Qualitätsmanagement unterstützt das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS Unternehmen bei der Umsetzung der KI-Verordnung.

Es ist amtlich. Mit dem Inkrafttreten des AI Acts läuft ab sofort die Zeit für Umsetzungsfristen der EU-Verordnung zur Regulierung von Künstlicher Intelligenz. Das Gesetz soll EU-Bürgerinnen und Bürger vor allem vor Risiken im Zusammenhang mit KI schützen und einen vertrauenswürdigen Einsatz von Anwendungen gewährleisten. So weit, so gut – doch was genau bedeutet das für Unternehmen? »Wir begrüßen es, dass wir nun einen Rechtsrahmen für den Einsatz von KI haben«, sagt Dr. Maximilian Poretschkin, Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS. »Gleichzeitig fehlt es – vergleichbar mit der Einführung der DSGVO – oftmals noch an Erfahrung, wie dieser für konkrete Use Cases anzuwenden ist. Als eine der führenden Forschungsorganisationen auf dem Gebiet der Künstlichen Intelligenz engagiert das Fraunhofer IAIS sich bereits seit Jahren bei der systematischen Qualitätssicherung von KI-Systemen und wie diese gegenüber Dritten nachweisbar gemacht werden kann. Diese Erfahrung bringen wir gerne ein, um Unternehmen dabei zu unterstützen, die neuen Anforderungen effizient und pragmatisch umzusetzen.«

Mit dem neuen »KI Governance und Qualitätsmanagement Framework« haben die Expertinnen und Experten des Fraunhofer IAIS ein modulares Vorgehensmodell entwickelt: Ziel ist eine unternehmenseigene KI-Governance, die nicht nur ethischen und rechtlichen Anforderungen gerecht wird, sondern insbesondere auch KI-Anwendungen mit hoher Qualität, Zuverlässigkeit und Robustheit hervorbringt.

EU-Anforderungen in Unternehmensprozesse übersetzen

144 Seiten umfasst die Verordnung, welche KI-Anwendungen in vier Risikostufen einordnet und reguliert – von grundsätzlich verbotenen Praktiken, wie etwa dem »Social Scoring«, also der automatischen Bewertung von Menschen aufgrund von Sozialverhalten, Status oder persönlichen Merkmalen, über Hochrisikoanwendungen bis hin zu Systemen mit limitiertem oder minimalem Risiko. »Ob im Einkauf oder in Entwicklungsteams, die EU-Regulierungen beeinflussen Unternehmen, die mit KI arbeiten oder sie selbst entwickeln, an unterschiedlichen Stellen«, sagt Fabian Malms, Leiter des Flagship-Projekts »Zertifizierte KI« am Fraunhofer IAIS, der das neue Angebot mit einem Fachteam entwickelt hat. »Unser Ziel ist es, die neuen Anforderungen bereichsübergreifend in unternehmenseigene Prozesse zu übersetzen und in die technischen Entwicklungsumgebungen zu implementieren.«

Ganzheitliche Umsetzung auf Organisations-, Prozess- und Systemebene

Die Umsetzung der Verordnung erfolgt auf drei Ebenen, die wiederum eng miteinander verflochten sind: auf Organisations-, Prozess- und Systemebene. Zunächst setzen die Fraunhofer-Expertinnen und -Experten in einem Workshop mit den jeweiligen Stakeholdern aus einem Unternehmen eine individuelle Roadmap für die Implementierung eines KI-Governance und Qualitätsmanagement Frameworks auf. Danach werden Anforderungen identifiziert, Ziele und Leitplanken für den Einsatz von KI definiert sowie Prozesse und Verantwortlichkeiten aufgesetzt und in eine KI-Governance integriert. Die darin enthaltenen Leitfäden zur Qualitäts- und Risikobewertung werden wiederum in den Entwicklungsprozess von KI-Systemen eingebettet und anhand von ersten Anwendungsbeispielen erprobt.

»Wir haben die Vorschriften aus der KI-Verordnung in verdaubare Kontrollen und Maßnahmen entlang des KI-Lebenszyklus eingeteilt«, erläutert Lennard Helmer, Research Engineer für den KI-Entwicklungsprozess. »Insgesamt über 80 Kontrollen werden in den unterschiedlichen Phasen des jeweiligen Entwicklungsprozesses einer KI eingebunden. Das Ergebnis: AI compliance by design. Auf der System-Ebene verknüpfen wir dann den MLOps-Prozess und das Risiko-Management mit einer metrikbasierten Auswertung von KI-Risiken. So kann künftig neben einer qualitativen auch eine quantitative Auswertung anhand messbarer Daten erfolgen.«

Know-how aus strategischen Kooperationen: von der Forschung in die Wirtschaft

Bei der Arbeit greift das Fraunhofer IAIS auf das Know-how aus zahlreichen strategischen Forschungs- und Praxisprojekten aus Wissenschaft und Wirtschaft zurück. Im Rahmen des KI.NRW-Flagship-Projekts »ZERTIFIZIERTE KI« etwa beschäftigt sich eine Arbeitsgruppe des Fraunhofer IAIS und des Bundesamts für Sicherheit in der Informationstechnik BSI mit der Gestaltung vertrauenswürdiger KI-Systeme. Als eine wichtige Grundlage dafür gilt der über 160 Seiten starke KI-Prüfkatalog des Fraunhofer IAIS, der Unternehmen unterschiedlicher Branchen schon heute einen Leitfaden bietet, um Anforderungen an die Vertrauenswürdigkeit intelligenter Systeme für die Entwicklung individueller KI-Anwendungen zu operationalisieren.

Auch an der vom Bundesministerium für Digitales und Verkehr geförderten nationalen Initiative für Künstliche Intelligenz und Datenökonomie »MISSION KI« setzt das Fraunhofer IAIS sein umfassendes Wissen bereits ein. Um die digitale Wettbewerbsfähigkeit der deutschen Wirtschaft zu stärken, entwickelt und erprobt die Angebotspartnerschaft KI-Qualitäts- und Prüfstandards und etabliert darauf aufbauend ein freiwilliges KI-Gütesiegel.
 

Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer