· 

KI-Regulierung: Der „AI Act“ der EU steht

Die EU hat aus dem Desinformations-Desaster seit der Trump-Wahl 2016 gelernt und einen Regulierungsplan für Künstliche Intelligenz (KI) ausgearbeitet, der bereits im Mai in Kraft tritt. Die Eile ist angesichts der Entwicklungsgeschwindigkeit insbesondere der generativen KI begründet. Doch auf wichtigen Feldern wie der KI-Kennzeichnung und -Sichtbarmachung rennen die Regulierungen dem Status Quo weit voraus: die Entwicklung der „digitalen Wasserzeichen“ hat gerade erst begonnen. 

 

Nach rund drei Jahren ist es soweit, die EU hat einen Regulierungsfahrplan, den sogenannten EU Artificial Intelligence Act, für den Umgang mit Künstlicher Intelligenz vorgelegt. In voller Schönheit wird er im Jahr 2027 in Kraft treten (wenn das Innovationstempo bis dahin nicht weitere Maßnahmen notwendig macht). EU-Bürger werden schon Ende 2024 erste Maßnahmen nachvollziehen können. 

 

Für die Unternehmen heißt das, dass sie rund drei Jahre Zeit haben, sich auf die Regulierungen einzustellen. Bis Ende des Jahres sollen zusätzliche vertiefende Nutzungspolitiken formuliert werden, die Felder wie Gesundheit und Bildung betreffen und fundamentale Menschenrechte berühren.

 

Die Fakten:

 

1. Gesichtserkennung und Lügendetektoren werden massiv reguliert

Die Nutzung von Realzeit-Gesichtserkennung wird grundsätzlich verboten. Außerdem werden EU-weit der Aufbau von Datenbanken für Gesichtserkennung nach dem Vorbild von Clearview AI verboten. Bestehen bleibt die Nutzung der Überwachungstechnologien für die Bekämpfung schwerer Verbrechen wie Terrorismus. Access Now, eine Organisation, die sich für digitale Rechte einsetzt, hat deshalb den EU-Act umfassend kritisiert. 

 

Ähnliche Spielräume bleiben bestehen bei der Nutzung von KI-Modellen, mit denen sich Emotionen bei Menschen nachweisen lassen sollen (so etwas wie ein Lügendetektor also). In der medizinischen und strafrechtlichen Nutzung ist die Nutzung nach wie vor aber gestattet, darüber hinaus wird sie untersagt.

 

2. KI-Literacy der Bürger als entscheidendes Aufklärungswerkzeug

Für die EU-Bürger in der alltäglichen Nutzung der KI besonders wichtig: Deepfakes wie alle Inhalte, die durch KI erzeugt werden, und auch die Kommunikation mit Chatbots müssen in der EU ab 2024 gekennzeichnet werden. Das klingt jedoch besser als die momentane Praxis, denn bei den Technologien, die so etwas wie digitale Wasserzeichen an KI-Inhalten „anbringen“, lassen Durchbrüche nach wie vor auf sich warten. Hier ist die Regulierung deutlich weiter als der technologische Status Quo. Das aussichtsreichste Tool wird aktuell über ein Open-Source-Protokoll unter dem Namen C2PA entwickelt.

 

Ein europäisches KI-Office befindet sich momentan im Aufbau (hier bewerben). Was jedoch als entscheidendes Moment aktuell die vielleicht größten Sorgen macht: während sich KI-Modelle im Alltag etablieren, steckt die pädagogische Entwicklung von „KI-Literacy“, zumindest einfache Kompetenzen im Umgang mit KI, noch in den Kinderschuhen.

 

3. Unternehmen werden mit umfangreichen Dokumentationspflichten beauftragt

Für Unternehmen bedeuten die EU-Regelungen zunächst, dass von diejenigen, die im EU-Raum mit KI Geld verdienen möchten, kein ausdrückliches Commitment gegenüber dem AI-Act gefordert wird. Vertiefende Richtlinien werden jedoch für die Hochsicherheitsgebiete der Infrastrukturen und der Gesundheit angekündigt. 

 

Der vielleicht wichtigste Aspekt des europäischen AI Acts besteht jedoch in den umfassenden Dokumentationspflichten für KI-Anwender. Insbesondere Unternehmen, welche Sprachmodelle wie beispielsweise ChatGPT und allgemeine KI-Modelle nutzen, müssen dokumentieren, wie die Modelle aufgebaut sind und auf welchen Urheberrechtsvereinbarungen sie beruhen. Darüber hinaus muss in öffentlich zugänglichen Dokumentationen nachgewiesen werden, auf Basis welcher Trainingsdaten die KI-Modelle realisiert wurden. Zur Einordnung: Bislang herrscht bei den meisten KI-Sprachmodellen komplettes Unwissen darüber, wie sie funktionieren und auf welchen Wegen sie zu ihren – mitunter hochgradig fehlerhaften – Resultaten kommen.