Ein Projekt von:

Institut für Internet-Sicherheit - if(is)

Der AI Act regelt Künstliche Intelligenz

Trilog zum AI Act am 6. Dezember 2023

Beitrag teilen:

Der AI Act regelt Künstliche Intelligenz


Nach langen Verhandlungen haben sich die Unterhändler des EU-Parlaments, des Ministerrats und der Kommission auf die endgültige Fassung des AI-Acts geeinigt. Das weltweit erste umfassende demokratische Regelwerk für Künstliche Intelligenz (KI) steht nun fest und somit dürfte das Gesetz noch vor den Europawahlen im kommenden Juni verabschiedet werden. Jedoch gibt Fritz Pieper, Rechtsanwalt im IT-Recht bei Taylor Wessing in seinem Post auf LinkedIn zu bedenken, „es gibt einen _politischen_ Deal. Es gibt kein offizielles Dokument. Man weiß nicht, wie die Regelungen im Detail aussehen (werden). Viele müssen noch in weiteren Terminen erarbeitet werden. Es ist aktuell ein bisschen so, wie wenn man BGH-Entscheidungen auf Basis der Pressemitteilung bespricht – ist schonmal wichtig und interessant, aber man muss später nochmal genauer hinsehen. Es bleibt also spannend.“

Hinzu kommt, dass es an verschiedenen Stellen weit auseinanderliegende Positionen gab. So mussten in einigen Punkten – zum Beispiel bei der Definition von KI – Kompromisse eingegangen werden. Von daher sind Schlupflöcher enthalten, insbesondere in Bezug auf biometrische Videoüberwachung und Predictive Policing. Das Parlament hatte im Vorfeld das Verbot biometrischer Massenüberwachung durch automatisierte Gesichtserkennung gefordert. Die Mitgliedsstaaten der EU hingegen wollten dies von Anfang an durchsetzen. 

Nachfolgend einige Hauptstreitpunkte und die entsprechende Einigung:

  • Erfasste Systeme (laut Pressekonferenz): Nur fertige Systeme und Modelle sollen erfasst sein. Nicht Systeme, die sich noch in der Entwicklung befinden. 
  • Definition von KI: Anlehnung an die OECD-Definition, worüber die Konsistenz mit internationalen Standards sichergestellt wird.
  • General Purpose AI Modelle (GPAI): Einführung eines abgestuften Ansatzes mit automatischer Klassifizierung für Modelle, und darauf basierender Systeme, die mit extrem hoher Rechenleistung trainiert wurden. Die Kommission erhält die Möglichkeit, die Anforderungen gemäß dem technischen Fortschritt zu justieren.
  • Transparenzpflichten: Verpflichtung zur Offenlegung von Trainingsdaten für alle General Purpose AI-Modelle.
  • Verbotene Praktiken: Liste verbotener Anwendungen, darunter manipulative Techniken.
  • Anwendung auf bestehende Systeme: Ob die Regelungen für die, vor Inkrafttreten, existierenden KI-Systeme gelten, war umstritten. Wie die Einigung hier aussieht, ist unbekannt.
  • Emotionserkennung: Uneinigkeit über das Verbot in bestimmten Bereichen. Offenbar hat man sich auch hier geeinigt, bestimmte Anwendungsfälle freizugeben.
  • Fernbiometrische Identifikation: Diese werden für bestimmte Katalogdaten und unter richterlicher Kontrolle erlaubt. Dies gilt für „real-time“ Anwendungen wie die nachträgliche Nutzung derartiger Systeme.

 

Ein weiterer wichtiger Streitpunkt betraf die Regelung der so genannten Basismodelle wie GPT, Gemini, LaMDA oder LLaMA. Diese Modelle werden auf der Grundlage großer Datensätze trainiert und sind adaptiv verwendbar für eine Vielzahl unterschiedlicher Aufgaben. Gemäß der getroffenen Vereinbarung sind die wichtigsten Akteure im Bereich der künstlichen Intelligenz verpflichtet, mögliche Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit zu prüfen und gegebenenfalls unter Einbeziehung unabhängiger Experten zu mindern.

Insgesamt stellt das Abkommen einen Wendepunkt in der Regulierung von KI dar, was auch weitreichende Auswirkungen auf Entwickler, Unternehmen und Endnutzer haben wird. Maßgeblich für die Entwicklung und den Einsatz von KI-Technologien wird definitiv die Definition von KI sein sowie die spezifischen Regelungen für Large Language Models wie ChatGPT. Besonders hervorzuheben ist in diesem Kontext noch, dass Ausnahmeregelungen für freie und Open-Source-Software geschaffen wurden. Dies unterstreicht zum einen die Bedeutung von Forschung und Offenheit der neuen Technologie und die Notwendigkeit von Transparenz und Wahrung der Urheberrechte andererseits.

Möglicherweise werden die, aufgrund der Governance-Strukturen sowie der verbotenen Praktiken, definierten Grenzen der KI-Nutzung zu manch kontroversen Diskussionen führen. Insgesamt halte ich hier einen Diskurs – insbesondere zu den ethischen Aspekten – für zielführend im Rahmen einer verantwortungsvollen Technologiepolitik, um die Vertrauenswürdigkeit in europäische KI zu stärken.


Quelle:
https://www.taylorwessing.com/de/insights-and-events/insights/2023/12/analyse-des-durchbruchs-beim-trilog-des-ai-act