Zum Inhalt springen

Digitale Demokratie – Der EU AI Act als Kompass für verantwortungsvolle KI

Das erste Auto wurde vor 150 Jahren entwickelt – es gab noch keine asphaltierten Straßen, keine Verkehrsschilder, keine Ampeln – und kein Verkehrsrecht. Nur eine motorisierte Innovation, die den Verkehr auf der ganzen Welt revolutionieren würde. Etwa an einem ähnlichen Punkt stehen wir gerade mit der Ordnung und rechtlichen Regulierung von Künstlicher Intelligenz in der EU. Es ist das weltweit erste Gesetz dieser Art und könne einen globalen Standard für die Regulierung von KI setzen.


25. 07. 2024

Michael Kolain, Rechtswissenschaftler und Experte für KI-Regulierung im Vorstand von RAILS e.V. (Robotics and AI Law Society), und Pia Sombetzki, Policy & Advocacy Managerin bei AlgorithmWatch, beleuchteten in einem sehr gehaltvollen Espresso Doppio Talk des Civic Data Lab viele Perspektiven, die bedacht werden mussten, um die Basis für ein aufbaufähiges und tragfähiges KI-Gesetz zu legen. Die Gesprächsreihe Espresso-Talk des Civic Data Lab findet regelmäßig statt und räumte dieses Mal doppelt so viel Zeit für ein warmes Getränk, aber noch heißeres Gesprächsthema ein: Es ging um den Artifical Intelligence Act (EU KI-Verordnung) mit den Leitplanken „Transparenz, Diskriminerungsfreiheit und Nachhaltigkeit“.

Der EU AI Act: Ein Kompass für die KI-Zukunft

„Wir haben zum ersten Mal eine Regulierung für KI-Systeme als Produkte auf dem Markt. In den Anwendungsbereich fällt Software mit einem gewissen Grad an Autonomie in ihrer Funktionsweise. Für sie gelten einheitliche Transparenzvorgaben – und für besonders riskante Anwendungsszenarien noch weitere Pflichten, die durch technische Standards konkretisiert werden“, erklärt Kolain. Die Einstufung der jeweiligen KI-Systeme als verbotene Praktiken, Hochrisiko-KI-Systeme oder Systeme mit begrenztem oder nur einem geringen Risiko hängt hierbei von ihrer Zweckbestimmung und konkreten Anwendungsbereichen ab. Verboten sind beispielsweise KI-Systeme, die eine Bewertung von sozialem Verhalten (Social Scoring) beinhalten oder die Unternehmen dafür nutzen, um aus öffentlichen Quellen oder Videos aus Überwachungskameras biometrische Datenbanken zu erstellen. Auch die Echtzeit-Gesichtserkennung im öffentlichen Raum (Kameraüberwachung mittels biometrischer Daten) mittels KI bleibt für staatliche Behörden im Grundsatz verboten – die Verordnung sieht aber auch Raum für nationale Ausnahmen von dem Verbot vor. Auf die in der Verordnung vorgezeichneten oder noch strengeren Ausnahmen vom Verbot können sich Strafverfolgungsbehörden allerdings nur dann berufen, wenn im nationalen Recht eine Ausnahme für die Gesichtserkennung im öffentlichen Raum verankert wird. Ein weiterer wichtiger Aspekt des AI Act ist, dass die KI-Systeme auf dem europäischen Markt, auch hier abgestuft nach ihrem Risiko für Grundrechte, engmaschig durch Aufsichtsbehörden überwacht werden sollen.

Rote Linien und Regeln für KI-Systeme: Was die KI-Regulierung vorsieht

Neben Herstellern müssen insbesondere Anwender*innen von Hochrisiko-KI-Systemen, die z.B. in Bereichen der kritischen Infrastruktur oder im Bildungs- und Gesundheitswesen eingesetzt werden, künftig konkrete Anforderungen erfüllen und Transparenzpflichten befolgen. Hierunter fallen u.a. Qualitätsanforderungen an Datensätze, die Sicherstellung von menschlicher Aufsicht und Cybersicherheit, das Einrichten von Risikomanagementsystemen und die Offenlegungspflicht von Informationen der Betreiber. Interessant in diesem Zusammenhang ist sicherlich auch die Differenzierung zwischen Entwickler*in/Hersteller*in und Anwender*in der Software, die beide für unterschiedliche Transparenzbereiche verantwortlich sind, die sich zwar ergänzen müssen, wo aber noch klare Standards fehlen und derzeit entwickelt werden. Kolain vergleicht solche Vorgaben mit den Transparenzpflichten bei Medikamenten in Form von Beipackzetteln. Wer ein KI-System auf den Markt bringt, muss die Betreiber*innen in der Lieferkette hinreichend informieren. In bestimmten Bereichen müssen sie umfassende Risiko- und Gefahrenszenerien analysieren und eine Folgenabschätzung erstellen und veröffentlichen und in einer EU-Datenbank sind alle Hochrisiko-System zu registrieren. Gleichzeitig können Anbieter*innen von KI-Systemen unterm Strich selbst einschätzen, ob ihr System in die Hochrisiko-Kategorie fällt oder ob im Einzelfall kein hohes Risiko vorliegt. Dieser Punkt habe zu deutlichen inhaltlichen Auseinandersetzungen und Kritik vonseiten der Zivilgesellschaft geführt, erklärt Sombetzki, da dies dazu führen kann, dass Unternehmen versuchen könnten, sich aus der Verantwortung zu ziehen. Keine Hockrisiko-KI-Systeme sollen KI-Systeme sein, die kein bedeutendes Risiko für Gesundheit oder Sicherheit haben und die Grundrechte natürlicher Personen nicht beeinflussen.

Transparenz als Schlüssel: Der digitale Beipackzettel für KI

Sombetzki betont, dass sich „AlgorithmWatch insbesondere konkrete Fälle anschaut, in denen etwas falsch gelaufen ist und die Regulierung an ihre Grenzen stößt.“ Das sei z.B. häufiger in der öffentlichen Verwaltung der Fall. In den kommenden zwölf Monaten müsse, laut EU-Verordnung, eine KI-Aufsicht in Deutschland aufgesetzt werden. Diese Aufsichtsfunktion muss auf deutscher Ebene jetzt zwingend konkretisiert werden. Sombetzki wünscht sich, dass „die Zivilgesellschaft aktiv in diesen Prozess integriert wird“, u.a. im Aufbau der Aufsicht, aber auch in einer institutionellen Verankerung, z.B. indem ein Beirat aufgesetzt wird, in dem ausreichend viele Sitze für die Zivilgesellschaft festgelegt sind. Ein Beispiel dafür, wie dies ausgestaltet werden könnte, bietet laut Sombetzki der Beirat, der gerade erst im Digitale-Dienste-Gesetz angelegt wurde: „Dort sind acht von 16 Plätzen für die Zivilgesellschaft und Verbraucherverbände vorgesehen. Das soll dafür sorgen, dass möglichst viele Stimmen zu Wort kommen und die Bedarfe und Ziele der Zivilgesellschaft abgebildet werden.

Die Zivilgesellschaft am Steuer: Wie sie die KI-Zukunft mitgestaltet

Zivilgesellschaftliche Perspektiven auf den Einsatz von KI-Systemen sind an allen Stellen gefragt. Die gute Nachricht ist: Viele machen sich auf den Weg, kritisch nachzufragen oder eigene Tools anzubieten, um sicherere, gerechte und umweltfreundliche KI-Einsätze zu ermöglichen. AlgorithmWatch hat beispielsweise ein Tool zur KI-Folgenabschätzung für die öffentliche Verwaltung entwickelt – gemeinsam mit Ethiker*innen, Rechtswissenschaftlicher*innen und Verwaltungspraktiker*innen. In der Schweiz wird das Tool bereits eingesetzt, für die Europäische Kommission soll es als Inspiration dienen, die jetzt gefragt ist, eine Vorlage für eine Grundrechtefolgenabschätzung zu entwerfen, die öffentliche Stellen vor dem Einsatz zukünftig durchführen müssen. In dem aktuellen Spannungsfeld rund um KI gilt es nun, ein Gleichgewicht herzustellen: Zwischen gemeinwohlorientierter KI, technischem Fortschritt und Rechtssicherheit stehen sich teils widersprüchliche Motive gegenüber, welche in einem rechtlichen, politischen und gesellschaftlichen Kurs versöhnt werden müssen. Aus genau diesem Grund ist es wichtig, Foren für eine demokratische Auseinandersetzung zu schaffen – auch wenn diese mal doppelt so lange dauert -wie in diesem gehaltvollen Espresso Doppio.

Zu den Gesprächspartner*innen:

  • Pia Sombetzki: Als Policy & Advocacy Managerin beschäftigt sich Pia bei AlgorithmWatch mit der Regulierung von ADM-Systemen (=algorithmic decision making) in Deutschland, insbesondere im Bereich ADM im öffentlichen Sektor. Pia hat einen Masterabschluss in Soziokulturellen Studien von der Europa-Universität Viadrina in Frankfurt (Oder). Bevor sie zu AlgorithmWatch kam, war sie als politische Bildnerin bei der Schwarzkopf-Stiftung Junges Europa tätig. Advocacy-Luft hatte Pia zuvor bei Organisationen wie Human Rights Watch, INKOTA-netzwerk e.V. und European Alternatives geschnuppert.(https://algorithmwatch.org/de/team/pia-sombetzki/))
  • Michael Kolain (Vorstand RAILS e.V.) ist Rechtswissenschaftler und forscht an der Schnittstelle zwischen Recht, Technik und Gemeinwohl. Zuvor war er Koordinator des Bereichs „Transformation des Staates in Zeiten der Digitalisierung“ am Deutschen Forschungsinstitut für öffentliche Verwaltung (Leitung: Prof. Dr. Mario Martini). Er interessiert sich für die Regulierung und Implementierung digitaler Technologien in Staat und Gesellschaft – mit derzeitigem Fokus auf Blockchain, Künstliche Intelligenz, Robotik und GovTech. (https://ai-laws.org/dt_team/michael-kolain/)

Civic Data Lab Logo

Der Abruf externer Inhalte ist nur möglich, wenn Sie das Setzen von Marketing-Cookies akzeptieren.

Marketing-Cookies akzeptieren


Autor*innen

gi_27092023_0153_720

Katharina Buchsbaum (sie/ihr)

Kontakt in HumHub

Bild4

Stephanie Agethen (sie/ihr)

Kontakt in HumHub