Mlada manazerka

Wie kann künstliche Intelligenz reguliert werden?

„Künstliche Intelligenz ist zu wichtig, um nicht reguliert zu werden – und zu wichtig, um nicht gut reguliert zu werden.“ Das ist ein Zitat von Sundar Pichai, dem CEO von Google, einem der führenden Köpfe in der Online-Welt.

Europäischer Ansatz

Bereits im April 2021 legte die Europäische Kommission den ersten Entwurf eines umfassenden Rechtsrahmens[1] für künstliche Intelligenz (KI) vor, der als „KI-Gesetz“ bekannt ist, ein Verordnungsentwurf mit direkter Anwendbarkeit in allen EU-Mitgliedstaaten, ähnlich wie die Datenschutzgrundverordnung. In Anbetracht der Vorteile und Risiken von KI haben die Behörden der Europäischen Union das grundlegende Ziel dieser Verordnung wie folgt definiert: “ Um die Entwicklung, die Nutzung und den Einsatz von KI im Binnenmarkt zu fördern, bedarf es daher eines EU-Rechtsrahmens, der harmonisierte Regeln im Bereich der KI festlegt und gleichzeitig ein hohes Schutzniveau für öffentliche Interessen wie Gesundheit und Sicherheit und den Schutz der Grundrechte gewährleistet. Um dieses Ziel zu erreichen, sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter Systeme der künstlichen Intelligenz festgelegt werden, die das reibungslose Funktionieren des Binnenmarktes gewährleisten und es diesen Systemen ermöglichen, vom Grundsatz des freien Waren- und Dienstleistungsverkehrs zu profitieren. Die Festlegung dieser Regeln in dieser Verordnung wird das Ziel der EU unterstützen, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit führend zu werden. [2]. Eine klare Zusammenfassung des gesamten Vorschlags finden Sie auf der Website des Europäischen Parlaments[3]. Es gibt auch eine eigene Webseite zum AI-Gesetz[4], auf der nützliche Informationen zu finden sind, darunter ein chronologischer Überblick über den Gesetzgebungsprozess, relevante Dokumente und Analysen.

Der Entwurf des KI-Gesetzes sieht Verpflichtungen für KI-Anbieter und -Nutzer vor, die sich nach dem Grad des von der KI ausgehenden Risikos richten. Dabei wird zwischen vier Hauptrisikostufen unterschieden: inakzeptabel, hoch, Risiko im Zusammenhang mit generativer KI, begrenztes Risiko.


[1] Die slowakische Fassung dieses ersten Entwurfs ist zusammen mit der Begründung hier öffentlich zugänglich:
https://eur-lex.europa.eu/legal-content/SK/TXT/HTML/?uri=CELEX:52021PC0206
[2] Punkt 5 der Begründung des Entwurfs des AI-Gesetzes.
[3] Übersicht über das AI-Gesetz: https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_DE.pdf
[4] Siehe: https://artificialintelligenceact.eu/

Inakzeptables Risiko

KI-Systeme mit inakzeptablem Risiko sind Systeme, die als Bedrohung für den Menschen angesehen werden und in der EU verboten werden sollen. Dazu gehören:

  • Kognitive Manipulation des Verhaltens von Einzelpersonen oder bestimmten gefährdeten Gruppen: zum Beispiel sprachgesteuertes Spielzeug, das Kinder zu unsicherem Verhalten anregt;
  • Soziales Scoring: Klassifizierung von Menschen aufgrund von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
  • biometrische Identifikationssysteme in Echtzeit und aus der Ferne, wie z.B. die Gesichtserkennung.

Ausnahmen, wie z.B. ’nachgelagerte‘ biometrische Fernidentifizierungssysteme, bei denen die Identifizierung mit einer erheblichen Verzögerung erfolgt, werden für die Verfolgung schwerer Straftaten und nur mit Genehmigung des Gerichts zugelassen.

Hohes Risiko

KI-Systeme, die sich negativ auf die Sicherheit oder die Grundrechte auswirken, werden als hohes Risiko eingestuft und in zwei Kategorien eingeteilt: (i) KI-Systeme, die in Produkten verwendet werden, die unter die EU-Rechtsvorschriften zur Produktsicherheit fallen. Dazu gehören Spielzeug, Luftfahrt, Autos, medizinische Geräte und Aufzüge. (ii) KI-Systeme, die in acht spezifische Bereiche fallen, die in einer EU-Datenbank registriert werden müssen:

  • biometrische Identifizierung und Kategorisierung von natürlichen Personen;
  • Verwaltung und Betrieb von kritischen Infrastrukturen;
  • Bildung und Ausbildung
  • Beschäftigung, Arbeitnehmermanagement und Zugang zur Selbstständigkeit;
  • Zugang zu und Nutzung von wichtigen privaten und öffentlichen Diensten und Leistungen;
  • Strafverfolgung;
  • Steuerung von Migration, Asyl und Grenzkontrolle
  • Unterstützung bei der juristischen Auslegung und Anwendung des Gesetzes.

Alle KI-Systeme mit hohem Risiko werden bewertet, bevor sie auf den Markt kommen und während ihres gesamten Lebenszyklus.

Generative künstliche Intelligenz

Generative künstliche Intelligenz, wie z.B. ChatGPT, muss die Anforderungen an die Transparenz erfüllen, d.h:

  • offenlegen, dass der Inhalt durch künstliche Intelligenz erzeugt wurde;
  • Gestalten Sie das Modell so, dass die Erstellung illegaler Inhalte verhindert wird;
  • Zusammenfassungen von urheberrechtlich geschützten Daten zu veröffentlichen, die für das KI-Training verwendet werden.
Begrenztes Risiko

Risikobeschränkte KI-Systeme sollten Mindestanforderungen an die Transparenz erfüllen, damit die Nutzer fundierte Entscheidungen treffen können. Nach der Interaktion mit den Anwendungen kann der Nutzer entscheiden, ob er sie weiter nutzen möchte. Die Nutzer sollten darüber informiert werden, dass sie mit KI interagieren. Dies gilt auch für KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren (z. B. Deepfakes).

Kritik am EU-Ansatz und das fragwürdige Schicksal des AI-Gesetzes

Im Juni 2023 unterzeichneten mehr als 150 große europäische Unternehmen, darunter Renault, Heineken, Airbus und Siemens, einen kritischen offenen Brief[5]. Ihnen zufolge könnte der Entwurf des KI-Gesetzes in seiner jetzigen Form die Chance zunichte machen, die die KI-Technologie für Europa bietet, um „wieder an die technologische Spitze zu gelangen“. Die Unterzeichner argumentieren, dass die Regulierungsvorschriften zu extrem sind und die Gefahr besteht, dass sie die technologischen Ambitionen der EU untergraben, anstatt – wie beabsichtigt – ein günstiges Umfeld für KI-Innovationen zu schaffen. Eine der größten Sorgen, die sie äußern, betrifft die strengen Regeln, die für generative KI-Systeme gelten, eine Untergruppe von KI-Modellen, die in der Regel unter die Bezeichnung „Basismodell“ fallen. Nach dem Entwurf des KI-Gesetzes müssen Anbieter von KI-Basismodellen – unabhängig von ihrem Verwendungszweck – ihr Produkt in der EU registrieren lassen, sich einer Risikobewertung unterziehen und Transparenzanforderungen erfüllen, wie etwa die Offenlegung aller urheberrechtlich geschützten Daten, die zum Trainieren ihrer Modelle verwendet werden. In dem offenen Brief heißt es, dass Unternehmen, die diese zentralen KI-Systeme entwickeln, unverhältnismäßig hohen Kosten für die Einhaltung der Vorschriften und Haftungsrisiken ausgesetzt wären, was KI-Anbieter dazu veranlassen könnte, sich ganz vom europäischen Markt zurückzuziehen. „Europa kann es sich nicht leisten, an der Seitenlinie zu stehen“, heißt es in dem Brief, der die EU-Gesetzgeber auffordert, von strengen Compliance-Verpflichtungen für generative KI-Modelle abzurücken und sich stattdessen auf diejenigen zu konzentrieren, die „weitreichende Prinzipien im Rahmen eines risikobasierten Ansatzes“ erfüllen können.


[5] Siehe: https://www.igizmo.it/wp-content/uploads/2023/06/Open-Letter-EU-AI-Act-and-Signatories.pdf

Ein vorzeitiges Ende des AI-Gesetzes?

Diese Kritik scheint – zumindest teilweise – eine sachliche Grundlage zu haben, wie andere Ereignisse im Gesetzgebungsverfahren bestätigen[6]. Während der sogenannte Trilog Ende Oktober 2023 wie ein politischer Konsens auch zu den Grundmodellen der generativen KI aussah, lehnten Anfang November 2023 mehrere EU-Mitgliedstaaten, darunter Frankreich, Deutschland und Italien, bei einem Treffen der Arbeitsgruppe „Telekom“ jegliche Regulierung für die Grundmodelle der KI ab. Es sieht sogar so aus, als gäbe es ein politisches Problem der „Überregulierung“.

Das letzte Mal trafen sich die europäischen Gesetzgeber, d.h. Vertreter des Europäischen Parlaments, des Rates und der Kommission, vom 6. bis 9. Dezember 2023 zu einem Trilog. Nach veröffentlichten Informationen[7]scheint am Ende ein vorläufiger Konsens erzielt worden zu sein. Die Liste der verbotenen Anwendungen von KI wird um die biometrische Fernidentifizierung im öffentlichen Raum erweitert, allerdings mit einer Ausnahme für die Strafverfolgung. Der endgültige Text ist noch nicht bekannt und weitere Arbeiten und Übersetzungen zu diesem Zweck werden noch andauern. Es ist zu erwarten, dass starker politischer Druck ausgeübt wird, um das gesamte Gesetzgebungsverfahren zum Entwurf des KI-Gesetzes frühzeitig abzuschließen, auch im Hinblick auf den Wechsel der Ratspräsidentschaft ab Januar 2024, wenn Belgien die Präsidentschaft von Spanien übernimmt, und auch im Hinblick auf die bevorstehenden Wahlen zum Europäischen Parlament im Juni 2024.


[6] z.B. https://www.euractiv.com/section/artificial-intelligence/news/eus-ai-act-negotiations-hit-the-brakes-over-foundation-models/
[7] Siehe: https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/

Der amerikanische Ansatz

Heute gibt es in den USA keine spezifische KI-Regulierung, aber intensive Vorbereitungsarbeiten sind im Gange[8]. Das wahrscheinlichste Ergebnis für die Vereinigten Staaten wird ein Flickenteppich von Exekutivmaßnahmen von unten nach oben sein. Im Gegensatz zu Europa ist es unwahrscheinlich, dass die Vereinigten Staaten in den nächsten Jahren ein umfassendes nationales KI-Gesetz verabschieden werden. Die Untergesetzgebung wird sich wahrscheinlich auf weniger kontroverse und gezielte Maßnahmen konzentrieren – wie die Finanzierung der KI-Forschung oder die Sicherheit von Kindern. Dies wird die Befürworter einer starken nationalen KI-Regulierung wahrscheinlich enttäuschen. Dieses Ergebnis wird wahrscheinlich nicht so systematisch sein und sicherlich Gesetzeslücken aufweisen, aber das bedeutet nicht, dass es nicht effektiv sein könnte. Wir werden in den USA wahrscheinlich eine Vielzahl von Maßnahmen von Behörden sehen, die in den verschiedenen betroffenen Bereichen tätig sind, insbesondere in den Bereichen Gesundheitswesen, Finanzdienstleistungen, Wohnungsbau, Arbeitskräfte und Kindersicherheit, sowie weitere staatliche Regulierungen. Dieser Flickenteppich von Vorschriften könnte, wenn er gut umgesetzt wird, durch das Fachwissen bestimmter Behörden untermauert und stärker auf Innovationen zugeschnitten werden. Die US-Bundesregierung wird wahrscheinlich die Ausgaben für künstliche Intelligenz und deren Forschung erhöhen, insbesondere in den Bereichen Verteidigung und Nachrichtendienste, und ihre Kaufkraft nutzen, um den Markt zu gestalten. Es wird wahrscheinlich zu Kollisionen im KI-Handel mit Europa kommen, und private Unternehmen werden ihre eigenen ‚verantwortungsvollen KI-Initiativen‘ verfolgen und sich mit einem fragmentierten globalen KI-Regulierungsumfeld auseinandersetzen. Die sich abzeichnende Konkurrenz aus China verschärft die Debatte darüber, wie man nicht „abgehängt“ wird. Die Federal Trade Commission (FTC) und das Department of Justice (DOJ) werden wahrscheinlich proaktiv vorgehen, um eine übermäßige Konzentration von KI auf die am weitesten verbreiteten Technologien zu verhindern. Es besteht auch die reale, wenn auch weniger wahrscheinliche Chance, dass ein wichtiger US-Bundesstaat (z.B. Kalifornien) bedeutende KI-bezogene Gesetze erlässt oder dass sich eine größere KI-bezogene Katastrophe ereignet[9]. Außerdem finden in den USA im Jahr 2024 Präsidentschaftswahlen statt und eine strengere Regulierung von KI könnte im Zusammenhang mit den Entwicklungen in China ebenfalls ein Thema sein.


[8] Siehe https://ai.gov/
[9] Siehe: https://www.csis.org/blogs/strategic-technologies-blog/ai-regulation-coming-what-likely-outcome

China

Mitte August 2023 trat ein neues chinesisches Gesetz in Kraft, das die generative künstliche Intelligenz regeln soll. Dieses Gesetz ist das letzte in einer Reihe von Verordnungen, die sich mit verschiedenen Aspekten der KI befassen. Es ist international bahnbrechend, da es das erste Gesetz ist, das speziell auf generative KI abzielt. Es erlegt Unternehmen, die diese Dienste für Verbraucher anbieten, neue Beschränkungen auf, sowohl in Bezug auf die verwendeten Trainingsdaten als auch auf die erzeugten Ergebnisse. Im Vergleich zu verschiedenen Versionen des Gesetzesvorschlags ist der verabschiedete Text des Gesetzes über generative künstliche Intelligenz erheblich abgeschwächt. Die Anforderungen, innerhalb einer dreimonatigen Frist illegale Inhalte zu korrigieren und sicherzustellen, dass alle Trainingsdaten und Ergebnisse „wahrheitsgemäß und genau“ sind, wurden gestrichen. Es wurde auch klargestellt, dass diese Regeln nur für öffentlich zugängliche generative KI-Systeme gelten. Es wurde auch eine neue Bestimmung hinzugefügt, die besagt, dass Entwicklung und Innovation gleiches Gewicht haben sollten wie die Sicherheit und die Kontrolle der Systeme. Eine Verpflichtung zur Kennzeichnung von KI-generierten Inhalten mit Wasserzeichen wurde ebenfalls als notwendiges Instrument zur Bekämpfung von Fehlinformationen eingeführt.

Globale Harmonisierung in Sicht

G7-Nationen verabschieden Bericht über generative künstliche Intelligenz im September 2023[10]. Er enthält keine Versprechen oder Hinweise auf eine globale Harmonisierung in diesem Bereich. Vielmehr sollte der Schwerpunkt auf freiwilligen Verhaltenskodizes liegen, wobei sich die nationale Regulierung auf die Bereiche beschränken sollte, in denen das öffentliche Interesse am größten ist, wie z.B. Menschenrechte, Gesundheitsschutz, Kampf gegen Fehlinformationen, Datenschutz, Schutz der Privatsphäre und Schutz des geistigen Eigentums.


[10] Siehe: https://www.oecd-ilibrary.org/science-and-technology/g7-hiroshima-process-on-generative-artificial-intelligence-ai_bf3c0c60-en

Abschließende Bemerkungen

Die Regulierung generativer KI (wie z.B. ChatGPT), d.h. die Frage, ob und inwieweit sie überhaupt reguliert werden soll, wird eine Bruchlinie in der zukünftigen Entwicklung der Gesetzgebung in allen relevanten Ländern sein, einschließlich der EU und der USA. Mehrere Einzelaspekte der Entwicklung, Nutzung und des Einsatzes von KI sind bereits mehr oder weniger reguliert, z.B. der Datenschutz, der Schutz der Privatsphäre oder der Schutz des geistigen Eigentums. Vielmehr könnte hier eine angemessene Auslegungs- und Methodikarbeit der zuständigen Regulierungsbehörden und mit der Zeit auch eine Rechtsprechung ausreichen. Die roten Linien für KI sollten jedoch auf jeden Fall durch eine gesetzliche Regelung festgelegt werden. Die nahe Zukunft wird zeigen, ob sich der bisherige umfassende, proaktive Ansatz der EU (das KI-Gesetz) oder der eher zurückhaltende, laissez-faire Ansatz der USA durchsetzen wird.

Veröffentlicht: 18. Dezember 2023

Signum.legal

advokátska kancelária

Signum.legal

Dieser Artikel ist Teil des Magazins Nr.

Veröffentlicht: 18. Dezember 2023

Werbung

Iveta Hlaváčová

Wir haben Vertreter von drei Unternehmen kontaktiert, die im Bereich der Cybersicherheit tätig sind, und sie um ihre Meinung gebeten....

Iveta Hlaváčová

GAMO entwickelt derzeit einen virtuellen Cyber-Marktplatz, CYBER PLACE, der darauf abzielt, Dienstleistungen, Bildung und Bewusstseinsbildung im Bereich der Cybersicherheit zu...

Peter Bednár

GAMO a.s.

Die Behauptung, SIEM sei "tot", wird in der Cybersicherheits-Community heftig diskutiert. Es stimmt, dass in den letzten Jahren neue Ansätze...
Werbung