Unannehmbares Risiko: Was der AI Act verbieten will

Der AI Act der EU hat es sich zum Ziel gesetzt, sogenannte unannehmbare Risiken von Künstlicher Intelligenz (KI) für die Sicherheit und Grundrechte der Menschen zu minimieren. 

Besonders im Fokus stehen dabei KI-Systeme mit sogenanntem „unannehmbarem Risiko“. Aber was genau versteht man darunter und welche KI-Praktiken sollen verboten werden?

Definition von unannehmbarem Risiko

Laut AI Act sind KI-Systeme dann ein unannehmbares Risiko, wenn sie eine klare Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen darstellen.

Das können zum Beispiel KI-Systeme sein, die:

  • die Grundrechte und Werte der EU verletzen
  • das menschliche Verhalten manipulieren und den freien Willen umgehen
  • Schwächen bestimmter Gruppen wie Kinder, ältere Menschen oder Menschen mit Behinderungen ausnutzen

Stell dir vor, dein Kind spielt mit einem sprachgesteuerten Spielzeug, das es subtil manipuliert und beeinflusst. Oder du wirst am Arbeitsplatz von einer KI überwacht, die deine Emotionen analysiert und bewertet. 

Genau solche Szenarien will der AI Act verhindern.

Verbotene KI-Praktiken und -Anwendungen

Der AI Act sieht daher ein Verbot bestimmter KI-Praktiken und -Anwendungen vor, die ein unannehmbares Risiko darstellen. Dazu gehören:

  1. Manipulation des menschlichen Verhaltens: KI-Systeme, die den freien Willen umgehen oder die Schwächen bestimmter Gruppen ausnutzen, sollen verboten werden. Das betrifft zum Beispiel sprachgesteuertes Spielzeug, das Kinder manipuliert, oder KI-Systeme, die die soziale Situation von Menschen ausnutzen.
  2. Social Scoring durch Regierungen: Der Einsatz von KI zum Social Scoring, also zur Bewertung des sozialen Verhaltens von Bürgern durch Regierungen, soll untersagt werden. Ein abschreckendes Beispiel ist das Social Credit System in China, das Menschen aufgrund ihres Verhaltens bewertet und sanktioniert.
  3. Biometrische Fernidentifizierung in Echtzeit: Die Verwendung von KI zur biometrischen Fernidentifizierung von Menschen in Echtzeit, etwa durch Gesichtserkennung im öffentlichen Raum, soll grundsätzlich verboten werden. Auch Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen fällt darunter.
  4. Biometrische Kategorisierung: Der Einsatz von KI zur Kategorisierung von Menschen anhand sensibler Merkmale wie ethnischer Herkunft, Geschlecht oder sexueller Orientierung soll untersagt werden.

Ausnahmen für Strafverfolgungszwecke

Es gibt allerdings auch Ausnahmen von diesen Verboten. So sollen KI-Systeme mit unannehmbarem Risiko weiterhin für Strafverfolgungszwecke eingesetzt werden dürfen, etwa zur Aufklärung schwerer Straftaten.

Die genauen Bedingungen und Grenzen dieser Ausnahmen müssen aber noch geklärt werden. Hier besteht die Gefahr von Schlupflöchern und Missbrauch.

Warum ein Verbot wichtig ist

Die verbotenen KI-Praktiken haben eines gemeinsam: Sie verletzen die Grundrechte und Werte der EU wie die Menschenwürde, die Freiheit und die Gleichbehandlung.

Sie behandeln Menschen als Objekte, die überwacht, bewertet und manipuliert werden können. Sie schaffen ein Klima der Angst und des Misstrauens.

Ein Verbot ist daher wichtig, um klare rote Linien zu ziehen und die Entwicklung von KI in eine ethische und menschenzentrierte Richtung zu lenken.

Gleichzeitig muss aber auch sichergestellt werden, dass die Verbote nicht zu weit gehen und sinnvolle Anwendungen von KI verhindern. Es braucht eine klare Definition und Auslegung der Verbotstatbestände.

AI Act: Was das Verbot von KI-Systemen mit unannehmbarem Risiko bedeutet

Der AI Act der EU sieht ein Verbot von KI-Systemen vor, die ein sogenanntes „unannehmbares Risiko“ für die Sicherheit und Grundrechte der Menschen darstellen. 

Doch was bedeutet dieses Verbot konkret für Anbieter und Nutzer von KI-Systemen? Und wie soll es umgesetzt und durchgesetzt werden?

Zeitrahmen: Verbot tritt 6 Monate nach Inkrafttreten in Kraft

Zunächst einmal ist wichtig zu wissen, dass das Verbot nicht sofort mit Verabschiedung des AI Act in Kraft tritt. 

Stattdessen sieht der Entwurf eine Übergangsfrist von sechs Monaten nach Inkrafttreten des Gesetzes vor.

Diese Zeit soll Anbietern und Nutzern von KI-Systemen die Möglichkeit geben, sich auf die neuen Regeln einzustellen und notwendige Anpassungen vorzunehmen.

Anpassungsbedarf für Anbieter und Nutzer von KI-Systemen

Und dieser Anpassungsbedarf dürfte erheblich sein. Denn das Verbot betrifft nicht nur die Entwicklung und den Vertrieb von KI-Systemen mit unannehmbarem Risiko, sondern auch deren Nutzung.

Anbieter müssen sicherstellen, dass ihre KI-Systeme keine verbotenen Praktiken wie die Manipulation des menschlichen Verhaltens oder die biometrische Fernidentifizierung in Echtzeit ermöglichen.

Das kann tiefgreifende Änderungen an den Systemen erfordern, bis hin zur Einstellung bestimmter Produkte oder Dienstleistungen.

Auch Nutzer von KI-Systemen, etwa Unternehmen oder Behörden, müssen prüfen, ob die von ihnen eingesetzten Systeme unter das Verbot fallen und gegebenenfalls Alternativen finden.

Stell dir vor, du bist Personalverantwortlicher in einem Unternehmen und setzt eine KI zur Analyse der Emotionen deiner Mitarbeiter ein. 

Mit dem AI Act wäre das verboten und du müsstest nach anderen Wegen suchen, die Zufriedenheit und Motivation deiner Mitarbeiter zu erfassen.

Überwachung und Durchsetzung durch nationale Aufsichtsbehörden

Doch wer kontrolliert eigentlich, ob das Verbot eingehalten wird? Und welche Sanktionen drohen bei Verstößen?

Laut AI Act sollen nationale Aufsichtsbehörden in den EU-Mitgliedstaaten für die Überwachung und Durchsetzung der Regeln zuständig sein.

Sie sollen:

  • Beschwerden von Betroffenen nachgehen
  • Untersuchungen durchführen
  • Verstöße ahnden
  • Beratung und Unterstützung anbieten

Dabei sollen sie mit anderen Behörden wie Datenschutzaufsichten zusammenarbeiten und sich auf europäischer Ebene abstimmen.

Bei Verstößen gegen das Verbot sollen die Aufsichtsbehörden empfindliche Sanktionen verhängen können, bis hin zu Geldbußen in Millionenhöhe oder dem Verbot des Inverkehrbringens von KI-Systemen.

Herausforderungen und offene Fragen

So wichtig das Verbot von KI-Systemen mit unannehmbarem Risiko ist, so sehr wirft es auch Fragen und Herausforderungen auf.

Eine davon ist die Abgrenzung zu anderen Risikokategorien wie „hohes Risiko“ oder „begrenztes Risiko“. Hier braucht es klare Kriterien und Leitlinien, um Rechtsunsicherheit zu vermeiden.

Auch die Ausnahmen für Strafverfolgungszwecke bergen die Gefahr von Schlupflöchern und Missbrauch. Hier müssen strenge Auflagen und Kontrollen greifen.

Und schließlich braucht es eine effektive Durchsetzung des Verbots, die auch grenzüberschreitende Fälle und die Rolle von Plattformen und Intermediären berücksichtigt.

All das erfordert eine enge Zusammenarbeit auf europäischer und internationaler Ebene sowie den Dialog mit Wirtschaft und Zivilgesellschaft.

AI Act: Kritik und Ausblick zum Verbot von KI-Systemen mit unannehmbarem Risiko

Der AI Act der EU und insbesondere das Verbot von KI-Systemen mit unannehmbarem Risiko haben viel Lob, aber auch Kritik erfahren. 

Während die einen darin einen wichtigen Schritt für den Schutz der Grundrechte und die Entwicklung einer vertrauenswürdigen KI sehen, befürchten andere eine Überregulierung und Innovationsbremse.

Doch was ist dran an der Kritik? Und wie könnte der weitere Weg aussehen?

Abgrenzung zu anderen Risikokategorien

Ein häufiger Kritikpunkt am AI Act ist die unklare Abgrenzung zwischen den verschiedenen Risikokategorien wie „unannehmbares Risiko“, „hohes Risiko“ oder „begrenztes Risiko“.

Die Kriterien für die Einstufung von KI-Systemen seien zu vage und würden Rechtsunsicherheit schaffen, so die Kritiker.

Tatsächlich ist die Abgrenzung nicht immer einfach. Nehmen wir das Beispiel der Emotionserkennung:

Während der Einsatz am Arbeitsplatz oder in Bildungseinrichtungen verboten sein soll, könnte er in anderen Bereichen wie der Marktforschung oder der Unterhaltung erlaubt bleiben.

Hier braucht es klare Leitlinien und Beispiele, um die Einstufung von KI-Systemen nachvollziehbar und konsistent zu machen.

Mögliche Schlupflöcher und Umgehungen

Ein weiterer Kritikpunkt sind mögliche Schlupflöcher und Umgehungen des Verbots.

So sieht der AI Act Ausnahmen für den Einsatz von KI-Systemen mit unannehmbarem Risiko zu Strafverfolgungszwecken vor.

Kritiker befürchten, dass diese Ausnahmen zu weit gefasst sind und missbraucht werden könnten, etwa für die Massenüberwachung oder die Diskriminierung bestimmter Gruppen.

Auch die Durchsetzung des Verbots gegenüber Anbietern und Nutzern von KI-Systemen außerhalb der EU wirft Fragen auf.

Hier braucht es klare Regeln und Mechanismen, um Schlupflöcher zu schließen und eine effektive Durchsetzung zu gewährleisten.

Notwendigkeit einer klaren Definition und Auslegung

Um Rechtsunsicherheit und Umgehungen zu vermeiden, braucht es vor allem eine klare Definition und Auslegung der Verbotstatbestände.

Was genau ist eine „Manipulation des menschlichen Verhaltens“? Wann liegt eine „biometrische Fernidentifizierung in Echtzeit“ vor?

Hier ist nicht nur der Gesetzgeber gefragt, sondern auch die Aufsichtsbehörden, Gerichte und die Wissenschaft.

Es braucht einen breiten Dialog und die Entwicklung von Standards und Best Practices, um die Regeln des AI Act in der Praxis anzuwenden.

Dabei sollte auch die Perspektive der Betroffenen einbezogen werden: Wie können sie ihre Rechte wahrnehmen und sich gegen den Missbrauch von KI wehren?

Bedeutung für die Entwicklung vertrauenswürdiger KI in der EU

Bei aller Kritik sollten wir nicht vergessen: Das Verbot von KI-Systemen mit unannehmbarem Risiko ist ein wichtiger Schritt für die Entwicklung einer vertrauenswürdigen und menschenzentrierten KI in der EU.

Es schafft Klarheit und Rechtssicherheit für Anbieter und Nutzer von KI-Systemen und setzt Anreize für eine ethische Gestaltung von KI.

Gleichzeitig ist es nur ein Baustein in einem umfassenden Regulierungsrahmen, der auch Fragen der Transparenz, Erklärbarkeit und Haftung von KI adressieren muss.

Die EU hat mit dem AI Act eine Vorreiterrolle eingenommen und kann damit auch international Standards setzen.

Dafür braucht es aber auch die Zusammenarbeit mit anderen Regionen und Akteuren wie den USA, China oder der OECD.

Nur gemeinsam können wir die Chancen und Risiken von KI auf globaler Ebene gestalten.

Fazit

Das Verbot von KI-Systemen mit unannehmbarem Risiko durch den AI Act ist ein wichtiger, aber auch umstrittener Schritt für die Regulierung von KI in der EU.

Es wirft Fragen und Herausforderungen auf, die einen breiten Dialog und die Entwicklung von Standards und Leitlinien erfordern.

Dabei sollten wir nicht in eine Verbotsdebatte verfallen, sondern das Verbot als Chance begreifen, die Entwicklung von KI in eine ethische und menschenzentrierte Richtung zu lenken.

Denn darum geht es am Ende: KI als Werkzeug im Dienste des Menschen zu gestalten und ihre Potenziale zum Wohle der Gesellschaft zu nutzen.

Dafür braucht es klare Regeln, aber auch Freiräume für Innovation und Kreativität.

Der AI Act und das Verbot von KI-Systemen mit unannehmbarem Risiko sind dafür ein wichtiger Schritt. Jetzt liegt es an uns allen, ihn gemeinsam zu gehen und die Zukunft der KI in Europa und darüber hinaus zu gestalten.

Schreibe einen Kommentar