AI Act: Diese unterschiedlichen Risiko-Typen gibt es bei KI-Systemen
Der AI Act regelt die Nutzung von KI-Systemen. Welche Auflagen und Regelungen umgesetzt werden, hängt vom jeweiligen KI-System und dessen Risikofaktor ab. Diese drei verschiedenen Risikoarten sind zu unterscheiden.
AI Act: Fokus auf Risikotypen
Insgesamt gibt es drei unterschiedliche Risikofaktoren bei den KI-Systemen:
- KI-Systeme mit unannehmbarem Risiko
- KI-Systeme mit hohem Risiko
- KI-Systeme mit sehr geringem Risiko
KI-Systeme mit unannehmbarem Risiko
KI-Systeme, welche ein unannehmbares Risiko darstellen, werden künftig verboten werden. Zu diesen Systemen gehören solche, die Menschen gefährden durch kognitive Verhaltensmanipulation von Personen oder bestimmte Gruppen schädigen.
Das sogenannte „Social Scroring“ wird in Zukunft ebenfalls ein Verbot ereilen. Das „Soziale Scoring“ beschreibt die Klassifizierung von Personen auf Grundlage folgender Merkmale:
- Verhalten
- Sozioökonomischer Status
- Persönliche Eigenschaften
Folgende KI-Systeme sind ebenfalls unzulässig:
- Biometrische Identifizierung
- Kategorisierung natürlicher Personen
- Biometrische Echtzeit- und Fernidentifizierungssysteme
Ausnahme: Eines dieser KI-Systeme wird für die Strafverfolgung genutzt.
KI-Systeme mit hohem Risiko
Dieses hohe Risiko betrifft entweder die Gesundheit und Sicherheit oder die Grundrechte einer natürlichen Person. Diese KI-Systeme werden nicht verboten, unterliegen jedoch strengen Regelungen.
Betroffen davon sind KI-Systeme welche ebenfalls in der HR- oder Personalabteilung genutzt werden:
- Allgemeine und berufliche Bildung
- Bewertung von Lernergebnissen
- Steuerung von Lernprozessen
- Überwachung von Prüfungsbetrug
- Beschäftigung und Verwaltung von Arbeitnehmenden
- Veröffentlichung gezielter Stellenanzeigen
- Analyse und Filterung von Bewerbungen
- Bewertung von Bewerber*innen
HRler müssen sich also darauf einstellen, dass die Nutzung entsprechender KI-Systeme in bestimmten Bereichen schwieriger wird. Denn alle Systeme mit einem hohen Risiko unterliegen einem sogenannten verpflichtenden Risikomanagementsystem.
Das bedeutet, diese KI-Systeme werden vor dem Live-Gang sowie während der Nutzung kontinuierlich bewertet.
KI-Systeme mit sehr geringem Risiko
Laut dem AI Act unterliegen KI-Systeme mit einem sehr geringem oder gar keinem Risiko keinen Anforderungen. Allerdings können für diese Systeme sogenannte Verhaltenskodizes aufgestellt werden. Das beruht auf Freiwilligkeit.
Die Mehrheit der KI-Systeme wird dieser Gruppe zuzuordnen sein. Sie werden deshalb auch „Generative Foundation-Modelle“ genannt. Ein bekannter Vertreter ist das Programm ChatGPT.
Dieses wurde als nicht risikoreich eingestuft. Allerdings muss es das EU-Urheberrecht sowie die Transparenzanforderungen erfüllen. Letztere bedeutet, dass deutlich dargestellt werden muss, dass der Inhalt durch KI erzeugt wurde.
Weitere Infos zum AI Act wie Inkrafttreten und gesetzliche Schritte.
Christoph Mers
Online Content Manager