Der Vorgang war so etwas wie ein Lehrstück an der eigenen Person: Anfang des Monats tauchte im Intranet des Europäischen Parlamentes eine Nachricht auf, die zu heftigem Protest der Volksvertreter führte. Die IT-Abteilung des Hauses kündigte an, dass die Abgeordneten für den Zutritt zum Parlament künftig per Gesichtserkennung identifiziert würden. Der Widerstand wirkte, die Nachricht wurde zurückgezogen. Künstliche Intelligenz hautnah – da machten sich Ängste breit.
Dem will die EU mit einem Rechtsrahmen entgegentreten, für den in der nächsten Woche die ersten Eckpunkte gesetzt werden, wenn Kommissions-Vizepräsidentin Margrethe Vestager ein sogenanntes Weißbuch ihres Hauses vorlegt. Das Dokument enthält jedoch viele offene Fragen. Einig sind sich die EU-Institutionen aber in einem Punkt: Transparenz und Fairness für den Bürger werden das oberste Gebot sein. Dies hat das Europäische Parlament am gestrigen Mittwoch schon mal beschlossen.
„Lassen Sie uns auf der Grundlage unserer Werte hohe europäische Standards schaffen, um die Transparenz und Rechenschaftspflicht der KI (Künstliche Intelligenz) gegenüber den Bürgern weltweit zu gewährleisten“, sagte die Vizepräsidentin des Europäischen Parlamentes, Nicola Beer (FDP). Ein solcher Rechtsrahmen wird dringend gewünscht.
Drei-Stufen-Modell geplant
In Brüssel wird an einem Drei-Stufen-Modell gearbeitet: Unternehmen, die KI-Technik anbieten und bestimmte Sicherheits- und Haftungsanforderungen garantieren, könnten ein freiwilliges Label nutzen. Öffentliche Behörden, die dabei in die Grundrechte der Bürger eingreifen (Polizei und Sicherheitsbehörden), sollen zu regelmäßigen Berichten über den Nutzen von KI verpflichtet sein. Bei besonders „risikoreichen“ Anwendungen, zum Beispiel im Gesundheitswesen, müssten die Anforderungen vor dem Einsatz noch stärker angehoben werden.
Zudem wird es ein Recht für Bürger auf Entschädigung geben, falls Algorithmen zu fehlerhaften Ergebnissen führen. Als Beispiel gelten Algorithmen, die von Personalstellen eingesetzt werden, um Bewerber auszuwählen und die auf diskriminierende Kriterien zurückgreifen. Besonders heikel ist das Thema Gesichtserkennung.
In Deutschland wird darüber nachgedacht, die automatische Identifizierung von Reisenden zu nutzen, um Risikopersonen auszufiltern. In der Kommission wird derzeit überlegt, die Nutzung zunächst für drei oder fünf Jahre zu verbieten, um die Wirkung zu untersuchen.