Dieser Inhalt ist in Ihrer Region nicht verfügbar

Gesichtserkennung und Vermeidung von Vorurteilen - 5 Fragen zu Künstlicher Intelligenz

Access to the comments Kommentare
Von Aida Sanchez Alonso
Gesichtserkennung und Vermeidung von Vorurteilen - 5 Fragen zu Künstlicher Intelligenz
Copyright  Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.

Eine Filmempfehlung auf Ihrer Lieblings-Video-on-Demand-Plattform erhalten, Ihr Telefon mit Ihrem Gesicht entsperren, den Autokorrektor verwenden oder mit einem Chatbot chatten: All dies sind alltägliche Beispiele für den Einsatz von Künstlicher Intelligenz (KI).

Trotz ihres futuristischen Klangs ist KI etwas, das die europäischen Bürger täglich nutzen und mit ihr interagieren. Die Chancen können endlos sein, aber auch die Risiken.

„Das Potenzial des nutzbringenden Einsatzes von KI ist enorm, weniger Umweltverschmutzung, verbesserte medizinische Versorgung, verbesserte Chancengleichheit, bessere Bildung und mehr Möglichkeiten, die Bürgerinnen und Bürger zu befähigen, sich an ihrer Gesellschaft zu beteiligen“, erklärte die Vizepräsidentin der Europäischen Kommission für ein Europa fit für das digitale Zeitalter, Margrethe Vestager.

Die Möglichkeiten lassen sich auf jeden Lebensbereich ausdehnen. „Auch um Terrorismus und Kriminalität zu bekämpfen und die Cybersicherheit zu verbessern“, sagte Vestager in einer Debatte im Sonderausschuss des Europäischen Parlaments für Künstliche Intelligenz.

Und hier könnten die Risiken beginnen. Dies ist einer der Gründe, warum die EU-Kommission weltweit als erstes Gremium eine KI-Verordnung vorgeschlagen hat.

Aber das Wichtigste zuerst - was ist Künstliche Intelligenz und warum sollten wir uns Sorgen machen?

Künstliche Intelligenz ist eine Technologie, die es Maschinen ermöglicht, die Umgebung wahrzunehmen, zu analysieren und von ihr zu lernen. Dank all dieser Informationen können sie vorhersagen und ihre eigenen Entscheidungen treffen, um bestimmte Ziele zu erreichen.

Es gibt viele Anwendungen für KI, zum Beispiel kann sie für medizinische Zwecke verwendet werden, um das Alzheimer-Risiko zu identifizieren, (https://www.euronews.com/next/2021/06/22/can-artificial-intelligence-help-identify-people-at-risk-of-developing-alzheimer-s), für landwirtschaftlice Zwecke (https://www.euronews.com/green/2021/06/30/could-artificial-intelligence-stop-840-million-people-from-going-hungry-by-2030) oder um Angestellte zu verfolgen, wenn sie von zu hause aus arbeiten (https://www.euronews.com/2021/07/19/companies-used-artificial-intelligence-to-monitor-workers-during-pandemic-says-trade-union).

Da Künstliche Intelligenz jedoch enorme Datenmengen sammelt und Informationen verwendet, die einige der Vorurteile der Gesellschaft wiederholen, birgt sie viele Risiken. Sie kann beispielsweise die Privatsphäre und Grundrechte gefährden oder die Diskriminierung von Minderheiten verstärken.

Wie ist die aktuelle Haltung der EU zu Künstlicher Intelligenz?

"Je höher das Risiko, dass ein bestimmter Einsatz von KI für unser Leben mit sich bringen kann, desto strenger die Regel", mit diesen Worten definierte Vestager im vergangenen April die Grundlage des Vorschlags der EU-Kommission zur Künstlichen Intelligenz. Der Text unterteilt verschiedene KIs in vier Kategorien, basierend auf dem Risiko, das sie für die Bürger darstellen könnten.

Minimales Risiko sind diejenigen Technologien, die für die Bürger ein minimales oder gar kein Risiko darstellen, daher können sie kostenlos genutzt werden und die neuen Regeln gelten nicht für sie. Zum Beispiel Spamfilter.

Die Kategorie „Begrenztes Risiko“ wird Transparenzpflichten haben, um die Bürger darüber zu informieren, dass sie mit einer Maschine interagieren, um sie so informierte Entscheidungen treffen zu lassen. Ein Beispiel sind Chatbots.

Ein hohes Risiko besteht dort, wo KI-Anwendungen wie Gesichtserkennung, juristische Verfahren und Anwendungen zum Sortieren von Lebensläufen und Bewerbungen fallen könnten. Es ist umstritten, da es potenziell schädlich sein oder schädliche Auswirkungen auf seine Benutzer haben kann. Daher erwartet die Kommission, dass diese Systeme „sorgfältig bewertet werden, bevor sie auf den Markt gebracht werden und während ihres gesamten Lebenszyklus“.

Inakzeptabel ist die letzte Kategorie. Hier hat die EU-Kommission die Grenze gezogen und alle KI-Systeme ausgelassen, die "eine klare Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte der Menschen" darstellen. Ein Beispiel kann das Social Scoring durch Regierungen oder die Verwendung unterschwelliger Techniken sein.

Aber für Sarah Chander, Beraterin bei European Digital Rights (EDRi), birgt der Vorschlag der Kommission "die Gefahr, wirklich invasive Überwachungs- und diskriminierende KI-Systeme zu ermöglichen, die stattdessen komplett verboten werden sollten". Einige ihrer Beispiele sind Technologien zum Einsatz von Drohnen an Grenzen oder Anwendungen zur Bewertung von Sozialleistungen.

Unterdessen hat das Europäische Parlament kürzlich in einem unverbindlichen Bericht gegen die Massenüberwachung gestimmt. „Wir lehnen eine vorausschauende Polizeiarbeit auf der Grundlage des Einsatzes von KI sowie jede Verarbeitung biometrischer Daten, die zu einer Massenüberwachung führt, eindeutig ab“, sagte der für den Text zuständige Europaabgeordnete Petar Vitanov.

Wird die Gesichtserkennung in der Europäischen Union Realität?

Gesichtserkennung aus Sicherheitsgründen ist eines der heißen Themen im Umgang mit KI-Regulierung. Eine aktuelle Studie im Auftrag der Grünen im Europäischen Parlament zeigt, dass 11 von 27 Mitgliedstaaten bereits Künstliche Intelligenz einsetzen. Deutschland, Frankreich, Ungarn, Niederlande oder Finnland sind einige der Beispiele. https://www.greens-efa.eu/en/article/document/biometric-and-behavioural-mass-surveillance-in-eu-member-states

Für die Kommission ist dies eine Verwendung mit hohem Risiko. Aber im Europäischen Parlament sind die Meinungen geteilt. Während einige ein totales Verbot fordern, bevorzugen andere eine alternative Sichtweise.

"Wir fordern ein Moratorium für den Einsatz von Gesichtserkennungssystemen für Strafverfolgungszwecke, da sich die Technologie als ineffektiv erwiesen hat und oft zu diskriminierenden Ergebnissen führt", sagte Vitanov Mitte Oktober. Aber in einer Pressekonferenz an diesem Dienstag erklärte der Europaabgeordnete Axel Voss, Berichterstatter eines anderen Textes über KI, dass "auch für die Gesichtserkennung Sicherheitsvorkehrungen getroffen werden können, damit sie verwendet, aber nicht missbraucht werden kann".

Gesichtserkennung wird nicht von der Gesetzgebung ausgenommen. Chander warnt davor, dass die Regulierung der Zusammenstöße nicht auf europäischer, sondern auf nationaler Ebene erfolgen könnte. Während sie der Meinung ist, dass Ministerien wie Innovation „sehr positiv“ gegenüber dem „Bedarf nach mehr menschenrechtsbasierten Regulierungen“ sind, ist die Situation für Innenministerien nicht dieselbe. Diese seien in der Regel für die Polizei zuständig, seien also "eher skeptischer gegenüber Verboten von Gesichtserkennung und Predictive Policing".

Können die Risiken der Reproduktion von Verzerrungen vermieden werden?

Ziel der Kommission mit ihrem Vorschlag ist es, dass KI-Systeme „keine Verzerrungen erzeugen oder reproduzieren“. Daher müssen die Anforderungen an risikoreiche KI-Systeme „robust“ sein, um den Anforderungen gerecht zu werden

Chander besteht jedoch darauf, dass viele KI-Systeme „von Natur aus die Diskriminierung aufgrund der Art ihrer Funktionsweise erhöhen werden“. Wie sie feststellte, verwendet es "Daten und Informationen aus der Vergangenheit und versucht, sie auf die Zukunft zu übertragen". Dies könnte Vorurteile und Diskriminierungen verstärken, die bereits in der Gesellschaft existieren.

Und im Zusammenhang mit dem Schaden, den sie anrichten könnten, sagte Chander, dass die Kommission ein zentrales Problem übersehen habe: die fehlende Möglichkeit für die Bürger, sich zu beschweren. Sie fragt nach einer Möglichkeit für potenziell betroffene Bürger, sich an eine Behörde zu wenden, um sicherzustellen, dass ihre Rechte respektiert werden.

Und was ist mit Über- oder Unterregulierung?

Vom Wunsch, den Weltstandard zu setzen, bis hin zum Risiko einer Überregulierung, die der Technologie die Chance nimmt, voranzukommen. Die Europäische Union steht mit der KI-Verordnung vor einer großen Herausforderung. Brüssel erwartet, dass es einen globalen Standard setzt, wie es bei der DSGVO der Fall war.

Für Vestager könnten die Probleme auftreten, wenn die EU nicht in der Lage ist, es sicher zu machen. „Meine Sorge ist, dass wir riskieren, dass die Technologie nicht so weit entwickelt und eingesetzt wird, wie es nur möglich ist, wenn wir die damit verbundenen Risiken nicht gut eindämmen können.“

Gleichzeitig sollte die EU ein Gleichgewicht zwischen Chinas staatlicher Nutzung von KI und dem Ansatz der USA finden, nämlich mit freiwilligen Leitlinien, die gemeinsam mit großen Technologieunternehmen entwickelt wurden.

Journalist • Stefan Grobe