Gesichtserkennung in der EU - EINGEHENDE ANALYSE EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Regulierung der Gesichtserkennung in der EU EINGEHENDE ANALYSE EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments Autoren: Tambiama Madiega und Hendrik Mildebrath Wissenschaftlicher Dienst für die Mitglieder PE 698.021 – September 2021 DE
Die künstliche Intelligenz hat die Nutzung biometrischer Technologien vorangetrieben. Dazu zählen auch Anwendungen zur Gesichtserkennung, die zunehmend für Verifikations-, Identifi- kations- und Kategorisierungszwecke verwendet werden. Mit dieser Studie 1) wird ein Überblick über technologische und wirtschaftliche Aspekte von Gesichtserkennungstechnologien sowie über ihre verschiedenen Einsatzmöglichkeiten geboten, 2) werden Bedenken aufgezeigt, die sich aus den spezifischen Merkmalen der Technologie und ihren potenziellen Auswirkungen auf die Grund- rechte der Menschen ergeben, 3) wird eine Bestandsaufnahme der Rechtsrahmen, insbesondere der derzeit in der Europäischen Union (EU) auf die Gesichtserkennung anwendbaren Vorschriften zum Datenschutz und zur Nichtdiskriminierung, gemacht und wird 4) der jüngst vorgelegte Vorschlag für ein EU-Gesetz über künstliche Intelligenz zur Regulierung von Gesichtserkennungstechnologien untersucht. Schließlich werden 5) in der Studie die Regulierungsansätze außerhalb der EU und auf internationaler Ebene kurz untersucht. AUTOREN Tambiama Madiega und Hendrik Mildebrath, Wissenschaftlicher Dienst für die Mitglieder, EPRS (mit Rechercheunterstützung durch Fabiana Fracanzino) Diese Studie wurde vom Wissenschaftlichen Dienst für die Mitglieder erarbeitet, der zur Generaldirektion Wissenschaftlicher Dienst (EPRS) des Generalsekretariats des Europäischen Parlaments gehört. Um sich mit den Autoren in Verbindung zu setzen, senden Sie bitte eine E-Mail an: eprs@ep.europa.eu SPRACHFASSUNGEN Original: EN Übersetzungen: DE, FR Redaktionsschluss: September 2021 HAFTUNGSAUSSCHLUSS UND URHEBERRECHTSSCHUTZ Dieses Dokument wurde für die Mitglieder und Bediensteten des Europäischen Parlaments erarbeitet und soll ihnen als Hintergrundmaterial für ihre parlamentarische Arbeit dienen. Die Verantwortung für den Inhalt dieses Dokuments liegt ausschließlich bei dessen Verfasser/n. Die darin vertretenen Auffassungen ent- sprechen nicht unbedingt dem offiziellen Standpunkt des Europäischen Parlaments. Nachdruck und Übersetzung – außer zu kommerziellen Zwecken – mit Quellenangabe gestattet, sofern das Europäische Parlament vorab unterrichtet und ihm ein Exemplar übermittelt wird. Brüssel © Europäische Union, 2022 Bildnachweise: © LuckyStep/Adobe Stock PE 698.021 ISBN: 978-92-846-8502-8 doi:10.2861/319001 QA-01-21-197-DE-N eprs@ep.europa.eu http://www.eprs.ep.parl.union.eu (Intranet) http://www.europarl.europa.eu/thinktank/de/home.html (Internet) http://epthinktank.eu (Blog) (Link nur auf Englisch)
Regulierung der Gesichtserkennung in der EU Zusammenfassung Durch den Einsatz künstlicher Intelligenz (KI) wird die Nutzung biometrischer Technologien voran- getrieben, wozu auch Anwendungen zur Gesichtserkennung zählen, die von privaten oder staat- lichen Akteuren für Verifikations-, Identifikations- und Kategorisierungszwecke verwendet werden. Da die Märkte für Gesichtserkennungssysteme beträchtliches Wachstumspotenzial für die nächsten Jahre bergen, hat sich die zunehmende Nutzung von Gesichtserkennungstechnologien weltweit zu einem prominenten Thema in der öffentlichen Diskussion entwickelt. Während der Einsatz von Systemen zur Gesichtserkennung echte Vorteile für die öffentliche Sicher- heit mit sich bringt, geben ihre Verbreitung, ihr in die Privatsphäre eingreifender Charakter sowie ihre Fehleranfälligkeit Anlass zu Bedenken in Bezug auf die Grundrechte, etwa im Hinblick auf die Diskriminierung bestimmter Bevölkerungssegmente und die Verletzung des Rechts auf Daten- schutz und Privatsphäre. Um solche Auswirkungen anzugehen, hat die EU bereits strenge Vorschrif- ten im Rahmen der Charta der Grundrechte, der Datenschutz-Grundverordnung, der Richtlinie zum Datenschutz bei der Strafverfolgung und des EU-Rechtsrahmens zur Nichtdiskriminierung erlassen, die auch auf Verfahren und Aktivitäten im Zusammenhang mit Gesichtserkennungstechnologien anzuwenden sind. Verschiedene Akteure stellen jedoch die Wirksamkeit des derzeitigen EU-Rechts- rahmens infrage, was dessen angemessenen Umgang mit den durch die Gesichtserkennungs- technologie verursachten Grundrechtsbedenken betrifft. Auch wenn Gerichte durch eine weite Aus- legung des bestehenden Rechtsrahmens versuchen würden, Lücken in Bezug auf den Schutz der Grundrechte zu schließen, würde die Rechtsunsicherheit und Unübersichtlichkeit bestehen bleiben. Vor diesem Hintergrund zielt der Entwurf für ein EU-Gesetz über künstliche Intelligenz (KI), der im April 2021 vorgestellt wurde, darauf ab, den Einsatz biometrischer Erkennungssysteme einschließ- lich der Gesichtserkennung, der zu einer umfassenden Überwachung führen könnte, zu begrenzen. Zusätzlich zu den bestehenden Rechtsvorschriften (z. B. zum Datenschutz und zur Nichtdiskriminie- rung) wird im Entwurf zum KI-Gesetz vorgeschlagen, neue Vorschriften für den Einsatz von Gesichts- erkennungstechnologien in der EU einzuführen und zu unterscheiden, ob deren Nutzung ein „hohes“ oder „niedriges“ Risiko darstellt. Zahlreiche Gesichtserkennungstechnologien würden als Hochrisiko-Systeme erachtet werden, die verboten würden oder strenge Auflagen erfüllen müssten. Der Einsatz von Echtzeit-Gesichtserkennungssystemen in öffentlich zugänglichen Räumen für die Zwecke der Strafverfolgung wäre verboten, sofern Mitgliedstaaten nicht beschließen, deren Einsatz aus wichtigen Gründen der öffentlichen Sicherheit zu genehmigen und entsprechende Genehmi- gungen durch eine Justiz- oder Verwaltungsbehörde vorliegen. Zahlreiche Gesichtserkennungs- technologien, die für andere Zwecke als zur Strafverfolgung (z. B. zur Grenzkontrolle, auf Marktplätzen, in öffentlichen Verkehrsmitteln und sogar in Schulen) genutzt werden, könnten nach einer Konformitätsbewertung und bei Erfüllung einiger Sicherheitsanforderungen vor dem Inver- kehrbringen auf dem EU-Markt zugelassen werden. Umgekehrt würden Gesichtserkennungs- systeme, die zu Kategorisierungszwecken verwendet werden, als Systeme mit „niedrigem Risiko“ erachtet und nur begrenzten Transparenz- und Informationsanforderungen unterliegen. Während sich Interessenträger, Forscher und Regulierungsbehörden offensichtlich darüber einig sind, dass Regulierungsbedarf besteht, stellen einige Kritiker die vorgeschlagene Unterscheidung zwischen biometrischen Systemen mit hohem und niedrigem Risiko infrage und warnen davor, dass die vorgeschlagenen Rechtsvorschriften ein System der Normung und Selbstregulierung ohne angemessene staatliche Aufsicht ermöglichen würden. Sie fordern eine Änderung des Entwurfs, auch hinsichtlich des Spielraums der Mitgliedstaaten bei der Umsetzung der neuen Vorschriften. Einige befürworten strengere Vorschriften – darunter auch ein vollständiges Verbot solcher Technologien – ausdrücklich. I
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments Blickt man über die Grenzen der EU hinaus, zeigt sich weltweit ein Anstieg bei der Nutzung von Gesichtserkennungstechnologien, während Bedenken hinsichtlich staatlicher Überwachung zunehmen und dadurch verstärkt werden, dass bislang nur sehr wenige rechtsverbindliche Vorschriften für Gesichtserkennungstechnologien bestehen, – und das sogar in großen Rechts- räumen wie den Vereinigten Staaten von Amerika (USA) und China. Entscheidungsträger und Gesetzgeber auf der ganzen Welt haben die Möglichkeit, auf multilateraler und eventuell auf bilateraler Ebene Diskussionen darüber zu führen, wie angemessene Kontrollen für die Nutzung von Gesichtserkennungssystemen eingeführt werden können. II
Regulierung der Gesichtserkennung in der EU Inhaltsverzeichnis 1. Hintergrund ________________________________________________________________ 1 1.1. Technologien ______________________________________________________________ 1 1.1.1. Begriffe ________________________________________________________________________ 1 1.1.2. Gesichtserkennung und KI-Technologien_____________________________________________ 2 1.2. Nutzung __________________________________________________________________ 3 1.3. Wirtschaftliche Aspekte ______________________________________________________ 5 1.4. Wichtigste Erkenntnisse _____________________________________________________ 5 2. Bedenken im Zusammenhang mit Gesichtserkennung ____________________________ 6 2.1. Technische Merkmale und Genauigkeit der Gesichtserkennungstechnologie __________ 6 2.2. Bedenken bezüglich des Datenschutzes und der Privatsphäre ______________________ 7 2.3. Bedenken in Bezug auf Verzerrungseffekte und Diskriminierung_____________________ 8 2.4. Massenüberwachung und Bedenken in Bezug auf Grundrechte _____________________ 9 2.5. Wichtigste Erkenntnisse ____________________________________________________ 11 3. Geltender EU-Rechtsrahmen _________________________________________________ 11 3.1. Zusammenspiel und Funktionsweise des Mehrebenen-Rechtsrahmens der EU ________ 11 3.2. Achtung des Privatlebens und Schutz personenbezogener Daten __________________ 11 3.2.1. Rechtmäßig, nach Treu und Glauben und nachvollziehbar ______________________________ 12 3.2.2. Festgelegter, eindeutiger und legitimer Zweck _______________________________________ 17 3.2.3. Datenminimierung, Datenrichtigkeit, Speicherbegrenzung, Datensicherheit und Rechenschaftspflicht _____________________________________________________________ 18 3.3. Rahmen für Nichtdiskriminierung_____________________________________________ 21 3.3.1. Antidiskriminierungsrahmen der EU ________________________________________________ 21 3.3.2. Lücken im Antidiskriminierungsrahmen der EU _______________________________________ 23 3.3.3. Möglichkeiten, Schutzlücken zu schließen ___________________________________________ 25 3.4. Andere einschlägige Rechtsvorschriften _______________________________________ 26 III
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments 3.5. Wichtigste Erkenntnisse ____________________________________________________ 26 4. Vorgeschlagenes EU-Gesetz über künstliche Intelligenz und Gesichtserkennung ____ 27 4.1. Hintergrund ______________________________________________________________ 27 4.2. Vorgeschlagenes Gesetz über künstliche Intelligenz ______________________________ 28 4.2.1. Wesentliche Merkmale __________________________________________________________ 28 4.2.2. Biometrische Systeme und Gesichtserkennung _______________________________________ 29 4.3. Wichtige zu erörternde politische Fragen ______________________________________ 34 4.3.1. Unterscheidung zwischen Biometriesystemen mit hohem und niedrigem Risiko ____________ 34 4.3.2. Forderungen nach strengeren Vorschriften __________________________________________ 35 4.3.3. Spielraum der Mitgliedstaaten bei der Umsetzung ____________________________________ 36 4.3.4. Normung und Selbstbewertung ___________________________________________________ 36 4.4. Wichtigste Erkenntnisse ____________________________________________________ 37 5. Internationale Aspekte ______________________________________________________ 38 5.1. Weltweiter Aufstieg der Überwachung mittels Gesichtserkennung __________________ 38 5.2. Der Ansatz der Vereinigten Staaten in Bezug auf die Regulierung von Gesichtserkennungstechnologie_________________________________________________ 39 5.2. Der Ansatz Chinas in Bezug auf die Regulierung von Gesichtserkennungstechnologie __ 40 5.3. Diskussionen über weltweite Normen _________________________________________ 40 5.4. Wichtigste Erkenntnisse ____________________________________________________ 41 6. Ausblick ___________________________________________________________________ 41 Literaturverzeichnis ___________________________________________________________ 43 Anhang 1 – Beispiele für den Einsatz von Gesichtserkennungstechnologie in ausgewählten EU-Mitgliedstaaten ___________________________________________________________ 44 IV
Regulierung der Gesichtserkennung in der EU 1. Hintergrund 1.1. Technologien 1.1.1. Begriffe 1.1.1.1. Biometrie Biometrische Technologien werden dazu verwendet, die Identität einer Person anhand ihrer physiologischen Merkmale (Aussehen) oder ihrer Verhaltensmerkmale zu identifizieren, zu verifizieren oder zu bestätigen. 1 Physiologische Merkmale werden mittels morphologischer Iden- tifikatoren (vor allem Fingerabdrücke, Handform, Finger, Venenmuster, Auge (Iris und Retina) und Gesichtsform) und biologischer Analysen (DNA, Blut, Speichel oder Urin) ausgewertet. Verhaltensmerkmale werden üblicherweise anhand von Stimmerkennung, charakteristischer Dynamiken (Bewegungsgeschwindigkeit eines Stifts, Beschleunigungen, ausgeübter Druck, Nei- gung), des Gangs (d. h. wie jemand geht) oder der Gestik ausgewertet. 2 Durch Biometrie wird es ermöglicht, eine Person anhand verifizierbarer eindeutiger und spezifischer Daten zu identifizieren und zu authentifizieren. Biometrische Identifikation besteht aus der Bestimmung der Identität einer Person durch die Erfassung eines Elements ihrer biometrischen Daten (z. B. eines Fotos) und einem Vergleich desselben mit den biometrischen Daten mehrerer anderer Personen in einer Datenbank zur Beantwortung der Frage: „Wer sind Sie?“ Biometrische Verifikation vergleicht Daten zu den Merkmalen einer Person mit ihren biometrischen Daten, um deren Ähnlichkeit zu bestimmen und die Frage zu beantworten: „Sind Sie Herr oder Frau X?“ 3 Biometrische Technologien umfassen „Fingerabdruckerkennung“, „Unterschriftserkennung“, „DNA-Abgleich“, „Augen – Iriserkennung“, „Augen – Retinaerkennung“, „Stimme – Sprecheridentifi- kation“, „Gang“, „Handgeometrieerkennung“ oder „Gesichtserkennung“. 4 1.1.1.2. Gesichtserkennung Gesichtserkennungstechnologien stellen eine bestimmte Art biometrischer Technologien dar, die viele verschiedene Technologien für unterschiedliche Zwecke umfassen und von der einfachen Detektion des Vorhandenseins eines Gesichts in einem Bild bis zur komplexeren Verifikation, Identifikation und Kategorisierung oder Klassifizierung von Personen reichen. 5 Verifikation (Ab- gleich „eins zu eins“) ermöglicht den Vergleich zweier biometrischer Templates, von denen in der Regel angenommen wird, dass sie zur selben Person gehören. Identifikation (Abgleich „eins zu vielen“) bedeutet, dass ein Template in Form eines Gesichtsbilds einer Person mit anderen in einer Datenbank gespeicherten Templates verglichen wird, um zu ermitteln, ob das Bild darin gespeichert ist. Gesichtserkennungstechnologien werden zum Zwecke der Kategorisierung (oder Klassifika- tion) von Personen auf Grundlage ihrer persönlichen Merkmale verwendet. In diesem Zusammen- hang wurde eine breite Palette an Softwarelösungen entwickelt, um die Gesichtsmerkmale einer Person zum Zwecke der Klassifikation von Gesichtsmerkmalen („face attribute classification“) 1 Siehe Kak, A.: Regulating Biometrics: Global Approaches and Urgent Questions, 2020, S. 6. 2 Siehe Thales: Biometrics: definition, use cases and latest news, 2021. 3 Ebd. 4 Siehe Biometrics Institute: Types of Biometrics, 2021. 5 Siehe Buolamwini, J., Ordóñez, V., Morgenstern, J. und Learned-Miller, E.: Facial Recognition Technologies: A Primer, Algorithmic Justice League, 2020, S. 2-6. Siehe auch: Agentur der Europäischen Union für Grundrechte: Facial recognition technology: fundamental rights considerations in the context of law enforcement, 2020, S. 7-8. 1
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments (z. B. Geschlecht, Rasse oder ethnische Herkunft) oder zur Einschätzung von Gesichtsmerkmalen („face attribute estimation“) (z. B. Alter) auszuwerten. Darüber hinaus können Gesichtserkennungs- technologien dazu verwendet werden, Gesichtsausdrücke (etwa ein Lächeln) oder die Gefühlslage einer Person (etwa als „fröhlich“, „traurig“ oder „wütend“) zu klassifizieren. 6 1.1.2. Gesichtserkennung und KI-Technologien Gesichtserkennungstechnologien haben sich seit ihren Anfängen in den frühen 1990er-Jahren über ihre beginnende Vermarktung im Zuge der Schaffung größerer und gehaltvollerer Datensätze in den frühen 2000er-Jahren und mit der Integration von Deep-Learning-Technologien ab 2014 beträchtlich weiterentwickelt. 7 Heutzutage versetzen Technologien im Zusammenhang mit künstlicher Intelligenz (KI) wie maschinelles Lernen einschließlich Deep Learning und Algorithmen für das maschinelle Sehen Computer zunehmend in die Lage, Bild- und Videoinhalte zu sehen, zu sammeln und zu verarbeiten. Algorithmen sind routinemäßig darauf trainiert, zu lernen und Gesichtsmerkmale und Eigen- schaften aus großen Datensätzen zu extrahieren und Deep Learning stellt nunmehr den vorherr- schenden Ansatz für die Gesichtsdetektion und -analyse dar. 8 Mit künstlicher Intelligenz werden herkömmliche Gesichtserkennungssysteme verbessert, indem etwa eine schnellere und genauere Identifikation (z. B. bei schlechter Beleuchtung und verdeckten Zielen) ermöglicht wird. Die Abbildung 1 – Technologien für die Gesichtsdetektion und -erkennung Quelle: The Alan Turing Institute, 2020. 6 Ebd. 7 Ein Überblick über die technologische Entwicklung findet sich in Raji, I. und Fried, G.: About Face: A Survey of Facial Recognition Evaluation, 2021. 8 Siehe Leslie, D.: Understanding bias in facial recognition technologies, The Alan Turing Institute, 2020. 2
Regulierung der Gesichtserkennung in der EU Verlagerung hin zu „KI-basierten“ (oder „KI-gestützten“) Gesichtserkennungssystemen fördert die Entwicklung von Gesichtserkennungsanwendungen für den praktischen Einsatz im Alltag. 9 Jedoch werden mit dieser biometrischen Technologie der „zweiten Welle“ hochsensible und personenbezogene Daten gesammelt. 10 1.2. Nutzung Biometrische Anwendungen kommen tagtäglich im privaten und öffentlichen Leben zum Einsatz. Gesichtserkennungsanwendungen sind bei Unternehmen, Verbrauchern und Regierungen mitt- lerweile sehr beliebt (siehe Anhang 1) und verbreiten sich in hohem Tempo. 11 Die Anwendungs- möglichkeiten sind heutzutage vielfältig und umfassen: Anwendungen für Verbraucher Geräte aus dem Bereich der Informationstechnologie (IT) wie Smartphones, Computer oder intelligente Türklingeln enthalten zunehmend Gesichtserkennungstechnologien, um den Nutzer zu identifizieren. Beispielsweise werden Gesichtsverifikationssysteme dazu verwendet, den Zugriff auf einen Computer oder ein Mobiltelefon zu erlauben. Solche Technologien, die sogar von Kindern genutzt werden, werden zunehmend für den Zugang zu digitalen Diensten wie Snapchat (das auf maschinellem Sehen beruht) oder Facebook (das menschliche Gesichter in den Bildern der Nutzer detektiert) verwendet. 12 Auch Automobilhersteller nutzen diese Technologien, um Fahrern den Zugang zu Fahrzeugen zu erlauben und sie im Hinblick auf Warnsignale wie Schläfrigkeit oder Unaufmerksamkeit zu überwachen. 13 Geschäfts- und Zahlungsanwendungen Im Bankensektor verringern Gesichtserkennungstechnologien den Bedarf an menschlichen Eingriffen. Banken nutzen solche Systeme, um die Identität von Kunden zu authentifizieren, sobald diese sich einem Geldautomaten nähern oder eine Banking-App auf einem Mobilgerät öffnen, sowie um wichtige Überprüfungen zur Vorbeugung von Betrug durchzuführen. 14 Sie ermöglichen Mobile Banking, indem Nutzer mittels Fingerabdruck oder Gesichtserkennung über ihr Smartphone authentifiziert werden. 15 Auch Einzelhändler nutzen auf Gesichtserkennung basierende Zahlungs- systeme, um demografische Merkmale von Käufern für Marketingzwecke zu nutzen, oder Kunden den Zutritt zu Geschäftsräumlichkeiten zu verwehren, wenn das System sie als „verdächtig“ meldet. 16 Überwachung physischer Räume und Zugangskontrollen Gesichtserkennungstechnologien, die biometrische Merkmale von Personen aus einer bestimmten Entfernung ohne Interaktion mit der Person erfassen, bieten im Vergleich zu anderen biometrischen Sicherheitslösungen, die mit Hand- oder Fingerabdrücken arbeiten, sehr große Vorteile. Bei der 9 Siehe Wang, M. und Deng, W.: Deep Face Recognition: A Survey, 2020. Siehe auch: OECD: Artificial Intelligence in Society, 2019, S. 88. 10 Siehe Europäische Kommission: Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, 2021, S. 8. 11 Siehe Rowe, E.: Regulating Facial Recognition Technology in the Private Sector, Stanford Technology Law Review, Bd. 24(1), 2021. 12 Siehe Dirin, A., Suomala, J. und Alamäki, A.: AI-based Facial Recognition in Emotional Detection, 2019. 13 Siehe Buolamwini, J. et al., 2020. 14 Siehe McKinsey: AI-powered decision making for the bank of the future, 2021. 15 Siehe OECD 2019, S. 57. 16 Siehe Fourtané, S.: AI Facial Recognition and IP Surveillance for Smart Retail, Banking, and the Enterprise, 2020. 3
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments Strafverfolgung kann die Gesichtserkennung helfen, eine Person, die in irgendeiner Weise straf- fällig geworden ist oder anderweitig mit dem Gesetz in Konflikt geraten ist, zu identifizieren. 17 Vollzugsbeamte können zur Unterstützung von Ermittlungen Gesichtserkennungstechnologie nutzen, um Bilder von Verdächtigen in Datenbanken zu vergleichen. Solche Gesichtserkennungs- technologien kommen bereits in großem Umfang zur Überprüfung von Reisepässen an Flughäfen und Häfen bei der Grenzkontrolle zum Einsatz 18 und könnten zukünftig zu einer Schlüsseltechno- logie werden, was die Identitätsfeststellung von Reisenden und den Umgang mit Personen, die einen Antrag auf Zuwanderung stellen, betrifft. 19 Außerdem gibt es den Trend zum Einsatz von Technologien zur Identitätserkennung in öffentlichen Räumen. 20 Beispielsweise können bei Versammlungen oder Protesten im öffentlichen Raum Echtzeit-Gesichtsidentifikationssysteme zum Einsatz kommen und bei Veranstaltungen (etwa bei Sportveranstaltungen oder Konzerten) kann ein Gesichtsverifikationssystem für das Ticketing verwendet werden. Sogar am Arbeitsplatz und im Bildungsbereich werden bereits Gesichts- erkennungssysteme genutzt. Beispielsweise verwenden Arbeitgeber Gesichtserkennungs- technologien, um den Zugang von Mitarbeitern zu Arbeitsbereichen zu beschränken und um Bewerber bei Vorstellungsgesprächen zu beurteilen, während in Schulen Gesichtserkennungs- technologien eingeführt werden, um die Anwesenheit zu kontrollieren und die Aufmerksamkeit von Schülern zu beurteilen. 21 Sonstige Es gibt zahlreiche andere Anwendungsmöglichkeiten für Gesichtserkennungstechnologien, etwa im Bereich des Online-Marketings, in der Gesundheitsversorgung (Patientenscreening) und bei der Wahlorganisation (elektronische Stimmabgabe). 22 Außerdem hat sich in den letzten Jahren die Gesichtserkennung zu einer Schlüsseltechnologie für die Sentimentanalyse entwickelt. Zusätzlich zu Systemen zur Identifizierung von Personen werden nunmehr neue Systeme entwickelt, die Rück- schlüsse auf demografische Merkmale, Gefühlslagen und Persönlichkeitsmerkmale ermöglichen. Solche „Emotionserkennungstechnologien“ werden zunehmend dafür verwendet, Gesichtsaus- drücke und andere biometrische Daten zu analysieren, um Gefühlslagen zu ermitteln und menschliche Emotionen zu messen. 23 Die Emotionserkennung wurde sogar als ein logischer nächster Schritt bei der Entwicklung biometrischer Anwendungen beschrieben, der zur Einführung von Emotionserkennungstechnologien an Orten führe, an denen bereits Gesichtserkennung zum Einsatz kommt. 24 Zu den zahlreichen Einsatzmöglichkeiten für eine solche Technologie zählen etwa 17 Salama AbdElminaam, D.: A deep facial recognition system using computational intelligent algorithms, PLOS ONE, Bd. 15(12), 2020, S. 2. 18 Siehe Dumbrava, C.: Artificial intelligence at EU borders: Overview of applications and key issues, EPRS, Europäisches Parlament, Juli 2021. 19 Siehe Regierung des Vereinigten Königreichs: New Plan for Immigration: Legal Migration and Border Control Strategy Statement, 2021. Im Vereinigten Königreich wird beabsichtigt, neue Technologien (einschließlich biometrischer Gesichtserkennung) einzusetzen, um sicherzustellen, dass der Großteil aller in den wichtigsten Häfen des Vereinigten Königreichs ankommenden Personen zum Zwecke der Identitätsfeststellung und der Sicherheit eine Art kontaktlosen Korridor oder automatische Kontrollgates passiert. 20 Siehe Crawford et al.: AI Now Report, 2020, S. 11. Eine Überwachung des öffentlichen Raumes mittels Gesichts- erkennungstechnologie gibt es bereits in Hongkong, Delhi, Detroit und Baltimore. 21 Siehe Buolamwini, J. et al., 2020. Siehe auch Trades Union Congress: Technology managing people - The worker experience, 2021. 22 Siehe Facial recognition 2020 and beyond – trends and market, i-SCOOP. 23 Siehe Dirin, A. et al.: 2019. See auch Crawford et al.: AI Now Report, 2020. 24 Siehe ARTICLE 19, Emotional Entanglement: China's emotion recognition market and its implications for human rights, London, 2021, S. 18. 4
Regulierung der Gesichtserkennung in der EU Analysen des Verbraucherverhaltens sowie die Werbung und der Bereich der Gesundheits- versorgung (z. B. zur Erkennung von Autismus). 25 Eine weitere bemerkenswerte einschlägige Entwicklung stellen die aktuellen Tests in Bezug auf den Einsatz von Gesichtserkennungs- technologie zur Beurteilung der politischen Orientierung von Personen dar. 26 1.3. Wirtschaftliche Aspekte Angesichts des raschen Vordringens von Erkennungstechnologien in viele Bereiche des Alltags- lebens birgt der Markt für Gesichtserkennungstechnologien ein beträchtliches Wachstums- potenzial. 27 Gesichtserkennung findet zunehmend als Schlüsseltechnologie für die Authenti- fizierung bei Zahlungsvorgängen Anwendung. Erwartet wird, dass die Zahl der Nutzer software- basierter Gesichtserkennung zur Absicherung mobiler Zahlungen, aufgrund der geringen Hinder- nisse für den Marktzutritt (nur eine Frontkamera und die entsprechende Software sind erforderlich) und der Einführung dieser Technologie durch bedeutende Plattformen (z. B. FaceID von Apple) in großem Maßstab, stark steigt und bis 2025 weltweit auf über 1,4 Milliarden zunimmt. 28 Einige Unternehmen entwickeln derzeit biometrische Softwarelösungen und liefern diese an Regierungen, Behörden und an private Akteure in den Bereichen Bürgeridentität und öffentliche Sicherheit. Diese stellen Dienste für Grenzkontrollen, die öffentliche Sicherheit und die Strafverfolgung, einschließlich Kriminaltechnik und Echtzeit-Gesichtserkennung, bereit. 29 Als logische Folge nehmen, je ausgereifter die Erkennungstechnologien werden, die Investitionen in diesem Bereich zu. Im Rahmen einer Studie der Universität Standford wurde ermittelt, dass nach dem Markt für selbstfahrende Fahrzeuge und dem Gesundheitssektor der Bereich der Gesichts- erkennung mit beinahe 4,7 Mrd. USD den drittgrößten Teil der weltweiten Investitionen im Zusammenhang mit KI im Jahr 2019 für sich verbuchen konnte. 30 Die COVID-19-Krise scheint diese massiven Investitionen in Gesichtserkennungssysteme noch gesteigert zu haben, das sie zunehmend im Rahmen elektronischer Gesundheitsdienste zum Einsatz kommen und als Ergän- zung andere Technologien wie KI, Internet der Dinge (Internet of Things, IoT) und 5G gesehen werden. 31 1.4. Wichtigste Erkenntnisse In den vergangenen Jahren konnten wesentliche technologische Fortschritte im Bereich der Gesichtserkennung erzielt werden. Durch den Einsatz künstlicher Intelligenz wurde die Nutzung biometrischer Technologien vorangetrieben, wozu auch Anwendungen zur Gesichtserkennung zählen, die heute zunehmend zur Verifikation und Identifikation von Verbrauchern, für Geschäfts- und Zahlungsanwendungen und zu Überwachungszwecken von privaten oder staatlichen 25 Siehe Facial Emotion Recognition, Website des Europäischen Datenschutzbeauftragten, Mai 2021. 26 Siehe Kosinski, M.: Facial recognition technology can expose political orientation from naturalistic facial images, Sci-Rep 11, 100, Januar 2021. 27 Siehe i-SCOOP: Facial recognition 2020 and beyond – trends and market, 2020. Siehe auch Fortune Business Insights: Facial recognition market, Global Industry Analysis, Insights and Forecast, 2016 2027, 2021. Im Bericht wird festgestellt, dass der Markt für Gesichtserkennungstechnologien von 4,35 Mrd. USD im Jahr 2019 auf beinahe 13 Mrd. USD im Jahr 2027 wachsen wird. 28 Siehe Mobile payment authentication: Biometrics, Regulation & forecasts 201-2025, Juniper Research, 2021. Siehe auch Press Releases, Facial Recognition for Payments Authentication to Be Used by Over 1.4 Billion People Globally by 2025, Juniper Research, 2021. 29 Siehe beispielsweise die vom Unternehmen Thales bereitgestellten Dienste. 30 Siehe Stanford University: The AI Index 2019 Annual Report, 2019. 31 Siehe oben i-SCOOP und Fortune Business Insights. 5
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments Akteuren genutzt werden. Ebenso wird erwartet, dass die Investitionen in Gesichtserkennungs- technologien in den kommenden Jahren wachsen werden, da deren Nutzung rapide zunehmen und vielfältiger werden wird und die Zahl der Anwendungsfälle und Experimente rasch steigt. 2. Bedenken im Zusammenhang mit Gesichtserkennung Während die Identitätsverifikation echte Vorteile in Bezug auf öffentliche Sicherheit und Effizienz mit sich bringt, 32 gibt die Entwicklung der Gesichtserkennung zu einer Reihe von Bedenken Anlass, die sich aus der Kombination der spezifischen Merkmale dieser Technologie und ihren möglichen Auswirkungen auf die Grundrechte ergeben. 2.1. Technische Merkmale und Genauigkeit der Gesichtserkennungstechnologie Der Umstand, dass Gesichtserkennungstechnologie allgegenwärtig, eine Kontrolle durch Menschen jedoch schwierig umzusetzen ist, stellt den Hauptgrund für die Bedenken dar. Gesichtserkennungstechnologie erfasst Merkmale des menschlichen Körpers, die man nicht ändern kann (im Gegensatz zu auf einem Mobiltelefon basierenden Identifikatoren), eine große Zahl an Bildern ist bereits verfügbar (z. B. im Internet) und Gesichtsbilder können aus der Ferne aufgenom- men werden, ohne dass die Person dies merkt, während das Einverständnis einer Person schwer zu erlangen ist, wenn die Technologie im öffentlichen Raum eingesetzt wird. 33 Zusätzlich ermöglichen Deep-Learning-Techniken die Sammlung ungemein sensibler Informationen über eine sehr große Anzahl an Menschen, was eine manuelle Verifikation und Kennzeichnung bei wachsenden Daten- sätzen nahezu unmöglich macht. 34 Darüber hinaus wurden Sicherheitsrisiken hervorgehoben, die sich aus der Sammlung und Aufbewahrung von Gesichtserkennungsdaten in Bezug auf deren Missbrauch und der Verletzung des Schutzes dieser Daten ergeben. 35 Außerdem wurde das Fehlerrisiko hervorgehoben. Aus empirischen Studien 36 geht hervor, dass die technische Leistungsfähigkeit der meisten Gesichtserkennungssysteme nach wie vor ziemlich gering ist und Detektionssoftware zwei Arten von Fehlern machen kann. Ein falsch negatives Ergebnis liegt vor, wenn eine Gesichtserkennungssoftware ein in einem Bild vorhandenes Gesicht nicht findet. Ein falsch positives Ergebnis liegt vor, wenn ein Gesichtsdetektor ein Gebilde, das kein Gesicht ist, als echtes Gesicht identifiziert. 37 Die Fehlerraten können ziemlich hoch sein, insbesondere wenn die Fotos, die miteinander verglichen werden, unterschiedliche Beleuchtung, Schatten, Hintergründe, Posen oder Gesichtsausdrücke aufweisen oder wenn Fotos mit niedriger Auflösung verwendet werden. Außerdem sind Gesichtserkennungssysteme im Falle großer Altersunterschiede weniger genau (wenn etwa ein Bild von jemandem aus seiner Jugend mit einem 32 Ein Überblick über die Vorteile findet sich in Centre for Data Ethics and Innovation: Facial Recognition Technology, Snapshot Series, S. 21. 33 Siehe Castelluccia, C. und Le Métayer Inria, D.: Impact Analysis of Facial Recognition, Centre for Data Ethics and Innovation, 2020, S. 7-8. 34 Haoarchive, K.: This is how we lost control of our faces, MIT Technology review, 2021. 35 Siehe Turner Lee, N., Resnick, P. und Barton, G.: Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms, Brookings, 2019. Siehe Rowe, E.: 2021, S. 32-34. 36 Siehe Grother, P. et al.: Face Recognition Vendor Test (FRVT), 2019. 37 Siehe Buolamwini, J. et al.: 2020, S. 3. 6
Regulierung der Gesichtserkennung in der EU zehn Jahre später aufgenommenen verglichen wird). 38 Unzureichende Trainingsdaten sind ein weiterer Grund für diskriminierende Algorithmen in Gesichtserkennungssoftware. 39 Diese Risiken können sich sehr umfassend auf Grundrechte auswirken. Unternehmen ziehen sich aus dem Markt für Gesichtserkennungstechnologien zurück Das Fehlerrisiko hat einige Unternehmen dazu veranlasst, sich aus dem Gesichtserkennungsmarkt zurück- zuziehen. Axon, ein führender Anbieter von Body-Cams für die Polizei in den USA hat beschlossen, seine Technologie für den Gesichtsabgleich aufgrund ernster ethischer Bedenken und technologischer Beschrän- kungen nicht zu vermarkten. 40 In ähnlicher Weise haben Microsoft und Amazon angekündigt, die Produktion von Gesichtserkennungssoftware und -diensten zu stoppen und IBM hat angekündigt, sich aus diesem Geschäftsfeld zurückzuziehen. 41 2.2. Bedenken bezüglich des Datenschutzes und der Privatsphäre Die Nutzung von Gesichtserkennungstechnologien bedeutet das Sammeln, Vergleichen und Speichern von Gesichtsbildern zu Identifikationszwecken. KI-gestützte Gesichtserkennungstechno- logien, insbesondere die Biometrie der „zweiten Welle“, nutzen ausgefeiltere Technologien und Algorithmen und sammeln hochsensible personenbezogene Daten. 42 Der Umstand, dass zuneh- mend KI- mit IoT-Technologien kombiniert werden hat zur Folge, dass Geräte (z. B. Überwachungs- kameras und selbstfahrende Fahrzeuge) ständig mehr Daten, darunter auch personenbezogene Daten, mittels verbesserter KI-Technologie (z. B. Gesichtserkennung) sammeln und analysieren, was einen stärkeren Eingriff in die individuelle Privatsphäre und in den Datenschutz bedeutet. 43 Durch solche Praktiken werden die gravierenden Bedenken hinsichtlich des Rechts auf den Schutz personenbezogener Daten, wie es in Artikel 8 der Charta der Grundrechte der Europäischen Union (die Charta) und mit dem Recht auf Privatleben gemäß Artikel 7 der Charta (siehe Abschnitt 3 unten) festgelegt ist, untermauert. 44 Die Bedenken beziehen sich vorwiegend auf die schwer sicherzustellende ausdrückliche Einwilligung in die Nutzung von Gesichtserkennungs- technologien. Berichten zufolge haben einige Anbieter öffentlich verfügbare Gesichtsbilder aus anderen Websites extrahiert, um damit ihre eigenen biometrischen Datenbanken aufzubauen,45 und sogar Forscher im Bereich der Gesichtserkennung haben allmählich damit aufgehört, Personen um ihre Einwilligung zu ersuchen. 46 38 Siehe Lynch, J.: Face Off: Law Enforcement Use of Face Recognition Technology, Electronic Frontier Foundation, 2020, S. 11-12. 39 Siehe Turner Lee, N., Resnick, P. und Barton, G.: Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms, Brookings, 2019. 40 Siehe Smith, R.: The future of face matching at Axon and AI ethics board report, 2019. 41 Siehe Leslie, D., 2020, S. 22. Siehe auch Smith, R.: The future of face matching at Axon and AI ethics board report, 2019. 42 Siehe Europäische Kommission: Study supporting the impact assessment of the AI regulation, 2021. 43 Siehe auch OECD: Artificial Intelligence in Society, 2019, S. 88. 44 Siehe Agentur der Europäischen Union für Grundrechte: Facial recognition technology: fundamental rights considerations in the context of law enforcement, 2020. 45 Kak, A.: „Introduction“, in Kak, A.: Regulating Biometrics, AI now, September 2020, S. 7. 46 Hao, K.: This is how we lost control of our faces, MIT Technology review, 2021. 7
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments 2.3. Bedenken in Bezug auf Verzerrungseffekte und Diskriminierung Diskriminierung bezieht sich auf eine Situation, in der eine Person eine weniger günstige Behand- lung, als eine andere Person in einer vergleichbaren Situation erfährt, erfahren hat oder erfahren würde. 47 Diskriminierung bei algorithmischen Entscheidungen kann bei der Entwicklung, beim Test und beim Einsatz von Algorithmen für die Gesichtserkennung stattfinden, und zwar durch Verzerrungen, die im Algorithmus selbst enthalten sind, oder aufgrund der Art und Weise, wie die Ergebnisse von der Person oder der Behörde, die die Gesichtserkennung durchführt, übermittelt werden. 48 Gesichtserkennungstechnologie kann eine sehr große Zahl an falsch positiven bzw. falsch negativen Ergebnissen produzieren und Verzerrungen können zu verschiedenen Arten von Diskriminierung bestimmter Bevölkerungskategorien führen. Insbesondere Verzerrungen in Bezug auf Geschlecht und Rasse wurden dokumentiert, wobei die Genauigkeit der Gesichts- erkennungstechnologie beträchtlich variiert und bei Frauen und Personen, die nicht der weißen Mehrheitsgesellschaft angehören, geringer ausfällt als bei weißen Männern. 49 Aus empirischen Studien geht hervor, dass das Risiko einer diskriminierenden Behandlung für Menschen mit dunkler Hautfarbe bzw. solche, die nicht der weißen Mehrheitsgesellschaft angehören, im Zusammenhang mit der Strafverfolgung höher ist. 50 Die Nutzung von Trainings- daten, die durch eine Verzerrung durch die Stichprobenziehung gekennzeichnet sind, stellt ein typisches Problem zahlreicher Gesichtserkennungstechnologien dar, die bei Schwarzen schlechtere Ergebnisse erbringen als bei Weißen und die schlechtesten bei schwarzen Frauen. Festgestellt wurde, dass in den USA Menschen, die nicht der weißen Mehrheitsgesellschaft angehören, überproportional oft von falsch positiven Ergebnissen betroffen sind, wodurch das herkömmliche Verständnis der Unschuldsvermutung in Strafsachen verändert wird, indem Verdächtige und Beklagte es schwerer haben, zu beweisen, dass sie nicht diejenigen sind, als die sie das System identifiziert. 51 Solche Ergebnisse verstoßen gegen Artikel 21 der Charta, laut dem Diskriminierun- gen, insbesondere wegen des Geschlechts, der Rasse, der Hautfarbe, der ethnischen oder sozialen Herkunft, der genetischen Merkmale, der Sprache, der Religion oder der Weltanschauung, der poli- tischen oder sonstigen Anschauung, der Zugehörigkeit zu einer nationalen Minderheit, des Vermö- gens, der Geburt, einer Behinderung, des Alters oder der sexuellen Ausrichtung verboten sind. 52 Darüber hinaus haben Wissenschaftler hervorgehoben, dass Menschen, die direkt von den Risiken, die sich aus dem unsachgemäßen Gebrauch und Missbrauch von Gesichtserkennungstechnologien ergeben, unter umfassenderen Auswirkungen und moralischen Schäden zu leiden haben. Beden- ken bestehen in Bezug auf „Verteilungsungerechtigkeit“, z. B. wenn Angehörigen einer von Diskriminierung betroffenen gesellschaftlichen Gruppe der Zugang zu Versorgungsleistungen, Ressourcen oder Chancen aufgrund ihrer Zugehörigkeit zu dieser Gruppe verwehrt wird. Es gibt auch Bedenken im Zusammenhang mit „Anerkennungsungerechtigkeit“, z. B. wenn die For- derungen von Angehörigen einer von Diskriminierung betroffenen Gruppe auf Anerkennung ihrer 47 Siehe Agentur der Europäischen Union für Grundrechte, 2020. 48 Ebenda, S. 27. 49 Siehe Buolamwini, J. und Gebru, T.: Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, 2018. Siehe auch Cavazos, J. et al.: Accuracy Comparison Across Face Recognition Algorithms: Where Are We on Measuring Race Bias?, IEEE Transactions on Biometrics, Behaviour and Identity Science, 2021. 50 Siehe Amnesty international, Ban dangerous facial recognition technology that amplifies racist policing, 2021. Siehe auch Hardesty, L.: Study finds gender and skin-type bias in commercial artificial-intelligence systems, MIT News, 2018. 51 Siehe Lynch, J.: Face Off: Law Enforcement Use of Face Recognition Technology, Electronic Frontier Foundation. 52 Siehe Agentur der Europäischen Union für Grundrechte, 2020. 8
Regulierung der Gesichtserkennung in der EU Identität in einer Art und Weise zurückgewiesen oder missachtet werden, die ihre Randposition festschreibt und verstärkt. 53 2.4. Massenüberwachung und Bedenken in Bezug auf Grundrechte Risiken im Zusammenhang mit einem möglichen umfassenden Einsatz von Gesichtserkennungs- technologien wurde ebenfalls hervorgehoben. Die Möglichkeit einer Ausweitung des Einsatzes von Gesichtserkennungssystemen über den ursprünglich genehmigten und kontrollierten Zweck hinaus birgt mittel- bzw. langfristig einige Risiken. Eine solche Ausweitung kann beispielsweise dann stattfinden, wenn in sozialen Netzwerken gesammelte Daten oder ursprünglich für andere Zwecke eingerichtete Datenbanken genutzt werden, wenn eine Datenbank über den erlaubten Zweck hinaus verwendet wird oder wenn ein bestehendes System mit neuen Funktionen versehen wird (z. B. indem die für die Passkontrolle verwendete Gesichtserkennungstechnologie in weiterer Folge auch für Zahlungsvorgänge am Flughafen und dann in der gesamten Stadt verwendet wird).54 Es wurde argumentiert, dass eine solche Ausweitung Teil einer bewussten Strategie von Projekt- trägern sein kann, indem Gesichtserkennungssysteme zuerst in einem Zusammenhang verwendet werden, in dem deren Einsatz legitim erscheint, und dieser dann allmählich ausgeweitet wird („Dammbruchargument“). 55 Biometrische Fernidentifizierungssysteme kommen zunehmend in öffentlich zugänglichen Räumen zum Einsatz und Gesichtserkennung scheint in der EU zum Normalfall zu werden. Aus den Untersuchungen der Europäischen Kommission geht hervor, dass, wo immer ein solches System zum Einsatz kommt, die Aufenthaltsorte der in der Referenzdatenbank enthaltenen Personen nachverfolgt werden können, was Auswirkungen in Bezug auf ihre personenbezogenen Daten, ihre Privatsphäre, ihre Autonomie und ihre Würde hat. 56 So könnte ein solches Massenüberwachungs- system, das durch den Einsatz von Gesichtserkennungssystemen herbeigeführt wird, zur Folge haben, dass neue gesellschaftliche Bedenken entstehen, etwa in Bezug auf die Unmöglichkeit, sich unbemerkt und anonym im öffentlichen Raum zu bewegen, oder hinsichtlich eines Konformismus, der dem freien Willen abträglich ist. In diesem Sinne hat die italienische Daten- schutzbehörde festgestellt, dass die automatisierte Verarbeitung biometrischer Daten zur Gesichtserkennung eine Art von unterschiedsloser Massenüberwachung darstellt. 57 Darüber hinaus lässt die Verwendung von Gesichtserkennungstechnologien Bedenken hinsichtlich einiger anderer bürgerlicher Freiheiten aufkommen, einschließlich der Religionsfreiheit 58 und der Rechte des Kindes, da es sich bei Kindern um schutzbedürftige Personen handelt, die ein höheres Schutzniveau verdienen, insbesondere wenn die Technologie im Zusammenhang mit der Straf- verfolgung und für Zwecke des Grenzmanagements eingesetzt wird, 59 da sie jüngere Gesichter, die 53 Siehe Leslie, D., 2020, S. 21-25. Ein Beispiel dafür ist, wenn ein automatisiertes System, das dazu gedacht ist, ein Verwaltungsverfahren effizienter zu gestalten, die gesteckten Ziele für eine privilegierte gesellschaftliche Gruppe erreicht, für Randgruppen jedoch gegenteilige Auswirkungen hat (also mehr Zeitaufwand und Bemühungen benötigt werden, um dasselbe Verfahren abzuschließen). 54 Siehe Castelluccia, C. und Inria, D., 2020, S. 8-9. 55 Ebenda, S. 17. 56 Siehe Europäische Kommission: Impact assessment accompanying the Proposal for a Regulation of the European Parliament and of the Council, 2021, S. 18. 57 Erwähnt im Europäisches Parlament, Anfrage zur schriftlichen Beantwortung E-002182/2021. 58 Siehe Rowe, E., 2021, S. 31. 59 Siehe Agentur der Europäischen Union für Grundrechte, 2020, S. 28-29. 9
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments sich schnell verändern, mit einer geringeren Genauigkeit erkennt. 60 Es wurde auch hervorgehoben, dass der Einsatz von Gesichtserkennungstechnologien zur Verarbeitung von Gesichtsbildern, die von Videokameras im öffentlichen Raum aufgenommen wurden, das Recht auf Meinungsfreiheit und freie Meinungsäußerung einer Person verletzen und negative Auswirkungen auf die Versammlungs- und Vereinigungsfreiheit haben könnte. 61 Der Einsatz von Gesichtserkennungs- technologie zur Identifizierung von Personen im Zusammenhang mit Versammlungen hat laut einem Bericht des Menschenrechtsrats der Vereinten Nationen beträchtliche negative Auswir- kungen auf das Recht auf Privatsphäre, auf freie Meinungsäußerung sowie auf das Recht, sich fried- lich zu versammeln. 62 Darüber hinaus kann die automatische Identifizierung und Nachverfolgbarkeit von Personen große Auswirkungen auf das Verhalten von Bürgern auf gesellschaftlicher und psychologischer Ebene haben, womit wichtige ethische Fragen aufgeworfen werden, die mit dem Einsatz einer solchen Technologie einhergehen. 63 Die Auswirkungen können noch umfassender sein und das Risiko eines sich verfestigenden strukturellen Rassismus und einer Gefährdung moderner demokratischer Formen oder gesellschaftlicher Solidarität aufgrund von Massenüberwachungsinfrastrukturen mit sich bringen.64 Alle diese Bedenken führen dazu, dass die Unionsbürger gegenüber Gesichtserkennungstechnologie eher Vorsicht walten lassen. Abbildung 2 – Bereitschaft, Behörden und Privatunternehmen Gesichtsbilder zu Identifikationszwecken zur Verfügung zu stellen, nach Land Quelle: Agentur der Europäischen Union für Grundrechte: Your rights matter: Data protection and privacy, 2020. Vor diesem Hintergrund ist es für die Festlegung eines geeigneten Rahmens ausschlaggebend, die Bedingungen zu definieren, unter denen KI für die automatisierte Identifizierung von Personen verwendet werden darf, und zwischen der Identifizierung und der Ortung einer Person sowie 60 Siehe Rowe, E.; 2021, S. 26. 61 Siehe Agentur der Europäischen Union für Grundrechte, 2020, S. 29-30. 62 Siehe Bericht des Hohen Kommissars der Vereinten Nationen für Menschenrechte: Impact of new technologies on the promotion and protection of human rights in the context of assemblies, including peaceful protests, 2020. 63 Siehe hochrangige Expertengruppe für KI: Ethik-Leitlinien für eine vertrauenswürdige KI, 2019, S. 44. 64 Siehe Leslie, D., 2020. 10
Regulierung der Gesichtserkennung in der EU zwischen einer gezielten Überwachung und einer Massenüberwachung zu unterscheiden (siehe Abschnitt 4 unten). 65 2.5. Wichtigste Erkenntnisse Die durch die Entwicklung von Gesichtserkennungstechnologien hervorgerufenen Bedenken rühren von einer Kombination technischer Merkmale und der mangelnden Genauigkeit der Techno- logie, die zu einer Gefährdung bürgerlicher Freiheiten führen kann, her. Obwohl der Einsatz von Gesichtserkennungssystemen in Bezug auf öffentliche Sicherheit und Effizienz bei der Identi- tätsverifikation echte Vorteile mit sich bringt, ist das Risiko von Algorithmusfehlern hoch. Gesichts- erkennungstechnologie kann eine sehr große Zahl an falsch positiven bzw. falsch negativen Ergebnissen produzieren, was zu Verzerrungen und zu verschiedenen Arten von Diskriminierung gegenüber bestimmten Bevölkerungsgruppen führen kann. Einen besonders heiklen Fall stellt die zunehmende Nutzung von biometrischen Fernidentifizierungssystemen in öffentlich zugänglichen Räumen dar. 3. Geltender EU-Rechtsrahmen 3.1. Zusammenspiel und Funktionsweise des Mehrebenen-Rechtsrahmens der EU Innerhalb der Rechtsordnung der EU werden mit den Vorschriften zum Datenschutz, zum Schutz der Privatsphäre und zur Nichtdiskriminierung sowie mit der vorgeschlagenen Verordnung für KI wesentliche Rahmenbedingungen für die Entwicklung und den Einsatz von Gesichtserkennungs- technologie festgelegt. Die einschlägigen Vorschriften sind über verschiedene Ebenen der Rechtsordnung der EU verteilt. Insbesondere wird mit den Grundrechten auf Datenschutz, Privatsphäre und Nichtdiskriminierung eine Reihe grundlegender Garantien auf der Primärebene der Charta der Grundrechte verankert. Auch wenn die Charta für „Organe und Einrichtungen der Union und für die Mitgliedstaaten bei der Durchführung des Rechts der Union“ (Artikel 51 Absatz 1 der Charta) gilt, kann sie auch Auswirkungen auf die Beziehungen zwischen Privaten Parteien haben („Horizontalwirkung“). 66 Sekundärrechte, die mit dem Grundrecht in Kraft gesetzt werden, und sektorspezifische Verordnungen regeln die Herstellung und die Verbreitung von aufstrebenden Technologien detaillierter. In diesem Mehrebenen-Rechtsrahmen muss das Sekundärrecht und dessen Umsetzung mit dem Primärrecht übereinstimmen. 3.2. Achtung des Privatlebens und Schutz personenbezogener Daten Da die Nutzung von Gesichtserkennungstechnologien die Verarbeitung von Daten zu Identifika- tionszwecken umfasst, stellt deren Einsatz durch Behörden einen Eingriff in das Recht auf Datenschutz laut Artikel 8 der Charta und in das Recht auf Privatleben laut Artikel 7 der Charta dar. Genauer gesagt, stellen die anfängliche Videoaufnahme, die darauffolgende Speicherung des Materials und der Vergleich des Materials mit Datenbankbeständen zum Zwecke der Identifikation (Abgleich) allesamt Eingriffe in dieses Recht oder Einschränkungen desselben dar. Jede 65 Siehe hochrangige Expertengruppe für KI, 2019, S. 44. 66 Siehe Frantziou, E.: The Horizontal Effect of the Charter, Cambridge Yearbook of European Legal Studies, Bd. 22, 2020. 11
EPRS | Wissenschaftlicher Dienst des Europäischen Parlaments Einschränkung dieser Grundrechte muss laut Artikel 52 Absatz 1 der Charta unbedingt notwendig und verhältnismäßig sein. 67 In der Praxis befinden sich diese Grundrechte jedoch noch in der Entwicklung 68 und die Frage, inwieweit sie auf Beziehungen zwischen privatrechtlichen juristischen Personen anwendbar sind, ist noch nicht abschließend beantwortet. 69 Die Grundrechte selbst bieten kaum praktische Leitlinien für den Einsatz von Gesichtserkennungstechnologie und enthalten und lösen oft nur indirekt Konflikte an der Schnittstelle zwischen Datenschutz und aufstrebenden Technologien. Eher stellt ihr „Ausdruck“ im Sekundärrecht einen Rahmen dar, mit dem man arbeiten kann. 70 Sowohl die Richtlinie zum Datenschutz bei der Strafverfolgung als auch die Datenschutz-Grund- verordnung (DSGVO) sind gemäß Artikel 2 Absatz 1 DSGVO und Artikel 2 der Richtlinie zum Datenschutz bei der Strafverfolgung auf die automatisierte Verarbeitung personenbezogener Daten und auf die manuelle Verarbeitung personenbezogener Daten, die Teil eines Dateisystems sind, anwendbar. 71 Die Richtlinie zum Datenschutz bei der Strafverfolgung enthält im Vergleich zur DSGVO jedoch spezifischere Bestimmungen (lex specialis) und ist anwendbar, wenn Behörden personenbezogene Daten zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten verarbeiten (Erwägungen 11 und 12 der Richtlinie zum Datenschutz bei der Strafverfolgung und Erwägung 19 der DSGVO). Im Einklang mit den wichtigsten Rechtsgrundsätzen des Datenschutzes (Artikel 5 DSGVO und Artikel 4 der Richtlinie zum Datenschutz bei der Strafverfolgung) muss die Verarbeitung von Gesichtsbildern rechtmäßig, nach Treu und Glauben und nachvollziehbar erfolgen; einem festgelegten, eindeutigen und legitimen Zweck dienen (eindeutig definiert im Recht der Mitgliedstaaten oder im Unionsrecht) und den Anforderungen der Datenminimierung, der Datenrichtigkeit, der Speicherbegrenzung, der Datensicherheit und der Rechenschaftspflicht entsprechen. Verantwortliche (und indirekt die Hersteller) sollten ihre beabsichtigten Datenverarbeitungs- aktivitäten so gestalten, dass die Grundsätze des Datenschutzes umfassend gewahrt bleiben („Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen“, Artikel 25 DSGVO und Artikel 20 der Verordnung zum Datenschutz bei der Strafverfolgung). 72 3.2.1. Rechtmäßig, nach Treu und Glauben und nachvollziehbar Gemäß Artikel 5 Absatz 1 Buchstabe a DSGVO und Artikel 4 Absatz 1 Buchstabe a der Richtlinie zum Datenschutz bei der Strafverfolgung sowie Erwägung 26 der Richtlinie zum Datenschutz bei der 67 Was den Datenschutz betrifft, müssen die Anforderungen gemäß Artikel 8 Absatz 2 der Charta erfüllt sein. 68 Eine Einführung findet sich in Fuster, G. und Hijmans, H.: The EU rights to privacy and personal data protection: 20 years and 10 questions, Internationaler Workshop „Exploring the Privacy and Data Protection connection'“, 2019. 69 Siehe Urteil in der Rechtssache C-131/12, Google Spain, EuGH, 13. Mai 2014. 70 Eine Kommentatorin vertritt sogar die Ansicht, dass das Sekundärrecht im Bereich des Datenschutzes nicht nur das Grundrecht auf Datenschutz entscheidend präge, sondern auch eine Schlüsselrolle bei der Herausbildung der Bedingungen und Einschränkungen für dessen Anwendung spiele. Siehe Ivanova, Y.: The Role of the EU Fundamental Right to Data Protection in an Algorithmic and Big Data World, in Hallinan, D. et al.: Data Protection and Privacy, Bd. 13, 2020, S. 5-6. 71 Während die Richtlinie zum Datenschutz bei der Strafverfolgung auf die Verarbeitung in Schengen-Mitgliedstaaten anwendbar ist, bezieht sich die DSGVO auf die Verarbeitung im Europäischen Wirtschaftsraum. 72 Siehe EDSA: Leitlinien 3/2019 für die Verarbeitung personenbezogener Daten durch Videogeräte, 2020, S. 33; siehe Europarat: Guidelines on Facial Recognition, 2021, S. 15; siehe EDSA: Leitlinien 4/2019 zu Artikel 25 „Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen, 2020, S. 17-18. 12
Sie können auch lesen