Absolutes Verbot von Gesichtserkennung durch AI Act

0

Um den Schutz der Anonymität und Sicherheit von Menschen zu gewährleisten, hat die EU beschlossen, den Einsatz künstlicher Intelligenz zu regulieren. Der AI Act, der nun vom EU-Parlament gebilligt wurde, konzentriert sich insbesondere auf bedenkliche Praktiken wie die Gesichtserkennung von Suchmaschinen und verschärft die Regelungen, um die potenziellen Gefahren und Risiken zu reduzieren.

Innovation vorangetrieben: Regulierte KI-Wirtschaftszone eröffnet

Die EU hat als erster Wirtschaftsraum weltweit einen Gesetzesentwurf zur Regulierung von künstlicher Intelligenz vorgelegt, indem die Europäische Kommission bereits am 21. April 2021 einen Entwurf präsentierte. Das Europäische Parlament hat in seiner Abstimmung am 14. Juni 2023 seine Position festgelegt, was den Beginn von Verhandlungen zwischen den EU-Institutionen zur endgültigen Ausarbeitung des Gesetzes ermöglicht.

Die EU-Vorschriften für KI dienen dem Schutz der Gesellschaft und Umwelt, indem sie darauf abzielen, potenzielle negative Auswirkungen von KI-Systemen zu minimieren. Sie fordern die Einhaltung von Normen, die sicherstellen, dass KI die Grundrechte respektiert und keine umweltschädlichen Folgen hat.

Betroffene Bereiche: Was wird reguliert und kontrolliert?

Das Europäische Parlament hat eine präzise Definition für KI-Systeme festgelegt, um ihre Reichweite und potenzielle Gefährdung einzuschätzen. KI-Systeme sind dabei als maschinengestützte Systeme definiert, die unterschiedliche Grade an Autonomie aufweisen und durch Vorhersagen, Empfehlungen oder Entscheidungen das physische oder virtuelle Umfeld beeinflussen können.

Regulatorischer Riegel: Verbotene Praktiken im KI-Bereich

KI-Anwendungen, die zur Verbreitung von Fehlinformationen und Fake News beitragen, sollten ebenfalls verboten werden. Diese Praktiken können zu einer erheblichen Desinformation führen, die die Sicherheit der Gesellschaft gefährdet, indem sie das Vertrauen in die Informationsquellen untergraben und zu einer Verbreitung von Manipulation und Propaganda führen.

  • KI-Systeme setzen absichtlich täuschende Methoden ein, um Schaden zuzufügen, außer in therapeutischen Kontexten.
  • Ausnutzung der Verwundbarkeit oder des Schutzbedarfs von Personen durch den Einsatz von Techniken, die auf bekannten oder vorhergesagten Persönlichkeitsmerkmalen, der sozialen oder wirtschaftlichen Situation, dem Alter oder den körperlichen/geistigen Fähigkeiten basieren.
  • Biometrische Systeme ermöglichen die Kategorisierung von Personen anhand sensibler Merkmale wie Geschlecht und ethnischer Zugehörigkeit. Sie nutzen dabei spezielle Algorithmen und Technologien, um diese Merkmale zu erfassen und zu analysieren. Es ist jedoch wichtig zu betonen, dass diese Systeme nicht für therapeutische Zwecke entwickelt wurden, sondern eher für Zwecke der Identifikation oder Analyse im Rahmen von wissenschaftlicher Forschung, Sicherheit oder anderen Anwendungen.
  • Systeme zur Bewertung des sozialen Verhaltens sind Instrumente, die darauf abzielen, menschliches Verhalten in sozialen Kontexten zu analysieren und zu beurteilen. Sie basieren auf Technologien wie maschinellem Lernen und künstlicher Intelligenz, um Daten über Verhaltensmuster zu sammeln und auszuwerten. Solche Systeme können beispielsweise in der Forschung, der Bildung oder der medizinischen Diagnostik eingesetzt werden, um Erkenntnisse über soziale Interaktionen zu gewinnen.
  • Die Identifizierung von Personen in Echtzeit oder nachträglich an öffentlich zugänglichen Orten aus der Ferne wird durch biometrische Systeme ermöglicht. Diese Systeme verwenden biologische Merkmale wie Handgeometrie oder DNA-Analysen, um die Identität einer Person zuverlässig und schnell festzustellen.
  • Ein KI-gesteuertes System nutzt umfangreiche Profile und geografische Daten von Personen, um Risikobewertungen für strafrechtliche Vergehen oder erneute Straftaten zu erstellen. Durch die Analyse von Mustern und Zusammenhängen können potenziell gefährdete Personen identifiziert werden, was die Möglichkeit bietet, gezielte Präventionsmaßnahmen zu ergreifen und die öffentliche Sicherheit zu verbessern.
  • KI-Systeme nutzen die Fähigkeit des maschinellen Lernens, Datenbanken zur Gesichtserkennung durch das Auslesen aus dem Internet zu erstellen oder zu erweitern. Dieser Prozess basiert auf dem Vergleich und der Klassifizierung von Bildern, um eine präzise Erkennung von Personen in verschiedenen Kontexten zu ermöglichen.
  • Emotionserkennung mittels KI-Systemen ist ein bedeutender Aspekt bei der Strafverfolgung, dem Grenzmanagement, am Arbeitsplatz und in Bildungseinrichtungen. Diese Systeme nutzen maschinelles Lernen und Mustererkennung, um emotionale Signale wie Gesichtsausdrücke, Körperhaltung oder Sprachmuster zu interpretieren und so potenzielle Gefahren oder individuelle Bedürfnisse besser zu verstehen.

Verantwortungsvoller Umgang mit hochriskanter KI

KI-Systeme, die als hochriskant eingestuft werden, bergen erhebliche potenzielle Gefahren für die Gesundheit, Sicherheit und Grundrechte von Menschen sowie für die Umwelt. Im Anhang III des Gesetzesentwurfs werden bestimmte Kategorien solcher Systeme aufgeführt, wie zum Beispiel KI-Systeme für die Strafverfolgung oder für den Zugang zu öffentlichen Dienstleistungen. Unternehmen sollten die Aktualisierungen des Anhangs durch die Kommission im Auge behalten, um sicherzustellen, dass ihre KI-Anwendungen den rechtlichen Anforderungen entsprechen.

Risikobasierte Anforderungen bedingen unterschiedliche Vorgaben

Die Erfüllung umfangreicher Anforderungen ist unerlässlich, um potenzielle Risiken im Zusammenhang mit KI-Anwendungen zu minimieren. Hierzu zählen die Registrierung in einer EU-Datenbank vor der Marktzulassung, die Implementierung von Risiko- und Qualitätsmanagementprozessen, die Beaufsichtigung durch menschliche Instanzen sowie die Offenlegung der Generierung von Deepfake-Fotos zur Unterscheidung von authentischen Aufnahmen.

Ausbau der Bürgerförderung und -schutz bei zusätzlichen Risikostufen

Der vorliegende Gesetzesentwurf für KI mit minimalem oder keinem Risiko enthält nur wenige Beschränkungen und legt stattdessen den Schwerpunkt auf allgemeine Prinzipien, die befolgt werden müssen. Dazu gehören menschliche Kontrolle und Überwachung, technische Zuverlässigkeit und Schutz vor Schäden und Cyberangriffen sowie die Einhaltung der Datenschutzgrundsätze und die Vermeidung von Diskriminierung.

Es werden spezifische Maßnahmen ergriffen, um Forschungstätigkeiten zu unterstützen, wobei ein besonderer Schwerpunkt auf der Förderung von Reallaboren liegt. Diese Reallabore dienen Behörden als Testumgebungen, um KI-Anwendungen unter realen Bedingungen zu erproben und deren Praxistauglichkeit zu bewerten.

Mit dem AI Act hat die EU eine bahnbrechende Gesetzgebung verabschiedet, die zahlreiche Vorteile mit sich bringt. Durch die Beschränkung und das Verbot von problematischen Praktiken im Zusammenhang mit KI-Systemen schützt der AI Act effektiv die Privatsphäre und Sicherheit der Menschen. Darüber hinaus stellt er sicher, dass der Einsatz von KI in Europa den grundlegenden Werten entspricht und eine angemessene menschliche Überwachung gewährleistet ist.

Die Verbreitung von Gesichtserkennungssoftware wie PimEyes hat in den letzten Jahren besorgniserregende Konsequenzen für die Privatsphäre und Sicherheit vieler Menschen gezeigt, insbesondere für diejenigen, die auf Anonymität angewiesen sind. Die Europäische Union hat darauf reagiert, indem sie den AI Act eingeführt hat, ein Gesetz, das die Regulierung und Kontrolle von künstlicher Intelligenz zum Ziel hat, um den Schutz der Bürger zu gewährleisten.

Durch den Entwurf des KI-Gesetzes, den die Europäische Kommission im April 2021 präsentiert hat, geht die EU als weltweit erster Wirtschaftsraum einen bedeutenden Schritt, um Künstliche Intelligenz gesetzlich zu regulieren. Nachdem das Europäische Parlament im Juni 2023 über seine Position abgestimmt hat, können nun Verhandlungen zwischen den beteiligten Institutionen beginnen, um das endgültige Gesetz zu erarbeiten.

Die Europäische Union hat Regelungen erlassen, um sicherzustellen, dass Künstliche Intelligenz, die in der EU entwickelt und eingesetzt wird, den Grundwerten und Rechten der Union entspricht. Diese Regelungen beinhalten die Notwendigkeit einer menschlichen Aufsicht, die Erfüllung von Sicherheitsanforderungen, den Schutz der Privatsphäre und die Offenlegung von Informationen, die Vermeidung von Diskriminierung sowie den Schutz der Gesellschaft und Umwelt vor negativen Auswirkungen.

Beschreibung: Nach dem Europäischen Parlament wird ein KI-System als ein maschinengestütztes System definiert, das in der Lage ist, autonom zu handeln und Ergebnisse zu erzeugen, die das physische oder virtuelle Umfeld beeinflussen können. Diese Definition umfasst verschiedene Arten von Software und bildet die Grundlage für die Einteilung von KI-Systemen in unterschiedliche Kategorien gemäß den geplanten Vorschriften.

In einer kürzlich veröffentlichten Pressemitteilung wird darauf hingewiesen, dass bestimmte KI-Praktiken als gefährlich eingestuft werden und daher verboten werden sollen. Zu diesen Praktiken gehören der Einsatz von KI-Systemen, die absichtlich manipulative oder täuschende Techniken anwenden, um Schaden zu verursachen, mit Ausnahme von therapeutischen Zwecken.

Ein weiterer verbotener Einsatz von KI-Systemen betrifft die Einschätzung des Risikos, straffällig zu werden oder erneut straffällig zu werden. Solche Systeme nutzen Algorithmen, um das Verhalten von Einzelpersonen zu analysieren und Prognosen über zukünftige Straftaten zu treffen. Allerdings besteht die Gefahr, dass solche Vorhersagen auf Vorurteilen und Diskriminierung basieren und somit die Ungleichheiten im Strafjustizsystem verstärken könnten.

Eine Gruppe von hochriskanten KI-Systemen weist ein erhebliches Risiko auf, indem sie die Gesundheit, Sicherheit und Grundrechte von Personen gefährden oder eine potenzielle Bedrohung für die Umwelt darstellen. Um eine Orientierungshilfe für Unternehmen bereitzustellen, hat der Gesetzesentwurf im Anhang III acht Kategorien solcher Systeme aufgeführt, die als Referenz dienen können, aber auch der Änderung durch die Kommission unterliegen.

Damit rechtswidrige Inhalte vermieden werden, müssen KI-Systeme Maßnahmen ergreifen, um ihre Verbreitung zu unterbinden. Dies erfordert eine sorgfältige Überwachung und Filterung von Inhalten, um sicherzustellen, dass keine gesetzeswidrigen oder schädlichen Informationen durch die KI generiert oder verbreitet werden.

Im aktuellen Gesetzesentwurf werden nur wenige Beschränkungen für Künstliche Intelligenz vorgeschlagen, die als geringfügiges oder vernachlässigbares Risiko eingestuft wird. Diese KI-Systeme müssen lediglich bestimmte allgemeine Grundsätze einhalten, darunter die Gewährleistung menschlicher Kontrolle und Überwachung, technische Robustheit, Schutz vor Schäden und Cyberangriffen, Einhaltung der Datenschutzgrundsätze sowie die Verhinderung von Diskriminierung.

Um den Fortschritt in der KI-Forschung zu fördern, wird vorgeschlagen, bestimmte Ausnahmen zu ermöglichen, wobei ein Schwerpunkt auf der Unterstützung von Reallaboren liegt. Dies erlaubt den Behörden, KI-Anwendungen unter realen Bedingungen zu testen und dadurch praktische Erfahrungen zu sammeln sowie eventuelle Schwierigkeiten oder Risiken zu identifizieren.

Der AI Act, ein wegweisendes Gesetz zur Regulierung von KI-Systemen, bietet signifikante Vorteile für den Schutz der Privatsphäre und Sicherheit der Menschen. Indem es den Einsatz von KI-Systemen mit bedenklichen Praktiken einschränkt und verbietet, stellt es sicher, dass KI den europäischen Werten entspricht und unter menschlicher Aufsicht steht. Unternehmen sollten frühzeitig prüfen, ob ihre eigenen Systeme den Anforderungen der Verordnung entsprechen, um empfindliche Geldbußen zu vermeiden. Obwohl die Verordnung erst voraussichtlich ab 2026 vollständig in Kraft treten wird, sollten Unternehmen bereits jetzt ihre KI-Systeme auf Konformität prüfen und gegebenenfalls anpassen.

Lassen Sie eine Antwort hier