Microsoft: Wir verkaufen keine Biometrie an die Polizei der USA

Von Christian Kahle am 12.06.2020 08:35 Uhr
8 Kommentare
Auch Microsoft wird für Polizeibehörden erst einmal nicht als Anbieter von Gesichtserkennungs-Technologien in Frage kommen. Die Redmonder schränken die Nutzungsmöglichkeiten ihrer KI-Technologie entsprechend ein.

Diese Entscheidung verkündete Microsoft-President Brad Smith im Zuge einer Veranstaltung der US-Tageszeitung Washington Post. Das Unternehmen folgt damit im Grunde vergleichbaren Entscheidungen, die zuvor schon von Amazon und IBM getroffen wurden. Bürgerrechtler hatten in den vergangenen Monaten immer wieder gefordert, die Technologie insbesondere aus dem Polizeialltag herauszuhalten - und im Zuge der jüngsten Protestwelle gegen rassistisches Handeln der Behörden wurden sie erhört.

Wie Smith ausführte, habe Microsoft bisher noch keine Biometrie-Systeme an Polizeibehörden verkauft. In Kalifornien habe man sich außerdem in einen Gesetzgebungsprozess eingebracht, mit dem klare Grenzen für den Einsatz solcher Technik definiert werden sollen. Nun hat man sich in Redmond entschieden, grundsätzlich erst liefern zu wollen, wenn die Einsatzbedingungen auf Bundesebene allgemeingültig klar formuliert sind.

Neutrale Technik ist eine Illusion

"Wir werden keine Gesichtserkennungs-Technologie an Polzeibehörden in den USA liefern, solange kein landesweites Recht in Kraft ist, das ihre Nutzung auf Basis der Menschenrechte reguliert", erklärte Smith. Im Unternehmen sollen eigene Prüf-Ebenen etabliert werden, die über alles bisherige hinaus genau beobachten, auf welche Weise bestimmte Produkte von staatlicher Seite angewandt werden.

Das Problem solcher Technologien wurde sehr schnell nach ihrer ersten Verfügbarkeit offenbar: Die Vorstellung, dass man es mit einer neutralen Technologie zu tun hat, musste schnell aufgegeben werden. Es zeigte sich ziemlich schnell, dass biometrische Systeme zur Gesichtserkennung mit ihren dahinterliegenden KI-Algorithmen beispielsweise rassistische Vorurteile der Menschen schnell und teils wesentlich offener reproduzieren.

Das Problem liegt darin, dass die hochgelobten Deep-Learning-Algorithmen eben nur so gut sind wie die Daten-Auswahl, mit denen sie trainiert werden. Da rassistische Vorurteile aber eben sehr tief in den weißen Mehrheitsgesellschaften der USA und auch Europas verankert sind, fließen diese unbewusst auch in das KI-Training ein. Verstärkend kommt noch hinzu, dass strukturelle Prägungen in der Gesellschaft verstärkend hinzukommen. Neutralität kann bei einer solchen Software also schlicht nicht erwartet werden.

Siehe auch:

8 Kommentare lesen & antworten
whatsapp
Jede Woche neu: Top-News per E-Mail
Verwandte Themen
Microsoft Corporation
Desktop-Version anzeigen
Hoch © 2000 - 2020 WinFuture Impressum Datenschutz