X

Bildanalyse-KI täuschen:
Das ist keine Waffe, es ist ein Hubschrauber

Computer haben bei der Mustererkennung dank neuester KI-Algorithmen rasante Fortschritte gemacht, nähern sich den menschlichen Fähigkeiten aber auch darin an, wie anfällig sie gegenüber optischen Täuschungen sind. Das kann sich in verschiedenen Bereichen zu einem durchaus nicht zu verachtenden Problem entwickeln.
Public Domain
27.12.2017  11:20 Uhr
Über die letzten Jahre hinweg haben die in der KI-Forschung führenden Unternehmen immer wieder stolz ihre Fortschritte präsentiert. Computer sind so heute in der Lage, binnen kürzester Zeit Personen zu erkennen, riesige Videoarchive auf das Auftauchen bestimmter Gegenstände zu durchsuchen und vieles mehr. Wirklich spannend dürfte daher inzwischen eher die Frage sein, an welchen Stellen die Systeme zuverlässig scheitern. Eines der unzweifelhaft besten Systeme zur maschinellen Bildanalyse ist Googles Cloud Vision. Daher haben sich Forscher der renommierten Technologie-Universität MIT dieses System vorgenommen und erfolgreich mit optischen Täuschungen attackiert. Und dabei sind sie inzwischen weit über Testläufe hinausgekommen, berichtet das US-Magazin Wired.

Es geht Richtung Praxis

Anfänglich wurden manipulierte Gegenstände in so genannten White Boxes gezeigt und man kannte weitgehend die Arbeitsweise eines Systems - so dass gezielte Täuschungen möglich waren. Allerdings war es eine weitaus höhere Herausforderung, auch in praxisorientierten Umfeldern Erfolge zu erzielen - und das auch noch mit realistischen Betrugsexperimenten.

In ihren aktuellen Publikationen zeigen die Forscher unter anderem, dass sie zumindest mit passenden Bildern unter Black Box-Bedingungen für eine Täuschung des Algorithmus sorgen können. Eine Ansammlung von Waffen wurde hier von der KI beispielsweise als Bild eines Hubschraubers identifiziert. Dabei hatte sich die Aufnahme für einen menschlichen Betrachter faktisch gar nicht verändert. Es reichte die Manipulation einiger entscheidender Pixel, um die Software in die Irre zu führen.

Bildanalyse-KI austricksen
Waffe...


Bildanalyse-KI austricksen
...oder Hubschrauber?

Die Manipulationen zeigen einen Weg auf, solche Betrugs-Verfahren auch für die Praxis entwickeln zu können. Hier kann dies gravierende Folgen haben. Es würde beispielsweise reichen, einer irgendwann einmal kommenden größeren Flotte von autonomen Fahrzeugen manipulierte Verkehrsschilder zu präsentieren - während die noch vorhandenen menschlichen Fahrer hier dann korrekt das Stop-Schild erkennen, meint die KI vielleicht eine Vorfahrsgewährung zu sehen.
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture