Es geht Richtung Praxis
Anfänglich wurden manipulierte Gegenstände in so genannten White Boxes gezeigt und man kannte weitgehend die Arbeitsweise eines Systems - so dass gezielte Täuschungen möglich waren. Allerdings war es eine weitaus höhere Herausforderung, auch in praxisorientierten Umfeldern Erfolge zu erzielen - und das auch noch mit realistischen Betrugsexperimenten.In ihren aktuellen Publikationen zeigen die Forscher unter anderem, dass sie zumindest mit passenden Bildern unter Black Box-Bedingungen für eine Täuschung des Algorithmus sorgen können. Eine Ansammlung von Waffen wurde hier von der KI beispielsweise als Bild eines Hubschraubers identifiziert. Dabei hatte sich die Aufnahme für einen menschlichen Betrachter faktisch gar nicht verändert. Es reichte die Manipulation einiger entscheidender Pixel, um die Software in die Irre zu führen.
Waffe...
...oder Hubschrauber?
Die Manipulationen zeigen einen Weg auf, solche Betrugs-Verfahren auch für die Praxis entwickeln zu können. Hier kann dies gravierende Folgen haben. Es würde beispielsweise reichen, einer irgendwann einmal kommenden größeren Flotte von autonomen Fahrzeugen manipulierte Verkehrsschilder zu präsentieren - während die noch vorhandenen menschlichen Fahrer hier dann korrekt das Stop-Schild erkennen, meint die KI vielleicht eine Vorfahrsgewährung zu sehen.