Jetzt auch mobil Kommentieren!

Microsoft will Künstliche Intelligenz nicht als Kriegswerkzeug sehen

Von Roland Quandt am 11.04.2018 11:11 Uhr
19 Kommentare
Microsoft macht sich nach eigenen Angaben viele Gedanken über einen ethisch einwandfreien Einsatz seiner Technologien aus dem Bereich der Künstlichen Intelligenz. Das Unternehmen lässt deshalb auch so manche Anfrage von Kunden abblitzen, weil man die Entwicklungen nicht im Kriegseinsatz oder anderen Anwendungsszenarien, die Menschen schaden könnten, sehen will.

Eric Horvitz, Technical Fellow und Director der Microsoft Research Labs erklärte laut GeekWire, anlässlich der an der Carnegie Mellon Universität abgehaltenen K&L Gates Conference on Ethics and AI in Pittsburgh im US-Bundesstaat Pennsylvania, dass man eigens ein Ethikkommittee eingeführt hat. Diese Gruppe habe einigen Einfluss darauf, an wen Microsoft seine Technologien verkauft.

Das als "Aether Committee" bezeichnete Gremium, dessen Name für "AI and Ethics in Engineering and Research" steht, sei mit einigem Aufwand aufgebaut worden und nun erfreulicherweise in der Lage auch mal Zähne zu zeigen. Die Experten prüfen, wie Microsofts KI-Technik von den Kunden verwendet werden könnte und geben dann Empfehlungen an die Führungsetage des Konzerns.

Ethik geht vor Umsatz

Dadurch seien bereits "bedeutsame Verkäufe abgeschnitten worden" oder bei anderen Verkaufsvorgängen diverse, sehr spezifische Beschränkungen in die vertraglich vereinbarten Nutzungsbedingungen eingeflossen. Dazu gehöre auch, dass Microsoft unter Umständen die Mustererkennung mit Hilfe von großen Datenmengen für Gesichtserkennung oder Erkennungsmaßnahmen untersage. Horvitz erwähnte zwar nicht, welche Kunden oder bestimmten Anwendungen ausgeschlossen werden, verwies aber auf Microsofts Respekt vor den Menschenrechten.

Microsoft versorgt seit rund einem Jahr Firmen- und Regierungskunden mit seinen Cloud-basierten "Cognitive Services", die unter anderem in der Lage sind, zur Erkennung von Gesichtern und Gefühlen eingesetzt zu werden. Als Beispiele für eine missbräuchliche Verwendung von Künstlicher Intelligenz nannte Horvitz unter anderem die Manipulation von Wahlergebnissen, die Verletzung von Menschenrechten, die Steigerung der Gefahr eines Todes oder ernsthafter Verletzungen sowie die Zurückhaltung von wichtigen Ressourcen und Diensten.

Offensichtlich will Microsoft also verhindern, dass durch seine Technologien Menschen zu Schaden kommen. Grundsätzlich solle Künstliche Intelligenz vor allem "ergänzend" zu menschlichen Entscheidungen beitragen, so der Manager. Das Ideal sei, Menschen und Maschinen zusammenarbeiten zu lassen, um die Technik zum Beispiel an Dinge denken zu lassen, die der Mensch nicht wisse.

In den nächsten Jahren werde es immer häufiger um die Entscheidung gehen, wann der richtige Zeitpunkt für die Einführung bestimmter KI-Technologien sei. Dabei gehe es auch darum, Neuerungen in stufenweise zu erweitertenden Tests zu erproben, die Ergebnisse in vollem Umfang zu untersuchen und letztlich gegebenenfalls in fehlerfreie neue Ansätze zu investieren.

Microsoft sei daher bemüht, "tote Winkel" beim Blick auf die möglichen Verwendungsweisen für seine KI-Technologien auszuschließen. Man müsse herausfinden, welche Dinge ein System möglicherweise im alltäglichen Einsatz "erlernt", an die man zuvor nicht gedacht habe.
whatsapp
Jede Woche neu: Top-News per E-Mail
19 Kommentare lesen & antworten
Verwandte Themen
Microsoft Research
Hoch © 2000 - 2018 WinFuture Impressum Datenschutz