Jetzt auch mobil Kommentieren!

Auch Apple hört mit: Siri zeichnet Gespräche und intime Momente auf

Von Tobias Rduch am 28.07.2019 10:07 Uhr
56 Kommentare
Erst vor wenigen Wochen wurde bekannt, dass neben dem Ver­sand­händ­ler Amazon auch Google Aufnahmen von seinem Assistenten anfertigen und permanent speichern lässt. Nun hat sich herausgestellt, dass Apple in Bezug auf die Sprachassistentin Siri ein ähnliches Verfahren nutzt.

Um die Spracherkennung zu verbessern, lässt der iPhone-Hersteller einen geringen Teil der aufgenommenen Gespräche von einem externen Unternehmen analysieren. Das Problem be­steht aber darin, dass die Nutzer nicht immer wissen, wann Siri ein Gespräch mit­schnei­det. Die Aufnahme soll eigentlich ausschließlich mit der bekannten Codephrase "Hey, Siri" ge­star­tet werden. In vielen Fällen erkennt das Gerät die Phrase jedoch fälschlicherweise, sodass Siri ohne die Zustimmung des Nutzers mithört. Dies kann nur dann verhindert werden, wenn die Aktivierung der Sprachassistentin durch das Codewort deaktiviert wird.

Dafür würden die Deutschen Siri, Alexa und Co. nutzen

Einem Bericht des Magazins The Guardian zufolge soll es vorgekommen sein, dass die beauftragten Analysten auch intime Momente der Nutzer zu hören bekommen haben, da sich Siri beispielsweise auch aktiviert, wenn eine verbundene Apple Watch bewegt und dabei Sprache registriert wird. Auch der Klang eines sich öffnenden Reißverschlusses soll für die Aktivierung bereits ausreichen. Dabei soll es sich um Gespräche beim Sex, bei Arztterminen und sogar bei Drogengeschäften han­deln. Apple hat bestätigt, dass die Sprach­da­tei­en zu Analysezwecken an Dritte ver­sen­det werden. Der Hersteller betont, dass die Aufzeichnungen völlig anonym sind und sich keiner speziellen Apple-ID zuordnen lassen.

Daten werden nicht anonymisiert

Die Quelle des Berichts, ein anonymer Whistleblower, sieht das komplett anders. Neben der Sprachaufnahme an sich werden von Apple auch der Standort des Geräts, Kontaktdaten des Nutzers sowie weitere Daten von aktiven Apps erfasst. Von einer Anonymisierung kann daher keine Rede sein. Im Gegensatz zu anderen Smart-Home-Geräten wie Amazons Alexa ist es bei Siri nicht möglich, die Auswertung der Daten zu untersagen. Der Dienst lässt sich le­dig­lich vollständig abschalten und damit selbstverständlich überhaupt nicht mehr verwenden.

Siehe auch:
whatsapp
Jede Woche neu: Top-News per E-Mail
56 Kommentare lesen & antworten
Verwandte Themen
Apple Smart Home iPhone Amazon Amazon Echo
Hoch © 2000 - 2019 WinFuture Impressum Datenschutz