X
Kommentare zu:

Auch Apple hört mit:
Siri zeichnet Gespräche und intime Momente auf

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] elektrosmoker am 28.07. 10:18
Nein! - Doch! - Ohh!
https://www.youtube.com/watch?v=w4aLThuU008
[o2] I.C.H. am 28.07. 10:18
+9 -2
Ich: Hallo Siri magst du Fi.....
Siri: Ach ne so wie du Gestern mit deiner Frau dran warst kein Bock! ;)

Soviel zum Datenschutz.
[re:1] moribund am 28.07. 12:29
+7 -1
@I.C.H.: Fischen gehen ist aber auch langweilig! ;)
[re:1] I.C.H. am 28.07. 13:05
+1 -5
@moribund: du bist ja auch unbedarft.... glückwunsch! :)
[re:1] moribund am 28.07. 16:27
+3 -1
@I.C.H.: Danke sehr! ^^
Ich bin sehr bemüht darum mir mein kindlich-naives Gemüt zu erhalten. :)
[o3] bigspid am 28.07. 10:25
+2 -2
Genügt es die Sprachaktivierung "Hey Siri" zu deaktivieren? Die hatte ich sowieso aufgrund dieses Verdachts nie genutzt. Aber per Knopf aktiviert nutze ich es schon. Da gibt es eigentlich keinen Grund mehr dass "ungefragt" mitgehört wird.
[re:1] Freddy2712 am 28.07. 16:06
+1 -3
@bigspid: Siri ist Siri ob Sprach oder Knopf beides Telefoniert mit Apple.
Da es Apple ist wird der Nutzer auch wenig an den Diensten Abstellen können solange das Gerät Online ist wird es mit Apple Telefonieren.
Sagen wir man kann den Dienst Komplett Deaktivieren wird auch dann wohl noch das Mikro Aktiv bleiben und nach Hause Telefonieren wie auch bei Google.
[re:1] bigspid am 28.07. 16:35
+2 -1
@Freddy2712: Mir geht es mehr darum, dass das Mikrofon ja von den Geräten nur dann aktiviert wird, wenn ein Trigger dazu kommt. Ohne "Hey Siri" braucht das Mikrofon ja nicht aktiv zu bleiben, da es nie durch einen Sprachbefehl geweckt werden muss. Es gibt keinen Grund, dass Siri irgendwas mithört, solange der Knopf nicht gedrückt wird. Mich würde interessieren, ob dann trotzdem "grundlos" das Mikrofon daueraktiv ist.

Siri lässt sich aber auch komplett abschalten unter den Einstellungen, wenn "Hey Siri" und Siri per Tastendruck deaktiviert wird.
[re:1] Elek am 29.07. 10:48
+ -1
@bigspid: Ich hatte es von anfang an komplett abschalten.Da ich es nicht brauchte
[re:2] Nunk-Junge am 29.07. 11:11
+1 -1
@bigspid: ähm, ... Das Mikrofon erst aktivieren, nachdem es mit "Hey Siri" getriggert wurde??? Wie soll das Handy auf "Hey Siri" hören ohne Mikrofon?
[re:1] bigspid am 30.07. 01:09
+ -2
@Nunk-Junge: Lies nochmal genau, OHNE "Hey Siri" aktiv, braucht das Mikrofon vorher nicht aktiv gewesen zu sein. Daher hab ich die Funktion immer abgeschaltet. Ich brauch kein Gerät, was dauernd mithört und zur Auswertung die Daten "nach Hause" senden muss.
Eine Sprachsteuerung die lokal liegt und nicht in der Cloud wäre aber eine Option.
[o4] Futurestar am 28.07. 10:36
+9 -2
Ganz ehrlich, die News ist keine Überraschung.
Nach dem Alexa-Skandal, warum nicht auch Siri aber was soll schon groß passieren, abgehört wird man von überall auch wenn es nicht so deutlich gemacht wird.
[o5] bebe1231 am 28.07. 10:54
+2 -4
Als wäre Siri und Alexa die einzigen. Wer Sprachkommandos auf dem Mobiltelefon aktiviert hat, hat dasselbe Problem. Denke die Gespräche sind noch viel interessanter, da das Mobiltelefon nie weit weg ist.
[re:1] JennyS am 28.07. 11:39
@bebe1231: aber nur apple wirbt mit "was auf deinem iPhone passiert bleibt auf deinem iPhone". Ist ja klar, dass diese Daten ausgewertet werden, aber nur Apple ist so dreist und tut in der Werbung so als täten sie es nicht. Die sollten mal ein paar hundert Mrd Strafe in der EU zahlen
[re:1] topsi.kret am 28.07. 18:02
@JennyS: DA die aufgezeichneten und ausgwerteten Sprachschnipsel NICHT mit der Apple-ID verknüpft sind (laut Stellungsnahmen Apple, es steht Dir frei, das gegenteil zu beweisen), ist dem Datenschutz Rechnung getragen. Macht die Sache zwar nicht unbedingt besser, entkräftet aber Deinen Vorwurf.
[re:1] floerido am 29.07. 00:38
+3 -1
@topsi.kret: Gerade der letzte Absatz hier sagt ja, dass die Daten eben nicht anonymisiert verarbeitet werden. Die Apple ID ist nicht das einzige identifizierende Merkmal.
Und diese zusätzlichen Daten sind auch Glaubhaft, weil für eine bessere Bewertung der "False Positves" muss man natürlich auch den Kontext kennen.
[re:1] topsi.kret am 29.07. 01:06
+1 -7
@floerido: Du hast sicherlich keine Probleme damit, Deine Aussage zu untermauern.
[re:2] bebe1231 am 29.07. 04:36
+4 -1
@topsi.kret: Zitat: .."Neben der Sprachaufnahme an sich werden von Apple auch der Standort des Geräts, Kontaktdaten des Nutzers sowie weitere Daten von aktiven Apps erfasst...."

Was verstehst du unter "Kontaktdaten des Nutzers"?
[re:3] topsi.kret am 29.07. 04:39
+1 -6
@bebe1231: Was verstehst DU an "untermauern" nicht?
[re:4] bebe1231 am 29.07. 04:49
+6 -1
@topsi.kret: Du kannst auch dirket mal anzweifeln, dass überhaupt Mitschnitte gemacht werden und an dritte weitergegeben werden. Ist ja auch nicht "untermauert". Apple scheint dir schon heilig zu sein.
[re:5] SUZChakuza am 29.07. 11:17
+1 -2
@bebe1231: Naja das sind nur Informationen eines "Whisteblowers" also irgendeiner Person die sowas behauptet ohne fundierte Beweise auf den Tisch zu legen. Mag ja sein das diese Person recht hat, aber solange dies nicht bewiesen wurde, ist diese Information soviel Wert wie ein Artikel aus der Bild Zeitung oder ein "Neutraler Auto Testbericht" aus der Autobild.
[re:6] floerido am 29.07. 13:46
+3 -
@topsi.kret:
Apple ID nicht einzige identifizierende Merkmal - Im Artikel können auch Kontaktinfos oder GPS-Daten verwendet werden, diese sind auch identifizierend. Übrigens mit der AGB abgedeckt, weshalb u.a. der AppStore eine Rüge vor einem deutschen Gericht, wegen Datenschutzverstößen erhalten hat.
Siehe: https://www.heise.de/mac-and-i/meldung/Apple-Datenschutzrichtlinie-ist-groesstenteils-rechtswidrig-4316486.html

Erfahrungen aus der Software Entwicklung sagen wir, dass man zum debuggen möglichst alle Rahmenbedingungen kennen sollte. Aber das steht ja leider nicht in der Verhaltensfibel für Apple-Entwickler, die anscheint als einzige Belegbare Quelle dient. Aber es gab schon Vorfälle, bei denen Apple App-Entwicklern erweiterten Zugriff auf Nutzerdaten geben hat, damit sie ihre Programme verbessern. Bei Apple findet es somit wahrscheinlich auch nötig, zum debuggen viele Daten zu haben.
Siehe: https://winfuture.de/news,99970.html
[re:7] topsi.kret am 29.07. 21:08
+ -3
@bebe1231: Du kannst gerne Schwarz/Weiß denken, aber ohne mich.
[re:2] HArL.E.kin am 28.07. 18:48
+2 -4
@JennyS: Siri passiert nun mal aber nicht auf dem Gerät, sondern übers Netz!
[re:3] Stefan1 am 28.07. 21:29
+4 -1
@JennyS:

Vollkommen richtig, zumal im August 2018 von Apple noch gesagt wurde, dass eben keine unabsichtlichen Sprachaufnahmen mitgeschnitten werden.

"Apple hat gestern gegenüber US-Politikern erklärt, dass definitiv keine unerwünschte Erfassung von Sprachdaten durch die für den Sprachassistenten Siri verwendeten Mikrofone erfolgt - und keine Aufnahmen ohne Wissen des Nutzers an das Unternehmen geschickt werden."

https://winfuture.de/news,104461.html
[re:1] Mobius1991 am 28.07. 22:13
+1 -6
@Stefan1: Entweder verstehe ich das Thema vollständig anders, aber ich finde um das ganze Thema wird wieder vollständig aufgebauscht. Wie du eben zitierst hast, hat Apple doch recht. Es werden ja keine "unerwünschte" Gespräche an Apple verschickt. Es werden ja nur Sprachdaten verschickt, sobald das Aktivierungswort gesprochen, oder fehlerhaft erkannt wird. Bei Alexa kann man den Unterscheid aber deutlich besser sehen.

Wenn Siri nun ihr Aktivierungswort erkennt (fehlerhaft oder nicht), wird das gesprochene an Apple verschickt, ausgewertet und eine Aktivität erfolgt. Das ist ja die genaue Funktion von Siri. Auch mir ist es schon passiert, das ein Hey Siri erkannt wurde, obwohl ich es nicht in dem Mund genommen habe. Klar, nun wird natürlich mein Satz an Apple geschickt und meistens erhalte ich dann ein "das habe ich nicht erkannt" oder "Im Internet habe ich folgendes zu ... gefunden". Dies ist nun jetzt der Fall, wo es im Artikel drüber geht. Es ist zwar nicht die gewünschte Funktion, aber geht beim iPhone meistens (bei mir, ich könnte mich aber auch irren) eher selten heimlich vor, da Siri meistens zu viel redet ;)

Bei der Apple Watch ist dies wirklich schon deutlich einfacher, das Siri durch eine Armbewegung aktiviert wurde. Kann vermutlich passieren, aber bei MIR eher noch nicht passiert. Meistens reagiert sie für meinen Geschmack etwas zu selten.

Beim Thema Alexa hatte ich bis vor zwei Wochen noch die gleiche Meinung wie bei Siri. Wir haben in der Küche eine Sonos One mit Alexa stehen. Nach meinem Geschmack reagiert Alexa deutlich öfter und auch fehleranfälliger dan Siri. Wenn die One das Aktivierungswort Alexa (oder auch Alexa und Wörter die entfernt wie Alexa klingen) regiert diese und ein hörbares Bling wird abgespielt. Als Unterschied zu Siri redet Alexa deutlich seltener bei einer Fehlerhaften Erkennung zurück. Nun kommen wir hier aber zum Problem. Im Gästezimmer haben wir seid kurzem einen günstigen Echo Dot stehen. Bei diesem kann ich die Kritik vom Artikel vollkommen verstehen! Auf dem Dot ist kein Bling hörbar. Auf diesem Gerät würde ich überhaupt nicht mitbekommen, ob das Gerät gerade lauscht (falsch erkanntes Aktivierungswort). Nur wenn ich auf dem Gerät drauf schaue, würde ich halt eine leuchtende LED sehen.

Das für die Verbesserung von Spracherkennung von den Firmen, auch Daten aus dem Feld ausgewertet werden müssen, sollte nun niemanden überraschen. Ich gehe davon aus, das die Mitarbeiter dem Gespräch lauschen und prüfen, ob Siri, Alexa und Google den Satz korrekt erkannt haben.
[re:1] Stefan1 am 28.07. 23:31
+3 -
@Mobius1991:

Dann lies Dir doch beide Beiträge zum Verständnis vollständig durch.
Ich helfe Dir gerne ein wenig dabei:

August 2018:
"Apple hat gestern gegenüber US-Politikern erklärt, dass definitiv keine unerwünschte Erfassung von Sprachdaten durch die für den Sprachassistenten Siri verwendeten Mikrofone erfolgt - und keine Aufnahmen ohne Wissen des Nutzers an das Unternehmen geschickt werden."

"Der für die Beziehungen von Apple zu Bundesbehörden der USA zuständige Manager Timothy Powderly erklärte, dass die Geräte bei der dauerhaften Aktivierung der Mikrofone zur Erfassung von Trigger-Worten für das "Aufwecken" der Sprachassistenten keinerlei Audiodaten aufzeichnen würden."

"Darüber hinaus wies Apple jede Verantwortung für die weitere Verarbeitung von Audiodaten durch die Anbieter von Drittpartei-Apps zurück."

Juli 2019
"Das Problem be­steht aber darin, dass die Nutzer nicht immer wissen, wann Siri ein Gespräch mit­schnei­det."

"In vielen Fällen erkennt das Gerät die Phrase jedoch fälschlicherweise, sodass Siri ohne die Zustimmung des Nutzers mithört."

"Apple hat bestätigt, dass die Sprach­da­tei­en zu Analysezwecken an Dritte ver­sen­det werden."
[re:3] Bloodsaw am 29.07. 06:02
+6 -1
@Mobius1991: Apple ist keinen Deut besser als Amazon oder Google.
Apple ist in meinen Augen sogar noch schlimmer. Apple macht explizit Werbung mit Datenschutz und wiederholt wurde nachgewiesen dass das nicht stimmt.

Das schlimme bei der Daten-Weitergabe ist, das dies nicht anonymisiert passiert. Aber für dich ist Apple ja besser als Amazon oder Google. Wann versteht ihr endlich das die Firmen mit solchen Services immer die Daten abgreifen, egal ob zur Analyse oder Weiterentwicklung, ansonsten würden diese Services nicht so funktionieren wie sie es tun.
[re:4] KoA am 28.07. 22:16
+2 -5
@JennyS: "aber nur apple wirbt mit "was auf deinem iPhone passiert bleibt auf deinem iPhone"."

Diese Behauptung ist ja mal wieder schön aus den Fingern gesogen! Schon allein die Sprach-Daten bei einem Telefonat, oder die Daten für die Navigation verlassen das iPhone ganz offiziell. Selbes gilt selbstverständlich derzeit auch noch ganz offiziell für die Sprachdaten von Siri! Diesbezüglich hat Apple **nie** etwas anderes behauptet!

Und ganz davon abgesehen, wenn Siri aktiviert wird, egal ob gewollt oder ungewollt, ertönt eigentlich immer ein Signalton. Somit erfolgt die ungewollte Aktivierung bzw. Aufnahme auch nicht - wie hier suggeriert wird - heimlich.
[re:1] floerido am 29.07. 00:30
+4 -1
@KoA: Apple hat zur CES eine entsprechenden Werbebanner genutzt.
https://9to5mac.com/2019/01/05/apple-privacy-billboard-vegas-ces/

Wenn man jetzt sagt, die Daten bleiben ja nur auf dem iPhone, wenn es offline ist, dann kann man das aber auch über jede andere Marke sagen.
[re:1] KoA am 29.07. 10:37
+ -2
@floerido: "Apple hat zur CES eine entsprechenden Werbebanner genutzt.
https://9to5mac.com/2019/01/05/apple-privacy-billboard-vegas-ces/"

Auf dem Banner steht doch wohl ganz klar: "Was auf Deinem iPhone passiert, bleibt auf Deinem iPhone".

Apple hat in diesem Bezug aber tatsächlich nie ein Geheimnis daraus gemacht, dass Siri entsprechende Sprachdaten an externe Server sendet, um diese dort verarbeiten und entsprechende Antworten generieren zu können. Demzufolge zählen diese Daten logischerweise nicht zu denen, die auf dem iPhone entstehen und verbleiben.
Somit steht die betreffende Aussage auf dem Werbebanner eben auch nicht ansatzweise im Widerspruch zur Handhabung bezüglich der Siri-Daten, wie "JennyS" oben zu suggerieren versucht.
[re:2] floerido am 29.07. 13:24
+1 -1
@KoA: Dann ist das Werbebanner eben täuschende Werbung. Da ist nirgendwo ein Sternchen mit dem Hinweis, bis auf externe Datenservices. In den USA, wo auf einem Kaffeebecher "heiß" stehen muss, ist das eigentlich zu erwarten.

Aber wollen wir mal nicht so sein und interpretieren "auf einem iPhone" als, "bleibt bei Apple", wobei man sich dann auch nicht über Google aufregen sollte. Selbst das wird mit den Aussagen im letzten Absatz gebrochen und da ist das Skandalöse.
[re:3] KoA am 29.07. 14:56
+ -1
@floerido: "Dann ist das Werbebanner eben täuschende Werbung."

Definitiv nicht! :) Mach dir ganz einfach mal bewusst, dass sich Siri und entsprechende Sprachdaten nicht ansatzweise auf einem iPhone befinden, dort gespeichert und vorgehalten werden, ebenso wenig wie zugehörige Antworten. Das Ganze passiert lediglich in der Cloud und nicht etwa auf dem iPhone - wie von einigen fälschlicherweise vermutet. Somit widerspricht Siri als externer Dienst auch nicht Ansatzweise der inhaltlichen Aussage von Apples Werbebotschaft.
Und von wegen "Sternchen" und/oder eigener Interpretation...

Apple hat im Werbebanner sicher nicht ohne Grund auf apple.com/privacy hingewiesen. ;)
[o6] Bjorn_Maurer am 28.07. 11:27
+4 -5
Kritik und Empörung sind natürlich absolut berechtigt! Aber man sollte auch verstehen worum es dabei geht: Die Asisstenen sollen möglichst lernen einen natürlich im Raum gesprochenen Sprachbefehl richtig zu erkennen. Nachdem der User "Alexa" gesagt hat, ist es in 95% der Fälle nicht mehr die natürliche Sprache. Man spricht in Richtung des Echo, betont seine Aussprache und wählt die Worte mit Bedacht. Und genau das soll ja nicht die Voraussetzung zur Erkennung sein, Alexa sollte auch ein in die falsche Richtung genuscheltes "Alexa knips die olle Leuchte an" richtig analysieren( Auch Till Schwaiger sollte den Echo nutzen können). Und dafür eignen sich eben ahnungslose Probanten am besten, und natürlich müssen diese Aufnahmen auch von Menschen kontrolliert werden, ob das Richtige erkannt wurde, oder was da falsch erkannt wurde. Ebenso sind dafür die Ortsdaten wichtig, wird zB ein Befehl in Niedersachsen nicht erkannt, ist der Grund evtl ein anderer, als wenn einer aus dem tiefsten Sachsen oder Bayern was sagt. Wie gesagt, Kritik ist richtig, und die Anbieter sollten mit offenen Karten spielen. Würde Amazon anbieten diese Analyse zu erlauben, wenn man dafür Prime kostenlos bekommt, würden sich wohl genug Leute finden.
[re:1] starchildx am 28.07. 12:05
+6 -
@Bjorn_Maurer: Das ist hier bei Winfuture glaub ich jedem klar warum das gemacht wird. Es geht aber um die Tatsache WIE es gemacht wird. Wenn mir Apple eine Nachricht schreibt, dass die das machen wollen und FREIWILLIGE suche, entweder gratis oder die schenken dir 2-3 Monaten Apple Music oder sonst was, dann wurde ich darüber nachdenken. Aber so bist du der unbezahlte Betatester von Apple und irgendjemand geht heute Abend heim und erzählt seinem Lebensgefährten was für Idioten in z.B. Niedersachsen leben.
[re:1] Bjorn_Maurer am 28.07. 12:14
+4 -4
@starchildx: Zum letzten Satz: Weisst Du, an welchem Tisch in der Kantine einer Versicherung am meisten Leute sitzen?? Da, wo die Kollegen aus der Schadensbearbeitung sitzen. " Bei Tempo 180 hat sich der Baum vom Strassenrand direkt vor mein Auto gesaugt, daher kam es zum Unfall" Und die halbe Kantine lacht, dazu noch die Bemerkung "Und so einer kommt natürlich aus Leer". Das ist genau das gleiche wie bei den Apple/Amazon Mitarbeitern, die erzählen ihren Kollegen auch nur witzige Erlebnisse. Aber das wird auch genauso schnell vergessen. Was glaubst Du, was passiert wenn der Sohn deines Nachbarn eine Ausbildung in deiner Bank macht?? Logisch schaut er sich deinen Kontostand an und lacht über die 4 Bestellungen bei Eis-de, aber auch das wird für ihn Routine und reicht dann nur noch zum kurzen Gag zwischen Kollegen.So sind Menschen eben, und wohl auch Du selber.
[re:1] starchildx am 28.07. 12:18
+6 -
@Bjorn_Maurer: Ja und weil es scheinbar alle machen ist es dann ok? Einfach laufen lassen? Schaffen wir jetzt die Polizei mit ab weil sich eh kaum jemand an all die blöden Gesetze hält? Und können wir bitte die persönliche Ebene rauslassen? Ich glaub kaum dass du mich kennst und auch nur irgendwie darüber Urteilen kannst.
[re:1] Bjorn_Maurer am 28.07. 12:21
+1 -5
@starchildx: Was hat das damit zu tun?? Der Einzige der Interna nach Außen getragen hat, ist der angebliche Whistleblower. oder kennst Du ein Forum im Netz, wo Amazon/Apple Mitarbeiter Gesprächsmitschnitte veröffentlichen? Ich kenne dich nicht, aber auch Du wirst gerne mal Lästern oder was gehörtes weitererzählen.
[re:2] AlfredK1 am 28.07. 13:26
+1 -3
@Bjorn_Maurer: begreife nicht warum du dafür Minuse kassierst. Da hast du aber vollkommen recht. Was glaubst du was ein Postbote alles über die Empfänger weiß. Da würde dir die kinlade runterklappen. Oder das beispiel mit der Bank. Wenn dein Nachbar bei deiner Bank Arbeitet oder ein freund von Dir, dann kanst du dir sicher sein, das er guckt was du so verdienst und ausgibst.

Es kann mir auch keiner sagen das es nicht geht. Ein ehemaliger Klassenkamerat hat bei der Sparkasse seine lehre gemacht und als erstes hat er geschüffelt. Er war leider nur so dumm und hat damit geprahlt. Was dann passiert ist kann sich ja jeder denken.

Jeder schleppt sein Smartphone mit durch die gegend und nutzt Google oder Apple dienste. Oder nutzt Amazon dienste. Aber es wird sich darüber aufgeregt, das Alexa und Co. eure langweiligen gespräche mitbekommen. Dabei wissen alle Unternehmen doch schon mehr von euch als euch lieb ist. Wer das nicht will, muss das Internet meiden und wieder zu einem Handy aus den 90ern greifen.
[o7] mTw|krafti am 28.07. 12:27
+7 -7
Wer den rotz nutzt, ist halt auch selbst schuld.
[re:1] deischatten am 29.07. 06:49
+1 -3
@mTw|krafti: Frage ist eher wer Nutzt es nicht. Alexa, Siri, Cortana, Bixby, google und so weiter :)
[re:1] Kobold-HH am 29.07. 08:04
+1 -3
@deischatten: Ich z.B. - Ein aktives Microfon kommt mir nicht ins Haus. Auch kein "Smarthome" für die Haustür.
Was die STASI früher mit gewalt in die Wohnungen brachte, holen sich die Dummen heute freiwillig ins Haus.
[re:1] deischatten am 29.07. 08:40
+1 -2
@Kobold-HH: Kein Handy, SmartTV und nichts? Wäre mir dann zu blöd um ehrlich zu sein
[re:1] Kobold-HH am 29.07. 09:21
+1 -1
@deischatten: Handy ja. Aber das Teil liegt mit sicherheit nicht im Schlafzimmer. Smart-TV? Niemals! Dafür gibt es HTPC auf denen ich der Admin bin. Kein TV-Gerät benötigt ein Micro was mit dem Internet verbunden ist.
[re:2] Nunk-Junge am 29.07. 11:21
+1 -1
@Kobold-HH: Du hast ein Smartphone und damit ein Microfon. Ob es aktiv ist, kannst Du gar nicht erkennen. Und in einer ruhigen Wohnung bei Nacht kann man durchaus noch Gespräche aus dem Nachbarraum mithören. Und was nützt Dir ein Rechner auf dem Du Admin bist, wenn Du nicht die Treiber für Kamera und Mikrofon, sowie alle Anwendungen selber verifiziert hast? Gar nichts. Gefühlte Sicherheit ist nicht unbedingt wirklich sicher.
[re:1] Kobold-HH am 29.07. 11:34
+ -2
@Nunk-Junge: Ein HTPC hat weder Cam noch Micro. Das nützt mir sehr viel. Und sogar bei einem Notebook kann man die kleinen Kabel abziehen und es definitv tot legen.
[o8] Ryou-sama am 28.07. 12:29
War ja klar, dass es Apple mit dem Datenschutz selbstverständlich auch nicht ernst nimmt. Apple muss ja etwas sammeln um Siri fortlaufend zu verbessern, ansonsten wäre es schwer sich gegen Alexa und Google Assistent auf Dauer zu behaupten. Die armen Apple-Fanboys. Sie kommen immer wieder mit dem Datenschutz-Argument, wenn es um Diskussionen zwischen Android und iOS kommt. Mal sehen welches KO-Kriterium sie als nächstes angehen.
[o9] Islander am 28.07. 13:14
+4 -3
Ist definitiv ein interessantes Thema gerade im Bezug auf die neueste Straßenwerbung von Apple. Wobei es eigentlich Sinn macht. Siri ist den anderen Sprachassistenten um einiges hinterher, in vielen Fällen eigentlich einfach unbrauchbar (ich liebe es, wenn ich einen Eintrag für die Einkaufsliste auf einmal nach Wochen in einer ganz anderen Liste wiederfinde). Also muss es verbessert werden. Das geht nur durch Auswertungen.

Im Prinzip weiß jeder, die Daten werden zu Apple geschickt, immerhin steht das groß und breit auf dem Display wenn man Siri aktiviert. Man geht aber davon aus, dass es anonymisiert geschieht und die Daten nur so lang wie wirklich nötig gespeichert werden, das ist eigentlich der große Unterschied zu den anderen Assistenten (bei Google zumindest wird nix anonymisiert und gelöscht auch nicht).

Der heikle Teil ist der, den der Whisteblower am Ende behauptet, dass die Daten, die an externe Mitarbeiter geschickt werden, persönliche Daten enthalten (von dem Gesprochenen abgesehen, logischerweise). Ist das so? DAS wäre der eigentliche Skandal, denn genau das ist angeblich ja nicht der Fall. Aber nochmal: ist das auch so?
[re:2] Bloodsaw am 29.07. 06:11
+2 -1
@Islander: Du hast dir die Frage eigentlich schon selber beantwortet.
Du schreibst ja das man Daten analysieren und auswerten muss um den Dienst zu verbessern. Bei keinem Anbieter wird anonymisiert, gelöscht wird auf Antrag hingegen nur bei Google und Amazon, bei Apple hast du ja noch nicht mal einen Einblick was die alles von dir haben.

Warum kann der Dienst nicht anonymisiert ausgewertet werden? Ganz einfach, man muss doch schauen wobei, wo oder wodurch er getriggert wurde. Ob falsch oder richtig etwas erkannt wurde. Dafür benötigt man nunmal App-Daten, GPS, Kontakte usw. Es kann ja keiner Hellsehen was do vor hattest oder nicht vor hattest.
Wie willst du denn ansonsten die Assistenten verbessern oder bei Fehlfunktionen fixen? Apple nutzt nicht nur für Siri deine Daten. Was meint ihr denn wie geforscht wird? Jede App usw wird vom Nutzungsverhalten ausgewertet.
[re:3] Nunk-Junge am 29.07. 12:21
+2 -
@Islander: "Daten, die an externe Mitarbeiter geschickt werden, persönliche Daten enthalten" - Das Gesprochene enthält logischerweise personenbezogene Daten (hast Du ja auch geschrieben). Spannenderweise wird dabei auch in privaten Wohnungen aufgezeichnet, die nach dem Grundgesetz Art. 13 besonders geschützt ist. Und wenn man sich die Datenschutzerklärung von Apple anschaut: https://www.apple.com/legal/privacy/de-ww/ dann kann jeder Datenschützer nur Lachkrämpfe bekommen. Zu behaupten, Beruf oder "Kundenaktivitäten auf unserer Website, in iCloud-Diensten, im iTunes Store, ..." oder noch besser "Wir erheben und speichern gegebenenfalls nähere Angaben darüber, wie Sie unsere Dienste nutzen, unter anderem auch Suchanfragen." wären keine personenbezogenen Daten, das ist schon absurd. Und wenn man weiterliest, dann steht klar drin, dass sie Daten fröhlich an viele andere Firmen weitergeben. Was dort so schön klingt, ist meistens einfach nur die gesetzliche Vorgabe.
[re:4] KoA am 29.07. 13:00
+ -1
@Islander: "Der heikle Teil ist der, den der Whisteblower am Ende behauptet, dass die Daten, die an externe Mitarbeiter geschickt werden, persönliche Daten enthalten (von dem Gesprochenen abgesehen, logischerweise). Ist das so? [...] nochmal: ist das auch so?"

Das scheint hier einer der seltenen Momente zu sein, in dem jemand mal die richtigen bzw. entscheidenden Fragen stellt. :)

Guter Journalismus zeichnet sich ja eigentlich u.a. dadurch aus, dass in solchen Fällen die entsprechenden Informationen mittels Beweismaterial möglichst sorgsam auf ihren Wahrheitsgehalt überprüft wurden, bevor diese an die Öffentlichkeit gebracht werden. Doch weder "The Guardian", noch "WinFuture" liefern für diese brisanten Anschuldigungen entsprechende Beweise. Sie berufen sich lediglich auf bloße Behauptungen eines sogenannten "anonymen Whistleblower". Wie "seriös" das Ganze dadurch erscheint, muss man an dieser Stelle wohl nicht noch explizit erwähnen. ;)
Dass Apple Siri-Daten teilweise analysiert (mithört), ist hier ja nun wirklich nichts Neues und darum auch keine News-Meldung wert, auch wenn die obige Headline hier mal wieder etwas anderes suggeriert! :)
[10] happy_dogshit am 28.07. 14:58
+5 -1
Blasphemie! Apple macht sowas nicht!!!
[11] Freddy2712 am 28.07. 16:09
+1 -3
Von Skandalen zu Sprechen ist der Skandal wer solch Funktionen will wird auch mit der Überwachung leben müssen, ist ja auch Logisch solche Funktionen müssen Permanent Mithören um auf das Kommando Reagieren zu können.
Die Permanente Daten nach Hause ist eher das Problem was aber schon zwecks der nötigen Erkennungsgenauigkeit gar nicht anders geht.
Es soll halt bei jedem Funktionieren selbst wenn durch Behinderung die Sprache nicht der Norm Entspricht.
[re:1] floerido am 28.07. 17:54
+2 -1
@Freddy2712: Gegen die automatisierte Auswertung wird hier ja nicht gesprochen, dass skandalisierte Thema ist die menschliche Auswertung mit zusätzlichen identifizierenden Inhalten.
[re:2] Bloodsaw am 29.07. 06:13
+4 -3
@Freddy2712: Der Skandal ist das Apple behauptet solche Auswertungen nicht durchzuführen. Apple wirbt ja mit hoher Datensicherheit, dabei ist das auch nur gelogen und Marketing-Blabla.
[12] Fanta2204 am 28.07. 19:37
+1 -2
So etwas hievt mich nicht wirklich aus dem Socken. Das diese Sprachassistenten auch als Wanzen fungieren können, sollte doch jedem klar sein. Ich benutze Google Mini, aber schalte es nur ein, falls ich mal auf die schnelle brauche. Ansonsten ist das Teil vom Strom getrennt.
[re:1] Ryou-sama am 28.07. 21:15
+2 -2
@Fanta2204: Schaltest es nur ein wenn du es "auf die Schnelle" brauchst und bist gewillt 1-2 Minuten fürs Hochfahren zu warten, um deine Frage zu stellen? Was ist daran schnell? In der Zeit hätte dir dein Smartphone die Frage 5x beantwortet.
[13] Zonediver am 28.07. 22:24
+4 -3
Apple und der Datenschutz - NICHT! - WAAAAHAHA ;-)
Wer das geglaubt hat, glaubt auch, dass Zitronenfalter Zitronen falten ;-)
[re:1] Bloodsaw am 29.07. 06:14
+2 -2
@Zonediver: Trotzdem bleibt der Datenschutz das Argument der Apple-Fanboys. Wenn man hörig ist glaubt man halt alles.
[re:1] Zonediver am 29.07. 08:02
+2 -2
@Bloodsaw: Yep - so ist es...
[14] DON666 am 29.07. 09:36
+1 -1
Anscheinend gibt es immer noch genügend Menschen, die ernsthaft glauben, Apple koche mit etwas anderem als ganz ordinärem Wasser...
[15] mulatte am 29.07. 10:58
+2 -2
Der Saubermann Apple...... Wer das glaubt, naja.
Immer dieser Unfug den Sprachassistenten zu verbessern. Dafür könnte man Testpersonen nutzen die dafür bezahlt werden. Ne man nutzt lieber den User der damit zum unfreiwilligen Tester wird.
Wenn ich auf einem Smartphone mein Appicon nicht an eine Stelle schieben kann wohin ich will ohne das alles in einer Reihe ist, da stimmt doch schon grundsätzliches nicht. Man kann auch sagen, kein Wunder das dieses OS so wenig Marktanteil hat.
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture