Apple setzt Programm aus, in dem Menschen die Siri-Abfragen der Benutzer überprüfen

Apple, Amazon und Google, sie alle bieten Sprachassistenten an. Alle Unternehmen gaben mittlerweile auch an, dass sie zur Verbesserung ihrer Dienste Dritte (anonymisierte) Inhalte hören lassen. Google wurde in Deutschland bereits gerüffelt und stellt bis zur weiteren Überprüfung des Sachverhaltes alle Tätigkeiten dieser Art in der EU für die kommenden drei Monate ein. Bei Apple, deren Verkaufs- und Werbe-Argument Privatsphäre ist, wiegt das Thema naturgemäß schwerer.

Nun setzt Apple das Programm, bei dem (wie bei den anderen Anbietern) ein winziger Bruchteil zur Verbesserung der Dienste ausgewertet wurde, weltweit aus. Es werden also keine menschlichen Nutzer mehr anonymisierte Siri-Anfragen hören können, um den digitalen Assistenten zu bewerten und zu verbessern. Apple wir das Programm später wieder aufnehmen, allerdings wird für den Nutzer klar ersichtlich sein: er wird, um teilnehmen zu können, aktiv zustimmen müssen.

„Während wir eine gründliche Überprüfung durchführen, setzen wir die Siri-Bewertung weltweit aus“, sagte Apple in einer Erklärung an Axios und teilte mit, dass es „sich verpflichtet fühlt, eine großartige Siri-Erfahrung zu bieten und gleichzeitig die Privatsphäre der Benutzer zu schützen“.

Apple sagte zuvor, dass weniger als 1% der Anfragen einer solchen Bewertung unterzogen wurden und dass sie in der Regel nur wenige Sekunden lang waren. Außerdem wurde gesagt, dass die Anfragen nicht an eine bestimmte Apple ID gebunden waren und dass die Zuhörer in sicheren Einrichtungen waren und den strengen Vertraulichkeitsregeln von Apple unterlagen.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

caschy

Hallo, ich bin Carsten! Baujahr 1977, Dortmunder im Norden, BVB-Getaufter und Gründer dieses Blogs. Auch zu finden bei Twitter, Facebook, Instagram und YouTube. PayPal-Kaffeespende. Mail: carsten@caschys.blog

Das könnte dir auch gefallen…

Mit dem Absenden eines Kommentars willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten ein.

10 Kommentare

  1. Wer A sagt muss auch B sagen. Ohne relevante Input-Daten kann es auch keine KI geben. Es wird wie immer, China und USA ganz vorne, EU streitet sich noch in 10 Jahren.

    • Nö, Apples Lösung ist gut und zeigt, daß man nich B sagen muß. USA und China sind auch ganz weit vorne beim Ausbeuten. Man sollte lernen zu unterscheiden, was für den Verbraucher gutvist und was für Konzerne.

      • Apples Lösung ist gut Daten an Dritte weiter zu geben? Das macht noch nicht mal Amazon. Ich finde Apples verhalten total hinterhältig, die schreiben sich Datenschutz auf die Fahne und hintenrum werden Daten an Dritte, zur Analyse, weitergegeben. Apple macht immer mehr bla, bla,bla.

        • Vollkommen richtig, es wird nun runter gespielt.
          Dabei hat Apple mit Clips für Datenschutz geworben und erst im August 2018 hat Apple selbst gesagt, dass keine unerwünschten Tonmitschnitte stattfinden.

          „Apple hat gestern gegenüber US-Politikern erklärt, dass definitiv keine unerwünschte Erfassung von Sprachdaten durch die für den Sprachassistenten Siri verwendeten Mikrofone erfolgt – und keine Aufnahmen ohne Wissen des Nutzers an das Unternehmen geschickt werden.“

          https://winfuture.de/news,104461.html

          Weiterhin die Aussage von Apple, das sie sich verpflichtet fühlen, eine großartige Siri-Erfahrung zu bieten und gleichzeitig die Privatsphäre der Benutzer zu schützen.
          Aber gleichzeitig haben sie neben den Tonmitschnitten Kontaktadressen und Standort übertragen.

          „These recordings are accompanied by user data showing location, contact details, and app data.
          […]
          It wouldn’t be difficult to identify the person that you’re listening to, especially with accidental triggers – addresses, names and so on.“

          Ebenso das es nicht viele und nur wenige Sekunden waren. Laut dem Whistleblower waren unzählige Aufnahmen, welche an die 30 Sekunden andauerten und besonders personenbezogene Daten enthielten:
          “There have been countless instances of recordings featuring private discussions between doctors and patients, business deals, seemingly criminal dealings, sexual encounters and so on. These recordings are accompanied by user data showing location, contact details, and app data.”
          […]
          “The regularity of accidental triggers on the watch is incredibly high,” they said. “The watch can record some snippets that will be 30 seconds – not that long but you can gather a good idea of what’s going on.”

          • „dass keine unerwünschten Tonmitschnitte stattfinden.“

            Um so einen Assistenten zu triggern, musst du entweder es manuell starten oder es per „Hey Siri / Alexa, Google“ triggern. Das insbesondere letztes nicht perfekt funktioniert, seh ich sogar bei meiner Alexa. Du suggerierst als würde Apple einfach das Mikro anschalten und mal zuhören.

            „und keine Aufnahmen ohne Wissen des Nutzers an das Unternehmen geschickt werden.“

            Da Siri, Alexa, Google, etc. nicht lokal funktionieren, werden die Aufzeichnungen immer(!) an den Hersteller gesendet zur Verarbeitung. Ergo wird auch nichts ohne das Wissen an Apple / Amazon / Google geschickt.

            Beim Mitsenden von weiteren Daten bin ich allerdings bei dir. Das seh ich auch als unnötig und wird nicht zur Verbesserung der KI benötigt. Kann man das Gesprochene ohne diese Informationen nicht verwenden, dann haben sie halt Pech.

            • „Da Siri, Alexa, Google, etc. nicht lokal funktionieren, werden die Aufzeichnungen immer(!) an den Hersteller gesendet zur Verarbeitung. Ergo wird auch nichts ohne das Wissen an Apple / Amazon / Google geschickt.“ Und genau das haben manche Apple Jünger bisher immer geleugnet, dabei muß man doch nur mal richig nachdenken, um zu bemerken, das dies gemacht werden muss. Aber wenn es um Apple geht setzt bei einigen das Denkvermögen aus.

            • [„Um so einen Assistenten zu triggern, musst du entweder es manuell starten oder es per „Hey Siri / Alexa, Google“ triggern. Das insbesondere letztes nicht perfekt funktioniert, seh ich sogar bei meiner Alexa. Du suggerierst als würde Apple einfach das Mikro anschalten und mal zuhören.“]

              Nicht aktiv aber die Fehlauslöser waren halt erheblich häufiger als die Nutzer angenommen haben. Den Nutzern war gar nicht bewusst wie oft mitgeschnitten worden ist.

              „Das Problem be­steht aber darin, dass die Nutzer nicht immer wissen, wann Siri ein Gespräch mit­schnei­det. Die Aufnahme soll eigentlich ausschließlich mit der bekannten Codephrase „Hey, Siri“ ge­star­tet werden. In vielen Fällen erkennt das Gerät die Phrase jedoch fälschlicherweise, sodass Siri ohne die Zustimmung des Nutzers mithört.“

              „Einem Bericht des Magazins The Guardian zufolge soll es vorgekommen sein, dass die beauftragten Analysten auch intime Momente der Nutzer zu hören bekommen haben, da sich Siri beispielsweise auch aktiviert, wenn eine verbundene Apple Watch bewegt und dabei Sprache registriert wird. Auch der Klang eines sich öffnenden Reißverschlusses soll für die Aktivierung bereits ausreichen. “

              https://winfuture.de/news,110312.html

              https://www.theguardian.com/technology/2019/jul/26/apple-contractors-regularly-hear-confidential-details-on-siri-recordings

              • „Auch der Klang eines sich öffnenden Reißverschlusses soll für die Aktivierung bereits ausreichen.“

                Bei mir wird Alexa (selten) durch das die Spülung der Toilette getriggert.

                „Den Nutzern war gar nicht bewusst wie oft mitgeschnitten worden ist.“

                Der Sinn von so einem Assistenten ist doch, dass er etwas für einen tut oder was beantwortet. Darüber gibt er Rückmeldung a la „Das hab ich nicht verstanden“ oder „Deine Erinnerung für morgen lautet…“. Ich halte es darum für eine Schutzbehauptung, dass die Leute das angeblich nicht mitbekommen haben. Das kann man aus meiner Sicht weder Apple, noch Amazon, noch Google vorwerfen. Nicht alles Unwissen der Leute ist die Schuld der Unternehmen.

                Über den Rest haben wir wie gesagt ja Einigkeit.

                • > Darüber gibt er Rückmeldung a la „Das hab ich nicht verstanden“ oder „Deine Erinnerung für morgen lautet…“

                  Also mein Google Assistent wird öfters fehlerhaft getriggert und sagt dies dann nicht, weil er im weiteren erkennt, dass gar nicht mit ihm gesprochen wird. Nur wenn nach dem Codewort eindeutig mit dem Gerät geredet wird, aber dies nicht zu verstehen war, kommt überhaupt eine solche Rückmeldung.
                  Andernfalls bleibt die Aufzeichnung komplett unbemerkt, wenn man nicht gerade auf die Lampen achtet oder in den Bedienungshilfen den Startton aktiviert (nur dann kriegt man wirklich immer akustisch mit, dass man gerade abhört wird, aber default ist hier aus…).

                  Wie genau dies bei Siri abläuft kann ich nicht beurteilen, aber bei Google Assistent ist dies definitiv keine Schutzbehauptung. Fehlauslöser treten oft auf und werden bei Standardeinstellungen zumeist nicht durch den Benutzer erkannt. Dem Vorwurf, dass Fehlauslöser erheblich öfters auftreten als vom Benutzer angenommen, kann zumindest Google auch sehr einfach entgehen: Besagte Option in den Bedienungshilfen (warum ist das eine Bedienungshilfe?!) standardmäßig aktivieren. Dann bekommt der Benutzer immer schön mit, wenn er mal wieder fälschlicherweise kurzzeitig ungewollt abgehört wird.

        • Sorry, war mißverständlich. Gut ist es, wenn man wählen kann ob seine Aufzeichnungen analysiert werden dürfen oder nicht. Ausschließlich darauf bezog ich mich.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren. Alternativ könnt ihr euch via E-Mail über alle neuen Beiträge hier im Blog informieren lassen. Einfach eure E-Mail-Adresse hier eingeben, dann bekommt ihr 1x täglich morgens eine Zusammenstellung. Mit dem Absenden willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.