Google Home: Mitarbeiter hören sich Sprachaufzeichnungen an

Im Bezug auf Sprachsteuerungen bzw. digitale Assistenten, meint man manchmal, es scheine nur Schwarz und Weiß zu geben: Die einen feiern sie als großartige Neuerung, die das Leben vereinfacht, die anderen verdammen sie als Spionage-Tool der Konzerne. Beide Seiten können natürlich Argumente für ihre Ansichten finden. Nun gibt es wieder einen Punkt für die Kritiker: Denn Google beauftragt Mitarbeiter sich eure Spracheingaben bewusst anzuhören.

Dazu muss man aber sagen: Um den Inhalt geht es den Google-Mitarbeitern bzw. den beauftragten Dienstleistern des Unternehmens nicht. Vielmehr möchte man die Spracherkennung verbessern. Es geht also nicht darum, was gesagt wird, sondern wie es gesagt und erkannt wird. Google informiert zudem auch in seinen Richtlinien darüber, dass Spracheingaben in Verbindung mit Google Home bzw. dem Google Assistant aufgezeichnet und anonymisiert ausgewertet werden.

Klarer machen müsste das Unternehmen aber, dass es tatsächlich menschliche Mitarbeiter gibt, welche sich die Aufzeichnungen anhören. Denn das bleibt aktuell schleierhaft. Genauer hatte sich die Seite VRT NWS mit dem Thema beschäftigt. Die angewandten Methoden sind aber strittig, da man sich von einem der Google-Dienstleister die Audioaufnahmen beschaffte. Wobei genau dieser Kniff vielleicht auch zeigt: Sobald Menschen beteiligt sind, ist der Mensch die größte Sicherheitslücke. Wie in diesem Fall, in dem sich Journalisten Zugriff verschaffen.

Allerdings sprechen die Kollegen auch Probleme an, über die wohl noch diskutiert werden müsste: Etwa haben die Mitarbeiter, welche sich die Aufzeichnungen anhören, klare Arbeitsaufträge. Allerdings ist unklar, wie etwa in Situationen gehandelt werden soll, in denen das Material moralische Fragen aufwirft: Wenn es etwa verbale Auseinandersetzungen gibt und womöglich sogar häusliche Gewalt, um nur ein Beispiel zu nennen.

Oft wird das Hotword „Ok, Google“ auch immer noch fälschlicherweise erkannt und es erfolgen Aufzeichnungen, wenn dies eigentlich gar nicht gewünscht gewesen ist. Auch hier nutzt Google aber das Material, um die Spracherkennung zu verbessern. Wie bereits erwähnt: Google weist klar aus, dass alles mitgeschnitten und auch analysiert wird. Aber vermutlich sind sich viele Nutzer eben nicht bewusst, dass menschliche Mitarbeiter den Aufzeichnungen lauschen – wenn auch anonymisiert.

Doch sobald Namen und Adressen genannt werden, sind die Identitäten der Sprecher oft leicht ermittelbar. Hexenwerk ist das also nicht. Google selbst hat seine Vorgehensweise hingegen verteidigt: Man analysiere einen kleinen Teil der aufgezeichneten Audio-Dateien von Hand, um die Techniken zur Spracherkennung zu verbessern. Es gehe hier aber nur um ca. 0,2 % der aufgezeichneten Daten. Und jene Arbeit sei notwendig, um den Google Assistant weiter zu entwickeln.

Letzten Endes kann man Google sicherlich keine bösen Absichten nachsagen und es sei auch erwähnt, dass Amazon und auch Apple bekanntermaßen sehr ähnlich arbeiten. Der Knackpunkt ist aber, dass das Unternehmen klarer darüber informieren sollte, wie die Aufzeichnungen intern behandelt werden.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

André Westphal

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden. PayPal-Kaffeespende an den Autor.

Das könnte dir auch gefallen…

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

40 Kommentare

  1. Nüchtern betrachtet finde ich es nicht gut kann aber gut verstehen das man für die Weiterentwicklung auch menschliche Analyse und Einordnung braucht. Mit reinen Algorithmen geht es einfach nicht. Das sollte ja jedem klar sein. Ich nutze zwar Alexa finde aber auch, das Sprachassistenten noch immer echt am Anfang stehen. Besonders wenn ich bei Alexa eigene Routinen anlege. Da muss ich mich für einen Satz entscheiden. Lege ich also an: Alexa sauge die Wohnung und jemand sagt: Alexa saug die Wohnung dann passiert nichts. Kontext Kontext Kontext, das ist wichtig und das geht nur durch menschliche Kontrolle.

    • naja der unterschied zwischen „saug“ und „sauge“ lässt sich ja über ne Ähnlichkeitsanalyse leicht abfangen, so dass beides funktioniert wenn ein Treshold bei der Analyse unterschritten wird. Wäre ja ein klacks sowas zu implementieren. Viel schwieriger fände ich da „Alexa saug die Wohnung“ und „Alexa, bitte Wohnung saugen“ als gleichwertig zu erkennen.

    • Ganz genau. KI und Spracherkennung müssen eben trainiert werden, und die Algorithmen brauchen auch menschliche Analyse und Einordnung. Das wird bei Amazon Alexa, Microsoft Cortana und Apple Siri genau so gemacht.

  2. Die Google-App wird bei mir standardmäßig runter gekratzt, dann ist der As(s)i auch weg. Siri ist unter iOS deaktiviert und Alexa wird gar nicht installiert bzw die Mikros der Fire-TV Fernbedienungen außer Gefecht gesetzt!
    Ich trau dem Braten nicht!

    • Da kann man nur hoffen, dass du das Mikro an deinem Smartphone ebenfalls ausser Gefecht gesetzt hast.

      • Troll woanders…

        • Wieso er hat doch recht. Prinzipiell kann jede App die Zugriff auf dein Mikro im Smartphone hat dieses als Wanze verwenden und dich abhören. Genau wie alle deiner beschrieben Dinge auch.

          • Aber er denkt doch er ist sooooo schlau. Er sollte mal den Kauf einer Alurolle in Erwägung ziehen, da kann man sich nette Sachen daraus basteln, die bei akutem Verfolgungswahn nützlich sein könnten.

        • Er hat dich absolut recht. Wenn man derart paranoid ist und das zu Ende denkt darfst Du Dich mit quasi keiner Elektronik umgeben, und natürlich nicht vor die Haustür außerhalb von Wald und Wiesen.

          • Nein, hat er nicht! Informiere dich bitte darüber wie der Zugriff auf Hardware erfolgt, APIs, Hintergrunddienste, etc.pp. Dass dich ein Smartphone „einfach so Mal“ abhören kann, ohne dein Zutun, nur weil es ein Mikro hat, ist ein Mythos! Von irgendwelche Elektronik, Mal ganz abgesehen… Oder stand im Bild, das dich auch dein Satreceiver, Hifi Verstärker, Radiowecker, etc., dich abhören kann?! Das willst du echt mit einem Gerät vergleichen, wo ein Sprachassistenten -was sich nicht deaktivieren lässt- integriert ist und oft falsch triggert -was die Hersteller auch offen einräumen- vergleichen?.. OK, das ist mir zu spookie, da bin ich raus!

            • Du interpretierst in meinen Beitrag eine Menge rein, das so nicht da steht.

            • @max
              Du kaufst dir am Besten einen Aluhut und wirst damit glücklich. Naiv? Ja das bist alleine nur du!

            • Ach hör doch auf, es geht ja noch nicht mal um das Mikro…du kannst auch mit deinem Smartphone überall geortet werden, selbst wenn du es ausschaltest. Glaub mir, ich habe alle Teile von „Mission Impossible“ geschaut, nicht umsonst wird in den Filmen die SIM-Karte aus den Handys entfernt und dann beides zerstört. Und was in den Filmen gezeigt wird, muss ja wohl stimmen.

            • Das ist kein Mythos, denn jede App der du bei der Installation Zugriff auf dein Mikro erlaubt hast kann dieses jederzeit einschalten und dich jederzeit abhören wenn sie will ohne dass du es merkst!

              Eine App der du heute noch vertraust, kann morgen schon nach China verkauft und Böse sein.

              Aber dein Aluhut hilft natürlich gegen all das!

              • Du kannst jeder einzelnen App, die du installiert hast, die Berechtigung auf Mikro oder Kamera entziehen. Nicht nur bei der Installation, sondern auch später jederzeit. Zumindest unter Android.

                • Ja klar aber das machst du ja nicht jedes mal bevor du die App benutzen willst. Mikro erlauben … App benutzen … Mikro verbieten. Bischen umständlich. Also du vertraust der App und willst sie nutzen oder eben nicht.

    • Herrlich diese Leute mit den Aluhüten :-))

  3. Das ging bei Amazon Alexa kürzlich ebenfalls durch die Presse, weil es dort – wie bei *jedem* Sprachassitenten – genauso ist.

    Der Grund ist ganz einfach und logisch nachvollziehbar :

    Nur ein Mensch kann kontrollieren, ob eine Maschine die wandelbare menschliche Sprache immer richtig versteht und interpretiert.

    So lange Maschinen bzw Software neue modische Wörter und Redensarten noch nicht selbst lernen und das gelernte selbständig kontrollieren und verbessern können, kann das nur ein Mensch.

    Die Vorstellung Computer wären irgendwann so intelligent, dass sie selbstständig lernen und verstehen, was mit neuen Wörtern, Redensarten und Dialekten im jeweiligen Zusammenhang wirklich gemeint ist, ist möglicherweise noch gruseliger.
    Dann hat der Computer vermutlich schon ein eigenes Bewußtsein (Skynet, WOPR usw.). 😀

  4. Ich glaube den Unternehmen schon nicht, dass sie Daten wirklich löschen, wenn ich irgendwo auf einen Löschen-Button im Browser klicke. Warum sollte ich also glauben, dass Daten anonymisiert verarbeitet werden? Irgendwo hat sicher jemand den Schlüssel, die anonymisierten Daten zuordnen zu können. Das wird sicherlich nicht zum Tagesgeschäft gehören. Aber kann mir ja keiner erzählen, das ginge absolut nicht. Immerhin sind US Unternehmen bei einem NSL dazu gesetzlich genötigt, klare Auskünfte geben zu können.

    • die Frage ist doch: willst du immer das Schlimmste annehmen? Mir würde da zuviel Spaß vergehen. Daher informiere ich mich gern über diese Themen, gehe aber nicht grundsätzlich von Missbrauch aus, der systembedigt nie auszuschließen ist, auch nicht in einer analogen Welt.

  5. sunworker says:

    „Es gehe hier aber nur um ca. 0,2 % der aufgezeichneten Daten.“

    Das bedeutet das täglich Millionen Gespräche von Mitarbeitern analysiert (=abgehört) werden. Da finde ich das Wort „nur“ unpassend.

    • Vermutlich werden die wie bei Amazon Alexa abgetippt und sobald was kritisches, wie Passwörter oder Liebeserklärungen dabei sind, wird das als kritisch markiert und gelöscht.

      Anders kann man einen Sprachassitenten nicht verbessern. Das geht nur so. Damit kann man aber doch leben.

      Die Mitarbeiter bei der Krankenkasse haben auch meinen Krankheitsverlauf und wer abhören will, der kann das sowieso. Wenn mich mein Nachbar oder Kollege abhört, wäre mir das unangenehmer als wenn das irgendwer in Weit-weit-weg macht, der mich garnicht kennt.

  6. Wenn ein Gerät nicht einmal das Buzzwort richtig erkennt, wie soll ich dann überhaupt Vertrauen in dei korrekte Erkennung von ganzen Sätzen legen können? Der Erkennungssatz Ok Google sollte ich doch recht klar von allen anderen Dingen unterscheiden. „Aus Versehen“ Aktivierungen sollten also auf jeden Fall ausgeklammert sein.
    Und daß es aus Versehen geschieht, bezweifel ich, immerhin kann dies wunderbar für personalisierte Werbung verwendet werden. Und damit verdient Google auch sein Geld.

    Achja, schwarz-weiß würde ich nicht sagen, denn viele Kritiker gestehen der Spracherkennung eine Bereichung zu, sie hinterfragen nur, warum es nicht offline geschieht.

  7. Liest sich ja mal wieder so, als würde man „abgehört“, dabei wird ja nur das aufgezeichnet, was man nach „Ok Google“ sagt.

    Wie wird denn häusliche Gewalt aufgezeichnet? Ungefähr so? Ok, Google…wo befindet sich gerade mein Ehemann? Google: In der Kneipe um die Ecke. Ok, Google…wenn er nachhause kommt, haue ich ihm paar auf’s Maul. 😀

    • Eben nicht. Nach einer anderen Quelle sind 153 von 1000 manuell überprüften Mitschnitte ohne Ok Google aufgezeichnet worden. Kurz gesagt, 15% Fehlerquote bei einem festen Begriff. Krass.

      • Alle Aufzeichnungen, auch die über Falschinterpretation des „Ok Google“ gespeichert wurden, lassen sich im Google-Konto einsehen und löschen. Es erfolgt keine Aufzeichnung von Gesprächen, die nicht vorher durch „Ok Google“ oder durch eine evtl. Falschinterpretation generiert wurden. Alle Aufzeichnungen sind einsehbar und und vor allem löschbar, wenn eine Auswertung nicht gewünscht ist.

  8. > Der Knackpunkt ist aber, dass das Unternehmen klarer darüber informieren sollte, wie die Aufzeichnungen intern behandelt werden.

    Nicht intern sondern extern, das ist der Knackpunkt. Eine paar Jahre lang konnte man sich bei CrowdFlower (jetzt Figure Eight) anmelden und Aufzeichnungen anhören und vergleichen, dazu musste man nicht mal Angestellter sein. Pro 10 Aufnahmen bekam man einen Cent.

    Haaring wird es wenn die Daten nicht mehr anonymisiert werden. Figure Eight wird heute von Spotify eingesetzt um die Stimmung der Nutzer zu ermitteln und passende Werbung anzuzeigen.

  9. Wer hätte das gedacht?

  10. Hahahahaha, ich liebe es. Honecker und Mielke würden sich einen Ast lachen.
    Erich, siehste das? Dein Traum wird wahr.

  11. So, habe meinen weggeworfen.

  12. Ich habe diese Analyse für ein paar Jahre als Nebenjob im Studium gemacht.

    Da bleibt überhaupt keine Zeit, sich Gedanken zu machen, wenn man die Sprachnachrichten anhört und die Transkription prüft.

    Allerdings lernt man eine Menge Dinge über die Gesellschaft. Wie vereinsamt viele Menschen sind. Wie rassistisch und sexistisch. Und wie manche Eltern im Hintergrund ihre Kinder dazu auffordern, auch brav bitte und danke zu sagen, wenn die Kinder Sprachassistenten nach Mathelösungen fragen.

  13. Jeeve Stops says:

    Das Argument, es würden nur Mensch kontrollieren können, ob eine Maschine die wandelbare menschliche Sprache immer richtig versteht und interpretiert, halte ich für Augenwischerei.

    Das wäre ja so, als würde ich Banksoftware entwickeln und statt Testdaten Echtdaten verwenden, die nur halbgar anonymisiert sind. Man könnte ja einen Qualitätszirkel aufsetzen, die freiwilligen Teilnehmer auf die Auswertung hinweisen und alle anderen Daten in Ruhe lassen. So wie das aktuell läuft ist das unprofessionell und fragwürdig.

    • Wenn ich die Möglichkeit habe, würde ich immer auf Echtdaten zurückgreifen. Testdaten bilden leider selten die Realität ab. Man muss natürlich behutsam mit Echtdaten umgehen, aber für eine effiziente Weiterentwicklung sind diese unverzichtbar.

  14. Vor 2-3 Tagen durfte man sich hier noch dumme Kommentare von einigen anhören weil Leute vor dem Abhören warnten. Schwups kommt heute ein Beitrag dazu der genau das bestätigt.
    Wo sind denn jetzt die Schlauberger von vor 3-Tagen? Fällt euch nichts mehr dazu ein?
    Z.B. Herr Kunze: „Kunze
    7. Juli 2019 um 18:15 Uhr
    Wo bleiben die Trolle, die sich wieder über ne Wanze beklagen??“

  15. Wie naiv ist es denn bitte zu glauben, dass sich solche Aufnahmen nicht mal ein Entwickler der Firma und damit ein Mensch im Rahmen der Qualitätskontrolle und Produkt Verbesserung anhört?

    Bei aller liebe, aber um das zu glauben und nun ernsthaft überrascht zu sein, muss man schon verdammt naiv durch die Welt laufen.

  16. Laut Computerbase waren es deutlich mehr als 0,2% nämlich knapp 15%:
    „..an mehr als 1.000 solcher Aufnahmen, die über die Smartphone-App Google Assistant erstellt wurden, gelangt und habe hineingehört. Da nicht nur bewusst mit dem Sprachbefehl „Okay Google“ initiierte Sprachaufzeichnungen, sondern auch 153 durch eine Fehlinterpretation der Spracherkennung unbewusst erfolgte Audioaufnahmen darunter waren,…“

Schreibe einen Kommentar zu Chris Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren. Alternativ könnt ihr euch via E-Mail über alle neuen Beiträge hier im Blog informieren lassen. Einfach eure E-Mail-Adresse hier eingeben, dann bekommt ihr 1x täglich morgens eine Zusammenstellung. Mit dem Absenden willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.