Google Messages bekommt neue Schutzfunktionen
Google wird seiner Kommunikations-App Google Messages ein paar Sicherheitsverbesserungen angedeihen lassen. Es gibt eine verbesserte Betrugserkennung, die sich besonders auf potenziell betrügerische Textnachrichten konzentriert. Das Unternehmen bietet laut eigenen Angaben eine „verbesserte Analyse betrügerischer Nachrichten“. Zunächst fokussiert sich dieses Tool auf Betrugsversuche im Zusammenhang mit Paketzustellungen und Stellenangeboten.
Bei Betrugsverdacht verschiebt Google Messages die Nachricht entweder in den Spam-Ordner oder gibt eine Warnung aus. Die App nutzt dafür maschinelle Lernmodelle direkt auf dem Gerät, wodurch die Privatsphäre der Konversationen gewahrt bleiben soll. Diese Verbesserung wird derzeit an Beta-Nutzer mit aktiviertem Spam-Schutz ausgerollt.
Google plant zudem die Einführung intelligenter Warnungen, ein Feature, das sich bereits in Indien, Thailand, Malaysia und Singapur in der Testphase befand. Dieses Tool warnt Nutzer bei Links von unbekannten Absendern und blockiert automatisch Nachrichten mit Links von verdächtigen Absendern. Die aktualisierten Sicherheitstools beinhalten auch neue Warnungen bei sensiblen Inhalten und machen Bilder mit möglicher Nacktheit automatisch unscharf.
Ein weiteres Werkzeug ermöglicht es Nutzern, Nachrichten von unbekannten internationalen Absendern abzulehnen und so potenzielle Betrugsquellen zu unterbinden. Es verbirgt automatisch Nachrichten von internationalen Absendern, die nicht im Kontaktverzeichnis sind. Diese Funktion startet später dieses Jahr mit einem Pilotprogramm in Singapur, bevor eine Ausweitung auf weitere Länder in Betracht gezogen wird.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Auf der einen Seite ja löblich, auf der anderen Seite wird den Nutzern noch mehr selbständiges „Denken“ abgenommen.
Passiert angeblich alles lokal, macht euch da gar keine Sorgen. Wo die Trainingsdaten dafür herkommen, muss niemand wissen. 😉
Das jetzt jeder Hersteller auf lokale Berechnung und KI-Hardware setzt hat übrigens nichts mit Datenschutz zu tun, sondern mit dem Umstand, dass KI in den Rechenzentren extrem viel kostet und kaum profitabel ist, wenn man nicht ständig neue Risikoinvestoren anlocken kann. So kann man die Hardware- und Energie-Kosten auf die eigenen Kunden abwälzen.
Eine lokale Berechnung heißt übrigens nicht automatisch, dass da keine Daten von/zur Cloud übertragen werden. Mindestens eine statistische Telemetrie muss es geben, da sonst kaum feststellbar ist, ob ein lokales LLM richtig funktioniert. Ob zB bei einem Fehler die ursprüngliche Nachricht zur vereinfachten Fehlerbehebung nicht gleich mitgesendet wird, steht auch offen.
Ende-Zu-Ende-Verschlüsselung bringt eben nichts, wenn der Spion direkt am Gerät sitzt.
Natürlich wissen wir, wo die Trainingsdaten herkommen. Versuch mal zu erraten, was der Menüpunkt „Spam melden“ macht 😉