Google Pixel 10: Schnellerer Ultraschall-Fingerabdrucksensor an Bord
![]()
Während sich das äußere Erscheinungsbild des kommenden Google Pixel 10 kaum vom Vorgängermodell unterscheidet, arbeitet Google laut Bericht unter der Haube an Verbesserungen. Eine davon betrifft den Fingerabdrucksensor, der nun noch schneller und zuverlässiger funktionieren soll – besonders bei feuchten Fingern. Irgendwie auch eine Geschichte, die man bei jedem Modell hört.
Der bereits im Vorjahr eingeführte Ultraschall-Fingerabdrucksensor, den auch OnePlus in diesem Jahr beim OnePlus 13 verbaut, erfährt ein weiteres Upgrade. Diese Technologie hatte sich bereits als Verbesserung gegenüber den optischen Sensoren früherer Modelle erwiesen, da sie mehr Sicherheit bot und auch bei nassen Fingern zuverlässig funktionierte.
Die Gesichtserkennung bleibt nicht überraschend weiterhin erhalten und unterstützt wie schon seit dem Pixel 8 die Klasse-3-Authentifizierung, die auch für Banking-Apps geeignet ist. Interessant ist auch die Integration des Qi2-Standards, allerdings mit einer Einschränkung: Für die volle Funktionalität wird eine spezielle Hülle benötigt. Diese Herangehensweise teilt Google mit OnePlus und Samsung bei deren aktuellen Flaggschiff-Modellen.
Die Markteinführung des Google Pixel 10 ist für den 28. August geplant, wobei Vorbestellungen ab dem 20. August möglich sein werden – so die letzten Gerüchte.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich kann den Prass gegen den Fingerabdrucksensor meines Pixel 7 immer noch nicht verstehen. Mit Bürofingern und ohne Displayschutz funktionert er einwandfrei. Einzig das helle Leuchten kann je nach Position des Fingers manchmal stören. Bei Mama (Gartenhände und mit dem alter wird der Fingerabdruck schwächer) funktionert selbst der rückseitige des LG G8s quasi nie…
Bei mir (auch Bürofingern und ohne Displayschutz) hat das Pixel 7 so zu 98% funktioniert. Jetzt mit dem Pixel 9 Pro ist es noch besser und ich wüsste nicht, was ein Pixel 10 noch schneller machen könnte.
Verstehe ich ehrlich gesagt auch nicht. Habe „Malocherfinger“, hier und da auch mal etwas rau, angekratzt, vermackt, usw. und hatte bislang kein Problem mit dem Fingerabdrucksensor. Weder beim Pixel 7 Pro (Firmenhandy) noch beim Pixel 8 (Privat).
Vielleicht macht der ein oder andere Fehler beim anlernen, wobei ich gar nicht weiß, was man da falsch machen kann.
Hatte weder mit dem 6 Pro, 7 Pro, 8 non Pro und 9 Pro XL Probleme mit dem Fingerabdrucksensor.
Bei starker Sonneneinstrahlung geht bei meinem Pixel 7 nix mehr. Schon nicht so geil…
Ich kann nicht verstehen, warum Android so gar nicht an FaceID herankommt – nach so vielen Jahren.
Mit dem Pixel 4 hatten sie es igentlich schon, aber dann wieder entweder aus Kosten- oder Designgründen aufgegeben.
Ganz einfach, weil die kein Bock auf so ’nen fetten schwarzen Balken in Kopfbereich haben.
Genau! Damals hatte FaceID noch einen USP, heute überhaupt nicht. Aber da waren Frontkameras von viel schlechterer Qualität und die Rechnerleistung deutlich niedriger. Heute ist die Gesichtserkennung bei Android im echten Leben genauso sicher (durch viel bessere Kameras und sicherere bzw. ausgereiftere Algorithmen), funktioniert außer in absoluter Dunkelheit gleich gut, benötigt nur ein Loch statt einer dummen Insel bietet quasi immer als Alternative einen Fingerabdrucksensor!
Der USP ist durch die Zeit eher noch größer geworden. Bis jetzt bekommt es kein Androidhersteller hin, das in seine Geräte einzubauen und damit offenbar noch Geld zu verdienen. Es ist schlicht zu wenig Marge bei den anderen vorhanden. So erklärt sich auch, dass bereits vor 10 Jahren Apple rechnerisch mehr als 90% der kummulierten Gewinne kassiert hat, die weltweit mit Smartphones gemacht wurden (Quelle: https://appleinsider.com/articles/15/11/16/apple-inc-now-inhaling-94-percent-of-global-smartphone-profits-selling-just-145-percent-of-total-volumes).
Apple stellte Face ID übrigens im September 2017 mit dem iPhone X vor. Inzwischen hat es jedes iPhone und die meisten iPad-Modelle. Es ist mehr noch als MagSafe schlicht ein Apple-Alleinstellungsmerkmal geworden.
„bereits vor 10 Jahren Apple rechnerisch mehr als 90% der kummulierten Gewinne kassiert“
Genau. Vor 10 Jahren.. die Zeiten sind vorbei.
Da sich Apples Gewinne seitdem fast verdreifacht haben, eine steile These.
Das liegt schlicht da dran, dass Apple einen speziellen Infrarotsensor verbaut hat. Die meisten Androiden haben aber nur eine normale Kamera, die nicht an einen 3D-Sensor herankommt. Android kann da als Betriebssystem wenig ausrichten.
Die Frage ist also eher, warum es sich für die Hersteller nicht lohnt einen 3D-Sensor zu verbauen. Oder einen Irisscanner, wie im Samsung Galaxy S9.
Der Irisscanner war Mist, musste man doch sein Gesicht in einem geringen und recht exakten Abstand vor das Gerät halten. Apple hält Patente auf FaceID, was damals LG bei meinem G8s nicht davon abgehalten hat, einen Klon einzubauen.
Das Android „nicht an einen 3D-Sensor herankommt“ kann ich nicht bestätigen. Seit „Class 3“ lassen sich sogar Banking Apps entsperren. Schon die Gesichtserkennung auf meinem Pixel 7 funktioniert, wie unten geschrieben außer bei absoluter Dunkelheit, hervorragend.
Wie ebenfalls erwähnt sind die rein kamerabasierten bzw. optischen Systeme mittlerweile ähnlich (im Alltag „gleich“) sicher als Apples Lösung. Wenn jemand eine Maske von deinem Gesicht anfertigt oder dieses mit Gewalt vor die Kamera zwingt, hast Du größere Probleme als der Vergleich einer hypothetischen Verhältniszahl – aber mein FaceID ist mit 50:000 zu 1 sicherer als Samsungs oder Pixels…
Und natürlich rückt Apple nicht von seinem System ab. Erstens währe dies ein Eingeständnis, zweitens plant man (in seiner Roadmap) seit Jahren voraus, um FaceID unters Display zu verlegen und damit weitere künstliche Separierung in seinem Portfolio sicherzustellen….
Die Androids könnten auch die Objektive von Spiegelreflexkameras rausschrauben, es würde nichts daran ändern, dasss das kein 3D-Scan des Gesichts ist. Daher bleibt die Android-Technik auch bei noch so guten Kameras sicherheitstechnisch immer hinter FaceID zurück. Diese „Löcher“ im Screen sind js mittlerweile auch eher ein Negativerkennungsmerkmal, á la ah-keine-notch-also-android-und-meistens-mittel-bis-lowclass.
>Diese „Löcher“ im Screen sind js mittlerweile auch eher ein Negativerkennungsmerkmal, á la ah-keine-notch-also-android-und-meistens-mittel-bis-lowclass.
Das muss so ein Ding unter Apple Nutzern sein. Mit völlig Banane was die Leute nutzen.
Seitdem alle Smartphones Fullscreendisplays ohne Ränder haben, ist das tatsächlich schon ein Erkennungsmerkmal von vorn geworden. Als technisch interessierter Mensch interessiert mich schon, was die Leute so im Alltag benutzen. Bei der Rückseite ist man natürlich schneller dabei, das Gerät richtig einzuordnen. Aber auch da stellt sich der Reflex ein, viele Kameralinsen, vor allem vertikal, dann Android. Und da Android prozentual eben eher günstigere Käuferschichten bedient, erkennt der 2. Blick dann oft, dass es kein Pixel oder Galaxy ist. Icvh würde wetten, dass die allermeisten Smartphones in D keinerlei Gesichtserkennungstechnik bereitstellen, die von Banking-Apps akzeptiert wird. Die paar Androids, die das können, sind echte Exoten im Alltag. iPhones dagegen nicht.
Da hat aber jemand viel Spekulatius gegessen. Vermutungen.. Behauptungen..
Häh? Du bist ja vllt. ein Androidfanboy. Er/sie spricht von Erfahrungen, die ich bestätigen kann. Du hingegen bringst außer Gegenrede gar nichts in die Diskussion ein. Hast du andere Erfahrungen, Belege, Beweise, Quellen? Könnte ja zumindest theoretisch sein. Nein? Na, dann passt dir wohl nicht, dass unsere gemeinsamen Erfahrungen nicht in dein Weltbild passen. So sorry!
Was genau erlaubt den FaceID bei Apple, was die Klasse-3-Authentifizierung beim Pixel nicht erlaubt?
Es geht ja nicht darum, was erlaubt ist und was nicht, sondern um die Sicherheit und da ist FaceID von Apple (3D Scan) unstrittig sicherer als die Gesichtserkennung von Android (2D Scan). Ist ja auch für jeden leicht nachvollziehbar. Ob einem das egal ist und die Sicherheit eines 2D Scans ausreicht, ist wieder eine ganz andere Frage.
Ich kann nicht verstehen, warum iOS so gar nicht an Android herankommt – nach so vielen Jahren.
weil iOS dann ja schlechter werden müsste um an android „ran zu kommen“… 😛
*duck und weg* xD
Kann iOS denn noch schlechter werden?
aber natürlich. es muss ja nur mehr wie android werden 😀
aber nun ist gut. schönen abend noch 🙂
Das wäre ein Traum. Endlich ein funktionierendes, bugfreies System für Apfeljünger
Dir auch
das Rosa beim Pixel 9 und 10 sieht einfach fresh aus!
Am Ende des Tages lande ich aber wahrscheinlich wieder bei der schwarzen Farbe
viel lieber hätte in einer infrarot 3d Gesichtserkennung, wie beim pixel 4 oder iPhone.
die funktioniert praktisch immer, Fingerabdrucksensoren sind eh der größte Schrott, wenn man ein Mal ein Smartphone mit 3d Gesichtserkennung hatte.
Fingerabdrucksensoren funktionieren bei mir meistens nie, beim pixel tablet muss ich die alle 2 Wochen neu ein trainieren, sonst geht gar nichts und beim pixel 7 functioning der auf nur Bei 2 von 3 versuchen.