Qualcomm Snapdragon Sight: Evolution der Smartphone-Kameras schreitet voran

In Hawaii beim jährlichen Snapdragon Summit hat der Hersteller Qualcomm die Neuerungen für Snapdragon Sight vorgestellt. Darunter bündelt man im Wesentlichen verschiedene Aspekte seiner ISP-Hard- und Software-Pipeline, die für den neuen Snapdragon 8 Gen 2 zum Einsatz kommt. Viele Aspekte sind sehr spannend und könnten für kommende Smartphone-Flaggschiffe eine Rolle spielen.

So zeigte Qualcomm hier in Maui schon einige Demos, die ich mir ansehen durfte. Zu bedenken: Dabei nutzte man selbst entwickelte Referenzgeräte, die so auch OEMs zur Verfügung gestellt werden. Doch welche Funktionen die einzelnen Hersteller am Ende selbst für ihre Geräte und Kamera-Apps implementieren, entscheidet Qualcomm natürlich nicht. Das macht jeder Partner individuell. Nur weil etwas technisch möglich ist, heißt das also nicht, dass es am Ende auch wirklich umgesetzt wird.

Etwa demonstrierte man, wie die neuen SoCs die Bildstabilisierung für Videos verbessern können: Man montierte da eines seiner Referenzgeräte gemeinsam mit einem Konkurrenzmodell auf eine Art Schiene, die ich selbst wild herumwackeln lassen konnte. In der Tat blieb das Videobild bei dem Snapdragon-Phone nahezu unbewegt, während es beim Konkurrenzmodell so verzogen wurde, wie man es erwartet. In etwa ist das eine Stabilisierung, wie sie vivo immer vollmundig für seine Smartphones mit einer Art integrierten Gimbal-Technologie beworben hatte.

Ebenfalls jetzt beim Qualcomm Snapdragon 8 Gen 2 an Bord: Support für den effizienten Videocodec AV1. Außerdem können HDR10, Dolby Vision und HDR10+ für Videos zum Einsatz kommen. Was die Videoaufzeichnung betrifft, sind bis zu 8K bei 60 fps drin. Videos lassen sich mit Dolby Vision aufnehmen und auch editieren. Kamerasensoren sind mit bis zu 200 Megapixeln möglich.

Eine weitere, spannende Demo lieferte Sony, die ihre neuen Kamerasensoren für den Qualcomm Snapdragon 8 Gen 2 optimiert haben und daher für HDR-Fotos noch mehr Belichtungen einbeziehen können, um unterschiedliche Aufnahmen zu einem Foto mit erhöhtem Dynamikumfang zu kombinieren. Laut Sony sei der vielleicht erheblichere Vorteil dabei aber die Reduzierung des Bildrauschens, die durch diese Kombination verschiedener Exposure-Zustände möglich werde – bei mehr Details in hellen und dunklen Bildbereichen.

Durch die verbesserte Segmentation unterschiedlicher Bildbereiche, welche jetzt in Echtzeit im Viewfinder und bei Aufnahmen erfolgen kann, können zudem einzelne Objekte wie Haare, Gesichter, Augen, der Himmel, Tiere, Pflanzen und mehr gezielt optimiert werden. Während dann meinetwegen in einem Gesicht Falten und Hautunreinheiten kompensiert werden, kann parallel die Schärfe für die Haarsträhnen erhöht werden. Auch hier entscheiden aber die Hersteller wie Xiaomi, Oppo, Samsung und Co., ob und wie sie dies einbeziehen.

Es ist auch möglich, „Always Sensing Cameras“ zu verwenden. Hier betonte man bei Qualcomm deutlich, dass die Kamera dann aber nicht ständig Aufnahmen anfertige. Weder Bilder noch Videos würden ermittelt, sondern nur simple Zustände erkannt. Das kann eben die Unterscheidung dazwischen sein, ob der Nutzer vor dem Smartphone sitzt oder abwesend ist – und entsprechend der Screen automatisch an- oder ausgeschaltet wird.

Auch lässt sich so etwa der Screen deaktivieren, wenn erkannt wird, dass eine Person euch über die Schulter lugt. Oder ihr schaut euch ein Video mit einem Freund an, sensible Benachrichtigungen erscheinen aber nicht, weil ein zweiter Zuschauer erkannt worden ist – alles vollautomatisch über die Kamera. Dabei sollen keine Daten das Gerät verlassen bzw. nicht einmal im Betriebssystem landen: Alles werde nur direkt im SoC verarbeitet.

Last but not least: In Android 13 wird Qualcomm neue APIs zur Verfügung stellen. Dadurch soll es Drittentwicklern möglich sein, die soeben erwähnten Features von Snapdragon Sight für ihre Apps einzubinden. Kauft ihr dann also ein Smartphone, euer Hersteller nutzt aber die gewünschten Funktionen nicht, könntet ihr eine andere Kamera-App herunterladen und im besten Falle so darauf zugreifen.

Sehr feine Sachen, die ich auch in den Live-Demos schon im Einsatz erleben konnte. Nun heißt es eben gespannt sein, was Qualcomms Partner daraus machen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden. PayPal-Kaffeespende an den Autor.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

5 Kommentare

  1. Nur blöd, dass ist den neuen Pixel’n ein veränderter Exynos drin steckt. Die Exynos sind richtig schlecht. Da wäre Google besser bei Qualcomm geblieben.

    • hab das pixel 7 pro. merke nichts von einem „richtig schlechten“ Prozessor 🙂
      aber natürlich toll zu sehen, wie qualcomm die Entwicklung voran treibt

  2. ewig rumgemacht mit av1 und jetzt gerade Mal Decoder ist echt peinlich. Um das wohl zu kaschieren noch für angebliche Patente an av1 die Konkurrenz Belangen zu wollen, eine Frechheit. av1 decoden in Hardware kann die Konkurrenz schon seit Jahren. spart erheblich Energie bei Video-Konferenzen, die heutzutage alle auf av1 setzen und das Gerät bleibt merklich kühler. Netflix und co setzen alle auf av1 aber qualcomm mauert seit Jahren.

  3. André Westphal says:

    Wobei, dass ja nicht Qualcomms Schuld ist, wie du ja auch schon sagst. Wird eh spannend, wie die Hersteller dann mit den Funktionen umgehen bzw. welche eingearbeitet werden und welche nicht.

    • Das verstehe ich nicht. Natürlich ist das Qualcomms Schuld dass sie gerade mal decode für neue Geräte ab 2023 also im nächsten Jahr unterstützen. Natürlich ist das auch Qualcomms Schuld, dass sie die Lizenzbedingungen vom AV1-Codec bekämpfen wollen. Was Ihnen wohl reichlich spät einfällt. Das letztjährige Pixel konnte das schon. Geräte mit Mediatek-Prozessor können das bereits ab dem 1000er. Ab Android 14 bekommt man wohl nur noch eine Lizenz von Google für sein Gerät wenn AV1 zumindest in Software vorhanden ist.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.