Samsung stellt neuen Bildsensor ISOCELL HP2 mit 200 Megapixeln vor
Samsung hat in den vergangenen Jahren gezeigt, dass man mit seinen Flaggschiff-Geräten jedes Jahr an der Spitze mitmischen kann. Grundlage dafür ist auch, dass man eine Menge Arbeit in die Entwicklung eigener Bildsensoren steckt. In der Nacht hat das Unternehmen den neuen Sensor ISOCELL HP2 vorgestellt, der mit 200-Megapixel-Auflösung ausgestattet ist. Diese Pixel sind 0,6 Mikrometer groß und sitzen auf einem 1/1,3 Zoll großen Sensor, der auch schon für die 108-Megapixel-Kameras genutzt wurde. Man konnte die Auflösung also nahezu verdoppeln, muss aber keinen größeren Kamera-Buckel im Smartphone platzieren.
Samsung lässt euch damit aber nicht nur 200-MP-Fotos knipsen, sondern man hat eine eigene Pixel-Binning-Technologie namens „Tetrapixel“, die je nach Lichtverhältnissen zwischen 4 und 16 benachbarte Pixel zu einem zusammenfasst. Das sorgt laut Samsung für besonders gute Fotos, egal wie viel Licht euch gerade zur Verfügung steht. Der HP2 verfügt außerdem über eine Technologie namens Dual Vertical Transfer Gate (D-VTG), die ausgewaschene Fotos bei besonders hellen Umgebungen vermeiden soll.
In schlechtem Licht nutzt der HP2-Sensor weiterhin Super QPD. Dabei werden alle Pixel als Focusing Agents genutzt, damit der Autofokus stets besonders gut funktioniert. Ein neues DSG-Feature verbessert die HDR-Performance des Sensors im 50-MP-Modus. Von Dolby Vision ist in der Pressemitteilung keine Rede. Details zu den Technologien findet ihr direkt bei Samsung.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich verstehe das nicht, ist diese Megapixel-Schlacht nur reines Marketing? Dadurch, dass die kleinen Pixel so klein sind, muss man sowieso binnen und aus 200MP werden 50MP oder weniger. Wofür dann das ganze?
In der Bildverarbeitungs-Industrie nutzt man Sensoren mit Pixelgrößen von bspw. 5,5µm, um Rauschen zu verhindern. Die MP-Zahl ist hier völlig zweitrangig. Warum nimmt das bei Smartphones so absurde Formen an? Einfach nur, weil Megapixel im Marketing leicht rüberzubringen sind?
Ja, so ist es. Marketing Gag, um Kunden vorzutauschen, die Bilder wären dann besser.
Mehr entscheidend als die Pixelanzahl ist aber die Qualität des Objektives.Wenn vor dem tollen Sensor dann so eine billige Platikscherbe sitzt, bringt das alles nichts.
Das mit den nimmer mehr Megapixeln ist genau wie bei den 4K oder 8K Fernsehern.
Wermehr als 2 Meter weit weg sitzt, sieht keinen Unterschied zu Full HD Auflösung.
Trotzdem gibt es jede Menge sogenannter Experten, die angeblich genau sehen, wieviel besser das Bild ist.
Es ist auch nur reines Marketing. Das sieht man daran, dass in der Praxis nach wie vor ûberall 12 MP genutzt werden – im Falle von Google kann man sogar nicht mal 50MP nutzen.
Diese gigantischen Megapixelwerte existieren ausschließlich, damit man mit größeren Zahlen werben kann. Ob sie sinnvoll oder überhaupt nutzbar sind, ist zweitrangig. Finde diese Entwicklung mehr als traurig. Auch weil jetzt auch Apple darauf aufgesprungen ist.
Pixel-Binning bringt auf CMOS-Sensoren nicht mal viel (größere Sensoren bringen mehr). Möglicherweise haben irgendwelche tollen Algorithmen da noch ein paar mehr Möglichkeiten.
Auf CCD-Sensoren hat das aber einen großen Vorteil, da die Pixel anders ausgelesen werden. Die werden nur nicht in Smartphones eingesetzt.
Allerdings kann man damit andere Spielereien machen, wie z. B. einen höheren Dynamikumfang (HDR). So können die einzelnen Pixel nämlich unterschiedliche Belichtungen aufnehmen und man hat so eine Belichtungsreihe mit einmal Auslösen erledigt.
Das Problem bei diesem Pixelbinning, ist die Verteilung der Subpixel. Um 4 (oder 16) Subpixel zusammenzufassen, sollten die auch nebeneinander liegen, um optimale Ergebnisse zu erzielen. Für die vollen 200 MP ist das aber wiederum hinderlich, da die Subpixel eines Pixels nicht mehr nebeneinander liegen. Auch da kann man mit etwas rumrechnen noch etwas raus hohlen. Die Bildqualität wird also zwischen einem 50-MP- (oder 12-MP?) und einem echten 200-MP-Sensor liegen.
Die CCD-Sensoren haben dieses Problem üblicherweise nicht, da sie hauptsächlich für Astrofotografie eingesetzt werden und daher Schwarz-Weiß sind.
Große Zahlen spielen sicher auch eine Rolle.
Du musst ja auch nicht alles verstehen. Smartphone Kameras existieren für mich eh nur für Dokumentationszwecke („Seht her, ich war hier!“-Fotos oder Fotos von Alltagsgegenständen) egal wie gut sie aktuell durch Software-Algorithmen sind. Da macht es keinen Sinn 10 Megapixel Sensoren zu verbauen, die wenn es auf Details ankommt rauschfreien Matsch liefern. Dann lieber Rauschen hinnehmen und im Post versuchen das rauszurechnen und dafür auch kleine Details auf dem Foto, wie Schriften etc.. Für „gute“ Fotos nehm ich dann gerne auch meine R6m2 mit entsprechendem Glas mit, was prima in einer kleinen (Messenger-)Tasche Platz findet.
16-fach Pixelbinning ist so selten dämlich.
Schon beim iPhone 14 Pro zeigt Apple selbst, dass Pixelbinning NICHT in den Pixelgrößen resultiert, mit denen man wirbt. Der „65% größere Sensor“ erreicht ohne die neue Photonic Engine nämlich nur exakt die gleiche Lichtsensitivität, wie der Sensor im 13 Pro. 1.9um vs „2.4um“.
Und bei 16 Pixeln wird das garantiert nicht besser. Statt 2.4um dürfte die effektive Leistung eher bei 1.5um liegen. Wenn überhaupt.
Um bessere Lowlight-Performance hinzukriegen, braucht es also noch mehr Software, die die Bilder einfach nur kaputt macht.
Einziger Vorteil von einer hohen Auflösung bei Dunkelheit ist, dass das Rauschen feiner und dadurch weniger störend und auch besser rauszufiltern ist.
Der Nachteil von der hohen Auflösung ist, weniger Sensor pro Fläche, da zwischen jedem Pixel Balken sind.
Ich war so enttäuscht vom iPhone 14 Pro, dass es nicht selbstständig erkennt, wann welche Auflösung besser ist und dann wahlweise 48 Megapixel oder 12 abspeichert – und zwar in HEIF nicht in ProRAW. Bei ProRaw verliert man leider die LivePhoto Funktion und auf Kurzbefehle, die ProRAWs in HEIF umwandeln hatte ich keine Lust, da das bestimmt zu Problemen führt, wie z.B. eine andere Positionierung im „Zuletzt Album“