Google erklärt die Funktionsweise des Astrofotografiemodus
Der Astrofotografiemodus der Pixel 4 und 4 XL weiß durchaus zu beeindrucken, wenn ich mal in meinen Bekanntenkreis umhöre oder in meine Twitter-Timeline schaue. Dieser Modus ist mittlerweile ja auch für das Pixel 3 und 3a verteilt worden und selbst das Pixel 2 und Pixel 1 können über eine modifizierte Version der Kamera darauf zugreifen. Doch wie genau bekommt Google das eigentlich hin, dass ausgerechnet diese Software für so gute und klare Sternenhimmel-Aufnahmen sorgt? Das hat das Unternehmen nun in einem speziellen Blogpost näher erläutert.
So nehmen sowohl das Pixel 4 als auch das Pixel 4 XL insgesamt bis zu vier Minuten den Sternenhimmel auf, weshalb ein Stativ genutzt oder zumindest ein stabiler Stand sichergestellt sein sollte. Das Pixel 3 und 3a nehmen nur maximal eine Minute auf. Beim Pixel 4 entstehen am Ende bis zu 15 jeweils 16 Sekunden lange Einzelbelichtungen. Hier erklärt sich dann auch, warum trotz vier Minuten Aufnahme am Ende keine Leuchtspuren bei den Sternen zu erkennen sind, denn in den kurzen Einzelaufnahmen sind diese gar nicht vorhanden – die Software rechnet ja erst am Ende alles vernünftig zusammen.
Hot- oder auch Warm-Pixels sind das nächste anzugehende Problem. Dies sind einzelne Pixel des Sensors, die heller als die restlichen Pixel erscheinen und das Gesamtbild stören. Googles Technologie weiß solche Fehler aber zu erkennen und herauszurechnen. Das Zusammenfügen der maximal 16 Einzelaufnahmen und das Herausfiltern der fehlerhaften Pixel sorgt am Ende für eine überzeugende Aufnahme, bei welcher der Himmel selbst von der Software ein wenig nachträglich abgedunkelt wird.
Da darf noch erwähnt werden dass es in größeren Städten kam Erfolgserlebnisse gibt, wegen dem aufgehellten Himmel. Bei 16s Belichtung wird der dann taghell und die wenigen erkennbaren Sterne machen nur wenig her.
Kein Problem, man Fotografiert ja nicht jeden Tag den Sternenhimmel. Aber diese kleine Hilfe wird dir und deinen Pixel helfen:
https://www.lightpollutionmap.info/#zoom=5&lat=6620520&lon=647064&layers=B0FFFFFTFFFFFFFF
Faszinierend, was inzwischen softwaremäßig möglich ist.
Andererseits: sämtliche Fotos die man so aufnimmt sind nicht mehr „echt“ – sondern von der Software zurecht-„optimiert“.
Schon auch eine gruselige Vorstellung.
Insofern Du nicht in raw fotografierst ist doch sowieso jedes Foto berechnet, also unecht.
Wann ist eine Aufnahme schon echt? Auch im analogen Bereich kam es schon auf den Film, Blende, Belichtungszeit, Entwickler, Fotopapier an. Als „echt“ könnte man höchstens eine wirklichkeitsgetreue Darstellung der Realität bezeichnen. Daneben gab und gibt es unzählige Filter. Von der Herstellungsmethode auf die Realitätsnähe zu schließen ist nicht immer möglich.