Astro-Fotografie: Google Pixel 4, iPhone 11 Pro und Huawei P30 Pro im Vergleich

Die Milchstraße ist das Ziel: Wir zeigen, wie sich das Google Pixel 4 beim Fotografieren von Sternen im Vergleich mit dem iPhone 11 Pro und P30 Pro schlägt.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen
PIxel 4, iPhone 11 Pro, P30 Pro: Astro-Fotografie

(Bild: heise online / Patrick Bellmer)

Lesezeit: 12 Min.
Inhaltsverzeichnis

Auf der Suche nach Alleinstellungsmerkmalen für ihre Kamera sind die ersten Smartphone-Hersteller im Weltraum angekommen. Für das im Frühjahr 2019 vorgestellte P30 Pro verspricht Huawei beeindruckende Aufnahmen vom Mond. Google geht nun einen großen Schritt weiter: Pixel 4 und Pixel 4 XL nehmen gleich die Milchstraße ins Visier respektive in den Sucher. Apple hält sich hingegen zurück und verweist beim iPhone 11 Pro lediglich auf einen hochwertigen Nachtmodus. Wir zeigen, wie gut sich die drei Smartphones in Sachen Astro-Fotografie wirklich schlagen und was man beim Fotografieren der Sterne beachten muss.

Unabhängig davon, was die drei – und andere – Hersteller versprechen: Hinter dem Nachtmodus (Nachtsicht bei Google) verbirgt sich in erster Linie eine längere Belichtungszeit als üblich. Statt für wenige Zehntelsekunden fängt die Smartphone-Kamera mehrere Sekunden lang das wenige Licht ein. Beim iPhone 11 Pro liegt das Limit bei 28, beim P30 Pro bei 32 und beim Pixel 4 bei 16 Sekunden. Während Huawei dem Nutzer freie Hand bezüglich der Belichtungszeit gibt, setzt Apple enge Grenzen. Das Maximum von 28 Sekunden lässt sich nur dann auswählen, wenn die Kamera-Software eine solche Zeit als notwendig erachtet. Google bietet hingegen keinerlei Möglichkeit zum Eingriff. Die Software analysiert im Anschluss die Aufnahme und kümmert sich um eine – möglichst – optimale Bearbeitung. Dunkle Elemente werden hervorgehoben, helle hingegen möglichst nicht weiter verstärkt oder sogar abgeschwächt.

Das Pixel 4 XL enthält– wie auch das kleinere Pixel 4 – das SoC Snapdragon 855, 6 GByte Arbeitsspeicher, je nach Variante 64 oder 128 GByte Flash-Speicher. Bedienen lässt es sich auch über die Motion Sense genannte Radarsteuerung.

(Bild: heise online / Patrick Bellmer)

Google setzt ähnlich wie Apple aber nicht auf eine einzelne lange belichtete Aufnahme, sondern kombiniert mehrere miteinander. Insgesamt kann das Pixel 4 bis zu 15 jeweils 16 Sekunden lange Aufnahmen verrechnen, um daraus das finale Bild zu erstellen. Ein ausgeklügelter Algorithmus reduziert dabei das Bildrauschen, verrechnet Bewegungen (etwa Blätter) und korrigiert Verwackler. Im Test ließ das Pixel 4 ein Flugzeug verschwinden, dass durch die Aufnahme flog.