Nikons Z 8 kann mehr als Z 9 und echte KI-Bilder - die Fotonews der Woche 6/2024

Mit dem ersten großen Firmware-Update lernt die Z8 Pixel-Shift, OpenAI kennzeichnet KI-Bilder wie Fotos und was überhaupt ein Foto ist, wird wieder diskutiert.

In Pocket speichern vorlesen Druckansicht 45 Kommentare lesen

Die Z8 kann jetzt auch mit 180 Megapixeln fotografieren.

(Bild: Nikon)

Lesezeit: 8 Min.
Von
  • Nico Ernst
Inhaltsverzeichnis

Weil Kameras heute Softwareprodukte sind, gibt es immer wieder Firmware-Updates. Und wenn dann neue Funktionen nachgeliefert werden, unken manche, das Geräte sei "unfertig auf den Markt geworfen" worden, "Bananenware" oder sonstiges. Das ist natürlich Unsinn, denn man entscheidet sich für eine Kamera anhand der Funktionen – und hoffentlich Testberichte – die zum Zeitpunkt der Kaufentscheidung vorliegen. Darauf zu hoffen, dass das Ding dann irgendwann mal mehr kann, ist eben genau das: nur Hoffnung.

Ein bisschen ad absurdum geführt hat dieses Prinzip der Produktpflege aber Nikon in dieser Woche. Denn mit dem ersten großen Update auf Version 2.0 hat die Z 8 nun ein Feature, das das größere und Topmodell Z 9 nicht beherrscht, den Pixel-Shift. Wie bei anderen Kameras mit dieser Technik wird dabei der Stabilisator des Sensors bei mehreren Aufnahmen in Folge leicht verschoben. Aus der nativen Auflösung von 45 Megapixeln werden so 180 Megapixel, wohlgemerkt: ohne Interpolation, sondern anhand von echten Aufnahmen. Da kann sich auch Mittelformatgerät wie die neue Fuji GFX 100 II mit schlappen 102 Megapixeln hinten anstellen. Wenn man nicht deren Pixel-Shift aktiviert, dann sind es 240 oder 400 Megapixel.

Zugegeben, das ist ein unfairer Vergleich, denn wer schon einmal mit Pixel-Shift gearbeitet hat, kennt die Einschränkungen: Das Motiv bewegt sich am besten gar nicht, gleichbleibendes Licht ist wichtig, und verarbeitet sein wollen die Riesendateien dann auch noch. Im Studio, oder bei Landschaftsaufnahmen, kann das dennoch hilfreich sein. Weil Nikon gerne einmal komische Übersetzungen nutzt, heißt Pixel-Shift im Menü der Kamera übrigens "Pixelverlagerung", obwohl da keine Pixel verlagert werden. Allenfalls könnte man darunter vielleicht noch eine "Sensorverlagerung" verstehen.

Sei's drum, die Funktion ist eine nette Beigabe. Für Profis sind andere neue Funktionen wichtig. Die Fokusfalle der Z 9 beherrscht die Z 8 jetzt ebenfalls, und beim Filmen gibt es niedrigere ISO-Stufen im N-Log-Farbformat. Der KI-Autofokus kann nun auch Vögel in Bewegung scharf halten, und zwar bei Foto und Video. Daneben gibt es zahlreiche weitere Änderungen, die hier den Rahmen sprengen würden, ein Blick in die Liste der Neuerungen lohnt vor einem eventuellen Update. Vor allem, weil IPTC-Metadaten beim Update gelöscht werden, sich aber vorher sichern und später wieder einspielen lassen. Unter dem gleichen Link findet sich auch die Firmware C 2.0, die bisherige Version trug die Nummer 1.01.

Da bleibt natürlich noch die große Frage, ob und wann die Z 9 auch Pixel-Shift erhält. Da Sensor und weite Teile der Elektronik bei beiden Kameras gleich sind, dürfte das vor allem an der Kapazität der Entwickler und Tester bei Nikon liegen. Oder, um es ganz ehrlich zu sagen: Wir wissen nicht, ob Nikon die Z 9 entsprechend aufwertet. Denn, siehe oben, die Kaufentscheidung für den Profiklotz sollte nicht von künftigen Funktionen abhängig gemacht werden.

Bei Smartphones wird die Wahl des einen oder anderen Modell häufig von, wie man lesen kann, "der Kamera" abhängig gemacht. Dabei ist aber eigentlich nicht der Photonenfänger an sich gemeint, sondern das Gesamtsystem aus Optik, Sensor und vor allem Software. Und die verändert Bilder schon länger, als die Technik dahinter in der Öffentlichkeit "Künstliche Intelligenz", vulgo, KI genannt wird. Problematisch wird das immer dann, wenn Nutzer das nicht wissen, eine KI-Optimierung ab Werk eingeschaltet ist und das nicht klar kommuniziert wird.

Vor gut einem Jahr war hier besonders Samsung aufgefallen, das ab dem Modell S20 in seinen Smartphones Bilder des Mondes ungefragt und nachprüfbar mit Inhalten angereichert hat, die im Motiv nicht vorhanden waren. Das heißt: Ein echtes Foto des Mondes, so wie man ihn im Moment der Aufnahme sah, war in den Werkseinstellungen mit den Handys gar nicht zu machen. Mit dem aktuellen S24 geht Samsung in der KI-Bildoptimierung, dem Trend entsprechend, noch weiter. Und weil es daran immer mehr Kritik gibt, ließ sich ein Samsung-Manager bereits Mitte Januar zu der Aussage hinreißen, so etwas wie ein, so wörtlich, "echtes Foto gebe es gar nicht".

Das sagte Patrick Chomet " Head of Customer Experience" bei Samsung in einem Interview mit Techradar, das seitdem wegen dieser Aussage immer wieder durch die Nachrichtenticker rauscht. Teils mit Verzögerung, denn in dieser Woche war die seltsame Aussage auch Thema im Podcast von Petapixel. Dieser Link führt direkt zu dem Segment, in dem die Hosts Chris Niccolls und Jordan Drake erklären, was sie für ein echtes Foto halten. Nämlich eines, das auch von einer Kamera aufgenommen, und nicht von einem Computer vollständig errechnet wurde.

Drake bemüht sogar die wohl allseits bekannte Wortdefinition, nämlich das altgriechische "Zeichnen mit Licht". Dabei wandelt er das noch etwas ab, indem er die Photonen als maßgebend nennt: Wenn keine Photonen von einem Gerät eingefangen wurden, ist das Ergebnis kein Foto. Wie in der letzten Ausgabe unserer Kolumne erneut beschrieben, verwenden wir daher für KI-Bilder, so realistisch sie auch aussehen mögen, nicht den Begriff "Foto". Dabei geht es nicht darum, den Besitzstand des Fotografen zu wahren, sondern um eine Abgrenzung von Fotos, die ein reales Geschehen darstellen, von KI-generierten Fakes.

Geradezu tragisch ist dabei, dass nun auch OpenAI, die Erschaffer von ChatGPT, in ihren KI-Bildern aus dem System Dall-E die Metadaten nach CAI/C2PA einbetten wollen. Erfunden wurde dieses System nämlich eigentlich, um Pressefotos ein Echtheitssiegel zu verleihen. Fragen wie: Welcher Fotograf hat wann, wo, und mit welcher Kamera dieses Bild gemacht, und was ist der originale Bildausschnitt? sollten damit fälschungssicher beantwortet werden.

Das ist für Pressefotos zwar immer noch möglich, das reine Vorhandensein von C2PA-Daten reicht aber für das Vertrauen in ein Bild nicht mehr aus, wenn auch KI-Bilder die Angaben enthalten. Allenfalls müsste man dann noch Personendaten des Erstellers oder gar den Prompt für die Generierung sichtbar machen, und das wirft eine Menge von Fragen auch datenschutzrechtlicher Natur auf.

Man kann auf der einen Seite begrüßen, dass Dall-E-Bilder per C2PA überhaupt gekennzeichnet sind. Andererseits ist das so lange nutzlos, wie Onlinemedien und soziale Netzwerke diese Daten nicht auf einfache Weise anzeigen. Selbst OpenAI weist in einem Blogbeitrag darauf hin, dass soziale Netzwerke Metadaten entfernen, das ist aber eine Nebelkerze: Denn im Zeitalter von KI-Bildern muss schlicht jedes Bild, dessen Herkunft nicht nachprüfbar eindeutig ist, als Fälschung gelten. Böswillige Akteure werden sich gerade darum bemühen, ihre Bilder eben nicht als KI-generiert zu kennzeichnen.

Unsere Empfehlung zum Wochenende ist diesmal sowohl ein Long Read wie ein Long Klick. Denn die Deutsche Fotothek hat nun den Nachlass des deutschen Fotografen Hein Gorny in Text und Bild aufgearbeitet. Gorny hat als international veröffentlichter Fotograf wie kaum ein anderer die erste Hälfte des 20. Jahrhunderts in Deutschland dokumentiert. Sein Schwerpunkt lag bei Werbung und Industrie, die Bilder wirken auch heute noch modern. Empfohlen sei unter anderem ein Blick in die Produktion des Schreibgeräteherstellers Pelikan und in seine Bilder der Zerstörungen nach dem zweiten Weltkrieg. All das, und eine recht ausführliche Biografie von Gorny, findet sich auf seiner neuen Themenseite in der Fotothek.

(nie)