Kamerasensoren erklärt: So wird aus Licht ein Bild

Die Bauart eines Kamerasensors beeinflusst die Bildqualität. Wir erklären, wie, und was das für Ihre Fotos bedeutet.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
, Sony

(Bild: Sony)

Lesezeit: 41 Min.
Von
  • Sandra Petrowitz
Inhaltsverzeichnis

Der Sensor ist das Herzstück jeder Digitalkamera: Er wandelt Licht in Daten um. Die damit verbundenen technischen Abläufe und die Eigenschaften des Sensors beeinflussen das in der Kamera entstehende Bild maßgeblich. Zugegeben: Das Ganze ist enorm vielschichtig. Fotografen sollten aber trotzdem eine Vorstellung davon haben, was im Sensor ihrer Kamera vor sich geht, wenn ein digitales Raw-Foto entsteht. Das erleichtert auch das Verständnis dafür, was hinter viel diskutierten Phänomenen wie Rauschen oder Dynamikumfang, Pixel Shift und Global Shutter steckt – und wie man aus der eigenen Kamera die bestmögliche Bildqualität herausholt.

Mehr zu Technik in Kameras

Sensoren unterscheiden sich von Kameramodell zu Kameramodell, zum Beispiel in Größe, Pixelzahl und Aufbau. All dies hat Auswirkungen auf die entstehenden Fotos. Der grundlegende Ablauf vom Licht zum Bild ist aber immer ähnlich.

Gebündelt durch das Linsensystem im Objektiv trifft Licht auf den Sensor und damit auf Millionen regelmäßig in Zeilen und Spalten angeordnete, lichtempfindliche Rezeptoren – ungefähr so viele, wie das Bild später Pixel hat. Die Differenz zwischen der physikalischen Sensorauflösung und der effektiven Pixelzahl rührt daher, dass nicht alle Rezeptoren zur Bilderzeugung genutzt werden.

Das war die Leseprobe unseres heise-Plus-Artikels "Kamerasensoren erklärt: So wird aus Licht ein Bild". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.