Grundlagen Sensor

Der ursprüngliche Text wurde mittlerweile in ein YouTube-Video „übersetzt“. Wenn Euch das gefällt, bitte abonniert den Kanal und kommentiert das Video gleich dort.

Der Sensor ist ein wesentlicher Bestandteil eines Fotoapparats, aber nicht der wesentliche Bestandteil. Es geht bei einer Kamera um das Zusammenspiel aller Komponenten. Die Größe des Sensors kann jedefrau und jedermann nachvollziehen, daher wird sie auch oft besprochen.

Abbildung 1: Sensorengrößen

In der Abbildung 1 sind in der Tabelle rechts Werte der Sensoren für Breite, Höhe, Verhältnis von Breite zu Höhe, Sensordiagonale, Crop-Faktor (gibt an, mit welchem Faktor die Sensordiagonale des jeweiligen Sensors multipliziert werden muss, um die des Kleinbildsensors zu erreichen), Sensorfläche in mm2 und Sensorfläche in Vielfachen der Sensorfläche des Kleinbildsensors angegeben.

Der Kleinbildsensor wird von diversen Kamera-Marketingabteilungen auch Vollformatsensor („Full Format“) genannt, weil seine Größe der des Negativs eines 35mm-Kleinbildfilms der analogen Fotografie entspricht. Die 35mm waren die Höhe des Films inklusive der Perforation für den Filmtransport.

Oft wird der Crop-Faktor verwendet, um die Brennweitenwirkung von verschiedenen Sensorgrößen umzurechnen. „Eine 150mm Brennweite vor einem Micro Four Thirds, entspricht einer 300mm Brennweite vor einem Kleinbildsensor“, wird dann behauptet. Das ist zwar nicht richtig, für die praktische Anwendung aber oft auch nicht ganz falsch 🙂 .

Dem Objektiv ist die Sensorgröße ziemlich egal

Kein Bildsensor verändert die optische Wirkung eines Objektivs, die Optik bleibt komplett unbeeindruckt. Wenn der Sensor zu klein ist um die in der Kamera ankommenden Lichtstrahlen „aufzufangen“, dann gehen die eben am Sensor vorbei. Ein kleinerer Sensor fängt also nur einen Ausschnitt, einen Crop, eines größeren Sensors auf. Die Brennweite bleibt die, die sie eben ist.

Abbildung 2: „Äquivalenz“ von Brennweiten

Aber der Crop-Faktor verändert schon die Schärfentiefe, oder nicht?

Als Schärfentiefe bezeichnet man in der Fotografie jenen Bereich in der „Tiefe“ des Bildes (quasi in die dritte Dimension des 2-dimensionalen Fotos), den wir als scharf empfinden. Das ist vor allem einmal subjektiv, während die eine einen Bereich noch als scharf ansieht, ist es für den anderen bereits unscharf. Jedenfalls ist der Übergang fließend.

Die Schärfentiefe ist vor allem ein Resultat der verwendeten Brennweite, der Blende und der Entfernung zum Motiv. Aber bei identer Papierdimension, Blende, Brennweite und Entfernung, muss man bei einem kleineren Sensor natürlich mehr vergrößern, um das Fotopapier mit Inhalt zu „füllen“. Das wird allerdings so eher selten vorkommen, weil, siehe oben, eher nicht die gleiche Brennweite verwendet werden wird, wenn man mit Kameras unterschiedlicher Sensorgrößen fotografiert. Da hilft man sich anders, zB durch andere Brennweiten.

Abbildung 3: Schärfentiefe und Sensorgröße

In der Abbildung 3 siehst Du, dass Punkte, die sich nicht genau im Fokus befinden, als Scheiben erscheinen. Man kann sich die Lichtstrahlen, die durch das Objektiv zum Sensor kommen, wie zwei Kegel vorstellen, die sich mit den Spitzen in der Fokusebene berühren und vor und hinter der Fokusebene ausweiten. Wenn der Durchmesser dieser Scheiben nicht zu groß wird, dann wirken sie für den Betrachter noch als Punkt, sie sind dann noch „scharf“ und noch nicht unscharf. Ab wann das nicht mehr gilt, hängt von verschiedenen Faktoren ab, zB wie stark vergrößert das Bild ist, wie nahe man davor steht, wie kritisch der Betrachter ist, usw.

In der Abbildung 3 wird auch gezeigt, wie man die Schärfentiefe beeinflussen kann.

Die Schärfentiefe wird größer bei kleinerer Blende, kleinerer Brennweite und größerer Distanz zum Objekt.

Ich stelle mir das so vor, dass dadurch einfach die Kegel (die, deren Spitzen sich im Fokuspunkt berühren) schlanker werden.

In der Praxis liefert ein größerer Sensor geringere Schärfentiefe bei vergleichbarem Bildausschnitt im Vergleich zum kleineren Sensor (u.a. wegen der unterschiedlichen Brennweiten, die man verwenden wird – die Brennweite wirkt stärker auf die Schärfentiefe als zB die Distanz). Für das „Freistellen“ des Motivs vom Hintergrund, es also optisch vom Hintergrund abzuheben, ist das hilfreich.

Licht messen, die Hauptaufgabe des Sensors

Ein Sensor misst das auftreffende Licht. Da der Sensor farbenblind ist, wird ihm ein farbiges Filtermuster vorgeschaltet. Jedes Pixel eines Sensors (manche nennen das exakter auch „Sensel“) misst dann nur das auftreffende Licht jener Farbe, die ihm vorgeschaltet wurde als Filter. In der Regel sind dass die Farben Rot (R), Grün (G) und Blau (B). Das wird oft mit RGB abgekürzt.

Abbildung 4: Sensor mit vorgeschaltetem Bayer-Filter um Farben wahrnehmen zu können

Jedes Pixel eines Sensors ist ein Lichtmessgerät. Die meisten aktuellen Fotosensoren haben entweder 12- oder 14-bit Farbtiefe, können also entweder 4096 oder 16384 verschiedene Werte von keinem Signal (0, dunkel) bis Vollausschlag messen. Gemessen wird dabei die entstehende elektrische Spannung, die durch die auftreffenden Lichtteilchen („Photonen“) im Halbleiter indiziert wird (innerer photoelektrischer Effekt). Je mehr Lichtteilchen aufkommen, desto höher der Wert der elektrischen Spannung.

Gemessen wird pro Pixel nur der Farbwert, der durch den Filter ankommt. In einem Pixel hinter einem roten Filter also nur der Wert für rot (R), hinter einem grünen, nur der für grün (G) und der hinter einem blauen Filter, der für blau (B).

Diese Messwerte werden dann weiterverarbeitet. Pro Pixel werden dabei die Messwerte der jeweiligen Farbe um interpolierte Werte der benachbarten andersfarbigen Pixel ergänzt. Damit liegt dann für jedes Pixel ein Wert in R, G und B vor. Bei JPEG-Bildern passiert das direkt im Bildprozessor der Kamera. Bei RAW-Bildern werden die Farbdaten erst im RAW-Konverter in der Nachbearbeitung interpoliert und interpretiert.

RAW-Dateien bleiben trotzdem schon in der Kamera nicht ganz unbearbeitet. Kameraintern werden zB Korrekturen optischer Verzeichnungen, Aufhellung der Randbereiche, leichte Schärfungen etc vorgenommen. Die RAW-Daten sind also nicht wirklich roh, sondern wurden bereits bearbeitet.

Aus den drei Werten für R, G und B kann dann jede weitere Farbe gemischt werden.

Abbildung 5: Einige der theoretisch 16,8 Mio Farben, die mit 8-bit in 3 Kanälen (also: rot, grün, blau) darstellbar sind.

Während RAW-Dateien 12 oder auch 14 bit Farbtiefe pro Kanal haben, haben JPEG-Dateien nur 8 bit pro Kanal.

Bildrauschen und Sensor

Bildsensoren haben auch ohne den Einfall von Licht einen gewissen Ausschlag, man nennt das Dunkelstrom. Dieser Dunkelstrom ist stark temperaturabhängig (egal ob der Sensor durch Sonne oder intensive Nutzung erwärmt wurde). Je wärmer der Sensor ist, umso mehr Dunkelstrom gibt es, umso stärker „rauscht“ der Sensor. Damit ist gemeint, dass es zufällige Helligkeitsfehler gibt, dass also Werte als hell angezeigt werden, die es gar nicht sind. Da diese Helligkeitsfehler unter einem der Farbfilter des Bayer-Filter stattfinden, sind damit auch automatisch Farbfehler gepaart.

Prinzipiell ist die Lichtempfindlichkeit eines Sensors durch seine Bauart gegeben. Das Signal, also die gemessene Spannung, die am Sensor entsteht, kann allerdings „künstlich“ verstärkt werden (höhere ISO-Werte, als der Basis ISO-Wert). Die ISO Werte sind linear, d.h. ein doppelt so hoher Wert bedeutet auch doppelte Lichtempfindlichkeit. Durch diese Verstärkung entsteht allerdings auch eine Verstärkung des Rauschens.

Abbildung 6: Zunahme des Rauschens bei höherem ISO

Je größer das Signal, d.h. der Messwert, im Sensor ist, desto weniger stark fällt das Rauschen ins Gewicht. Helle Stellen sind also prinzipiell rauschunempfindlicher als dunkle Stellen. Daher kommt auch der Vorteil vom „nach-rechts-belichten“ (exposure to the right – ETTR), wenn man mit RAW-Dateien arbeitet. Bei JPEG empfehle ich das nicht. Es geht hier um den Signal/Rauschabstand bzw. um das Verhältnis des Signals und dem Rauschen.

Große Pixel haben eine größere Fläche, um das Licht einzufangen. Bei gleicher Sensorgröße sind daher (bei gleicher Sensorgeneration, also bei gleichem Stand der Technik) weniger Pixel für das Rauschverhalten besser als mehr Pixel. In der Abbildung 1 sind ganz rechts in der Tabelle die Sensorgrößen dargestellt.

Wenn zB eine Mittelformatkamera mehr als doppelt so viele Pixel hat, wie eine Kleinbildkamera, dann sind die einzelnen Pixel der Mittelformatkamera kleiner. Sie wird dann tendenziell mehr rauschen als die Kleinbildkamera.

Andererseits wird eine MFT-Kamera mit mehr als 26% der Pixel einer Kleinbildkamera auch mehr rauschen als diese. Zumindest pro Pixel betrachtet, bei einem ausgedruckten Foto wird man das nicht merken, am Computermonitor schon.

Es hängt das Rauschen also stark von der Pixelgröße ab und nicht so sehr von der Sensorgröße an sich.