Direkt zum Inhalt springen und Lesemodus aktivieren
Artikelbild

Artikel anhören


Lesezeit: ca 3 Min Druckversion

Analog vs Digial

Einleitung

Bisher haben wir uns nur die Kamera von außen betrachtet und wie man an den Einstellungen dreht.

Jetzt geht es um den Teil, der das Bild entstehen lässt.

Grundsätzlich ist es vom Aufbau her egal, ob es eine digitale oder analoge Kamera ist, bis auf den Sensor und Elektronik bzw. Film und Filmmechanik ist der restliche Aufbau vergleichbar.

Gemeinsamkeiten

Sowohl Film als auch Sensor arbeiten nach dem gleichen Prinzip:
Auf einer kleinen Fläche (Pixel bzw. Molekülgruppe) werden alle Photonen über die Belichtungszeit gesammelt und dann die Summe dessen ergibt die Helligkeit an diesem Punkt.
Mathealarm: Sie sind das Integral von Photonen über Zeit.
Die Größe dieser Körner bzw. Pixel entscheidet über die Empfindlichkeit.
Ein einfaches Beispiel zu Veranschauung.
Die Kamera ist eine Scheune auf dem Land. Dar Kameraverschluss ist das Dach.
Der Sensor/Film ist eine Anordnung vom Wassereimern auf dem Boden der Scheune.

Jetzt regnet es, und wir machen für eine gewisse Zeit den Verschluss(das Dach) auf.

Jeder der Eimer füllt sich nun mit Wasser. Jeder Eimer entspricht nun einem Filmkorn oder Pixel.

Wenn wir das Dach wieder schließen, kommt kein weiteres Wasser mehr rein.

Analogfilm

Beim Analogfilm verändern die Photonen die chemische Substanz im Film, beim späteren entwickeln werden nun die Körner weggeschwämmt, die Licht gesehen haben, je nach Menge des Lichts komplett oder teilweise. Alternativ werden bei manchen Filmen auch die nicht-belichteteten Teile weggespült (Negativ vs Diafilm).

Es gibt dabei Körner, die auf verschiedene Wellenlängen(Farben) reagieren, z.B. welche für rote Farben. So entstehen die Farbbilder.

Der ISO-Wert des Films hat Einfluss auf die Größe und damit die Empfindlichkeit der Körner. Hier gilt, je größer das Korn, desto empfindlicher, aber auch sichtbarer. Quasi die Auflösung des Analogfilms.

Digital

Hier passt das Beispiel mit der Scheune wieder besser, hier werden pro Pixel die Photonen in elektrische Ladung umgewandelt, und das Pixel "füllt" sich tatsächlich mit Elektronen.
Wenn die Belichtung abgeschlossen ist, liest die Elektronik diese Füllstände (Spannungen durch Elektronensammeln) aus. Die werden verstärkt (das ist der ISO-Teil der Einstellung) und dann vom Analogwert in einen Digitalwert überführt. Je nach Kamera +- 12 Bit oder 212 = 4096 Abstufungen.
Leider entstehen Bauart-bedingt und auch elektronisch bedingt im Sensor Fehler beim sammeln der Elektronen und späteren auslesen. Das sind leichte Heligkeitsschwankungen oder auch Rauschen.

Je stärker ich nun meine Verstärkung hochdrehe, desto stärker wird dieser Fehler mitverstärkt. Aus einer 1/1000 Abweichung wird bei Verstärkung * 50 schnell 50/1000 oder 5% Rauschen. Das ist sichtbar.

Je besser Sensoren werden, desto weniger rauschen sie, auch die physische Größe der Pixel macht ein Unterschied. Der Rauschwert bleibt ähnlich, aber das Nutzsignal wird stärker, weil mehr Elektronen gesammelt werden. (Stichwort Signal/Rausch-Abstand).
Die einzelnen Farben entstehen dadurch, dass es pro Bildpixel 3 (manchmal 4) Sub-Pixel (Eimer) gibt. Jeweils mit einem Farbfilter davor, so dass nur rotes, blaues oder grünes erfasst wird. Manchmal werden auch Sub-Pixel benachbarter Gruppen gemischt. Dadurch entsteht eine höhere Pixelzahl des Sensors. D.h. ein Subpixel kann Informationen für bis zu 4 benachbarte Pixel liefern.

Bonus Fact:

Aus Amateur, aber auch manchmal aus Profi-Sicht, wird gesagt, man kann ruhig auch bei niedrigen Lichtverhältnissen mit ISO 100 knipsen und das viel zu dunkle Bild später am Rechner heller machen. Die Qualität bliebe gleich. Das ist fast richtig. Das Problem ist die fehlende Auflösegenauigkeit unserer 12 Bits. Beispiel: Mein Bild hat bei ISO 100 als maximalen Helligkeitswert 256 (von 4096). Dann reduziere ich effektiv mein Bild auf eine Bittiefe von 8 Bit. Also gehen mit 4 Bit Farbinformationen verloren. Das mag man nicht sehen, aber Farbverläufe verlieren dadurch an Zwischenfarben (Aus 16 Farben wird eine). Da die meisten Bildschirme am Ende eh nur 8 Bit Farbtiefe haben, sieht man es vermutlich garnicht. Aber spätestens beim Nachbearbeiten kann einem das auf die Füße fallen.
Ein verstärkter Effekt ist wenn wir ein Foto nehmen und das in ein 256 Farben Bild umwandeln. Im Prinzip passiert das gleiche (es bleiben nur mehr Farben übrig).

 

Weiter geht es mit dem Unterschied beim Speichern der Bilder: RAW vs JPEG vs Analog.

0 Kommentare
Artikel melden

Unser Algorithmus glaubt, diese Artikel sind relevant: