CI-Fotocommunity

Registriere Dich jetzt kostenlos!

Dadurch bekommst Du Zugang zu dem geschützten Mitgliederbereich, kannst beim Gebrauchtmarkt mitmachen und stellst nebenbei auch noch sicher, dass niemand Dir Deinen Wunsch-Usernamen wegschnappt.

Farbtiefe, Bittiefe, Dynamik ... und der ganze Rest

hlamprecht

Hat vergessen, wo er wohnt
Moin,

Doch das wirkt sich schon sichtbar auf die Farben aus, definitiv, gerade bei sanften Farben der Rosen (und auch der Orchideen) und das obwohl ich die niedrigstmögliche Kompression eingestellt habe.

Aber wie sollte das gehen? Das einzige, was bei Umwandlung von 16-bit in 8-bit passiert, ist, dass Zahlenwerte zusammengefasst werden, weil die Werte durch einen konstanten Teiler geteilt und nachher auf ganze Zahlen gerundet werden. Aber: Weiß bleibt Weiß, Rot bleibt Rot, Schwarz bleibt Schwarz. Und 50% Rot / 30% Blau bleibt 50% Rot / 30% Blau. Klar, Farbverläufe sind möglicherweise nicht ganz so glatt. Aber wenn ein Bild derartig stark runterskaliert wird wie hier, würde man den Unterschied ohnehin nicht sehen. Nein, die Ursache muss irgendwo anders liegen.

Wenn die Bilder hier im Forum andere Farben haben, als Du wolltest, könnte das auch daran liegen, dass die Forensoftware die Information über das Farbprofil gelöscht hat. Falls Dein hochgeladenes JPG also zum Beispiel AdobeRGB verwendet hat, wurde dieser Information jetzt gelöscht. Das kann natürlich die Farben massiv verändern. Wenn Du innerhalb der erlaubten Grenzen bleibst, wird das Profil erhalten.

Die nächsten Bilder skaliere ich direkt auf 130 kB

"Skalieren" bedeutet in der Regel, die Bildgröße, also die Anzahl der Pixel zu reduzieren. Dadurch ändert sich zwar indirekt auch die Dateigröße, aber die sieht man erst am Ende. Erster Schritt: Die Bildgröße auf eine maximale Kantenlänge von 600 Pixel verkleinern. Dann notfalls nachschärfen. Anschließend beim Speichern - falls nötig - die JPG-Qualität soweit runterdrehen, bis die Dateigröße stimmt.

Grüße,

Heiner
 
Zuletzt bearbeitet von einem Moderator:
Ja, 33 MB oder 35 MB, genau habe ich es nicht im Kopf. Ich speichere immer in Adobe RGB, 14bit Farbtiefe und ohne Kompression.

Der Farbraum AdobeRGB ist bei Speicherung als Raw egal, unkomprimierte Raw-Speicherung ist nichts als Verschwendung (die verlustfreie Kompression ist wirklich verlustfrei), und die 14bit sind keine "Farbtiefe" sondern einfach die Wortlänge der linear codierten Sensorpixeldaten.

Aber wie sollte das gehen? Das einzige, was bei Umwandlung von 16-bit in 8-bit passiert, ist, dass Zahlenwerte zusammengefasst werden, weil die Werte durch einen konstanten Teiler geteilt und nachher auf ganze Zahlen gerundet werden.

Wieso 16bit? Es ging doch um 14bit Raw-Daten, und die sind linear codiert, die 8bit Jpg-Daten aber nicht. In sRGB kann man damit mehr als 11LW Werteumfang erfassen, in AdobeRGB noch mehr.

Deine Theorie würde bedeuten, dass je 2^6 = 64 Raw-Werte zu einem Jpg-Wert zusammengefasst werden, und das ist definitiv nicht der Fall. Aber auch bei der nicht-linearen Codierung in Jpgs können sich natürlich die relativen Werte von R, G und B zueinander leicht verschieben (weil einfach nicht mehr so fein aufgelöst wird), was dann zu leichten Farbverschiebungen führen kann. Da wir aber auch von Jpgs auf dem Bildschirm nicht jedes einzelne Pixel sehen (was für ein Glück!), mittelt sich das meistens bis zur Unerkennbarkeit weg.


Gruß, Matthias
 
Wieso 16bit? Es ging doch um 14bit Raw-Daten, und die sind linear codiert, die 8bit Jpg-Daten aber nicht.

Sorry, bin von einer normalen 16-bit Datei ausgegangen. Aber ob linear oder nicht spielt hier nur eine untergeordnete Rolle. Abgesehen davon weißt Du nicht, wie der RAW-Konverter intern arbeitet und wann die lineare Codierung in eine nicht lineare umgewandelt wird, und ob er nicht intern ohnehin mit 16 Bit rechnet (wovon ich ausgehe).

In sRGB kann man damit mehr als 11LW Werteumfang erfassen, in AdobeRGB noch mehr.

Das hat mit dem Problem hier schlicht nichts zu tun. Der Dynamikumfang ist bei den gezeigten Bildern völlig egal.


Grüße,

Heiner
 
Sorry, bin von einer normalen 16-bit Datei ausgegangen. Aber ob linear oder nicht spielt hier nur eine untergeordnete Rolle. Abgesehen davon weißt Du nicht, wie der RAW-Konverter intern arbeitet und wann die lineare Codierung in eine nicht lineare umgewandelt wird, und ob er nicht intern ohnehin mit 16 Bit rechnet (wovon ich ausgehe).

Was ist denn eine "normale" 16bit-Datei?

Das hat mit dem Problem hier schlicht nichts zu tun. Der Dynamikumfang ist bei den gezeigten Bildern völlig egal.

Ich rede ja auch nicht von Dynamik (das ist nun wieder ganz was anderes), sondern von Werteumfang. Und das sollte bloß verdeutlichen, dass die sRGB-Daten eben nicht linear codiert sind, denn sonst wäre der Werteumfang nur 8LW.


Gruß, Matthias
 
Was ist denn eine "normale" 16bit-Datei?

Hallo? Wir reden hier über Bilddaten. Also z.B. TIF, TGA, PNG, BMP, XMP, ... Es gibt diverse etablierte Bildformate mit 16-bit Farbtiefe.

Und das sollte bloß verdeutlichen, dass die sRGB-Daten eben nicht linear codiert sind, denn sonst wäre der Werteumfang nur 8LW.

Den Zusammenhang werden hier die wenigsten aus diesem Argument erkennen. Abgesehen davon: Das ist hier nicht das Problem.
 
Ich zitiere mal aus dem Handbuch Seite 92 zur Kamera:

NEF-(RAW)Einstellungen>Farbtiefe für NEF(RAW)
Wählen Sie eine Farbtiefe für NEF-(RAW-) Dateien aus.

Ja, die schreiben viel, "wenn der Tag lang ist". Und ja, man kann mit 14bit Raw mehr verschiedene Werte erfassen, als mit 8bit Jpg. Aber die Zahlen sind trotzdem nicht sinnvoll miteinander vergleichbar, denn die lineare Codierung der Raw-Datei "verschenkt" Auflösung am "hellen Ende", da können Werte genauer erfasst werden, als die überhaupt gemessen werden können (Photonenrauschen) und werden feiner aufgelöst, als der menschliche Sehsinn sie unterscheiden kann. Am "hellen Ende" ist die nicht-lineare Codierung von Jpg viel gröber, am "dunklen Ende" aber ähnlich fein. Und als Resultat können mit 8bit sRGB-Jpg eben >11LW Werteumfang erfasst werden, mit 14bit linear aber eben nur 14LW. Wie willste die nun vergleichen? Bloß Bits abzählen?


Gruß, Matthias
 
Aber die Zahlen sind trotzdem nicht sinnvoll miteinander vergleichbar

Es gibg doch gar nicht darum, inwiewiet die Zahlen vergleichbar sind, sondern um die Frage, ob man die 14-Bit nun als Farbtiefe bezeichnen kann oder nicht. Das eine hat mit dem anderen nichts zu tun.

Siehe:

und die 14bit sind keine "Farbtiefe"

Ich zitiere mal aus dem Handbuch Seite 92 zur Kamera:
NEF-(RAW)Einstellungen>Farbtiefe für NEF(RAW)

Und als Resultat können mit 8bit sRGB-Jpg eben >11LW Werteumfang erfasst werden, mit 14bit linear aber eben nur 14LW

Was sind für Dich jetzt "LW"?

Grüße,

Heiner
 
Es gibg doch gar nicht darum, inwiewiet die Zahlen vergleichbar sind, sondern um die Frage, ob man die 14-Bit nun als Farbtiefe bezeichnen kann oder nicht. Das eine hat mit dem anderen nichts zu tun.

Raw-Dateien haben keinen Farbraum, da finde ich die Bezeichnung "Farbtiefe" mindestens irreführend. Und schlussendlich geht es natürlich schon darum, ob ich zwei Zahlen, die ich beide "Farbtiefe" nenne, dann auch sinnvoll vergleichen kann. Vergleichen kann ich sie zwar, wenn ich möchte (14bit erfasst 64x soviele verschiedene Werte wie 8bit), aber welchen Schluss kann ich daraus ziehen?

Was sind für Dich jetzt "LW"?

"Lichtwert", "Blendenstufe", wie Du magst.


Gruß, Matthias
 
Na ja nun, die kleinste darstellbare Zahl (mal abgesehen von der null) ist 1, die größte ist 2^14-1, das Verhältnis aus beiden ist (ausreichend genau) 2^14. Ein Sensorpixel reagiert linear auf die Zahl erfasster Photonen, also auch linear auf Belichtung (Lichtmenge/Fläche). Wenn ich dessen Ausgangssignal nun auch noch linear codiere, stehen die größte und kleinste überhaupt codierbare Lichtmenge eben auch im Verhältnis 2^14, und das sind 14 Zweierpotenzen =14 Blendenstufen = 14 LichtwerteNa ja nun, die kleinste darstellbare Zahl (mal abgesehen von der null) ist 1, die größte ist 2^14-1, das Verhältnis aus beiden ist (ausreichend genau) 2^14. Ein Sensorpixel reagiert linear auf die Zahl erfasster Photonen, also auch linear auf Belichtung (Lichtmenge/Fläche). Wenn ich dessen Ausgangssignal nun auch noch linear codiere, stehen die Na ja nun, die kleinste darstellbare Zahl (mal abgesehen von der null) ist 1, die größte ist 2^14-1, das Verhältnis aus beiden ist (ausreichend genau) 2^14. Ein Sensorpixel reagiert linear auf die Zahl erfasster Photonen, also auch linear auf Belichtung (Lichtmenge/Fläche). Wenn ich dessen Ausgangssignal nun auch noch linear codiere, stehen die größte und kleinste überhaupt codierbare Lichtmenge eben auch im Verhältnis 2^14, und das sind 14 Zweierpotenzen =14 Blendenstufen = 14 LichtwerteNa ja nun, die kleinste darstellbare Zahl (mal abgesehen von der null) ist 1, die größte ist 2^14-1, das Verhältnis aus beiden ist (ausreichend genau) 2^14. Ein Sensorpixel reagiert linear auf die Zahl erfasster Photonen, also auch linear auf Belichtung (Lichtmenge/Fläche). Wenn ich dessen Ausgangssignal nun auch noch linear codiere, stehen die größte u
 
Moin Matthias,

LW = Lichtwert, soweit so gut.

Du schreibst weiter oben von einem "Werteumfang" von X Lichtwerten.

Hilfst Du mir mal bitte auf die Sprünge wo da der Unterschied zum Dynamikumfang liegen soll?

Der Dynamikumfang gibt doch genau das an, nämlich wieviele Lichtwerte der Sensor von hell bis dunkel "erfassen" kann!?


Danke und Gruß Jan
 
Nochmal aufs neue:

Na ja nun, die kleinste darstellbare Zahl (mal abgesehen von der null) ist 1, die größte ist 2^14-1, das Verhältnis aus beiden ist (ausreichend genau) 2^14. Ein Sensorpixel reagiert linear auf die Zahl erfasster Photonen, also auch linear auf Belichtung (Lichtmenge/Fläche). Wenn ich dessen Ausgangssignal nun auch noch linear codiere, stehen die größte und kleinste überhaupt codierbare Lichtmenge eben auch im Verhältnis 2^14, und das sind 14 Zweierpotenzen =14 Blendenstufen = 14 Lichtwerte...

Bei AdobeRGB und sRGB ist das anders. AdobeRGB ist streng mit γ=2,2 codiert, dann ist das Verhältnis aus kleinster und größter codierbarer Zahl bei 8bit 2,2x8 = 17,6LW. sRGB ist am "dunklen Ende" linear codiert, darüber mit γ=2,4, das reicht bei 8bit für 11,7LW.

Nachzulesen u.a. bei Wikipedia (unter "The reverse transformation"): Bei 8bit skaliert auf 0...1 ist der kleinste codierte Wert 1/255 = 0,004. Für den gilt die obere Formel, der dazugehörige lineare Wert ist also 1/255/12,92 = 0,0003. Der größte Wert ist offensichtlich 1, das Verhältnis, ausgedrückt als Zweierpotenz/Blendenschritt/Lichtwert ist log2(255*12,92) = 11,7LW.

Zu AdobeRGB findet man:

Wikipedia schrieb:
As with sRGB, the RGB component values in Adobe RGB (1998) are not proportional to the luminances. Rather, a gamma of 2.2 is assumed, without the linear segment near zero that is present in sRGB.



Gruß, Matthias
 
Der Dynamikumfang gibt doch genau das an, nämlich wieviele Lichtwerte der Sensor von hell bis dunkel "erfassen" kann!?

Die Kurzversion: Wenn ein Sensor nur 5LW Dynamik erfassen kann, dann kann ich daran nichts ändern, wenn ich seine Daten in 14bit linear codiere, die Dynamik bleibt 5LW. Wenn ich die Daten eines Sensors mit 14LW Dynamik in nur 8bit linear codiere, dann beschneide ich damit die nutzbare (Ausgangs-) Dynamik der Raw-Daten. Allerdings beschneide ich sie nicht auf 8LW, sondern auf etwas mehr. Bis zu etwa 9,8LW könnten es werden, aber damit kommen wir zur langen Version, und die ist im Zweifel ganz schön lang und würde das Thema "Blumen" wohl endgültig sprengen.


Gruß, Matthias
 
Moin Matthias,

sorry, wenn ich das so hart sage: Das ist Blödsinn! Du kannst die Quantisierung nicht mit dem maximal abbildbaren Dynamikumfang gleichsetzen.

Der Sensor liefert analoge Signale mit einer Signalstärke zwischen 0% und 100%. Dabei bedeutet 0%, dass ein Sensorpixel keinerlei Photonen registriert hat, 100% bedeutet, dass er in Sättigung geraden ist. Ob Du die gemessene Signalstärke nun linear mit einer Skala von 256 Werten (also 8 Bit), 16.384 Werten (14 Bit) oder 4.294.967.296 Werten (32 Bit) wiedergibst, spielt erstmal keinerlei Rolle. Vor allem lässt es keinerlei Aussage darüber zu, wie groß die Signalleistung sein muss, die das Sensorpixel gerade in Sättigung gehen läßt, bzw. die groß sie mindestens sein muss, damit der Sensor überhaupt etwas registriert.

Die Bit-Tiefe entscheidet ausschließlich darüber, wie präzise sich unterschiedliche Signalstärken in der Datei abbilden lassen. Das ist also nur von der Meßgenauigkeit des A/D-Wandlers abhängig. Man kann an ein und den selben Sensor einen schlechten A/D-Wander hängen, der vielleicht nur 200 unterschiedliche Werte messen kann, oder man nimmt einen, der 1.000.000 unterschiedliche Werte messen kann. Das ändert am Sensor und damit an der LW-Differenz zwischen den dunkelsten und hellsten Motivbereichen, die noch registriert werden können, nichts. Und wenn man den hochpräzisen A/D-Wander so einstellt, dass er nur Werte zwischen 0 und 1024 liefert, ändert das ebenfalls rein gar nichts an dem Sensor.

Wenn ein Sensor nur 5LW Dynamik erfassen kann, dann kann ich daran nichts ändern, wenn ich seine Daten in 14bit linear codiere, die Dynamik bleibt 5LW

Natürlich liefert er nur 5LW, aber eben verteilt auf Werte zwischen 0 und 16.383. Und wenn Du das Bild dann in JPG umwandelst, hast Du Werte zwischen 0 und 255. Oder Du exportierst es als 16-Bit TIF und hast Werte zwischen 0 und 65.535.

Grüße,

Heiner
 
sorry, wenn ich das so hart sage: Das ist Blödsinn! Du kannst die Quantisierung nicht mit dem maximal abbildbaren Dynamikumfang gleichsetzen.

Magst Du Dir die Mühe machen, eine Stelle von mir rauszusuchen und zu ziteiren, wo ich Deiner Meinung nach so etwas gesagt habe? Ich habe so ziemlich das genaue Gegenteil gesagt, wenn ich mich nicht vollkommen täusche.


Gruß, Matthias
 
Bitteschön:

Na ja nun, die kleinste darstellbare Zahl (mal abgesehen von der null) ist 1, die größte ist 2^14-1, das Verhältnis aus beiden ist (ausreichend genau) 2^14. Ein Sensorpixel reagiert linear auf die Zahl erfasster Photonen, also auch linear auf Belichtung (Lichtmenge/Fläche). Wenn ich dessen Ausgangssignal nun auch noch linear codiere, stehen die größte und kleinste überhaupt codierbare Lichtmenge eben auch im Verhältnis 2^14, und das sind 14 Zweierpotenzen =14 Blendenstufen = 14 Lichtwerte
 
Du schreibst von

"Lichtwert", "Blendenstufe", wie Du magst.

Mir ist klar, dass Du damit nicht meinst, wie groß der tatsächliche Dynamikumfang eines Sensors ist.

Dennoch behauptest Du, dass man mit 14-Bit nur maximal 14 Blendenstufen darstellen kann. Und diese Aussage ist schlicht falsch. Das eine hat mit dem anderen rein gar nichts zu tun. Das sollte aus meiner Erklärung auch mehr als klar geworden sein. Falls Du etwas nicht verstanden hast, frag nach. Falls Du einen Fehler entdeckst, zeige ihn und erklär es.

Grüße,

Heiner
 
Oh, Mann ...
 
Zurück
Oben