CI-Fotocommunity

Registriere Dich jetzt kostenlos!

Dadurch bekommst Du Zugang zu dem geschützten Mitgliederbereich, kannst beim Gebrauchtmarkt mitmachen und stellst nebenbei auch noch sicher, dass niemand Dir Deinen Wunsch-Usernamen wegschnappt.

Mehrfachbelichtungen Entfernen von Rauschen

mrboogie

Läuft öfters hier vorbei
Hallo zusammen,

in dem Thread „Mehrfachbelichtung“ in der Rubrik „D200“

http://www.nikoninfo.de/discus/messages/6/88181.html

waren kürzlich ein paar Fragen aufgekommen, zu denen einige Forumsteilnehmer, inklusive mir, Vermutungen angestellt hatten. Die Fragen waren zusammengefasst in etwa diese:

1. Wirkt sich eine Übereinanderbelichtung mehrerer Bilder des gleichen Objektes/Motivs im Vergleich zu einer einzigen Aufnahme mit äquivalenter Belichtung positiv auf das Bildrauschen aus?

2. Kann mit mehreren Bildern des gleichen Objektes/Motivs unter identischen Aufnahmebedingungen das Bildrauschen verringert werden, indem man die Aufnahmen über ein Programm miteinander vergleicht?

Mich juckte es schon ein paar Tage in den Fingern es selber auszuprobieren, Prüfungsvorbereitungen hielten mich leider davon ab. Nachdem dies seit heute morgen (hoffentlich zufriedenstellend) erledigt ist, habe ich mich daran gemacht und dabei einiges herausgefunden. Die Ergebnisse könnten vielleicht den einen oder anderen interessieren dachte ich mir, also habe ich die Sache etwas aufbereitet und werde das Ganze hier jetzt ein wenig ausführen.

Zunächst zu Punkt 1:

Meine These war, dass es im Hinblick auf das Rauschen vollkommen egal ist ,ob man eine einzige Belichtung macht oder die Belichtungszeit in Teilbelichtungen aufteilt (Die Gesamtbelichtungszeit soll dabei die selbe bleiben wie bei der Einzelaufnahme). Zur Überprüfung dessen habe ich ersteinmal folgendes Motiv gewählt:

88406.jpg


Die Aufnahmebedingungen waren dabei folgende:

Nikon D70 mit Nikkor 50mm/1.8
Halogenl&enbeleuchtung (gedimmt damits auch dunkel ist)
Stativ
Isoeinstellung: 1000 (im Nachhinein betrachtet hätte man es hier vielleicht noch weiter treiben können)
Blende 16
Gesamtbelichtungszeit: 6 Sekunden

Zunächst wurde die Szene einmal als Einzelbelichtung mit obigen Parametern aufgenommen. Die Mehrfachbelichtung wurde auf zwei verschiedene Weisen realisiert. Da die D70 keine „echte“ Mehrfachbelichtung kann, versuchte ich zunächst drei aufeinanderfolgende Einzelbilder mit je 2 Sekunden Belichtungszeit (restliche Einstellungen gleich) aufzunehmen und mit Photoshop zu addieren. Dabei wurden die verschiedenen Ebenen mit „umgekehrt multiplizieren“ übereinandergelegt. Als Alternative nahm ich mittels der „Bulb“-Einstellung der D70, eines dunklen Pappkartons zum Abdecken der Linse und meiner Armbanduhr ein weiteres Photo auf, wobei ich den Pappkarton dreimal für etwa 2 Sekunden von der Linse entfernte um auch hier eine Gesamtbelichtung von ca. 6 Sekunden zu erhalten. Nach einiger Übung ging dies erstaunlich gut und reproduzierbar. Unter dem folgenden Link wird zunächst die Einfachbelichtung der Photoshop-Mehrfachbelichtung sowie der manuell vorgenommnen „echten“ Mehrfachbelichtung gegenübergestellt.

http://home.arcor.de/mrboogie/Rauschen/ganzesBildMehrfachbeli.jpg

Es fällt schon bei dem Vergleich der hier verkleinerten (und leicht geschärften) Bilder auf, dass die Farbgebung des Photoshopbildes leicht von der Einfachbelichtung abweicht, ansonsten scheint die Belichtung fast äquivalent zu sein. Die echte Mehrfachbelichtung hingegen ist von der Einfachbelichtung auf den ersten Blick so gut wie nicht zu unterscheiden.
Wie sieht nun das Rauschen bei 1:1 aus? Unter dem folgenden Link werden die drei Bilder in dem selben Bildbereich verglichen:

http://home.arcor.de/mrboogie/Rauschen/CropsMehrfachbeli.jpg

Beim Vergleich der Einfachbelichtung mit der echten Mehrfachbelichtung fallen auch bei 1:1 so gut wie keine Unterschiede auf. Weder in der Farbwiedergabe noch im Bildrauschen sind Abweichungen zu erkennen (Selbstverständlich wird die Belichtung nicht exakt gleich sein, da mein Pappdeckel schwerlich so präzise gewesen sein wird wie der Kameraverschluss). Bei dem Photoshop-Bild liegt jedoch eindeutig etwas im Argen. Das Bildrauschen scheint erheblich verstärkt, die Farbgebung etwas nach Magenta verschoben. Offensichtlich ist die Photoshopmethode alles andere als geeignet eine Mehrfachbelichtung zu ersetzen. Technisch jedoch sollte dies mit Photoshop durchaus zu machen sein. Ich habe noch versucht die Addition der Bilder kanalweise vorzunehmen, was mir auf die Schnelle nicht gelungen ist. Schon die Bezeichnung „umgekehrt multiplizieren“ verheißt nichts Gutes, bei einer Mehrfachbelichtung sollte eigentlich erstmal nichts multipliziert werden…wie auch immer, auf diesem Wege scheint man mit Photoshop nicht zum Ziel zu kommen. Es sei noch kurz bemerkt, dass für die Photoshopvariante wirklich drei verschiedene aufeinander folgende Bilder benutzt wurden, nicht etwa das gleiche Bild dreimal (andernfalls bräuchte man sich über eine Verstärkung des Rauschens nicht zu wundern).

Abschließend lässt sich zu Punkt 1 bemerken, dass im Moment alles für die Richtigkeit meiner These spricht. Allerdings könnte ja eventuell mal jemand bei Zeit und Muße seine D200 bemühen und die Gegenüberstellung mit einer exakten Mehrfachbelichtung wiederholen um meine „Pappdeckelfehler“ zu beseitigen, jedoch glaube ich nicht, dass dies etwas an dem Ergebnis ändern wird.

Nun zu Punkt 2:

Ich hatte schon öfter gehört dass sich das Bildrauschen mittels bestimmter Verfahren durch den Vergleich mehrer Bilder verringern lässt. Vor allem in der Astronomie wird dies öfter verwendet. In einem Astronomieforum bin ich dann auch fündig geworden. Ich fand ein Programm namens „Regim“ von Andreas Rörig, was in der Lage ist dies durchzuführen. Das Programm ist in Java geschrieben, einfach zu bedienen (es existiert auch eine Dokumentation) und kostenlos auf seiner Seite herunterladbar:

http://www.andreasroerig.de/regim/regim.htm

Es sei dazu bemerkt, dass zur Ausführung des Programms eine Java-Runtime-Umgebung benötigt wird (ebenfalls kostenlos im Netz zu finden). Sicherlich gibt es auch noch komfortablere Möglichkeiten aber dies war mein erster Treffer und wie sich zeigen wird kann sich das Ergebnis sehen lassen.

Bereits bei der Einfachbelichtung für das erste Experiment hatte ich 7 Bilder in Folge gemacht. Alle unter den gleichen Bedingungen und fast identisch. „Fast“ aus folgendem Grund: Der Unterschied zwischen allen Bildern liegt zumindest in dem statistischen Rauschen jedes Bildes, dies ist nicht zu verhindern. „Regim“ bietet die Möglichkeit auf eine Reihe solcher Bilder das „Sigma-Ausschlussverfahren“ anzuwenden. Dabei wird für jeden Pixel einzeln die empirische Standardabweichung über alle 7 Bilder berechnet, anschließend werden zum Bilden eines Mittelwertes nur Werte herangezogen, die in einem bestimmten Intervall liegen, was im Wesentlichen durch die Standardabweichung bestimmt ist aber auch im Programm noch beeinflussbar durch den sogenannten „Sigma-Wert“. Für meine Versuche habe ich diesen in der Standardeinstellung belassen. Technisch solls das mal gewesen sein, interessanter sind die Ergebnisse.

Ich habe die Bilder auf drei Arten mittels des Sigma-Ausschlussverfahrens gemittelt in dem ich für die Mittelung die ersten 3, die ersten 5 und alle 7 Bilder verwendet habe. Unter dem folgenden Link sind davon 1:1 Ausschnitte zu finden.

http://home.arcor.de/mrboogie/Rauschen/CropsRauschen.jpg

Es fällt schon auf den ersten Blick auf, dass die verwendete Methode offenbar tatsächlich das Rauschen reduziert. Je mehr Bilder verwendet werden umso glatter und rauschfreier wird das Bild. Dieser Aspekt ist auch zu erwarten gewesen, da die angewandte Methode eine statistische Methode ist und eben von einer großen Stichprobe lebt. Festzustellen ist, dass schon 3 Bilder erhebliche Verbesserung bringen, auch der Sprung zu 5 Bildern ist bemerkenswert. Die Variante aus sieben Bildern zeigt zwar noch Verbesserungen aber von deutlich geringerem Ausmaß.
An dieser Stelle möchte ich auf etwas hinweisen, was an dem 100% Ausschnitt nicht gut zu erkennen ist, da der Zusammenhang fehlt. Sieht man sich die dunkle Fläche oben und in der Mitte im 4. Bild an so fällt auf, das einige schwache hellere Flecken wie Sprenkel auf dem dunklen Hintergrund sitzen. Diese sind im Ausgangsbild nicht zu erkennen. Man könnte denken es wäre noch Restrauschen, tatsächlich jedoch handelt es sich bei den Flecken um echte Bildinformation, denn die dunkle Fläche ist eine Apfeloberfläche, der in der Tat in der Realität solche Sprenkel aufweist. Die Methode stellt also echt Bildinformation wieder her! Warum ist das so aufregend? Wenn man einen „normalen“ Rauschfilter auf das Ausgangsbild anwendet, so wird das Bild zwar subjektiv glatter und reiner, tatsächlich aber wird Bildinformation gezielt zerstört um einen rauschfreieren Eindruck zu erzielen.

Ich halte diese Methode für ein sehr mächtiges Werkzeug gegen Bildrauschen. Allerdings ist klar: nicht jedes Motiv hält so lang still bis ich sieben gleiche Bilder gemacht habe…für statische Objekte sollte man diese Methode jedoch auf jeden Fall im Hinterkopf behalten wie ich finde.

Damit möchte ich jetzt dieses kleine Buch beenden;-) Es sei noch darauf hingewiesen, dass ich mir darüber im Klaren bin, dass die nur ausschnittsweise angebotenen Bilder nicht annährend die Aussagekraft der Originalbilder haben. Aus diesem Grunde habe ich mir überlegt, diese als selbstentpackendes WinAce-Archiv auf meiner Webseite bereitzustellen (Achtung ca. 32MB!). Für den Fall, dass jemand Interesse haben sollte, sie sich anzusehen oder damit zu experimentieren (vielleicht eine bessere Photoshopmethode herausfinden?) folge man einfach diesem Link:

http://home.arcor.de/mrboogie/Rauschen/Rauschen.exe

Ich hoffe dieser viel zu lange Text stößt auch auf nicht abgeschreckte Leser…



Gruß Daniel
 
Das ist mal was sehr interessantes gewesen
wink.gif


Da ich noch nicht Digital fotografiere, würde es mich mal interessieren, wie der GEM Filter von Kodak auf Digitales Bildrauschen reagiert.

Hat jemand ein Testbild für mich ?

Chris
 
Hallo Daniel !
Tolles Experiment - da bleiben nur noch wenige Fragen offen (echte Mehrfachbelichtung mit D 200).
Vielen Dank für Deine Mühen !!!!!!!!!
Gruß
Otto
www.ffoottoo.de
 
Lieber Daniel,

erst einmal vielen Dank dafür, dass Du uns an Deinen Ergebnissen teilhaben lässt.

Die Methode des Sigma Ausschlussvervahrens verstehe ich als Variante der -extrem aufwendigen - Mehrfachbelichtungen mit bewegtem Sensor: Mich wundert die deutliche Qualitätssteigerung, die ich so nicht erwartet hätte. Wenn kein Denkfehler dabei ist, dürfte sich diese Methode allen echten Mehrfachbelichtungen (D200) als überlegen erweisen.

Danke für die Bereitstellung der Software. Ich werde sie gerne ausprobieren - vorausgesetzt, ich bekomme das auf die Reihe.

Beste Grüße,

Hellmut
 
Hallo zusammen,

ich habe den zweiten Teil meines Experimentes noch einmal bei ISO 1600 und schwachem Tageslicht wiederholt. Ansonsten alle Parameter wie oben. Das Motiv war folgendes:

88426.jpg


Wieder habe ich 7 Aufnahmen unter gleichen Bedingungen gemacht und mit "Regim" das Sigma-Ausschlussverfahren angewandt. Schlimmer als ISO 1600 kann es ja (zumindest bei der D70) nicht kommen, also umso interessanter wie sich das Verfahren in diesem Extremfall schlägt. Zunächst also wieder ein paar 1:1 Ausschnitte unter folgendem Link:

http://home.arcor.de/mrboogie/Rauschen/crops1600.jpg

Es ist zu erkennen dass auch bei Iso 1600 das Rauschen mit dem Verfahren erheblich minimiert werden kann. Das Ergebnisbild wirkt wesentlich glatter ohne erkennbaren Verlust in der Detailzeichnung, insbesondere die feinen Knitterfalten auf den orangen Dingern (tja was ist das eigentlich?) bleiben erhalten bzw. werden teilweise sogar wieder hergestellt. Mit Müh und Not lässt sich vielleicht ein ganz minimaler Schärfeverlust feststellen, der aber sicherlich zu verschmerzen ist angesichts der Verbesserungen im Rauschen.

Die Originaldateien stelle ich auch hier gern zur Verfügung, so dass man sich bei Bedarf einen besseren Eindruck als nur über diesen Ausschnitt verschaffen kann. Falls Bedarf besteht, einfach bei mir melden!

Ich hatte noch vergessen zu erwähnen, dass das Programm "Regim" nur .tif Dateien verarbeitet. Das heißt man muss vorher noch die .jpg/Raw-Dateien umwandeln, was sicherlich etwas lästig ist. Komfortablere Methoden wird es sicherlich geben, ich habe bisher nicht weiter gesucht.

Gruss Daniel
 
Hallo Daniel,

dieser Bericht ist vom Feinsten,steckt auch viel Arbeit dahinter.Die Bilder passen dazu.

Grüße josch50
 
Vielen Dank erstmal für Euer aller Lob, ich bin ja erstaunt und froh dass sich doch einige die mühe gemacht haben diesen langen Beitrag von mir durchzulesen!

an Otto muss ich mal noch kurz was off-topic loswerden:

Ich habe mir gestern Deine Skandinavienbilder angesehen und muss sagen da hast du ein paar wirklich wunderbare Aufnahmen gemacht. Ich habe gleich Fernweh bekommen und mich an meinen eigenen Skandinavientrip erinnert gefühlt (unter anderem auch Lofoten aber nicht bei so schönem Wetter). Am liebsten würde ich gleich wieder den Rucksack packen aber leider sitzt mir die Diplomprüfung im Nacken. Also muss ich wohl warten:-(

Viele Grüße Daniel
 
Hallo Daniel,
danke für diesen Beitrag und das erfolgreiche Suchen nach Regim
happy.gif

Andreas Beitinger hatte letztes Jahr ähnliche Versuche mit Mehrfachbelichtung begonnen, verfolgte jedoch ein etwas anderes Ziel (Simulation mehrere Blitzgeräte mit nur einem Blitz). Vielleicht findest Du den Beitrag interessant, ich hatte versucht mich aktiv in die Überlegungen einzubringen.
Jedenfalls danke für den Link mit Regim, der Aufwand ein statistisches Verfahren in ein kleines Tool zu packen, war mir bisher zu gross
happy.gif


Gruss
Mario
 
Interessantes Experiment, dessen Ergebnis sich durchaus mit meinen Versuchen deckt. Mein Ziel war, wie Mario schon schrieb, die Simulation einer analogen Mehrfachbelichtung. Weniger Rauschen hatte ich gar nicht erwartet; ich wäre schon froh gewesen, wenn das Rauschen des zusammengesetzten Bildes auf dem Niveau eines Einzelbildes geblieben wäre, aber das war leider nicht so. (Zur Verdeutlichung hatte ich 16 Einzelbelichtungen negativ multipliziert.)

Daß man mit mehreren identischen Belichtungen das Rauschen reduzieren kann, kann ich jedoch bestätigen. Es ist dazu nicht mal ein statistisches Verfahren nötig; es bringt schon sichtbare Vorteile, einfach die Pixel zu mitteln. Das geht z. B. mit PS-Ebenen nach folgender Methode: 1. Teilbild wird Hintergrund, 2. Teilbild darüberliegende Ebene mit 50 % Deckkraft, 3. Teilbild darüberliegende Ebene mit 33 % Deckkraft, 4. Teilbild 25 % Deckkraft, 5. Teilbild 20 % Deckkraft usw.

Mit dem Begriff "echte Mehrfachbelichtung" muß man allerdings aufpassen. Ich glaube nicht, daß der Begriff auf die Mehrfachbelichtungsfunktion der D200 zutrifft. Hier werden nur zwei Einzelbilder verrechnet, nicht zweimal hintereinander belichtet und gemeinsam ausgelesen. Wie mein Experiment gezeigt hat, lassen sich - zumindest mit der D70 - mehrere Teilbelichtungen nicht zu einer qualitativ gleichwertigen Gesamtbelichtung addieren.

@Hellmut
Eine Mehrfachbelichtung im analogen Sinne ist eine additive Mischung, nicht etwa eine Mittelwert-Bildung. Das ist was ganz anderes. Rauschreduzierung erreicht man durch Mittelwertbildung oder, noch besser, über das von Daniel erforschte statistische Verfahren. Die klassische Mehrfachbelichtung hingegen summiert alle Werte, d. h. das Gesamtbild wird mit jeder Teilbelichtung heller.

@Mario
Vielen Dank für den Hinweis auf diesen Beitrag.
 
Hallo Mario, Hallo Andreas,

zunächst einmal vielen Dank an Mario für den Hinweis auf den Thread, ich habe ihn mir eben mal durchgelesen und es gibt ja durchaus große Parallelen. Insgesamt eine äußerst interessante Thematik:)

Bezüglich des Rauschens hat ja Regim recht gute Dienste geleistet. Es stimmt, eine normale Mittelung bringt auch schon eine Verbesserung (weil dadurch ja einfach der Einfluss der "Ausreißerpixel" gemindert wird). Soweit ich es verstanden habe ist die Methode des Mittelns nur geringfügig modifiziert worden für das Sigma-Ausschlussverfahren. Ich muss mich da aber nochmehr reinlesen, bisher fehlte dazu die Zeit. Insgesamt gilt wahrscheinlich: ordentlich in den Astronomieforen herumtreiben, die Jungs beschäftigen sich, so wie ich das nach meinem Exkurs mitbekommen habe, "hauptberuflich" mit solchen Problemen;-)

Zunächst nochmal zu Photoshop. Wie oben angedeutet ist "umgekehrt multiplizieren" mit Sicherheit nicht der Weisheit letzter Schluss. Ich traue Photoshop erstmal pauschal zu, dass es das besser kann. Allerdings wird nun jeder fragen wie und ich muss sagen: ich weiß es auch noch nicht.:) Ich sehe bei Photoshop das Problem, dass es zwar ne Menge hübscher Sachen kann, für solche Sachen wie das was wir hier anstreben (Mehrfachbelichtung/Rauschreduzierung) nicht unmittelbar mit den Standardfunktionen geeignet ist. Das soll nicht heißen dass es nicht geht. Mit vernünftigen Makros und vor allem genug Wissen über das, was Photoshop eigentlich MACHT wenn man z.B. auf die abstrakt klingende Option "umgekehrt multiplizieren" klickt, muss es eigentlich gehen. Letzteres, die Undurchsichtigkeit der Vorgänge, die Photoshop verwendet, sehe ich erstmal als großes Manko (durchaus möglich, dass es irgendwo steht, allerdings würden sich die Macher in gewisser Hinsicht ins eigene Fleisch schneiden). Ein Programm wie Regim ist da natürlich erstmal viel adaptierter an solche Dinge. Wie bei Andreas und meinen Test klar wurde, wird das Rauschen anscheined noch verstärkt wenn man "umgekehrt multiplizieren" verwendet. Es ist mir immer noch unklar wieso, dürfte beim Verwenden unabhängiger Teilbilder eigentlich nicht geschehen. Ich bin mir nicht sicher, dass additive Farbmischung die richtige Verfahrensweise darstellt. Wie oben schon erwähnt vermute ich, dass man mit kanalweiser Addition weiterkommen könnte. Ich bin mir allerdings bei Photoshop auch nicht sicher was da nun wieder abläuft, wenn ich zwei Bilder nehme, "Kanalberechnungen wähle" und z.B. zwei Rotkanäle zusammenrechne über die Option "Hinzufügen". Es hört sich an wie einfaches Addieren der Intensitäten in den Kanälen, das Ergebnis sieht im Vergleich zu meiner Mehrfachbelichtung mit Pappkarton nicht so aus als wäre es das was ich will. Ich werde da bei Gelegenheit noch weiter suchen, mit Regim kann ich zwar ein Bild in seine drei Kanäle zerlegen, diese allerdings soweit ich das gesehen habe nicht direkt addieren, da muss ich mich nochmal umsehen.

Was die Mehrfachbelichtung in der Kamera angeht: Ich gebe Dir recht Andreas, es kann durchaus sein, dass die digitalen Kameras die dies können es nicht so machen wie die analogen sondern tatsächlich erst auslesen und dann kombinieren. Wobei es vielleicht doch gehen könnte. Immherin hat es mit dem Pappkarton funktioniert. Was ich da gemacht habe ist nichts anderes als den Verschluss der Kamera vor die Linse zu verlegen. Hätte die Kamera stattdessen den Verschluss dreimal geöffnet aber den Chip nicht ausgelesen, wäre genau das gleiche herausgekommen. Wie oben zu sehen, kommt dabei augenscheinlich das Selbe heraus, als hätte ich nur einmal mit der Gesamtzeit belichtet. Natürlich ist dies keine wirklich lange Belichtung gewesen und in dem anderen Thread wurde ja schon vermutet, dass die Zeit zwischen den Aufnahmen bei diesem Verfahren begrenzt sein könnte, Stichwort Hotpixel. Ich kenne mich da leider nicht genug aus um beurteilen zu können, welche technischen Probleme da auftreten können.

Letzter Punkt: Interessant war, was Mario in dem anderen Thread zur prinzipiellen Möglichkeit geschrieben hat, Mehrfachbelichtungen als Überlagerung mehrerer Aufnahmen zu simulieren. Ich gebe zu, ich bin auf die Schnelle nicht ganz durchgestiegen durch die, ich nenne es mal "Bit-Argumentation", glaube aber ungefähr zu wissen worauf es hinausläuft. Normalerweise verhält sich ja die sogenannte Schwärzungskurve (heißt zumindest bei Film so, wie es digital heißt weiß ich nicht) linear. Bild davon sieht man hier:

http://de.wikipedia.org/wiki/Bild:Dichtekurve-foto.jpg#file

Das heißt die Schwärzung ist der Belichtungszeit direkt proportional. Zumindest stimmt das für den sogenannten Bereich der "richtigen Belichtung". Belichtet man unter so fallen die unterbelichteten Partien in den "Durchhang", wo die Belichtung alles andere als linear sondern sehr flach verläuft, die dunklen Partien haben kaum Detailkontrast. Wenn ich es richtig verstehe meint Mario dass ich aus mehreren solchen unterbelichteten Bildern keine ordentliche Mehrfachbelichtung erstellen kann, weil einfach diese Partien zu wenig Bildinformation tragen. Sie bekommen einfach zuwenig "Eintrag", bei 255 Grauwerten vielleicht den Wert 0 oder 1 oder sowas. Es ist klar dass ab einer gewissen Schwäche des Signals dabei nichts mehr herauskommen kann, der Analog zu Digital Wandler muss sich entscheiden ob er nun 0 oder 1 sagt bei so einem "schwachen Pixel". Das ist es doch was du mit Auflösungsgrenze meintest oder Mario? Ich denke das haut so hin, an der Stelle wird es wirklich kritisch. Ich denke aber, dass man in der Praxis damit nicht unbedingt ein Problem bekommt, so lange man sich eben nicht im Bereich der EXTREMEN Unterbelichtung bewegt. Wenn die digitalen Kameras bei Mehrfachbelichtungen zunächst Teilbilder zwischenspeichern, das heißt diese schon zu digital gewandelt haben und dann kombinieren. ergibt sich obiges Problem auf jeden Fall bei stark unterbelichteten Aufnahmen. Wenn sie es nicht tun, sollte es nicht auftreten, weil erst von analog zu digital gewandelt wird wenn das Signal stark genug ist und nicht mehr im Bereich der Unterbelichtung liegt. Der Fehler ist eben einfach viel größer wenn es umgekehrt passiert. Wenn ich mich an meine Datenanalysevorlesung richtig erinnere, nennt sich sowas "Quantisierungsfehler". Wäre also wünschenswert wenn die Kameras tatsächlich NICHT einzeln auslesen. Nun ist halt die Frage: tun sies oder nicht? Ich werd mal stöbern. Ich hoffe ich habe Marios Beiträge in dem anderen Thread nicht missinterpretiert. Und wenn dann danke ich Dir auf jeden Fall trotzdem dafür, dass ich es glaube ich gerade besser verstanden habe während ich es aufschrieb:)

Gruss Daniel
 
Die Funktionsbezeichnungen in Photoshop sind nicht immer logisch, weil sie häufig von irgendwelchen analogen Labormethoden übernommen sind, die heute keiner mehr kennt. Man denke nur an den Begriff "Unscharf maskieren". Da kommt doch niemand drauf, daß es sich um eine Methode für die Scharfzeichnung handelt.
Genauso ist es mit dem Begriff "Umgekehrt Multiplizieren" (in früheren deutschen PS-Versionen "Negativ Multiplizieren"). Ich weiß nicht, woran sich der Begriff anlehnt. Tatsache ist, daß dies in PS die Methode für die additive Farbmischung ist, nicht mehr und nicht weniger. Eine "bessere" Methode dafür hat Photoshop nicht und braucht es auch nicht; die Ursache des Problems liegt sicherlich schon in den Ausgangsdateien. Selbst wenn sie nirgends mutwillig verschlechtert wurden, sind sie doch bereits Ergebnisse von Bayer-Interpolation, Gammakorrektur und weiterer Optimierungen.

Stellt sich dennoch die Frage, warum man beim Addieren mehrerer Teilbelichtungen ein sichtbar (!) schlechteres Ergebnis bekommt als mit einer Einzelbelichtung. Die Quantisierungsfehler allein können nicht so tragisch sein; immerhin wird der Chip linear in 12 Bit Farbtiefe ausgelesen, und wir sehen die Fehler auch nach der Reduzierung auf 8 Bit noch deutlich. Das Ergebnis bleibt ja auch so, wenn man NEFs direkt in 16-Bit-TIFFs umwandelt und die Ebenen in 16 Bit addiert. (Ich habe es sowohl in PS CS als auch in CinePaint ausprobiert. Ergebnis so gut wie identisch.) Der Fehler muß also schon vorher da sein. Ob man mit einer direkten Addition der uninterpolierten NEFs bessere Ergebnisse erzielen könnte, kann man mangels geeigneter Software leider nicht feststellen; das entspräche dann exakter der Pseudo-Mehrfachbelichtung in einer D2X oder D200.

Vor geraumer Zeit las ich eine interessante Abhandlung über das Kompressionsverfahren der NEF-Dateien. Es gipfelte in der erstaunlichen Erkenntnis, daß das Kompressionsverfahren - entgegen der verbreiteten Annahme - nicht ganz verlustfrei ist. (Nicht umsonst bietet Nikon in der D200 nun wahlweise wieder eine unkomprimierte NEF-Variante.) Hier könnte also eine Erklärung für das erhöhte Rauschen aufaddierter Einzelbelichtungen liegen, nämlich in einer Datenreduktion, die besonders im vermeintlich unsichtbaren Schattenbereich greift (dessen Genauigkeit aber für die nachträgliche Addierung unterbelichteter Teilbilder besonders wichtig wäre).

Die D2X und die D200 führen definitiv keine "echte" Mehrfachbelichtung durch, sondern nur eine nachträgliche Verrechnung. Das habe ich lange recherchiert. Ob dies die von uns entdeckten Nachteile mit sich bringen muß, oder ob es sich hier um eine ausgefeiltere Technik handelt, ist noch ungeklärt. Könnte ja sein, daß die Verrechnung zumindest an unkomprimierten Rohdaten durchgeführt wird. Ein Quantisierungsfehler wird bleiben, aber ob der nach 16 Teilbelichtungen schon deutlich sichtbar sein muß? Es wäre jedenfalls interessant, meinen Test mit den 16 Einzelbelichtungen in einer D2X oder D200 durchzuführen (oder wenigstens 8 Einzelbelichtungen, falls 16 nicht gehen). Gerade in den schwarzen Stellen müßte man ggfs. eine Verschlechterung erkennen können, selbst wenn sie geringer als bei der D70 ausfällt.

Den Trick mit dem schwarzen Karton habe ich (sinngemäß) auch ausprobiert: Raum abdunkeln, Belichtungszeit auf Bulb und 16x blitzen. Das Ergebnis war erwartungsgemäß sehr gut und wich kaum von einer Einzelbelichtung ab. Somit bestätigt sich hier der Wunsch nach einer "echten" Mehrfachbelichtung, selbst wenn die Abstände der Einzelaufnahmen im Hinblick auf das Langzeitrauschen nicht endlos gedehnt werden könnten; bei längeren Abständen ist die nachträgliche Verrechnung auf jeden Fall im Vorteil.

Okay: Liest hier zufällig der Besitzer einer D2X und/oder D200 mit, der bereit wäre, meinen Test mit seiner Kamera zu wiederholen? Genaue Anweisungen, wie der Test durchzuführen ist, würde ich dann noch schreiben.
 
@Andreas
Bei der NEF-Komprimierung wurde die Empfindlichkeit des menschlichen Auges berücksichtigt, d.h. die Lichter werden stärker komprimiert als die Schatten. Von den 4096 Intensitätsstufen werden die niedrigsten (0 bis 215) sogar 1:1 übernommen, also gar nicht komprimiert. Daran dürfte das verstärkte Rauschen also eigentlich nicht liegen.

Gruß, Micha
 
@ Andreas

was ich eigentlich meinte war, dass Photoshop bei diesem umgekehrt multiplizieren irgendwas macht was es gar nicht machen soll. Es kann nicht das beste sein, was man rausholen kann beim übereinanderlegen von den Bildern (glaub ich jedenfalls noch nicht so ganz, wie gesagt werde da nochmal was ausprobieren). Ein Grund ist für mich die sichtbare Farbveränderung des multiplizierten Bildes (siehe Dein oder mein ich finde noch extremeres Beispiel). Kann sein dass PS da additiv mischt, und deswegen mal ne andere Farbe rauskommt. Genau das soll es aber nicht.

Wenn der Chip nur in 12 bit ausliest , ist klar dass man im Nachhinein gar nicht besser werden kann als das. Dass 16 bit dann nichts mehr bringt ist klar, die Möglichkeiten werden dann zwangsläufig nicht mehr ausgeschöpft.

Ich weigere mich auch noch zu glauben dass diese Quantisierungsfehler bei moderat unterbelichteten Bildern solche Auswirkungen haben (Das Rauschen in Photoshop). Naja lange Rede kurzer Sinn. Es hilft nur ausprobieren.

Schließe mich auf jeden Fall der Bitte an ein Experiment wie meines oder das von Andreas mal mit einer D2x oder D200 zu wiederholen. Vielleicht erbarmt sich ja jemand.:p

Gruss Daniel
 
@Michael
Du hast recht, die Reduktion betrifft nur die Highlights. Ich habe den Artikel noch mal nachgelesen.
Wer es selber lesen will: http://www.majid.info/mylos/weblog/categories/photo/index.html (Weiter unten auf dieser Seite: "Is the Nikon D70 NEF (RAW) format truly lossless?")

Umso interessanter wäre es, NEFs aus der D70 direkt (d. h. vor Bayer-Interpolation und Gammakorektur) addieren zu können. Mit DCraw kann man zwar das ursprüngliche uninterpolierte Graustufenbild ausgeben, aber es gibt keinen mir bekannten Weg, um ein kombiniertes Bild wieder als NEF zu "verpacken", so daß man es z. B. mit Nikon Capture öffnen und konvertieren könnte. Denn erst dann könnte man die Qualität 1:1 mit einer Einzelbelichtung vergleichen.

@Daniel
Ich habe bei meinen Versuchen keine Farbveränderung durch das negative Multiplizieren festgestellt. Ich sehe einfach nur mehr Rauschen, gerade in dunklen Bildteilen:
http://www.nikoninfo.de/discus/messages/6/54868.jpg
 
Ich denke, daß die Farbverschiebung Teil des Rauschens ist. Die drei Kanäle rauschen ja nicht identisch. Auf Deinem Beispiel sieht man es deutlicher, weil es mehr dunkle Stellen enthält.
 
@Daniel
<hr size=0><!-quote-!><font size=1>quote:

Wenn ich es richtig verstehe meint Mario dass ich aus mehreren solchen unterbelichteten Bildern keine ordentliche Mehrfachbelichtung erstellen kann, weil einfach diese Partien zu wenig Bildinformation tragen. Sie bekommen einfach zuwenig "Eintrag", bei 255 Grauwerten vielleicht den Wert 0 oder 1 oder sowas. Es ist klar dass ab einer gewissen Schwäche des Signals dabei nichts mehr herauskommen kann, der Analog zu Digital Wandler muss sich entscheiden ob er nun 0 oder 1 sagt bei so einem "schwachen Pixel". Das ist es doch was du mit Auflösungsgrenze meintest oder Mario?<!-/quote-!><hr size=0>
Jepp
happy.gif
und mit dem Quantisierungsfehler liegst Du auch richtig. Wie erwähnt wird bei 16 Teilbelichtungen, die echt addiert die richtige Belichtung ergeben, dieser Quantisierungsfehler 16fach Gewicht bekommen. Je nach Methode der Zusammenführung zu einem Bild, werden diese Fehler sich mehr oder minder addieren.
<hr size=0><!-quote-!><font size=1>quote:

Soweit ich es verstanden habe ist die Methode des Mittelns nur geringfügig modifiziert worden für das Sigma-Ausschlussverfahren.<!-/quote-!><hr size=0>
Die Methode des Mittelns ist beibehalten worden, jedoch werden Ausgangswerte vorher "ausgesiebt", die offensichtliche Ausreisser sind. Nehmen wir mal an, Du hast von Deinem Stillleben 4 Bilder gemacht und in einem Bild einen Gegenstand zusätzlich ins Bild gelegt... nach Kombination der Bilder mittels Sigma-Ausschlussverfahren ist dieser Gegenstand verschwunden: Die Bildpunkte aus den 4 Bildern werden nacheinander verglichen und für das neue Bild der Mittelwert aus ihnen gebildet. Für viele Bildpunkte sind die Werte aus den 4 Bildern fast gleich. Im Bereich des neuen Gegenstandes ist ein Wert deutlich anders als die 3 anderen. Im Ausschlussverfahren wird dieser Wert nicht für die Mittelwertbildung verwendet, der Gegenstand ist nicht im Endergebnis.

@Andreas
<hr size=0><!-quote-!><font size=1>quote:

Genauso ist es mit dem Begriff "Umgekehrt Multiplizieren" (in früheren deutschen PS-Versionen "Negativ Multiplizieren"). Ich weiß nicht, woran sich der Begriff anlehnt.<!-/quote-!><hr size=0>
Soweit ich weiss, ist die Formel <font color="ffff00">Neu = 1 - (1 - Alt1) * (1 - Alt2) , also keine Addition. Daher auch für korrekt belichtete Bilder verwendbar, wohingegen die Addition zweier korrekt belichteter Bilder zu extremer Überbelichtung führen würde.
<hr size=0><!-quote-!><font size=1>quote:

Die Quantisierungsfehler allein können nicht so tragisch sein; immerhin wird der Chip linear in 12 Bit Farbtiefe ausgelesen, und wir sehen die Fehler auch nach der Reduzierung auf 8 Bit noch deutlich.<!-/quote-!><hr size=0>
Beachte bitte, dass es wiederrum auf die Methode ankommt, mit der Du nach 8 bit Auflösung wandelst ! Dein 12 bit Ausgangsmaterial hat bei Belichtungskorrektur -4 Werte zwischen 0 und 255 (Du verlierst durch die Unterbelichtung und den damit ungenutzten Wertebereich 256...4095 16 Zwischenwerte für Helligkeitsstufen pro Kanal und die entsprechende Genauigkeit). Wandelst Du jetzt einfach linear in 8 bit, hast Du nur noch einen Wertebereich von 0 bis 15. Das sind immerhin noch 16 Helligkeitsstufen pro Farbe und theoretisch 4096 Farben pro Bild... aber das Ergebnis
uhoh.gif

Helfen würde hier, den von 12 bit genutzten Wertebereich einfach in 8 bit abzubilden, also die sowieso ungenutzten oberen 4 bit einfach abzuschneiden. Mit vorhandenen Bildbearbeitungsprogrammen kommt eine lineare Histogramstreckung dem am nächsten. Das Ergebnis dieser Wandlung wäre natürlich ein Bild mit quasi korrekter Belichtung, was bei der folgenden Kombination der Teilbilder zu beachten ist
happy.gif


Grüsse
Mario
 
Das negative Multiplizieren ist nach meiner Erfahrung im Ergebnis eine additive Farbmischung. Z. B. kann man damit prima solche Demonstrationsbilder erstellen:
92310.jpg

Dieses Bild wurde aus je einem roten, blauen und grünen Punkt auf schwarzem Grund erstellt und mit "Negativ Multiplizieren" übereinandergelegt. Es ergeben sich exakt die erwarteten Mischfarben (in der Mitte Weiß), und das Schwarz bleibt auch nach 3 Layern rein schwarz.

Ich weiß aber nicht, ob aufgrund des Farbraum-Gammas die Verrechnung mathematisch etwas komplizierter ist als eine simple Addition (und sich somit weitere Rundungsfehler einschleichen können). Für solche Überlegungen reichen meine mathematischen Fähigkeiten nicht aus.
sad.gif
 
Ich möchte hier nochmal den Unterschied zwischen dem "Umgekehrt Multiplizieren" und dem echten Addieren der Farbwerte herausstellen. Bei dem von Andreas gewählten Beispiel sind beide gleich... hier ein etwas abgewandeltes Beispiel mit Differenzbild der Ergebnisse. Das unterlegte graue Dreieck hat bewusst die Farbe 33% Weiss.
Ausgangsbilder:
92330.png

Ergebnisse:
92331.png

Das Beispiel ist vielleicht nicht ganz glücklich gewählt, zeigt aber, dass beide Verfahren nicht die gleichen Ergebnisse bringen.

Gruss
Mario
 
Ich denke, jetzt nähern wir uns genau dem Phänomen, das ich mit "mathematisch etwas komplizierter" umschrieben habe und leider selbst nicht durchblicke. Der Dreh- und Angelpunkt muß das Monitorgamma von 2,2 sein. Wenn man von "additiver Farbmischung" spricht, dann heißt das innerhalb der gängigen RGB-Farbräume nicht, daß alle RGB-Werte direkt addiert werden müssen; das trifft nur auf die Eckpunkte des Farbraums zu. Für Zwischenwerte muß hier zuerst noch eine Gammafunktion berücksichtigt werden. Im obigen Beispiel ist es so, daß eine optische Verdreifachung des 85/85/85-Grau noch nicht zu weiß wird, sondern erst zu einem 180/180/180-Hellgrau. Welcher Wert dann tatsächlich einem "Drittelgrau" entspricht und in dreifacher Addition gerade zu weiß wird, müßte sich irgendwie ausrechnen lassen.
In diesen Themenkomplex fällt auch die Erkenntnis, daß ein Mittelgrau in sRGB oder AdobeRGB nicht den Wert 128/128/128 hat, sondern irgendwas anderes. (In einer Graukarten-Werbung stand mal 117/117/117. Ich habe aber auch schon 112/112/112 gelesen.) Auch die ominöse Photoshop-Farbverwaltungs-Option "RGB-Farben mit Gamma füllen" hängt irgendwie damit zusammen.

Wie man schon sieht, verfüge ich nur über ein trauriges Halbwissen auf diesem Gebiet. Falls jemand einen Link kennt, wo der Themenkomplex Gamma/Farbmischung näher beschrieben ist, würde ich mich gern näher damit beschäftigen.

In der PS-Hilfe wird die Funktion "Negativ Multiplizieren" u. a. so erklärt:
"Die Wirkung gleicht dem Übereinanderprojizieren mehrerer Dias." Das meinte ich mit "additiv".
Mein Beispiel mit den 16 Teilbelichtungen zeigt ja auch, daß man mit "negativ multiplizieren" insgesamt auf die erwartete Helligkeit kommt.
 
Zurück
Oben