CI-Fotocommunity

Registriere Dich jetzt kostenlos!

Dadurch bekommst Du Zugang zu dem geschützten Mitgliederbereich, kannst beim Gebrauchtmarkt mitmachen und stellst nebenbei auch noch sicher, dass niemand Dir Deinen Wunsch-Usernamen wegschnappt.

Wie geht das mit den wechselnden Auflösungen?

Qniemiec

Kennt den Türsteher
Hallo,

aus Anlass eines gerade anderswo laufenden Threads von Softgruen mal 'ne Frage, auf die ich eigentlich auch keine Antwort weiß, nämlich:

Wie funktioniert das eigentlich mit den wechselnden Auflösungen, also wenn ich zB. zwischen 15, 10 und 6 MPixeln wählen kann? Werden da sukzessive mehrere Sensorpunkte zu einem zusammengefasst, oder wird nur ein kleinerer Teil des gesamten Sensors ausgelesen, ohne dass man's merkt?

Man liest sich,
QN
 
Hola

Ich denke, das hat mit dem Sensor nichts zu tun, sondern da wird vielmehr eine restriktivere JPG-Komprimierung durchgeführt. Die RAW-Datei ist ja bei allen JPG-Grössen-Varianten immer gleich GROSS (RAW+).

Saludos
Marcel
 
Hallo Qniemiec,

bekanntlich führen mehrere Wege nach Rom. Einen hat unser mallorquinischer Freund schon genannt.

Eine weitere Möglichkeit wird ebenfalls sehr häufig genutzt, und zwar nicht nur bei großen Sensoren: Es wird einfach der Randbereich "abgeschnitten". So kann z.B. mit 24x36 Sensoren (ich hasse das Wort Vollformat, denn was ist dann Mittelformat??) auch ein für APSC gerechnetes Objektiv verwendet werden. Oder im FourThird wird auch der Rand abgeschnitten, um abweichende Bildformate zu erzielen, z.B. 16:9, Quadrat, 3:2 und vieles mehr.

Grüße vom Monty
 
Hola Monty

Alles klar, was die Bildformate betrifft, aber Qniemiec schrieb ja von der Dateigrösse und das wäre dann "lediglich" die Qualität, also von * bis ****, oder habe ich das falsch verstanden?

Saludos
Marcel
 
Hallo Marcel,

ich bin mir nicht so ganz sicher, was Qniemiec genau meinte. Jedenfalls hat er jetzt schon mal 2 mögliche Antworten.

Übrigens: Was Du mit * bis **** meinst ist lediglich abhängig von der sogenannten JPG-Komprimierung. Die ist zunächst einmal unabhängig von der gelieferten Pixxelmenge. Das gibt lediglich wieder, wie stark die Ausgangsdatei durch die Umwandlung komprimiert wird. Je stärker komprimiert wird, desto eher gehen Details verloren, weil JPG nicht Pixxel für Pixxel vorgeht, sondern immer mehrere Pixxel zusammenrechnet.

Irgendwo hab ich mal gelesen, wie das genau geht (aber da es mich nicht weiter interessierte - ich benutze nur RAW und TIFF - hab ich es wieder vergessen).

Grüße vom Monty
 
Moin,

es geht um die Auswahl der Pixeldichte des Bildes.

@QN:
Dabei wird von Pentax immer der gesamte Sensor verwendet. Sonst würde ja nur noch ein Ausschnitt auf dem Bild landen, ohne daß wir wissen, wie der aussieht.
Dabei werden mehrere Sensorpixel zusammengefasst.

Insofern hatte Marcel schon recht mit seiner Antwort, nur daß wohl nicht per Jpeg komprimiert wird. Das RAW behält dabei den vollen Informationsinhalt. Und die Pixelreduzierten Jpegs zeigen den gleichen Bildausschnitt.

Einen wirklichen Vorteil sehe ich in der Pixelreduzierung nicht, außer man muß um jeden Preis Speicherplatz sparen.

C'Ya
Ralf
 
Einen wirklichen Vorteil sehe ich in der Pixelreduzierung nicht, außer man muß um jeden Preis Speicherplatz sparen.

Wenn ich z.B. nur mal schnell was dokumentieren will, das per Email verschickt werden muß, ist es schon praktisch, wenn man die Pixelzahl und Qualität bereits in der Kamera reduzieren kann, da dann nicht unnötig viel Daten entstehen und eine Nachbearbeitung im Form einer Verkleinerung entfällt. Genau dafür verwende ich die geringeren Pixelzahlen (dann meist auch ohne RAW), nicht jedoch für Fotos mit interessantem Motiv.

Ansonsten hat die Pixelreduzierung für mich den gleichen Wert wie der berühmte Digitalzoom...
icon10.gif
 
Hallo allerseits,

ja, es ging mir schon

um die Auswahl der Pixeldichte des Bildes.

Weil, wenn ich zB. 10 MPx einstelle, die JPEGs dann auch wirklich - Höhe mal Breite - 10 Megapixel, also 10 Mio. Bildpunkte haben. Womit sich für mich die Frage stellte: Ok, wenn die K-5 nun also 15 Mio. Sensorzellen hat und jede einen Bildpunkt, was passiert dann, wenn ich da statt 15 MPx nur noch 10 MPx einstelle: Werden da benachbarte Sensorzellen addiert, oder aber wird einfach einfach am Rand was abgeschnitten, wie es Monty beschrieb, und anschließend in die elektronische Trickkiste gegriffen wie zB. bei diesen "künstlichen" Fischauge-Bildern, die ja auch ganz anders aussehen als mit dem tatsächlichen Objektiv aufgenommen...

Dabei wird von Pentax immer der gesamte Sensor verwendet. Sonst würde ja nur noch ein Ausschnitt auf dem Bild landen, ohne daß wir wissen, wie der aussieht.
Dabei werden mehrere Sensorpixel zusammengefasst.

"Zusammenfassung von Sensorpixeln" ist da schon mal 'ne ganz gute Erklärung - wie sie dann allerdings auf die Zahlenverhältnisse kommen, muss ich mir nochmal näher ansehen. Hängt sicher mit der Anordnung der einzelnen Sensorzellen zusammen...

Und dann noch eins: Müsste durch die Pixelzusammenfassung nicht andererseits auch wieder das Farbrauschen abnehmen, also die Bildqualität besser werden? Weil zufällige Ausrutscher einzelner Sensorzellen in diesem Fall durch Mittelwertbildung aller Nachbarn ausgeglichen werden?

Ok, das muss jetzt erstmal reichen ;-))....

Man liest sich,
QN
 
Wechselnde Auflösungen und Schärfe

Hallo allerseits,

kann es sein, dass durch eine Reduzierung der Pixelzahl auch die Schärfe leidet? Denn ich staune immer wieder, wie scharf die Bilder mit meiner damaligen GX-1S (= *istDS2) wurden, obwohl die nur 6MPx hatte, verglichen zB. mit den Bildern meiner aktuellen K-5, wenn ich da die Pixelzahl von 16 auf 10 MPx runterschalte. Obwohl das mehr als anderthalb mal so viele Pixel wie bei der GX-1S sind, komme ich beim Größerzoomen dann paradoxerweise doch öfter ans Ende der Fahnenstange als zuvor. Oder scheint mir das nur so?

Wobei da letztendlich dermaßen viele Faktoren reinspielen, dass es wirklich schwer ist zu entscheiden, woran's im Einzelfall liegt: an der Technik oder aber am Benutzer. Und wenn ersteres, woran dann? Also neben der Kamera und der Feinjustierung ihres Bild- und AF-Sensors möglicherweise auch noch am Objektiv, wobei es da lt. den Käuferrezensionen bei Amazon manchmal erhebliche Serienschwankungen gibt. Die einen also schreiben, dass das Objektiv XYZ rattenscharfe Bilder macht, während andere genau das Gegenteil erfahren und das Objektiv wieder an den Händler zurückgeschickt haben. Am Ende kann man wahrscheinlich mit Sicherheit nur sagen, dass die Kamera XYZ S/N 012345678 zusammen mit dem Objektiv YZX S/N 3210987 ein superscharfes Team abgibt, in anderer Kombination dagegen möglicherweise ganz und gar nicht, oder?

Um auf die Ausgangsfrage zurückzukommen: Wenn ich mir zB. vorstelle, dass eine dünne schwarze Linie auf weißem Grund über 4 benachbarte Sensorzellen läuft, müsste die Kamera ja, wenn ich die Auflösung zB. auf 1/4 reduziere, daraus irgend'nen grauen Mittelwert berechnen - die dünne schwarze Linie wäre also futsch (was ich auch oft beobachte, wenn ich meine schwarzweißen Strichzeichnungen von BMP nach JPG konvertiere und das Programm die knallharten Schwarzweiß-Übergänge der Zeichnung sozusagen "weichzeichnet" und irgendein verschwommener Wusel dabei herauskommt).

Kurzum, bei Reduzierung der Auflösung durch Zusammenfassung benachbarter Pixel müsste der Kontrast, den wir als Schärfe wahrnehmen, eigentlich immer leiden, oder? (Weshalb zB. bei Irfanview, wenn man ein Bild verkleinert, auch immer ein Nachschärfen empfohlen wird) Andererseits: Wenn bei gleichgroßem Sensor auf dieselbe Fläche nur eine Sensorzelle entfällt statt vieren bei der höher auflösenden Kamera, kann diese eine Zelle ja auch nur einen Mittelwert zurückmelden, also grau statt zweimal weiß und zweimal schwarz...

Wer weiß mehr?
Gruß,
QN
 
Moin!


Schon wieder ein uraltes Thema, das ich ausbuddle. Und auch hier wurden ein paar Dinge ganz richtig erklärt und einige andere ziemlich falsch.

Was in der Kamera passiert, wenn eine geringere Auflösung gewählt wird, unterscheidet sich zunächst mal gar nicht von dem, was man auch nachträglich bei der Bildbearbeitung macht, wenn man ein Bild bspw. auf Web- oder Forengröße runterrechnet. Da werden keine "Pixel zusammengefasst", sondern es wird interpoliert, und das funktioniert auch bei völlig krummzahligen Verhältnissen. Da gibt es viele verschiedene (mathematische) Methoden, die leicht ergoogelt werden können. Ganz wichtig, aber in der "Literatur" oft unterschlagen, ist die Tiefpassfilterung ("ausbügeln" kleiner Details, die nach dem Verkleinern ohnehin verloren wären), da man sonst Alias-Signale (Moiré usw.) bekommen kann. Und das Runterrechnen verringert selbstverständlich die Auflösung. Es verringert nur dann die (durch Schärfung erzielbare und durch das menschliche Auge empfundene) Schärfe, wenn das Endergebnis für die sich ergebende Auflösung zu groß betrachtet wird.




Gruß, Matthias
 
Hola

Ich denke, das hat mit dem Sensor nichts zu tun, sondern da wird vielmehr eine restriktivere JPG-Komprimierung durchgeführt. Die RAW-Datei ist ja bei allen JPG-Grössen-Varianten immer gleich GROSS (RAW+).

Saludos
Marcel
Bullshit, hat nichts mit JPG Komprimierung zu tun. Es werden Pixel bspw. über Pixelinterpolation (Software, hier bleibt RAW gleich RAW) oder Binning (Hardware, hier gibts auch ein kleineres RAW) zusammengefasst. In Consumerkameras geschieht das meist softwaremäßig.

Binning hat den Vorteil, dass wegen der Gesamtfläche eines Bins größer ist, als ein einzelnes Pixel, was sich also auch positivauf das Rauschverhalten auswirkt.

JPG Komprimierung ist verlustbehaftet, weil das Bild in Basisfunktionen (Fourierreihen) zerlegt wird. Der Kompressionsgrad ist abhängig davon, bis zu welchen Grad der Basisfunktion das JPG erstellt wird. Der Kompressionsgrad ist deswegen auch immer abhängig vom Grad des Informationsgehalts des Bildes. Je komplexer das Bild, desto geringer der Kompressionsgrad. JPG Komprimierung hat also rein gar nichts mit der Bildgröße zu tun.
 
Zuletzt bearbeitet:
Zurück
Oben