Wechselnde Auflösungen und Schärfe
Hallo allerseits,
kann es sein, dass durch eine Reduzierung der Pixelzahl auch die Schärfe leidet? Denn ich staune immer wieder, wie scharf die Bilder mit meiner damaligen GX-1S (= *istDS2) wurden, obwohl die nur 6MPx hatte, verglichen zB. mit den Bildern meiner aktuellen K-5, wenn ich da die Pixelzahl von 16 auf 10 MPx runterschalte. Obwohl das mehr als anderthalb mal so viele Pixel wie bei der GX-1S sind, komme ich beim Größerzoomen dann paradoxerweise doch öfter ans Ende der Fahnenstange als zuvor. Oder scheint mir das nur so?
Wobei da letztendlich dermaßen viele Faktoren reinspielen, dass es wirklich schwer ist zu entscheiden, woran's im Einzelfall liegt: an der Technik oder aber am Benutzer. Und wenn ersteres, woran dann? Also neben der Kamera und der Feinjustierung ihres Bild- und AF-Sensors möglicherweise auch noch am Objektiv, wobei es da lt. den Käuferrezensionen bei Amazon manchmal erhebliche Serienschwankungen gibt. Die einen also schreiben, dass das Objektiv XYZ rattenscharfe Bilder macht, während andere genau das Gegenteil erfahren und das Objektiv wieder an den Händler zurückgeschickt haben. Am Ende kann man wahrscheinlich mit Sicherheit nur sagen, dass die Kamera XYZ S/N 012345678 zusammen mit dem Objektiv YZX S/N 3210987 ein superscharfes Team abgibt, in anderer Kombination dagegen möglicherweise ganz und gar nicht, oder?
Um auf die Ausgangsfrage zurückzukommen: Wenn ich mir zB. vorstelle, dass eine dünne schwarze Linie auf weißem Grund über 4 benachbarte Sensorzellen läuft, müsste die Kamera ja, wenn ich die Auflösung zB. auf 1/4 reduziere, daraus irgend'nen grauen Mittelwert berechnen - die dünne schwarze Linie wäre also futsch (was ich auch oft beobachte, wenn ich meine schwarzweißen Strichzeichnungen von BMP nach JPG konvertiere und das Programm die knallharten Schwarzweiß-Übergänge der Zeichnung sozusagen "weichzeichnet" und irgendein verschwommener Wusel dabei herauskommt).
Kurzum, bei Reduzierung der Auflösung durch Zusammenfassung benachbarter Pixel müsste der Kontrast, den wir als Schärfe wahrnehmen, eigentlich immer leiden, oder? (Weshalb zB. bei Irfanview, wenn man ein Bild verkleinert, auch immer ein Nachschärfen empfohlen wird) Andererseits: Wenn bei gleichgroßem Sensor auf dieselbe Fläche nur eine Sensorzelle entfällt statt vieren bei der höher auflösenden Kamera, kann diese eine Zelle ja auch nur einen Mittelwert zurückmelden, also grau statt zweimal weiß und zweimal schwarz...
Wer weiß mehr?
Gruß,
QN