domain hat geschrieben:... Aber eines gilt meines Erachtens mal auf jeden Fall, die DOF-Verhältnisse des Originalobjektives bleiben nicht erhalten.
Doch, bleiben sie, zumindest laut Online DOF-Rechner !
Ich will die Praktiker nicht mit Zahlenspielereien ärgern, also diesen Beitrag bitte einfach überspringen (so wie die Tatsache, dass jedes
gute Objektiv eine in Linsen gegossene Zahlenspielerei ist und die
schlechten eigentlich niemanden interessieren).
Ok, weiterer Klärungsversuch.
Unter Benutzung der Hilfsmittel, die angeboten werden, das sind z.B. diverse Schärfentiefe(DOF)-Rechner, die es online gibt.
Auf deren hinterlegte Formeln haben wir keinen Einfluss, und wenn sie falsch sind, ist auch unser Ergebnis falsch.
Nochmals
http://www.fotomagazin.de/test_technik/ ... &thema=104
Annahme:
Um die Rechnung mit geraden Zahlen machen zu können, nehme ich einen virtuellen 'Speed Booster' (Weitwinkelkonverter) mit Faktor 0.5, der ein Kleinbild-Objektiv von 50mm/2.8 an eine MFT-Kamera mit Crop-Faktor 2 anpassen soll.
So ein WW-Konverter hätte 2 Blenden Lichtgewinn (so wie ein 1/0.5 mal = 2 mal Telekonverter 2 Blenden an Licht verliert).
Also, der Reihe nach die Einträge im Online-Rechner:
Sensorformat: Kleinbild (36x24mm), auch 'Vollformat' genannt
Schärfeanforderung: traditionell (1/1500 der Sensordiagonale)
akzeptabler Unschärfekreis: 29 µm
Brennweite: 50 mm
Blende 2.8
Distanz: 3 m
ergibt eine Schärfentiefe von 58 cm
Jetzt mit virtuellem 0.5x 'Speed Booster':
Sensorformat: Micro Four Thirds 'MFT' (17.3x13mm, Format-Diagonale ist genau halbe Kleinbild-Diagonale)
Schärfeanforderung: traditionell (1/1500 der Sensordiagonale)
akzeptabler Unschärfekreis: 14.4 µm
Brennweite: 25 mm
Blende 1.4
Distanz: 3 m
ergibt eine Schärfentiefe von 58 cm
Fazit:
Theoretisch bleibt die Schärfentiefe gleich (für diesen Ideal-Fall, dass der umgekehrte Crop-Faktor des Sensors genau dem Crop-Faktor des WW-Konverters entspricht. Oder, anders gesagt: Dass der Sensor-Crop durch den 'Speed Booster' genau kompensiert wird).
Der springende (und meist nicht beachtete) Punkt ist, dass mit dem kleineren Format auch die
Schärfe-Bedingung (Durchmesser des Unschärfekreises auf dem Sensor) angepasst wird (hier halbiert wird = 'verschärft' wird (im wörtlichen Sinn), womit die Schärfentiefe sinkt). Und nur dann kommt das obige Ergebnis raus !
Das führt zu dem seltsamen Ergebnis, dass sich z.B. die Schärfentiefe halbiert, wenn man ALLE Werte im Online-Rechner gleich lässt und nur das Format ändert (hier: von Kleinbild auf MFT halbiert).
Stimmt das ?
Intuitiv würde man sagen: Bleibt gleich ! Es wird ja nur der erfasste Bildausschnitt verkleinert, am Objektiv und am Motiv bleibt alles unverändert.
Andererseits: Wenn man diesen verkleinerten Ausschnitt im nachhinein wieder auf
die Formatgrösse bringt, die dem grösseren Sensor entspricht, könnte etwas dran sein.
Man kann es sich so überlegen:
Wenn der Sensor kleiner ist, muss das Bild im Vergleich zum Vollformat
insgesamt stärker vergrössert werden, damit man es im gleichen Maßstab betrachten kann (z. B. auf einem Papier oder einem Monitor). Das heisst, dass die Bedingungen dafür, was im Abbild auf dem Sensor noch als scharf erachtet wird, verschärft werden - die Schärfentiefe sinkt.
Denn die Durchmesser der Unschärfekreise (die einen Objekt-Punkt des Motivs auf dem Sensor als Kreis statt als Punkt abbilden, weil er nicht genau im Fokus liegt - so ähnlich, wie wenn ich abends die Lichter einer Stadt etwas defokussiere und dann statt Punkte lauter Kreisflächen erhalte) werden verkleinert. Alle Unschärfekreise, die
so gross oder kleiner sind, erfüllen für meine Augen noch das Kriterium 'ist scharf'.
Und wenn ich das Objektiv abblende, vergrössert sich die Schärfentiefe, weil sich durch den engeren Lichtdurchlass (Blende weiter zu) die Unschärfekreise verkleinern.
Falls diese ganze Unschärfekreis-Geschichte nun unklar geblieben sein sollte, hier nochmals zur Erinnerung:
Fotografie ist der Versuch, mit Hilfe eines Objektivs einen realen, räumlichen, 3D-Bereich auf eine 2D-Fläche abzubilden (Sensor, Bildebene, Filmebene).
Was eigentlich nicht geht. Beziehungsweise nur mit der Fokusebene genau funktioniert, das ist die 2D-Ebene im realen 3D-Raum, die scharf gestellt ist. Alles davor und dahinter ist mehr oder weniger unscharf.
Und hinterlässt als Abbild auf dem Sensor (quasi vom Objektiv auf den Sensor projeziert) statt scharfe Abbildungspunkte unscharfe Kreisflächen.
Nun sind unsere Augen aber nicht perfekt und haben eine begrenzte Auflösung. Deshalb ist für uns ab einer gewissen Kleinheit der unscharfen Kreisflächen trotzdem alles scharf.
Diese Kleinheit, der maximale Unschärfekreis-Durchmesser, ist willkürlich.
Würden wir so eine Abbildung auf dem Sensor (bzw. eine Vergrösserung davon) einem Adler mit seinen scharfen Augen vorsetzen und könnte er sprechen, würde er wohl sagen, dass das, was wir da als scharf bezeichen, für ihn - mit Ausnahme der Objekte in der Fokus-Ebene - grösstenteils unscharf aussieht.
Fazit:
Schärfentiefe ist nicht klar abgegrenzt in scharf und unscharf, sondern der Übergang ist fliessend. Und wie gross die Schärfentiefe für unser Auge ist, hängt (neben der eingestellten Blende) auch davon ab, was wir als scharf bzw. unscharf definieren. Es ist also subjektiv und nicht objektiv. Offenbar werden Unschärfekreise, die kleiner sind als 1/1500 der Sensordiagonale, von unsere Augen noch als scharf gesehen (gemeint ist, bei gleichem Maßstab betrachtet). Dieser Wert ist dann in der Schärfentiefe-Rechnung enthalten. Und wenn nicht dieser Wert, dann ein anderer. Aber ganz OHNE einen Wert, ein Schärfekriterium, geht es nicht.
Als
Ergänzung noch zwei Sätze aus der bereits zuvor ('Gamechanger'-Thread) von olja verlinkten Zeiss-Broschüre (Seite 11):
http://www.zeiss.de/C12567A8003B8B6F/Em ... keh_de.pdf
ZITAT:
Die Schärfentiefe hängt (fast) überhaupt nicht von der Brennweite ab, sondern nur vom Abbildungsmaßstab ...
... ABER: Der unendlich weit entfernte Hintergrund wird
(eigener Hinweis: von unterschiedlichen Brennweiten) mit unterschiedlicher Unschärfe wiedergegeben, weil die Eintrittspupillen unterschiedlich gross sind. ...
ZITAT ENDE
Es gibt also auch bei
gleichem Abbildungsmaßstab einen Unterschied zwischen den verwendeten Brennweiten, auch wenn er nicht die Schärfentiefe, sondern die 'Unschärfentiefe' oder besser, das, was nicht mehr scharf ist (OFF-DOF, eigentlich eher die DARSTELLUNG der Unschärfe, das Bokeh) betrifft.
Obwohl die Schärfentiefe bei gleichem Abbildungsmaßstab übereinstimmt, verschwimmt der entfernte, unscharfe Hintergrund mit Tele mehr als mit Weitwinkel.
Zudem sind diese theoretischen Überlegungen für
ideale Objektive gemacht: OHNE Berücksichtigung von Farbfehlern, Linsenzahl, Vergütung, Bildverzeichnungen, Bokeh etc. etc.. Die Optikrechnung für ein
reales, GUTES Objektiv mit zahlreichen Linsen muss also ziemlich kompliziert sein.
Und noch eine
weitere Ergänzung:
Ein alternativer Schärfentiefe-Rechner findet sich hier
http://www.vision-doctor.de/optik-berec ... tiefe.html
Das Besondere: Hier ist der maximal akzeptable (für unser Auge) Unschärfekreis-Durchmesser (also der Grenzwert dafür, was wir noch als 'scharf' bezeichnen würden) selbst einstellbar (im Gegensatz zum obigen DOF-Rechner, wo er einfach automatisch an die jeweilige Sensor-Diagonale angepasst wird).
Und es wird ein etwas anderes (vielleicht realistischeres ?) Schärfe-Kriterium empfohlen, als beim oben angegebenen Online-Rechner (mit 'scharf' = Kreisscheibe mit max. 1/1500 der Sensor-Diagonale):
Hier gilt ein Abbildungspunkt auf dem Sensor als scharf, wenn er kleiner als die doppelte Pixelgrösse ist (mit 'Grösse' ist wohl die Diagonale eines einzelnen Sensorpixels gemeint). Also quasi mit 1 Pixel Fehlertoleranz (2 statt 1 erlaubt).
Die Idee dabei ist also, dass ein kleinerer Sensor etwa eine gleiche Pixelzahl hat, wie ein grosser und somit die einzelnen Pixel kleiner sind. Und sich damit das Schärfekriterium 'verschärft', je kleiner der Sensor ist.
Die Theorie (inkl. einer guten Herleitung der Schärfentiefe) dazu findet sich hier:
http://www.vision-doctor.de/optische-gr ... tiefe.html
Ok.
So habe ich mir die Erklärungen zurechtgelegt. Und hätte sie längst nachgeprüft, wenn der 'Speed Booster' mit MFT-Anschluss endlich eingetroffen wäre ;-)
Wenn hier ein Spezialist im Forum ist, der es besser weiss, freue ich mich über Korrekturen und Ergänzungen.
Im übrigen: Thread wieder frei für die Praktiker: "Wann wird dieses angebliche Wunderteil endlich geliefert und wie verhält es sich, wenn statt Offenblende etwas abgeblendet wird?"
Nachtrag - Langer Rede kurzer Sinn:
An einer Kamera mit Crop-Faktor 1.41, das ist genau der Kehrwert des Weitwinkel-Konverter (= Speed Booster) Faktors von 0.71, also 1/0.71 (Eins durch 0.71), würde mit 'Speed Booster' (fast) alles so bleiben, wie mit demselben Objektiv an einer Vollformat-Kamera.
Der Bildwinkel bleibt gleich, weil der Crop-Faktor durch den Weitwinkel-Konverter gerade kompensiert wird.
Auch die Schärfentiefe-Skala auf dem Objektiv wäre noch gültig, wie wir gesehen haben.
Aber man wäre dabei um eine Blende lichtstärker, als auf dem Objektiv angezeigt. Daran muss man eigentlich nicht dauernd denken, es ist einfach eine willkommene Zugabe.
Erklärung: Es fällt zwar genau gleich viel Licht in die Frontlinse des Objektivs, wie ohne 'Speed Booster', aber der Konverter bündelt dieses Licht auf kleinerer Fläche (Beispiel 'Projektor näher an Projektionswand' von srone, Beispiel 'kleinerer Taschenlampen-Lichtkegel' von mir), das ergibt pro Fläche bzw. pro Sensor-Pixel mehr Licht.
Andere Begründung: Die maximale Blendenzahl (grösste Öffnung) eines Objektivs ist eine Verhältniszahl: Objektiv-Brennweite geteilt durch Durchmesser der Eintrittspupille (= ABBILD der Blende, NICHT die Blende selbst). Da die Brennweite des Gesamtsystems 'Objektiv-Konverter' nun kleiner ist als des Objektivs allein, die Eintrittspupille aber gleich bleibt (am Objektiv hat sich ja nichts geändert), wird auch das Ergebnis der Division kleiner => die max. Blende ist weiter offen (in ihrer WIRKUNG, am Objektiv selbst ist sie natürlich mechanisch unverändert).
STOP !
Nur für die, die's genau wissen wollen (und wenn ich's richtig begriffen habe): Das gilt (im Vergleich zum selben Objektiv an der Vollformat-Kamera), wenn Folgendes erfüllt ist:
Die Schärfebedingung (sie ist immer vorhanden, auch wenn es oft nicht erwähnt wird) in der Schärfentiefe-Formel ist an die Sensor-Diagonale gekoppelt, wird also an den kleineren Sensor der Crop-Kamera angepasst = verschärft. Das heisst, der maximale Durchmesser eines Unschärfekreises auf dem Sensor wird um den Crop-Faktor reduziert, die Schärfentiefe verringert sich mathematisch um den Crop-Faktor. Nur eine kleinere Kreisscheibe gilt jetzt noch als annähernd punktförmig für unser Auge & Hirn.
Diese Kreisscheibe hat einen maximalen Durchmesser von
a) 1/1500 der Sensordiagonale (auch andere Werte sind möglich)
oder alternativ
b) 2 Sensor-Pixeln (diagonal) - d.h., max. 1 Pixel Abweichung erlaubt, auch andere Werte wären möglich.
Punkt b) macht eigentlich nur Sinn, wenn die Pixelzahl auf dem grossen und dem kleinen Sensor etwa gleich ist. Und damit die Grösse eines Pixels entsprechend der Sensorgrösse variiert.
Die Schärfentiefe-Berechnungen nach a) oder b) können sich unterscheiden !
Und in Realität gilt:
Die APS-C Kameras haben einen Crop-Fakor von ca. 1.6, der vom Speed Booster nicht ganz kompensiert werden kann, es bleibt ein Crop-Faktor von ca. 1.6 x 0.71 = um die 1.14.