Jaein. Bildrauschen? Alles bei der Aufnahme im Keller schieben um in der Post es gerade zu biegen sieht oft übel aus.Nachteile hat das ja keine
Im direkten Vergleich sieht man recht schnell, dass dem nicht so ist. Die einzelne RAW-Datei hat ja recht hohe Bittiefe und verzeiht damit mehr, als würde man ein gebackenes JPEG nehmen. Natürlich fasst so ein RAW mehr dynamik als etwa ein JPEG, klardomain hat geschrieben: Was ich nicht verstehe: ist der Dynamikumfang von RAW wirklich so groß, dass aus einer einzigen Aufnahme durch Tonmapping wirklich quasi HDR-Bilder erzeugt werden können, oder sind im betr. Bild doch 3 Aufnahmen miteinander verrechnet worden?
Dann wäre der Dynamikumfang ja keine Kunst.
Was heißt RAW Datei (-+2 Blenden)?
Das heißt üblicherweise:domain hat geschrieben:...Was heißt RAW Datei (-+2 Blenden)?
Die Kamera ahmt ja nicht das Auge nach - sie bietet eine Art Fenter, durch das der Betrachter blicken soll. Daher greift ja auch diese Auflösungsdiskussion immer zu kurz. Das Auge wandert über das Bild und es adaptiert dabei ständig. Helle Bildbereiche ohne Zeichnung wirken unnatürlich, da das Auge vergeblich versucht, nach der Adaption etwas zu erkennen. Gesichtspartien, die clippen, sind ja nicht umsonst ein no-go.WoWu hat geschrieben:Ich denke, man kann solche, aus mehreren Bildern zusammengesetzte Bilder nicht mit dem vergleichen, was ein Sensor "in einem Rutsch" generiert.
Man erkennt am ersten Bild der Web Seite
http://fotohall.de/hdr/hdr.html
dass an den Kanten überall ein Ünerstrahlungseffekt entsteht, der die Kanten, gegenüber des menschlichen Sehvermögens, so unwirklich darstellt.
Dazu kommt natürlich noch, dass der Mensch (ohne Adaption) nur etwa 6 Blenden sieht und dann ein Bild, in dem 15 Blenden auf JPEG Niveau runtergebrachten sind, auch wieder komisch anmutet.
Schön zu erkennen, an den Tischreflektionen im obigen Link.
Dadurch wirken solche künstlichen HDR Bilder immer so unwirklich.
Aber ein Sensor hat lediglich einen größeren Störabstand, sodass höhere Ladungsmengen genutzt werden können, was zu natürlicheren Darstellungen führt.
problem ist eben nur, dass auch der Rest stimmen muss (Bandbreite, Codec usw.) damit die Dynamik auch nutzbar wird und nicht von andern Effekten überdeckt.
Der Sensor allein macht also noch kein HDR Bild, solange der Rest nicht auch stimmt.
Das ist leider wahr - die 15 Werte werden dem Auge nicht geboten, sondern in zusammengestauchter Form serviert.WoWu hat geschrieben:Das ist ja grad das Problem, warum dann immer die Bilder so künstlich aussehen, wenn innerhalb der 6Blenden, die das Auge aufnehmen kann, plötzlich 15 Werte zusammengefasst sind.
Das ist wünschenwert: Das Auge wechselt von einem hellen Bildbereich in einen Schattenbereich und erhält dort wie beim natürlichen Sehen Details - und durch die Nachregelung dürfen es auch gerne noch mehr als 15 Blendenstufen Unterschied sein.WoWu hat geschrieben: Übrigens funktioniert HDR im TV bereich anders, weil die oberen Helligkeitswerte auch im TV Gerät zu mehr Licht führen und das Auge dann selbsttätig nachregelt, wenn die Bereiche außerhalb der 6 Blenden liegen, also wird die normale Augenfunktion damit bedient, was bei einer 15 auf 6 nicht der Fall ist. Daher der künstliche Eindruck bei solchen HDR Fotos.
14 blendenstufen sind beachtlich ... für GS ganz besondersStarshine Pictures hat geschrieben:Bei Minute 6:15 spricht der Kollege von Canon über 14 Blenden beim Global Shutter Sensor der kommenden C700. Vielleicht ein Hinweis dass dies noch nicht der "Wundersensor" ist?
genau..selbst wennnachtaktiv hat geschrieben:canon und trumpf in der tasche ist ja schon mal ein guter witz. die sind ja dafür bekannt, das sie ihre trümpfe nicht ausspielen.
aber selbst wenn... für halbwegs brauchbare kameras zahlt man sich bei der firma dumm und dämlich. nix für mich.
waren zwar nicht meine bilder, aber bin bei dir. :-)WoWu hat geschrieben:@ Iasi
Das Problem ist bei hoher Dynamik leider, dass jeder anfängt, beide Beiche gleichermaßen im Bild zu haben, sodass dann solche Kunstbilder entstehen.
Bei der Auflösung ist es so ziemlich dasselbe.
Das Auge kann nur etwa 4K auflösen, egal ob sich etwas bewegt oder nicht, denn der schärfste Punkt im Auge erfasst nur 1 Bogenminute.
Statt dessen generiert man Bilder so künstlich wie möglich durch Algorithmen in scheinbare Details hinein, bei denen dann das natürliche Sehen mal wieder völlig übergangen wird.
An den Bildern, die Srone neulich gepostet hat, konnte man das sehr schön sehen.
Ein Hochhaus vor einer gleißenden Sonne aber die Hochhauskanten gingen konturscharf durch die Helligkeit.
Dass Licht sich an Kanten beugt, wissen die Algorithem wahrscheinlich noch nicht.
Deswegen sehen solche Bilder auch immer so videomässig aus und haben genau mit dem nichts mehr zu tun, was wir eigentlich immer anstreben, einen möglichst natürlichen Look, von manchen auch oft als Filmlook bezeichnet.
Höher Auflösung beginn sich mittlerweile schon wieder vom natürlichen Sehvermögen zu verabschieden.
Die Handyfilmgeneration ist jetzt am Zug mit zwar künstlichen, aber dafür messerscharfen Bildern und Kamerapreisen aus der Portokasse.
Ohhhh, dann habe ich trotz 41 Jahren wohl immer noch SUPERAUGEN ;-)!!WoWu hat geschrieben: Das Auge kann nur etwa 4K auflösen, egal ob sich etwas bewegt oder nicht, denn der schärfste Punkt im Auge erfasst nur 1 Bogenminute.
Du vergisst zu sagen, bei welchem Abstand.
Ohhhh, dann habe ich trotz 41 Jahren wohl immer noch SUPERAUGEN ;-)!!
Hmm, wenn ich bei 4K ein "Bandbreitenlimit" hätte dürfte ich auf meinem 4K TV keine Pixel mehr differenzieren können.
Das Auflösungsvermögen bzw. die Unterscheidbarkeit feiner Details ist bei verschiedenen Menschen aber unterschiedlich ausgeprägt.WoWu hat geschrieben: Deine Augen werden aber auch nicht feiner als 2,5 μm Distanz zweier Zapfen in der Fovearegion aufweisen und damit nicht höher als rd. 1 Bogenminute auflösen können.
Ich schrieb dass ich noch differenzieren kann, wenn der Bildschirm geschätzt ca. 1/4 bis 1/3 der (sichtbaren) Bildhöhe abdeckt.WoWu hat geschrieben:Du vergisst zu sagen, bei welchem Abstand.
Ohhhh, dann habe ich trotz 41 Jahren wohl immer noch SUPERAUGEN ;-)!!
Hmm, wenn ich bei 4K ein "Bandbreitenlimit" hätte dürfte ich auf meinem 4K TV keine Pixel mehr differenzieren können.
Deine Augen werden aber auch nicht feiner als 2,5 μm Distanz zweier Zapfen in der Fovearegion aufweisen und damit nicht höher als rd. 1 Bogenminute auflösen können.
Und damit kannst Du Dir ja ausrechnen, was Du auflösen kannst, denn Auflösung ist immer abhängig vom Abstand.
Wenn Du natürlich mit der Nase auf den Bildschirm gehst, siehst Du jedes Pixel 30x so groß. Dann reicht aber Dein Bildkreis nicht mehr, 4000 Pixels nebeneinander zu sehen.
Bildauflösungen lässt sich exakt berechnen und 1Bogenminute ist nun mal das Maximum, das der Mensch schafft.
Canon hat nur die Angewohnheit mit Blendenumfang was anderes zu meinen, als alle anderen erwarten.iasi hat geschrieben: 14 blendenstufen sind beachtlich ... für GS ganz besonders
...1mm auf 3-6m -> 3-6K - damit hätte Wolfgang mit 4K absolut Recht!!!dienstag_01 hat geschrieben:https://de.wikipedia.org/wiki/Aufl%C3%B ... m%C3%B6gen
Selbstverständlich sehen hier einige mehr!!!
Das Problem ist dass es bisher kein standardisiertes Messverfahren dazu gibt. Ich habe z.B. noch keine RED gesehen die einen mindestens so hohen Kontrastumfang "subjektiv wiedergibt" wie eine F65, aber das nur am Rande.CameraRick hat geschrieben:Canon hat nur die Angewohnheit mit Blendenumfang was anderes zu meinen, als alle anderen erwarten.iasi hat geschrieben: 14 blendenstufen sind beachtlich ... für GS ganz besonders
Die C300 Mk II sollte doch auch 14 bis 15 Blenden umfassen, und schau was es geworden ist.
Wieso erwartet man jetzt bei der C700 was anderes...?
Sony proklamiert bei ihrer GS F55 auch 14 Blenden, nur kost auch etwas weniger