..und das ist Meilenweit von Vision2 und Vision3 Kodak Material entfernt, das bei 70mm Produktionen die letzten Jahre meist zum Einsatz gekommen ist.iasi hat geschrieben:LoA ist 50T-Material, das in 8k eingescannt und in 4k bearbeitet wurde.
Beim Frame vom Dragon ist der Fokus knapp vor den beiden kleinen Scooter Rädern.Valentino hat geschrieben:Und mal wieder eine Lehrstunde über Auflösung von unserem Bruchpiloten ;-)
Solche Aussagen über Up und Downscaling zu treffen ist einfach Quatsch, da du nicht mal schreibst wie dein Scaling abläuft.Tiefflieger hat geschrieben:Beim Frame vom Dragon ist der Fokus knapp vor den beiden kleinen Scooter Rädern.Valentino hat geschrieben:Und mal wieder eine Lehrstunde über Auflösung von unserem Bruchpiloten ;-)
Der Mann selbst ist knapp in SD aufgelöst (Torso und Kopf), auch wenn er dabei in Bewegung ist.
Der rechte Schuh des Mannes ist fest am Boden, da musste man bei 6K fast das Sockengewebe sehen (auch bei beginnender Dämmerung, der Schuh ist knapp über 2K).
Gruss Tiefflieger
Das steht z.B. in gar keinem Zusammenhang weil ein Pixel lediglich den Luminanzwert misst und die Menge der übertragbaren Luminanzwerte ergeben sich aus den übertragbaren Wertemengen des Datenstroms, bzw. bei RAW aus der Summe der Ladungsmengen pro Pixel.Bzw. Pixelanzahl = Farbnuancenanzahl
Und das Sub-Sampling, das Du ansprichst, hat auch nichts mit der Menge der Farbnuancen zu tun, sondern nur mit der "Echtheit" der übertragenen Farbe, denn durch die Unterabtastung werden lediglich mehr Pixel für die Interpolation des Farbwertes herangezogen und mit zunehmender Pixelzahl die Realfarbe immer weiter abgefälscht.Hier ein popeliges grün mit 446'612 Farbnuancen.
Bei einem single Sensor mit Debayering verstehe ich das.WoWu hat geschrieben:Das steht z.B. in gar keinem Zusammenhang weil ein Pixel lediglich den Luminanzwert misst und die Menge der übertragbaren Luminanzwerte ergeben sich aus den übertragbaren Wertemengen des Datenstroms, bzw. bei RAW aus der Summe der Ladungsmengen pro Pixel.Bzw. Pixelanzahl = Farbnuancenanzahl
Es ist also völlig egal, wieviele Pixel ein Sensor hat, solange man nicht mindestens ein paar Pixel für ein Binning braucht.
Beim single Sensor ist das Pattern in einem versetzen Raster angeordnet.WoWu hat geschrieben:Quatsch, Du hast doch vor jedem der drei Sensoren auch einen Filter.
Im Processing ändert sich im Grunde genommen nichts, nur dass Du nicht jedes Pixel einzeln De-Bayern musst. Die Werte werden also "abgelesen" und nicht errechnet, aber das gibt keine Nuance mehr.
Die Menge der Farbnuancen ist nur sehr beschränkt vom Sensor abhängig.
Ist aber nicht durch die notwendige Farbinterpolation bei Bayer-Sensoren die Reproduktion der echten Farben gar nie zu erreichen?WoWu hat geschrieben: Nur ob in der menge der Werte immer die echte Farbe (also eine echte Reproduktion) übertragen wird, das hängt vom Gewinnungsverfahren ab.