Natürlich wird das Thema um Ein- und Dreichipper zu sehr pauschalisiert. Der Auflösungsverlust bei einem Chip durch das Debayering ist ein theoretischer Wert, der so nur anzuwenden ist, wenn das Verhältnis der Anzahl physikalischer Pixel zur Auflösung des Endbildes 1:1 ist. Bei einem Sensor mit 10MP kommt es auf die Skalierung/das Binning an und was möglich ist, zeigt der JVC.
Wenn ich mich, aus welchen Gründen auch immer, bewusst für eine DSLR entscheide, in dem Wissen, dass es zur Zeit keine solche Kamera gibt, die ohne Nachschärfung ein gutes Bild liefert, dann ziehe ich es vor, ein Bild mit relativ wenig interner Schärfung zu bekommen, damit ich die Art und den Grad der Nachschärfung in der Postproduktion selber bestimmen kann und nicht auf die schlechten Algorithmen der Kameras angewiesen bin.
Ich glaube, dass der andere D5200 Thread genug Material für diese Grundsatzdiskussion bietet, an der ich mich auch nicht beteiligen möchte, weil die Tatsache, dass sie seit Jahren regressiert, zeigt, dass bereits alle Argumente ausgetauscht und bekannt sind und es letztendlich nach wie vor jedermanns persönliche Entscheidung ist, welches System er bevorzugt. Deshalb wäre es mir sehr lieb, wenn wir bei diesem Thread hier beim Thema bleiben könnten. Wie gesagt, die Diskussion ist im anderen Topic mindestens genauso gut aufgehoben, da sie die Nachschärfung allgemein betrifft. ;)
BTT:
Klar, du kannst natürlich jeden Codec wählen, der dir gut passt. Ich benutze DNxHD, weil es, wie ProRes, ein ressourcenschondender Intraframe Codec ist. Aus diesem Grund sollte die Datenrate bei dem Codec auch nicht zu gering gewählt werden. Die Spezifikation lässt nur noch 36 Mbit zu, und das ist wirklich zu wenig (Sichtbare Blockbildung).
Mit Mpeg4 Encoding in FFMPEG kenne ich mich allerdings nicht gut aus, da müsstest du mal Google bemühen, was 2-Pass und Quantisierung angeht ;)
Dann gehen wir das Ganze mal der Reihe nach durch:
-vcodec definiert den Codec. Als Wert kann ein beliebiger Kürzel aus der Liste, die mit ffmpeg -formats ausgegeben wird, eingetragen werden.
-acodec ist entsprechend der Audiocodec. Hier kopieren wir einfach den Stream.
-vb ist die videobitrate. k steht für Kilobit. m am ende kannst du für eine Angabe in Megabit nutzen.
-Die Filterkette von -vf wird in "" gefasst. Wenn wir mehrere parallele Filterketten haben, werden diese nacheinander Definiert. Getrennt durch ein ;. Die Filter selber werden durch ein Komma separiert und haben die Definition filtername=parameter.
Bei dieser komplexen Filterung starten wir mit einem Split Filter. Dieser Teilt den Stream in Zwei. Der abgetrennte Stream wird mit [T1] benannt (Name willkürlich, war ursprünglich copy&paste vom Handbuch) und erstmal links liegen gelassen, denn der erste Stream wird an den nächsten Effekt, den Format Filter, welcher das Pixelformat ändert und ja nur einen Eingang hat, weitergegeben. Anschließend folgt für diesem Stream die Rauschreduktion. Der hqdn3d Filter nimmt 4 ganzzahlige Parameter für die Intensität an: Spatiale Luminanz, spatiale Chrominanz, temporale Luminanz, temporale Chrominanz.
Jetzt machen wir einen kurzen Sprung hinter das ; Zeichen: [T1] unsharp sagt, dass wir in der zweiten Filterkette den abgesplitteten Stream [T1] als Input für den unsharp filter nehmen. Der unsharp Filter nimmt folgende Parameter an (einfach mal aus dem Handbuch kopiert) luma_msize_x:luma_msize_y:luma_amount:chroma_msize_x:chroma_msize_y:chroma_amount mit Msize ist die Größe der Unschärfematrix pro gemeint. Positive werde für die Intensitäten schärfen das Bild, negative Werde zeichnen Weich. 1.5 bring recht ausgewogene Ergebnisse, 2 wirkt sehr scharf aber bereits etwas überzeichnet, 1 ist relativ Soft. Die Format und hqdn3d Filter in dieser Filterkette sind eigentlich nur Platzhalter, falls man in den Mitten und höhen auch noch ein bisschen rumfiltern möchte.
Das [T2) hinter dem hqdn3d Filter gibt an, dass wir den Output des Filters T2 nennen, damit wir ihn nun in der ersten Filterkette aufgreifen können, also zurück zur ersten Kette:
der Blend Effekt verarbeitet mehrere Eingänge. Als ersten (A) geben wir T2 an. Der Output des vorhergehenden Effekts in der aktuellen Filterkette ist das Automatisch Input B. Der Parameter all_expression gibt an, dass eine gemeinsame Formel für die Überlagerung der Pixel aller Farbebenen gegeben wird. Die Formel benutzt if statements, die der Form folgen: if(Bedingung, Positiver Output, negativer Output). lte vergleicht die beiden Zahlen, die wir eingeben und gibt positiv aus, wenn die erste Zahl kleiner als die zweite ist.
Die Expression bedeutet also: Wenn der Pixelwert kleiner 70 ist, dann wird der Pixel von Stream B (Also der Entrauschte) übernommen, wenn nicht, dann wird, wenn der Wert zwischen einschließlich 70 und 79 liegt, zwischen A und B abhängig vom Wert überblendet, um einen weichen Übergang zu erzeugen, und ansonsten der nicht entrauschte Stream A genommen. [out] gibt an, dass dies der Output ist. fertig :)
-r 25 ist eigentlich unnötig und stellt nur sicher, dass der Stream am Ende 25 Bilder in der Sekunde hat und somit DNxHD konform ist. Bei der GH2 musste man das so machen, weil sie das 25p Material in einem 50i Kontainer gespeichert hat (gab immer Freude bei der Farbkorrektur, wegen der Streifenbildung durch die separate Encodierung der Halbbilder der Farbebenen. Wenn das in 4:2:2 bearbeitet und das Ergebnis in 4:2:0 ausgegeben wurde, war das nicht schön.).
Ich habe das ganze selber noch nicht wirklich getestet, heute Abend habe ich hoffentlich ein wenig Zeit dafür.
/ Hier sind die Filter aufgelistet:
http://ffmpeg.org/ffmpeg-filters.html