Postproduktion allgemein Forum



Was müsste ein Intermediate-Codec in der Zukunft können?



Fragen rund um die Nachbearbeitung, Videoschnitt, Export, etc. (div. Software)
Antworten
TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

WoWu hat geschrieben: Wenn Du also über ein neues Format nachdenkst, würde ich bei den Anforderungen von UHD Phase 2 anfangen, nachzudenken, sonst ist er alt, vor er fertig ist.
Natürlich. Allerdings beabsichtige ich über den Tellerrand zu schauen und zumindest jede Festlegung und Vorgehensweise (auch wenn sie noch so einfach erscheint) zu hinterfragen und nicht einfach nur zu übernehmen, weil man es seit längerem einfach so macht.

Die Farbunterabtastung ist einer der ersten Schritte, darum möchte ich sie gleich am Anfang detailierter betrachten. Augenblicklich bin ich von der Idee eines Schachbrettmusters aus Chroma-Werten angetan und beabsichtige dies erst mal zu testen. Ich erhoffe mir damit eine bessere Qualität bei der Rückwandlung (Interpolation). Das ich damit inkompatibel zu allen bisher gängigen Farbunterabtastungsvaianten wäre, ist mir schon klar. Ob die Idee praktikabel ist, müsste sich erst zeigen, vielelicht macht sie auch erst bei den späteren Abläufen im Codec Probleme.

Wenn Interesse besteht, kann ich die Idee näher erläutern.

Als einzige definitiv zu unterstützende Schnitstelle betrachte ich unkomprimierte RGB-Bitmaps. Ich beabsichtige im Moment nicht einmal definitiv eine YCbCr-Schnittstelle zum Codec (habe mich aber noch nicht festgelegt). Aber viele Fragen, auch im Bezug zur Schnittstelle, sind für mich noch ungeklärt.



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

Du bürdest Dir damit aber auch eine Last auf, die sich nicht mal die Sonys, Apples oder Panasonic dieser Welt aufgeladen haben.
Die haben einfach was Vorhandenes genommen und ein paar proptietär Daten dazu gepackt, um es als eigenes Produkt verwursten zu können.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

WoWu hat geschrieben:Du bürdest Dir damit aber auch eine Last auf, die sich nicht mal die Sonys, Apples oder Panasonic dieser Welt aufgeladen haben.
Das mag durchaus sein. :-)

Ich habe noch einmal nachgedacht: Die Kernfrage waere, ob man unbedingt YCbCr nach REC 2020 transportieren koennen will, oder ob R'G'B' reicht. Wenn ja, dann sollte man auch die "gaengigen" Varianten der Farbunterabtastung unterstuetzen. Wenn nein, dann haette man sich erstmal alle Moeglichkeiten offen gelassen.

Nebenbei ueberlege ich auch, ob man Interlaced evtl. nur in einfacher Form unterstuetzen sollte, als reine Notloesung fuer altes Material, um die entscheidenden Teile vom Codec selbst moeglichst einfach zu halten.



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

@Bubble

Ich bin da ein ganz schlechter Ratgeber weil ich Standards zu schätzen gelernt habe und für mich Intermediates nur eine Krücke sind, um schwachbrüstige Rechner dazu zu bewegen überhaupt in der Bildverarbeitung in halbwegs vertretbarer Zeit klar zu kommen.
Austauschformate gibt es auch standardisiert und mit den meisten, heutigen Rechnern ist es auch kein Problem mehr in qualitativ hochwertigen, reduzierten Verfahren zu arbeiten und damit selbst erweiterten Bildanforderungen in der Verarbeitung gerecht zu werden.
Wie du weisst haben wir bereits vor mehr als zehn Jahren auf 10 bit I- Frame AVC gesetzt der sowohl in der Akquisition also auch in der Nachbearbeitung und auch als Austauschformat zu den Sendern dient.
Damit haben wir nie zu einer Intermediat "Krücke" greifen müssen und können heute noch auf ein umfangreiches Archiv uneingeschränkt zugreifen ohne dass wir zwischenzeitlich auch nur einmal umkopieren mussten und ohne dass uns die Qualität über die Transcodierung flöten geht.
Das hat uns bisher nur Vorteile gebracht, die kein Intermediate hätte leisten können.
Unser Vorteil war immer, von vornherein genügend Rechenpower und Software zu haben, die mehr als proprietäre Formate unterstützt.
Das ist heute leichter als je zuvor, denn leistungsfähige Rechner gibt es mittlerweile für wenig Geld und auch Software, die mehr kann als nur ein Format.
Daher stellt sich mir die Frage, was ein neuer (noch proprietärer) Codec bringen soll, was es noch nicht gibt.

Vielleicht habe ich den Zweck ja noch nicht so ganz verstanden, aber ich kann den unverzichtbaren Vorteil wirklich nicht erkennen.
Im professionellen Umfeld wird das ohnehin nichts denn ein solcher Codec würde die Hürde der Akzeptanz nicht nehmen oder vermutlich erst in 10 -oder mehr- Jahren.
Selbst die bekannten "klassischen", wie ProRes & Co haben fast 10 Jahre dazu gebraucht und auch das nur, weil sie auf dem MPEG2 Standard aufsetzen.
Etwas Neues wird es also sehr viel schwerer haben.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

WoWu hat geschrieben: Ich bin da ein ganz schlechter Ratgeber weil ich Standards zu schätzen gelernt habe und für mich Intermediates nur eine Krücke sind, um schwachbrüstige Rechner dazu zu bewegen überhaupt in der Bildverarbeitung in halbwegs vertretbarer Zeit klar zu kommen.
Ich habe absolut nichts gegen Standards, ich hoffe das ist nicht falsch angekommen, und würde einen guten, offenen und frei verfügbaren Standard analog zu den Erfolgen von PNG und JPEG gut finden. Der Erfolg der letztgenannten beruht aber zu großen Teilen auch darauf, dass die Standards einerseits nicht irrsinnig kompliziert sind und es andererseits eine kostenfrei ohne nennenswerte Auflagen nutzbare, im Source vorliegende, Umsetzung gibt.

Leider gibt es im Videobereich noch immer nichts vergleichbares.

AVC ist gut, leider gibt es keine gute, kosten- und auflagenfrei einsetzbare Implementierung (wie es sie z.B. für PNG und JPEG gibt). Auch ist AVC viel zu umfangreich, um es "mal eben" selbst umzusetzen.
WoWu hat geschrieben: Wie du weisst haben wir bereits vor mehr als zehn Jahren auf 10 bit I- Frame AVC gesetzt der sowohl in der Akquisition also auch in der Nachbearbeitung und auch als Austauschformat zu den Sendern dient.
Nur wie lange wird es dauern, bis I-Frame AVC von Softwareherstellern kostenfrei um- bzw. eingesetzt werden kann?

Das es z.B. bis heute kaum freie/kostenlose NLEs gibt, hat IMO sehr mit der Verfügbarkeit und den Eigenheiten der Standard-Codecs zu tun. Die Kosten für die Verbreitung des inzwischen alten MPEG-2 sind anscheinend noch immer so hoch, dass z.B. Windows 8 diesen Codec nicht mehr mitbringt.

Auch kommen ständig neue Standard-Codecs hinzu. Nehmen wir nur mal den Privatbereich: Vor ca. 20 Jahren gab es noch die Analogtechnik, dann kam DV und ein wenig MPEG-2 in Standard Definition, gefolgt von MPEG-2 in Form von HDV. Es folgte der für Full-HD erforderliche Schritt nach AVCHD bzw. H.264. Es wird bald H.265 folgen. Von all diesen Codecs gibt es noch diverse Untervarianten, gerne für professionelle Ausrüstung genutzt, sowie Containerformate, in denen sie stecken können.

D.h. jedes heute und in näherer Zukunft sinnvoll einsetzbares Programm müsste mindestens DV, MPEG-2, H.264 und H.265 im Im- und Export plus der gängigen Containerformate beherrschen. Jeder Anwender müsste geschult werden, wie er die unterschiedlichen Encoder der Programme so bedient, dass bei den erforderlichen Zwischendateien kein zu großer Qualitätsverlust eintritt.

Ein wiklich beliebig einsetzbarer Intermediate könnte für viele Programme das Austauschproblem lösen. Klar, man könnte auch schon heute Sequenzen als JPEGs exportieren, mit weiterer Software bearbeiten und wieder ins NLE importieren, aber wirklich schön ist das nicht. So steckt derzeit jeder Anwender weitestgehend in seinem NLE fest und kann nicht so leicht auf zusätzliche Spezialprogramme zurückgreifen.
WoWu hat geschrieben: Daher stellt sich mir die Frage, was ein neuer (noch proprietärer) Codec bringen soll, was es noch nicht gibt.
Siehe oben. :-)

Was aber schon der Versuch definitiv bringt: Mehr Wissen und Verständis, da man sich intensiv mit dem Themengebiet beschäftigen muss. :-)
WoWu hat geschrieben: Selbst die bekannten "klassischen", wie ProRes & Co haben fast 10 Jahre dazu gebraucht und auch das nur, weil sie auf dem MPEG2 Standard aufsetzen.
Etwas Neues wird es also sehr viel schwerer haben.
Das wird tatsächlich so sein. Wobei ich glaube, das der Erfolg von ProRes nichts mit MPEG-2 zu tun hat, sondern mit erfolgreicher Vermarktung. Es ist mir durchaus klar, dass es schon Versuche in die Richtungen Intermediate und hochqualitatives Archiv gab, die allerdings nie die Verbreitung von z.B. ProRes erreicht haben. So gibt es z.B. von Dirac eine für Intermediates geeignete Variante.

Aber wie gesagt, auch wenn ein neuer Codec praktisch ungenutzt bleibt, kann man am Entwurf viel lernen.



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

D.h. jedes heute und in näherer Zukunft sinnvoll einsetzbares Programm müsste mindestens DV, MPEG-2, H.264 und H.265 im Im- und Export plus der gängigen Containerformate beherrschen. Jeder Anwender müsste geschult werden, wie er die unterschiedlichen Encoder der Programme so bedient, dass bei den erforderlichen Zwischendateien kein zu großer Qualitätsverlust eintritt.
Ich denke, genau an dieser Stelle liegt einer der springenden Punkte, weil allein der Sprung in der DCT von MPEG2 nach H.264 und nochmals, was die 4x4 in H.265 angeht, ziemlich massive Probleme bereiten dürfte, in einem Codec befriedigend abgehandelt zu werden.
Von einem Intermediate erwarte ich aber auf alle fälle, dass es keine Einschränkungen in der Bildqualität bezüglich meines Original´Footages gibt.
Das bedeutet aber, dass eben auch die Vorzüge de H.265 beinhaltet sein müssen.
Ich weiss, dass sich viele vom Aufdruck "visual lossless" beeindrucken lassen, aber ich denke, Du gehörst nicht dazu und weisst um die Verbesserungen.
Ich wüsste im Augenblick aber eben nicht, wie man solche Entwicklungen in einen neuen Codec einfliessen lassen könnte.
Nur würde ich als Anwender in einem neuen Codec nicht darauf verzichten wollen, weil sonst der Originalcodes wieder die bessere Option wäre.

Also ... wenn Intermediate, käme für mich nur einer in Frage, bei dem ich nicht 3 Schritte in der Bildqualität zurück muss, weil ich dann vielleicht ein paar Sekunden schneller arbeiten kann oder mir einen anständigen Rechner spare.
Intermediate ist und bleibt für mich eine Krücke und wenn Hersteller nicht die Standards unterstützen, dann wäre das für mich eher ein Grund das NLe zu wechseln, als den Codierstandard.
Klar kosten die MPEGs -speziell die neuen- reichlich Geld aber wenn das bei den Billigpreisen der NLEs nicht vom Hersteller aufgebracht werden kann, muss ich mir dafür nicht den mühsam erkämpften Bildstandard in Bezug auf die Qualität versauen lassen.
Zumal es sowohl gute Codecs gibt als auch ausreichend schnelle Rechner und gute, Software.
Vielleicht ist der "free" Markt in Bezug auf Software ein anderer, aber das ist nicht mein Ding, da kann ich nicht mitreden.
Nur hat es sich ja auch in der Vergangenheit gezeigt, dass nicht alles, wo "free" oder "open" draufsteht, auch kostenlos drin steckt.

So ein Codec, wie Du ihn in Angriff nimmst, ist ganz sicher nicht billig. Wenn Du aber den Markt adressierst, wird das schwierig.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

WoWu hat geschrieben:Von einem Intermediate erwarte ich aber auf alle fälle, dass es keine Einschränkungen in der Bildqualität bezüglich meines Original´Footages gibt.
Das bedeutet aber, dass eben auch die Vorzüge de H.265 beinhaltet sein müssen.
Ich weiss, dass sich viele vom Aufdruck "visual lossless" beeindrucken lassen
An dieser Stelle will ich auch gar keine falschen Erwartungen aufkommen lassen: Jeder nicht sowieso völlig verlustlos arbeitender Codec (Spezialfälle mal aussen vor) wird in der Praxis mindestens durch die erstmalige Rekompression einen gewissen Qualitätsverlust bedeuten. Auch wenn das bei vernünftiger Vorgehensweise (=hohe Datenraten, aber geringer als un- oder verlustfrei-komprimiert) kaum jemand merkt, braucht man das nicht schönzureden.

Man muss aber weder den Qualitätsverlust durch kleine Datenrate ausufern lassen noch Panik vor kleinen Abweichungen verbreiten. Ein PNG kann als JPEG in hoher Qualitätsstufe gespeichert werden und niemand wird den Unterschied als unzumutbar empfinden.



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

Das ist wohl wahr, wenn das die einzige Transformation im Workflow ist, dann mag das unbemerkt bleiben.
Ist es aber unglücklicherweise meistens nicht und weil so gut wie alles mit irgendwelchen Verlusten behaftet ist, kommen hinterher di Wundertüteninhalte dabei heraus.
Man müsste sich für ein solches Vorhaben also schon sehr genau die Workflows ansehen, um die Auswirkungen auf das jeweilige Codec-Tool festzustellen.
Sowas ist aber mehr die Arbeit einer mittleren Forschungsgruppe.
Wobei ja ein Grossteil davon schon gemacht wurde. Nicht umsonst gibt es ja in neueren Codes entsprechende Änderungen und Anpassungen.

Ich will damit nur sagen, dass der Codec allein vielleicht noch den "nicht sichtbaren" Verlust bringt, aber das Verhalten im Workflow dennoch (fast) unberechenbar.
Dieses "visual lossless" ist einfach Augenwischerei, mit der die Hersteller die Anwender blenden.
In Wirklichkeit müssten sie auch die Nebnwirkungen in einem komplexen Workflow beschreiben, die ihr "lossless" Codec anrichtet denn die sind alles Andere als "lossless".
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



cantsin
Beiträge: 14144

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von cantsin »

Noch mal naiv gefragt: Warum nicht einfach XAVC Intra 200 nehmen? (Was ja nichts anderes ist als Sonys Marketingbezeichnung für 10bittiges Intraframe-h264 in der höchsten Qualitätsstufe, im MXF OP1A-Container.) Ausser höherer CPU-/GPU-Last ggü. ProRes/DNxHD/Cineform spricht doch alles dafür?!?



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

Ich halte das fúr eine ausgesprochen gute Lösung.
Nun hat Sony leider ein Feature implementiert, das zwar als Option im Standare vorgesehen ist und zur Bildoptimierung beiträgt, aber eben als Option, sodass es nicht jeder Player, der nach dem Standard implementiert ist, lesen können muss und das Format zurückweist.
Deshalb braucht man auch immer ein Plug-In dafür, das zunächst diese Daten abstreift, um wieder standardkonform zu sein.
Deswegen würde ich gleich ein standard I-Frame AVC vorziehen.
Und weil die Luft nach oben hin selbst für HD bis 900 Mbit/s offen ist, hat man wohl im Augenblick damit das, was man an Intermediate überhaupt haben kann, solange es das nicht skalierbar in 265 gibt.-Und das sehen wir voraussichtlich noch eine ganze Weile nicht.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

@WoWu (es dürfen sich auch alle Anderen angesprochen fühlen):

Eine Sache konnte ich bisher nicht völlig zufriedenstellend klären. Das hat zwar erst einmal nur indirekt mit einem Codec zu tun, ist aber dennoch von Bedeutung:

So beschreibt z.B. Rec. BT.709 eine Übertragungsfunktion für den linearen Eingangswertebereich von 0 bis 1,0. Die Grenzen werden explizit erwähnt, für 1,1 ist streng genommen nichts definiert.

Was aber tun, wenn man plötzlich wirklich mit "Superweiß" konfrontiert wird? Wie also z.B. 1,1 abbilden, wenn ein Abschneiden explizit nicht erwünscht ist, um Spielraum für weitere Bearbeitungsschritte zu erhalten?

Der umgekehrte Fall ist fast noch unangenehmer, auch hier ist nur ein Bereich von 0 bis 1,0 festgelegt:

Was mit "Superweiß" und "Tiefschwarz" (d.h. Integer-Werte über 235 bzw. unterhalb von 16) machen? Solche Werte sind tatsächlich anzutreffen.

Den Fall, dass eine Kamera explizit "Full Range" verwendet, d.h. nicht Werte von 16-235 sondern von 0(schwarz)-255(weiß) für die Integer-Darstellung und diese korrekt abgebildet werden können, möchte ich für die Frage ausschließen. Es geht mir um die unklaren Fälle.

Die Frage ist also, wie die Übertragungsfunktion im Zweifelsfall am pragmatischsten fortsetzen. Einfach die Grenzen erweitern und oben den exponentiellen Verlauf fortsetzen? Oder oben und unten jeweils mit der letzten festgelegten Steigung linear fortsetzen?

Oder doch lieber einfach Werte ausserhalb des erlaubten Bereichs abschneiden (dürfte viele Anwender nicht unbedingt freuen)?



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

Farbraumtransformation ist das magische Wort, wenn man all die Probleme vermeiden möchte, die es im Amateurbereich immer wieder gibt, weil Farbräume munter gemischt werden.
Der seriöse Umgang mit solchen Werten ist doch in der Literatur weitreichend dokumentiert.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

Nein, es geht mir nicht um die Farbräume, die haben damit nichts zu tun. Es geht ums reine "Gamma"-Encoding und die korrekte Entfernung des solchen, um linear weiterarbeiten zu können.

Klar ist das dokumentiert, aber konkrete Ratschläge, wie sich Software verhalten soll, wenn Werte, die offensichtlich ausserhalb einer Spezifikation liegen, verwendet werden, habe ich noch nichtgefunden.

Man wird hier aber wohl eh mit der ein oder anderen Ungenauigkeit rechnen müssen. So sind die nichtlinearen Transformationen der ganzen "flachen" Aufnahmemodi diverser Kameras ja leider auch eher schlecht dokumentiert.



MLJ
Beiträge: 2193

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von MLJ »

@TheBubble
Dein Vorhaben in allen ehren aber ich denke "WoWu" hat Recht was die Etablierung eines neuen Intermediate Codecs angeht, besonders wenn die Qualität nicht leiden soll. Auch was "Lossless" oder "Visual Lossless" angeht so wird hier etwas entscheidendes vergessen: Unter allen Windows Versionen gibt es diese ITU/EBU Standards nicht da die Microsoft Codecs für YUV (UYVY, YUY2, YVYU) nur DEKODIEREN und das im Full Range, ganz zu schweigen von dem uraltem Bug des Color Bleedings, besonders sichtbar bei Rot, der nie korrigiert wurde.

HuffYUV, Lagarith, MagicYUV und UtVideo arbeiten nur "Lossless" solange der Farbraum nicht geändert wird, also RGB nicht als YUY2 komprimiert werden soll, lediglich YUY2 zu YUY2 funktioniert "Lossless", alles andere nicht trotz hoher Datenraten denn jeder Formatwandel bringt Verluste mit sich, auch bei "Lossless" Codecs.

Lediglich I420 und IYUV können mit dem Intel YUV Codec komprimiert und dekomprimiert werden der aus 12 Bit am Eingang in 24 Bit umwandelt, Full Range, da bleibt also auch nichts verlustfrei. Wenn du nun einen Codec entwickeln möchtest der das alles in Betracht zieht, dann musst du zuerst ganz zurück an die Basis, besonders wenn der neue Intermediate auf allen Systemen laufen soll.

Zitat:
Nein, es geht mir nicht um die Farbräume, die haben damit nichts zu tun. Es geht ums reine "Gamma"-Encoding und die korrekte Entfernung des solchen, um linear weiterarbeiten zu können.

Klar ist das dokumentiert, aber konkrete Ratschläge, wie sich Software verhalten soll, wenn Werte, die offensichtlich ausserhalb einer Spezifikation liegen, verwendet werden, habe ich noch nichtgefunden.

Man wird hier aber wohl eh mit der ein oder anderen Ungenauigkeit rechnen müssen. So sind die nichtlinearen Transformationen der ganzen "flachen" Aufnahmemodi diverser Kameras ja leider auch eher schlecht dokumentiert.

Zitat ende.

Gamma und Alpha sind stark von der verwendeten GraKa abhängig, nicht jede ist da gleich und ist stark abhängig von den Einstellungen und den Treibern. Und was Kameras angeht so würde ich mich mal auf die Suche nach den "White Papern" machen, da findest du solche Sachen :) Manche Hersteller geben diese frei wenn man sie höflich darum bittet, nur so am Rande ;)

Spezifikationen ? Richtlinien ? Ich bitte dich, da halten sich nicht einmal TV Sender dran und machen was sie wollen, alles Augenwischerei. Sicher, man sollte diese Dinge einhalten aber wenn etwas von Haus aus "Super White" oder "Total Black" ist kannst du nur mit einer Korrektur im NLE Schadensbegrenzung betreiben denn was so schon aufgenommen wurde korrigiert kein Codec dieser Welt in einen Standard, hier ist Hand anlegen angesagt.

Nehmen wir mal QuickTime für Windows: Nehme einen Motion-JPEG Codec, egal von wem und öffne das mal im Windows Media Player, egal welche Version. Resultat: Full Range (0-255). Den gleichen Film öffnest du jetzt in QuickTime. Resultat: Limited Range (16-235). Windows ist da ganz anders als QuickTime und du fragst dich jetzt warum das wichtig ist ?

Ganz einfach: Fast alle Video und Animations Programme "bedienen" sich bei diesen Playern um Filme darzustellen und greifen auf die registrierten Module der Player zu. Ist schon seit 1998 so und hat sich bis heute nicht geändert und ist ein Aspekt den du dabei in Betracht ziehen solltest. Warum glaubst du sind die erforderlichen Versionen den Programmen beigelegt ? ;)

Dir mag es vielleicht "zu viel" an Optionen zu geben für die bereits angesprochenen Intermediate Codecs, aber man muss sich damit beschäftigen und vor allem auch verstehen, dann kann man sie richtig Anwenden. Daher mein Tipp an dich an dieser Stelle: Mache dich damit vertraut und tauche noch tiefer hinein denn wenn du das ganze erst einmal ab der Basis verstanden hast ist die Welt nur noch halb so wild.

Bitte verstehe mich nicht falsch, ich wollte nicht damit sagen das du keine Ahnung hast. Ich glaube nur das du das ganze falsch angehst da du diverse Optionen am liebsten ausblenden möchtest die wichtig sind und sich nicht von alleine lösen oder automatisch korrigieren lassen.

Diese ganzen Optionen und Möglichkeiten gibt es deswegen, weil diese Codecs so vielseitig sind aber die meisten sich nicht damit auseinander setzen und nicht einmal das Handbuch zu ihren Programmen vollständig lesen. Also wenn du dich da wirklich mit diesen hohen Ansprüchen an so ein Projekt wagen möchtest wünsche ich dir viel Glück, meinen Respekt hast du, ehrlich.

Cheers

Mickey

P.S.: Scheinbar ist schon eine Firma auf diese Idee von dir gekommen:

http://www.ispreview.co.uk/index.php/20 ... dband.html

http://www.digitaltveurope.net/346362/v ... echnology/

Website der Firma:
http://www.v-nova.com/en/products-and-technology.html

Etwas Skepsis ist hier angesagt denn es handelt sich um Meldungen vom 1.April 2015, könnte also ein Scherz sein.
The little Fox.... May U live 2 C the Dawn



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

@Bubble

Ich halte es auch weniger für eine Frage des Codecs, als vielmehr für eine Frage des Workflows. Gerade mit solchen Problemen "dealt" ja ACES, wenn es darum geht, unterschiedliche Formate, in Bezug auf Farbraum und Dynamik, miteinander zu kombinieren, indem (auch) innerhalb eines Arbeitsraumes die SW/und WS Werte an die zugeordneten Stellen transformiert werden, um dann über RRT bzw. ODT an die richtigen Zielpunkte zu gelangen.
Man kann natürlich solche Transformationsprozesse auch einem Codec vorschalten, aber man verliert die Flexibilität.
Daher denke ich, sie sind im Workflow besser angesiedelt.

Es gibt doch für die IDTs Implementierungsguidelines. Schau doch mal nach, wie die das gemacht haben.
Ich habe leider keinen Link, sonst hátte ich ihn gepostet, aber ACES ist ja open und das könnte zumindest einen klugen Hinweis geben.
Ich halte ACES ja auch (gerade deswegen) für einen sehr guten Ausgangspunkt einer Kompression.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

So, ich habe mich wieder etwas mit dem Codec-Projekt beschäftigen können.

Einer der anfänglichen Fragen war ja, ob Chroma-Subsampling (z.B. 4:2:2) verwendet werden soll. Der Idealfall wäre natürlich gar kein Chroma-Subsamlpling zu verwenden (also 4:4:4). Das würde ich auch grundsätzlich empfehlen.

Nehmen wir aber mal an, dass es dennoch zum Einsatz kommen soll. Der Einfachheit halber gehe ich im Folgenden nur auf 4:2:2 ein.

Der erste Schritt ist die Unterabtastung, also von 4:4:4 nach 4:2:2, d.h. aus (RGB)(RGB)(RGB)(RGB) wird z.B. (YUV)(Y)(YUV)(Y) oder (Y)(UV)(Y)(Y)(UV)(Y). Hier kommen mehrere Vorgehensweisen in Betracht:

- Point-sampling/Nearest-neighbor, ohne Tiefpassfilterung. Im Grunde eine Einladung an Chroma-Aliasing. Hat jedoch den großen Vorteil, dass die jeweiligen Chroma-Werte über beliebig viele 4:4:4 -> 4:2:2 -> 4:4:4 Zyklen erhalten werden können. Ein weiterer Vorteil ist, dass die Chroma-Werte immer direkt über einem Luma-Wert liegen. Rekonstruktion (Interpolation) der fehlenden Werte auf beliebige Art möglich.

- Box-sampling. Gewisser Tiefpasseffekt, jedoch nicht optimal. Etwas besser, was Aliasing angeht. Die Chroma-Werte liegen mittig zwischen zwei Luma-Werten. Wird z.B. von HuffYUV verwendet. Es sind beliebig viele Zyklen ohne Artefakte möglich, sofern zur Rekonstruktion Nearest-neighbour verwendet wird. Andere Rekonstruktionsverfahren müssen die Lage der Chroma-Werte berücksichtigen, werden aber zur Akkumulation von Fehlern beim Durchlaufen von vielen Zyklen neigen.

- Gewichtetes-sampling (z.B. Zeltfunktion, Gaussfunktion). Gute Filterung zur Vermeidung von Aliasing möglich, allerdings werden alle Werte in jedem Zyklus verändert, was zur Akkumulation von Fehlern führt. Chroma-Werte können direkt über einem Luma-Wert liegen.

Als Rekonstruktionsverfahen kommen in Betracht:

- Nearest-neighbour: Im Zusammenspiel mit Box-Sampling beliebig viele Zyklen ohne weitere Verluste möglich. Als Artefakt können treppenförmige Stufen an Farbkanten auftreten.

- Linear/höhere Ordnung/adaptiv: Besserer Gesamteindruck, keine Stufenbildung. Nachteil: Bei jeder Unterabtastungsmethode ausser Point-Sampling akkumulieren sich die Defekte über alle durchlaufenen Zyklen.

Die Frage, was man verwendet, liegt stark in der Prioritätensetzung. Box-Subsampling mit Nearest-neighbour-Interpolation ist beliebt, bildet aber unter Umständen Treppenstufen und ist nicht komplett frei von Aliasing. Point-Subsampling hingegen kann mit besseren Interpolatoren kombiniert werden, kann jedoch leichter Aliasing erzeugen.

Die "korrekten" Vorgehensweisen hingegen akkumulieren über mehere Zyklen hinweg Fehler und sind für einen Intermediate-Codec daher nicht unproblematisch und evtl. nur beim Ausspielen (z.B. vor der Umwandlung in ein Vertriebs-Format wie H.264) anzuwenden.

Ich tendiere dazu, für hohe Ansprüche Chroma-Subsampling abzuschreiben. Viele (in der Regel ignorierte) Probleme für eine gute Rekonstruktion nach 4:4:4 kommen noch hinzu, diese habe ich hier noch nicht einmal ansatzweise angesprochen. Ich experimentiere aber noch mit einem anderem Unterabtastsystem, dass Datenmengen wie 4:2:2 erzeugt, aber die Samples anders verteilt.



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

Moin Bubble.

Stellt sich die Frage nach der Unterabtastung nicht erst, wenn man mal eine Datenratenbilanz gemacht hat und für seinen Codec genauer festgelegt hat, in welchem Bereich man arbeiten will ?
Wenn ich eine Zieldatenrate von 150-200 Mbit/s favorisiere habe ich schon fast keine wirklichen Optionen mehr, jedenfalls deutlich weniger, als wenn ich 300-400 Mbit/s anpeile.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



TheBubble
Beiträge: 1910

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von TheBubble »

Hallo WoWu,
WoWu hat geschrieben: Stellt sich die Frage nach der Unterabtastung nicht erst, wenn man mal eine Datenratenbilanz gemacht hat und für seinen Codec genauer festgelegt hat, in welchem Bereich man arbeiten will ?
welche Datenraten für eine bestimmte Qualität möglich sind, kann man im Anfangsstadium nur schwer voraussagen. Das hängt sehr stark vom Erfolg bzw. vom Ineinandergreifen der Schritte Prediktion, Dekorrelation und Entropiekodierung ab.

Verlustbehaftet arbeiten kann man im Prinzip auch ohne Unterabtastung, indem man z.B. nach einer Transformation (z.B. DCT) einfach mehr Koeffizienten wegwirft. Das hätte theoretisch sogar den Vorteil, dass man bei Bedarf auch mehr Details speichern könnte. Bei der verlustbehafteten Chromaunterabtastung sehe ich als Vorteil, dass sie im Vergleich sehr wenig Rechenleistung erfordert.

Für den Anfang werde ich erstmal eine konstante Qualität bei welchselnder Datenrate anstreben. Das ist einfacher.



WoWu
Beiträge: 14819

Re: Was müsste ein Intermediate-Codec in der Zukunft können?

Beitrag von WoWu »

Hallo Bubble,
mir schon klar, nur das Nachdenken über einen neuen Intermediate fängt -nach meinem subjektiven Verständnis- doch eigentlich am Einsatzort an, also im NLE mit all seinen Unzulänglichkeiten und da fällt die verarbeitbare Datenrate zumindest massgeblich ins Gewicht.
Sonst könnte man sich ja immer auf "transparent" einlassen und bräuchte gar keinen Intermediate mehr.

Ich habe übrigens über die Fragestellung bezüglich des Mappings nochmal -erfolglos- nachgedacht und in dem Zusammenhang einmal versucht herauszufinden, wie bei ACES damit umgegangen wird.
Leider gibt es da keine verwertbaren Einlassungen zu. -Jedenfalls habe ich -trotz intensiver Bemühungen, keine gefunden.
Das könnte im Umkehrschluss bedeuten, dass auch ACES mit solchen "Spezialitäten" -z.B. Überschwinger aus begrenzten Bereichen oder IR Offsets- seine Probleme haben könnte.
Wäre also nicht uninteressant, wenn hier im Forum jemand ist, der da genauere Informationen, über die Erstellung solcher IDTs, speziell aus nicht standardkonformen Signalen, hätte.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



 Aktuelle Beiträge [alle Foren]
 
» Red Komodo 6K + Gimbal, Advanced Ring Grip und viel Zubehör
von Sevenz - Do 16:35
» Neues SIGMA 50mm F1,2 DG DN | Art Objektiv wiegt 745g
von dienstag_01 - Do 16:33
» Mac SSD Speed Messung?
von rush - Do 16:11
» Firmwareupdates für Sony Alpha 1, 7 IV, 7S III, 7R V, 7CR, 7CII, ZV-E1
von klusterdegenerierung - Do 16:08
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von Swat - Do 16:06
» 4 Gründe hartes Licht zu nutzen
von ruessel - Do 15:45
» Blackmagic Camera 8.6 Public Beta
von Frank Glencairn - Do 15:12
» [gelöst] 3.5mm Klinkenstecker Überwurfmutter
von Skeptiker - Do 14:42
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von Darth Schneider - Do 13:49
» -SONY FX- Erfahrungsaustausch
von rush - Do 13:40
» AOC bringt 44.5" OLED-Riesenmonitor mit 98.5% DCI-P3
von MK - Do 12:07
» Adobe führt die neue Funktion "Structure Reference" in Firefly ein
von slashCAM - Do 10:54
» Sondergagen - Wer aufmuckt, wird nicht mehr besetzt
von stip - Do 9:49
» Was schaust Du gerade?
von Frank Glencairn - Do 9:00
» Nikon stellt NIKKOR Z 28-400mm f/4-8 VR Superzoom-Objektiv vor
von rush - Do 8:51
» Exhuma - die Südkoreaner können erfolgreiche Filme drehen
von -paleface- - Do 8:46
» FCPX/Motion, DaVinci/Fusion... Tipps&Tricks
von Frank Glencairn - Do 4:00
» Was hörst Du gerade?
von roki100 - Do 0:22
» Sony A9 III im Praxistest - ein echter Überraschungscoup auch für Filmer
von Mantas - Mi 23:27
» Video Pro X stürzt beim Multi Cam Schnitt ab
von MisterX - Mi 21:47
» Uwe Boll: Wie man Filme produziert ohne pleite zu gehen!
von iasi - Mi 19:53
» Nach 7 Jahren mit der OG BMPCC finde ich das Bild noch immer schön.
von Darth Schneider - Mi 18:58
» Verschachtelte Timeline im richtigen Seitenformat
von Clemens Schiesko - Mi 18:43
» Untertitel in FCPX bei vorhandener Textdatei?
von R S K - Mi 18:34
» Deckenlicht mobil abschatten
von Frank Glencairn - Mi 17:31
» LUTs für Canon R6 Mark II
von TomStg - Mi 12:24
» RED versucht User nach Übernahme durch Nikon zu beruhigen
von dienstag_01 - Mi 11:52
» Entfesseltes Storytelling mit der Video-KI Sora?
von Frank Glencairn - Mi 5:54
» Slashcam 2001 - Das Internet vergisst nichts!
von macaw - Di 21:37
» Dehancer Pro - Filmsimulation auf höchstem Niveau
von Frank Glencairn - Di 18:54
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von iasi - Di 13:32
» 3 Body Problem - so verfilmt man heute Bücher
von stip - Di 8:30
» Neue Sora Version
von Frank Glencairn - Di 7:54
» IDEENFINDUNG: Wie man spannende Filme entwickelt! mit Vi-Dan Tran (Actiondesigner DUNE)
von berlin123 - Di 6:47
» Kafka Serie
von rabe131 - Mo 23:09