Wie kommst Du darauf? Ich glaube, Du liest die Grafik verkehrt. (Bei der 4K-4:2:0-Abtastung entsteht an der rot-grünen Farbkante eine Falschfarbe, die beim Runterskalieren auf 2K erhalten bleibt, weil bei diesem Runterskalieren wegen der Unterabtastung im Ausgangsmaterial ja keine neuen Farbwerte berechnet/gemittelt werden).mash_gh4 hat geschrieben: die Y werte, die du hier dem "pseudo 4:4:4 2K" output zuordnest, geben offenbar immer nur den pixel links-oben im ursprungsbild wider.
Aus dem Grund, weswegen man mit Chroma-Unterabtastung überhaupt angefangen hat: Es sind weniger Daten zu speichern, zu verarbeiten und zu übertragen.Jan hat geschrieben:Ich will nicht noch eine neue Diskussion anzetteln, aber wenn es denn wirklich so einfach ist, aus 4K 4:2:0 ein hochwertiges FHD-Signal mit 4:4:4 zu machen, warum kann das kein Consumergerät ?
Danke, aber wir befinden uns im Jahr 2016, da sollte so etwas ja möglich sein. Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.TheBubble hat geschrieben:Aus dem Grund, weswegen man mit Chroma-Unterabtastung überhaupt angefangen hat: Es sind weniger Daten zu speichern, zu verarbeiten und zu übertragen.Jan hat geschrieben:Ich will nicht noch eine neue Diskussion anzetteln, aber wenn es denn wirklich so einfach ist, aus 4K 4:2:0 ein hochwertiges FHD-Signal mit 4:4:4 zu machen, warum kann das kein Consumergerät ?
Auch müsste man in Kameras gar nicht von 4:2:0 nach 4:4:4 umrechnen, denn man könnte über 4:4:4 direkt verfügen.
Im Prinzip alles richtig, wobei, jetzt wirklich mal in der Praxis, kaum eine Kamera echtes 4:4:4 schaffen wird, es sei denn es steht Foveon oder 3-Chip drauf. Selbst aktuelle Obersamplingkameras schaffen kaum eine anständige rot/blau Auflösung, die besonders kritisch ist da hier die wenigsten Informationen/Sensel bei einem Bayersensor vorliegen. Da tun sich die meisten 4K Modelle richtig schwer gegen ne FHD 3-Chip Kamera.TheBubble hat geschrieben:Aus dem Grund, weswegen man mit Chroma-Unterabtastung überhaupt angefangen hat: Es sind weniger Daten zu speichern, zu verarbeiten und zu übertragen.Jan hat geschrieben:Ich will nicht noch eine neue Diskussion anzetteln, aber wenn es denn wirklich so einfach ist, aus 4K 4:2:0 ein hochwertiges FHD-Signal mit 4:4:4 zu machen, warum kann das kein Consumergerät ?
Auch müsste man in Kameras gar nicht von 4:2:0 nach 4:4:4 umrechnen, denn man könnte über 4:4:4 direkt verfügen.
Machbar ist das sicher, aber nicht "wirtschaftlich". Wenn Du heute alles "verschenkst" kannst Du morgen nichts mehr verkaufen und dem Hersteller geht es schlechter als es ihm ohnehin schon geht. Übermorgen ist er pleite und wir können keine neuen Spielzeuge mehr kaufen ;-)...Jan hat geschrieben:Danke, aber wir befinden uns im Jahr 2016, da sollte so etwas ja möglich sein. Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.TheBubble hat geschrieben:Aus dem Grund, weswegen man mit Chroma-Unterabtastung überhaupt angefangen hat: Es sind weniger Daten zu speichern, zu verarbeiten und zu übertragen.Jan hat geschrieben:Ich will nicht noch eine neue Diskussion anzetteln, aber wenn es denn wirklich so einfach ist, aus 4K 4:2:0 ein hochwertiges FHD-Signal mit 4:4:4 zu machen, warum kann das kein Consumergerät ?
Auch müsste man in Kameras gar nicht von 4:2:0 nach 4:4:4 umrechnen, denn man könnte über 4:4:4 direkt verfügen.
VG
Jan
Richtig, wobei ich immer feststellen muss das viele Geräte auch wieder künstlich verschlechtert werden, damit man mit dem kleinen Billigkram nicht zu professionell werden kann. So fehlt ja z.B. bei den Sony Consumercams seit Jahren die Möglichkeit, komplett manuell filmen zu können oder Bildparameter einzustellen.Jott hat geschrieben:Für unkomprimierte Aufzeichnung bräuchte man ganz schöne Brecher, insbesondere Speichermedien mit gaaanz viiiielen Terabyte (man will ja bitteschön die Schulaufführung der Kids ohne Medienwechsel aufzeichnen können). Wundert mich ein wenig, dass ihr von so was im Consumerbereich träumt. Wozu?
Consumer bekommen für einen runden Tausender schon heute Sachen, von denen vor nicht allzu vielen Jahren Profis nur träumen konnten. Wenn heute noch füchterlich aussehendes Zeug gefilmt wird, dann liegt das nicht mehr am Equipment.
danke! da hast du recht! ich hab die Y werte tatsächlich falsch interpretiert, nämlich als float angabe, statt als position/index innerhalb der matrix.cantsin hat geschrieben:Wie kommst Du darauf? Ich glaube, Du liest die Grafik verkehrt.mash_gh4 hat geschrieben: die Y werte, die du hier dem "pseudo 4:4:4 2K" output zuordnest, geben offenbar immer nur den pixel links-oben im ursprungsbild wider.
ich glaube, dass es es ein ziemlicher unfug ist, die entsprechende ausgangsmatrix unbedingt gleich auf pysikalischer auflösung oder realen senseln in verbindung zu bringen. wenn man danach strebt, ist es gescheiter, man verlangt gleich die raw daten direkt vom sensor vor dem debayering, elektronischen entzerren von objektven etc. worauf sich die ausgangsmatrix hier aber bezieht, sind definitiv nicht mehr einzelne bildpunkte, wie sie der sensor sieht, sondern die digitale repräsentation eines bildes.cantsin hat geschrieben:Aber ich sehe ein anderes Problem bei WoWus Grafik: Ja, im 4K-4:4:4-Modus wird die Farbkante sauber aufgelöst und kann dann auch sauber, ohne Falschfarbe, nach 2K-4:4:4 runterskaliert werden. Was aber wäre, wenn die Kamera gleich - ohne Skalieren, sondern sensor-nativ - 2K 4:4:4 aufgenommen hätte?
wie hier ohnehin bereits bereits mehrfach erwähnt, ist das natürlich in der praxis ohnehin der fall!Jan hat geschrieben:...wenn es denn wirklich so einfach ist, aus 4K 4:2:0 ein hochwertiges FHD-Signal mit 4:4:4 zu machen, warum kann das kein Consumergerät?
Wot??? Das ist ein Rechtschreibfehler gewesen? Und ich hab dich all' die Monate als den Erfinder der 'Regressiven Ironie' bewundert… :-/Jan hat geschrieben:Roland Schulz - peinlich von mir, ist mir überhaupt nicht aufgefallen, obwohl es aber bei normalem Hinsehen sofort in das Auge sticht.
So isses.TheBubble hat geschrieben:Aus dem Grund, weswegen man mit Chroma-Unterabtastung überhaupt angefangen hat: Es sind weniger Daten zu speichern, zu verarbeiten und zu übertragen.Jan hat geschrieben:Ich will nicht noch eine neue Diskussion anzetteln, aber wenn es denn wirklich so einfach ist, aus 4K 4:2:0 ein hochwertiges FHD-Signal mit 4:4:4 zu machen, warum kann das kein Consumergerät ?
Auch müsste man in Kameras gar nicht von 4:2:0 nach 4:4:4 umrechnen, denn man könnte über 4:4:4 direkt verfügen.
Ist es nicht, sondern eine auch heute noch phantastische Methode, die Bandbreite eines Videos zu halbieren. Leider wird es nicht mehr angeboten. Ich hätte nichts dagegen, wenn z.B. meine FZ1000 4K mit 50i/60i bei 100 MBit/s aufzeichnen würde. Technisch wäre es problemlos möglich.Jan hat geschrieben:Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.
Vergessen nicht, aber vielleicht übersehen?Roland Schulz hat geschrieben:… - hab ich was vergessen?!
Ja, das hast du dann definitiv. Aber das ist für dich nur von Vorteil im Fall schwacher Hardware, denn vorher hattest du etwas besseres: 4:2:0 in 4k!hokusfokus79 hat geschrieben:…wenn ich … 4k aufnehme, und dieses 4k footage dann … auf 1920x1080 ändere ... habe ich dann DEFINITIV ein 1080 4:4:4 ??
Das läuft hier häufiger so und gleicht ggf. nen zu flachen Blutdruck aus ;-) - ne, schon richtig, müsste auch nicht sein, "man" ließ sich aber nicht überzeugen und fing an zu pöbeln. Da ich mir aber nicht in die Socken p..... lasse hat sich das dann aufgeschaukelt. Andere vertraten ihre Meinung mit Publikationen und "Professoren" im Rücken - als ich Kind war hatte mein Papi auch immer Recht und war quasi das Gesetz - auch die wurden denke ich mal überzeugt, sind aber im Nichts verschwunden - auch gut!MLJ hat geschrieben:@All
Off-Topic:
Zunächst finde ich es nicht gut wie Teile dieser Diskussion geführt wurden nachdem ich mich durch die ganzen Beiträge durchgelesen habe und hätte mir mehr Sachlichkeit gewünscht statt persönlicher Anfeindungen.
Die Fehlfarben sind schon drin, die stecken sowohl im 4:2:0 als auch im 4:4:4, da allerdings etwas "schmaler". Beim Downscaling kommen aber keine neuen dazu, das ist ausgeschlossen da die Farbmatrix des 4:2:0 1:1 in das 4:4:4 bei Halbierung der h/v Dimension übernommen werden kann!MLJ hat geschrieben: Zum Thema:
Es sollte jedem klar sein dass man aus einem 4:2:0 nie "echtes" 4:4:4 zaubern kann ohne Fehlfarben dabei zu generieren.
Denke darüber sind wir hier (fast) alle hinaus, die den Thread "im Detail" mitverfolgt haben ;-).MLJ hat geschrieben: Das ist der Grund warum man das Format während der Produktion und Schnitt nicht wechselt, Codec inklusive um die Qualität nicht zu "verschlimmern".
Ich schlage vor ihr schaut euch mal diese Seiten an:
https://en.wikipedia.org/wiki/YCbCr
https://en.wikipedia.org/wiki/YPbPr
https://msdn.microsoft.com/en-us/librar ... 85%29.aspx
http://wolfcrow.com/blog/whats-the-diff ... and-ycbcr/
Diese hier besonders:
https://forums.adobe.com/thread/825920
Bei den meisten Bayer Kameras bringt´s einfach nix 4:2:2 oder höher einzusetzen und Bandbreite zu verballern bzw. das Verhältnis zwischen Luminanzauflösung und Farbauflösung Richtung Farbe zu verschieben, damit die verfügbare Bandbreite oder "Bitrate" in Richtung Luma einzuschränken.MLJ hat geschrieben: Auf die Frage "Warum wird dann 4:2:0 verwendet und kein 4:4:4 ?" gibt es eine simple Antwort: Es ist das schnellste Format und einfacher zu komprimieren als 4:2:2 oder 4:4:4 denn eine verlustfreie Variante wäre einfach zu teuer. Ein weiterer Grund für 4:2:0 ist dass DVD und BluRay sowie viele Internet Portale dieses Format verwenden oder favorisieren.
Aus dem Kontext (WoWu) sollte klar hervorgegangen sein, dass eine Methode in Frage gestellt wurde, die das Downscaling wie von mir beschrieben überhaupt beherrscht. Nearest Neighbor wird prinzipbedingt das Chromasignal NICHT verändern oder interpolieren. Das bei den anderen Methoden nachzuvollziehen oder gar nachzuweisen würde eher schwierig.MLJ hat geschrieben: Beim "Downscaling" einen "Nearest Neighbour" Algorithmus zu wenden ist die schlechteste Lösung, hier sind die wichtigsten Unterschiede:
Nearest neighbor (point sampling)
Choose the nearest source pixel. This results in the crispest video, but has sparkling and "chunkiness" problems. It is the fastest resampling mode and is useful for previews.
Immer gut wenn es andere besser wissen was ich sehe und auch höre ;-)!Bommi hat geschrieben:
Bei den meisten Foristen (inklusive WoWu; obiges 'Hersteller-Argument' ist ja auch seines) scheint der Eindruck zu sein, dass eine 4:2:0-Aufzeichnung eine minderwertige Video-Qualität wegen minderwertiger Produktionsmittel bedeutet. Das stimmt nicht. Es ist eine Möglichkeit, massiv Bandbreite einzusparen. Und weil 4:2:0 an das menschliche Sehvermögen angepasst ist, könnte man es mit den psychoakustischen Modellen der Audiokomprimierung vergleichen.
Da ist doch mal ein wahres Wort gesprochen!!!Bommi hat geschrieben: Ein Profi wird auf Komprimierung verzichten, wo immer es möglich und praktikabel ist.
Aber wehe Du willst mal croppen, ne slomo oder nen Zeitraffer machen ;-)!!!Bommi hat geschrieben:Ist es nicht, sondern eine auch heute noch phantastische Methode, die Bandbreite eines Videos zu halbieren. Leider wird es nicht mehr angeboten. Ich hätte nichts dagegen, wenn z.B. meine FZ1000 4K mit 50i/60i bei 100 MBit/s aufzeichnen würde. Technisch wäre es problemlos möglich.Jan hat geschrieben:Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.
...alles bekannt und Teil der Diskussion ;-), wobei man beim Rasen jetzt nicht unbedingt 4:4:4 bräuchte, ein gutes Beispiel warum hier Luma klar vorgeht, die Farbe ist "relativ" gleich, ES SEI DENN ES STÜNDEN ROTE MINIBLÜMCHEN IN DER WIESE ;-)!!!Bommi hat geschrieben:Vergessen nicht, aber vielleicht übersehen?Roland Schulz hat geschrieben:… - hab ich was vergessen?!
4:4:4 ist kein heiliger Gral, in dessen Besitz man erst mühsam gelangen muss, um einen Schluck daraus nehmen zu können. 4:4:4 bedeutet einfach nur, dass jeder (wahrnehmbare) Bildpunkt seine individuelle Farbe darstellt (und das hat der liebe Gott ja ohnehin so vorgesehen).
Bei einer 4:2:0-Aufzeichnung teilen vier Bildpunkte sich eine Farbe, und zwar einen errechneten durchschnittlichen Farbwert. Bei der Dekodierung der Aufzeichnung wird dieser eine Farbwert auf alle vier Bildpunkte angewandt, was zu einer Unschärfe des Bildes bei der Farbe führt. Und hier haben wir den tatsächlichen Nachteil der Datenreduktion via Farbunterabtastung nach 4:2:0 - die Farbunschärfe.
Die Farbunschärfe als Teil der Bildunschärfe vermindert sich bei jedem Downscaling. Bei jedem!
Wir alle haben schon die Erfahrung gemacht, dass ein verunglücktes Foto oder ein Foto aus einer Billig-Digitalkamera oder ein zu stark komprimiertes Foto, auf dem z.B. eine Rasenfläche oder Konturen matschig sind, nach einer Reduktion der Auflösung knackiger aussehen. Nichts anderes passiert beim Downscaling eines 4k-Videos nach Full HD auch mit der Abbildung von Farbe.
DEFINITV (allgemein) FALSCH!!! Selbst die "Profisoftware" EDIUS (ich mag das!!) kann intern überhaupt KEIN 4:4:4 :-p ;-)!!! "Besser" war´s vorher, richtig!! - der Grund warum wowu und ich diesen (Un)Sinn auch mehrfach in Frage gestellt haben.Bommi hat geschrieben: Und hier ist der Grund, warum ich dieses Posting hier absetze:
Ja, das hast du dann definitiv. Aber das ist für dich nur von Vorteil im Fall schwacher Hardware, denn vorher hattest du etwas besseres: 4:2:0 in 4k!hokusfokus79 hat geschrieben:…wenn ich … 4k aufnehme, und dieses 4k footage dann … auf 1920x1080 ändere ... habe ich dann DEFINITIV ein 1080 4:4:4 ??
Das nächste wahre Wort - aber auch bereits bekannt und diskutiert, zur Erinnerung nach dem ganzen Stress aber nochmal GUT!!Bommi hat geschrieben: 4:4:4 ist fürs Keyen und fürs Grading viel besser als 4:2:0 - aber nur bei gleicher Auflösung.
SO SIEHT´S AUS!!!Bommi hat geschrieben: Wenn dir 4k-Footage zur Verfügung steht und dein Rechner es verarbeiten kann, dann nutze es gefälligst! Das 4k-Footage hat nämlich - bezogen auf das final down-gescalte Full HD-Video - die gleiche Farbschärfe PLUS die vierfache Helligkeitsschärfe.
Jan hat geschrieben:Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.
Bommi hat geschrieben: Ist es nicht, sondern eine auch heute noch phantastische Methode, die Bandbreite eines Videos zu halbieren. Leider wird es nicht mehr angeboten. Ich hätte nichts dagegen, wenn z.B. meine FZ1000 4K mit 50i/60i bei 100 MBit/s aufzeichnen würde. Technisch wäre es problemlos möglich.
Der Grund dafür liegt in der Natur der GoP Struktur. Es wird ja zwischen den Keyframes immer nur die Differenz gespeichert und wenn man jetzt die Zeitliche Auflösung mit der Verdoppelung der Bildrate verändert, so wird die Differenz zwischen den Bildern kleiner. Damit wird die Datei am Ende meistens 1,3 mal größer und nicht doppelt so groß wie bei reiner Intra-Frame Aufzeichnung.Jan hat geschrieben:Beispielsweise ist eben eine FHD/25P-Datei nicht halb so groß wie eine FHD/50P-Datei der gleichen Kamera.
Für Bommi scheint das aber etwas neues zu sein....Valentino hat geschrieben:Der Grund dafür liegt in der Natur der GoP Struktur. Es wird ja zwischen den Keyframes immer nur die Differenz gespeichert und wenn man jetzt die Zeitliche Auflösung mit der Verdoppelung der Bildrate verändert, so wird die Differenz zwischen den Bildern kleiner. Damit wird die Datei am Ende meistens 1,3 mal größer und nicht doppelt so groß wie bei reiner Intra-Frame Aufzeichnung.Jan hat geschrieben:Beispielsweise ist eben eine FHD/25P-Datei nicht halb so groß wie eine FHD/50P-Datei der gleichen Kamera.
Wenn man ein 25p Video einfach auf 50p hochzieht (alle Bilder zweimal zeigt und keine Bewegungen hinzuzurechnen), so sollte das 50p Video sogar fast gleichgroß bleiben.
Alles Nix Neues.
Was bedeutet 4:4:4 bezogen auf die Pixelebene ;-) !?!?!?!Valentino hat geschrieben: @Roland Schulz
Durch dein "Geschrei" und das wiederholen deiner Thesen werden diese nicht richtiger.
So langsam kann man diesen Thread schließen.
DVB-T2 HD wird bereits in 1080p50 gesendet. Es ist also gar nicht so abwegig, dass zukünftig auch auf anderen Verbreitungswegen in dieser Auflösung gesendet werden wird.Jott hat geschrieben:Daher bleibt Interlaced noch lange erhalten, denn neben dem abgeschafften 720p bleibt in dieser veralteten Infrastruktur nur 1080i50 für flüssige Bewegungen. So wird auch überall gesendet, nur wenige konvertieren für den Sendeweg zu 720p runter.
Das habe ich auch gelesen. Allerdings soll laut c't 13/2016 bei den Nachrichten eines Senders wenigstens das Logo in 1080p erscheinen. Es müsste folglich (beim DVB-T2 HD Betreiber) inzwischen in 1080p50 angeliefert werden.Jott hat geschrieben:Das musst du den Sendern erzählen. Die DVB-Inhalte werden aufgeblasen.
Was ist denn das für eine schräge Unterstellung!?! Zu 25p vs. 50p hab ich mich weder hier noch anderswo geäußert.Jan hat geschrieben:Für Bommi scheint das aber etwas neues zu sein....
Da hat die Kamera sich wohl gedacht: "Donnerwetter, nun hat der gute Jan also auf Interlaced umgeschaltet. Wahrscheinlich will er eine Blu-ray erstellen und strebt dazu einen Interlaced-Workflow von der Kamera bis zur Scheibe an. Dann will ich mal geschwind die Kompression reduzieren, um ihm möglichst hochwertiges Footage zu liefern. Die dazu notwendige Kapazität habe ich ja, weil bei Interlaced nur halbe Pixelzahl pro Frame anfällt."Jan hat geschrieben:Ich habe dazu die letzten Jahre viele Kameras durchgetestet, die noch über eine Vielzahl an Frameraten mit Halbbildern- und Vollbildern aufzeichnen. Man erhält eben nicht die doppelte Datenmenge bei der 50P-Aufzeichnung gegenüber einer 50i Aufzeichnung mit gleicher Auflösung.
Ja, früher vs. heute. In der FZ kann der AVCHD-Codec noch Interlaced enkodieren, wobei 17 MBit/s noch AVCHD-Disk-kompatibel ist und darüber nicht. Bei einer Consumer-Kamera, die 4k mit 100 MBit/s aufzeichnen kann, ist 1080i einfach unnötig. Bei einer EB- oder Streaming-Kamera dagegen nicht. Für 4k würde Interlaced ohne Mehraufwand die doppelte Bildwiederholrate ermöglichen.Jan hat geschrieben:Die FZ1000 hat den 24 MBit-Modus mit 50i gestrichen und bietet eben "nur" den 50i-Modus mit 17MBit an, den gabe es aber früher auch bei den Panasonic-Videokamera neben 24 Mbit/50i und 28 Mbit/50P.
Da möchte ich widersprechen.Bommi hat geschrieben: Dieses Deinterlacen funktioniert so gut, dass selbst billigste No-name TV-Geräte, BD-, DVD- und Media-Player es perfekt in Echtzeit beherrschen.
Interlacing macht heute nur selten und zukünftig keinen Sinn mehr. Je schneller das Zeilensprungverfahren verschwindet, desto besser.Bommi hat geschrieben: Software, angetrieben von GHz-CPU's und mit aller Zeit der Welt, kann's noch besser. Interlaced würde somit auch im Akquise-Codec einer Consumer-Kamera Sinn machen, wie es früher bei AVCHD für Full HD der Fall war. Und darum hätte ich gern 4k i50 bei 100 MBit/s.
Sorry, aber das ist doch Unsinn. Wenn es Dir schon um radikale Datenersparnis durch halbierte vertikale Auflösung geht, dann wäre ein anamorphes 1920x540p-Bild, für das dann das Abspielgerät die fehlenden Zeilen interpolieren würde, besser als 1080i - übrigens auch besser zu komprimieren.Bommi hat geschrieben: Dieses Deinterlacen funktioniert so gut, dass selbst billigste No-name TV-Geräte, BD-, DVD- und Media-Player es perfekt in Echtzeit beherrschen. Software, angetrieben von GHz-CPU's und mit aller Zeit der Welt, kann's noch besser. Interlaced würde somit auch im Akquise-Codec einer Consumer-Kamera Sinn machen, wie es früher bei AVCHD für Full HD der Fall war. Und darum hätte ich gern 4k i50 bei 100 MBit/s.
Semesterferien ;-)?!? Kein Prof. greifbar???Roland Schulz hat geschrieben:Was bedeutet 4:4:4 bezogen auf die Pixelebene ;-) !?!?!?!Valentino hat geschrieben: @Roland Schulz
Durch dein "Geschrei" und das wiederholen deiner Thesen werden diese nicht richtiger.
So langsam kann man diesen Thread schließen.
Jan hat geschrieben:Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.
Bommi hat geschrieben: Ist es nicht, sondern eine auch heute noch phantastische Methode, die Bandbreite eines Videos zu halbieren. Leider wird es nicht mehr angeboten. Ich hätte nichts dagegen, wenn z.B. meine FZ1000 4K mit 50i/60i bei 100 MBit/s aufzeichnen würde. Technisch wäre es problemlos möglich.
Jan, ich glaube bei uns allen gehen hier mal die Emotionen durch, Dummschwätzer gibt's hier sicherlich auch einige, aber zum Tode verurteilt ist Interlace bestimmt noch nicht, zudem in H.264 und auch in H.265 noch potente, adaptive Mechanismen implementiert sind, mit Interlaced effektiv umzugehen.Jan hat geschrieben:Jan hat geschrieben:Das Zeilensprung-Verfahren war damals auch sinnvoll, heute ist es mehrheitlich nur noch Quark.Bommi hat geschrieben: Ist es nicht, sondern eine auch heute noch phantastische Methode, die Bandbreite eines Videos zu halbieren. Leider wird es nicht mehr angeboten. Ich hätte nichts dagegen, wenn z.B. meine FZ1000 4K mit 50i/60i bei 100 MBit/s aufzeichnen würde. Technisch wäre es problemlos möglich.
Da brauchst du dich jetzt auch nicht mehr rauszureden, wie man deinem Text entnehmen kann, hattest du davon keine Ahnung und eben geglaubt, dass die Datenrate bei gleicher Auflösung bei Vollbilddarstellung doppelt so groß ist bei gleicher Framerate. Eben noch nichts von Interframe-Kompression gehört, die auch in deiner FZ1000 eingesetzt wird. Deine Deinterlaced-Beurteilung setzt dem noch die Krone auf. Das ansich ist überhaupt kein Problem, wenn nicht dein Wichtigtuer und Belehrton in jedem deiner Beiträge mitwirken würde.
Und wenn Jott dir jetzt mit 50i zur Seite springt, weil es ja für das Verkaufen des Material an Sender sinnvoll ist, möchte ich hier gern fragen, wer verkauft Material regelmäßig an Sender ? 5 Slashcamuser von 50.000 Slashcam-Usern ? Liege ich da richtig ?
PS: Hier sind aktuell leider immer mehr Dampfplauderer der schlimmen Sorte als Kenner der Materie am Werk, dazu dieser oft überhebliche verletztende Ton. Und wenn der User falsch liegt, dreht man den Kontext einfach um, und versucht sich rauszuwinden, obwohl man auch mal eingestehen könnte, dass man falsch lag. Schade, dass war zu Beginn des neu gestarteten Forums im Jahr 2005 noch ganz anders hier, ich hoffe mal nicht, dass das der Untergang von Slashcam bedeutet. Es macht nämlich mehrheitlich wenig Spaß hier etwas zu schreiben, ohne blöd von der Seite angemacht zu werden. Die Seite wird nicht mehr mit guten Ratschlägen und Tipps verbunden, sondern von mehreren Usern als Commedy-Seite gesehen.
VG
Jan
http://www.stephanepigeon.com/Docs/pg.pdfIn this paper, the coding efficiency of both progressive and interlaced scanning formats are compared by means of PSNR values and subjective picture quality analysis. The main goal was to evaluate the impact of using a progressive transmission format compared to the existing interlaced one. It leads to the conclusion that the absence of interlaced artifacts (mainly line flicker) allows the use of a greater compression factor in the case of progressive processing and display. At the same bit-rate an all progressive broadcasting chain, from the source capture to the final display, is thus preferable to an all interlaced one, except for an increased hardware complexity if twice the number of pels is scanned. Moreover, with interlaced display, the progressive transmission can be considered at least as good as the interlaced one and generally better if progressive sources are encoded. Unfortunately, the conclusions are not so clear when dealing with interlaced sources : the loss of resolution supersedes sometimes the reduction of blocking effects and the conversion from progressive to interlaced scanning after decoding can either improve (post-filtering of the coding artifacts) or decrease (loss of resolution) the picture quality depending on the source sequences available.
Consequently, it has been shown that progressive does not lead to a loss of performances, that on the contrary it brings a more stable picture quality, even if the MPEG-2 standard has been optimized for interlaced signals.
Thus, from a picture quality point of view, progressive scanning is a very attractive format for the transmission, and even more for the visualization of pictures. In addition, progressive can be used as an intermediate step towards progressive broadcasting of TV signals without loss of performances compared to the existing interlaced format. This is even more interesting when a smaller picture size is considered, to comply with the actual MP@ML profile (of course comparable picture quality is assumed).
Finally, if the MPEG-2 compression performances can not be significantly increased moving towards progressive scanning, compatibility with the multimedia applications (Computer, Broadcasting, Transmission, Virtuality, Film, ...) will be simplified and more efficient. This is perhaps the best way to go to.