Du meinst nicht "runtersamplen", sondern downscalen.hokusfokus79 hat geschrieben:
habe ich dann DEFINITIV ein 1080 4:4:4 ?? oder
gibt es diese mathematische Faustregel nicht ?
Danke dafür.. also besteht tatsächlich immer eine Art "problemchen" wenn es darum geht :mash_gh4 hat geschrieben:du kannst ja auch schon in 4K 4:4:4 haben. ist zwar bei den meisten sensoren auf bayer pattern basis eher unrealistisch, aber prinzipiell möglich.
es geht also um ein verkleinern, bei dem jeweils vier pixel des ursprünglichens bilds zusammenfasst werden, aber die farbkanäle nicht in gleicher weise skaliert werden. so kommt man dann tatsächlich 4k 4.2:0 zu 2K 4:4:4.
die gründe, warum das nicht nicht gleich in der kamera angeboten wird, haben eben einerseits mit den physischen vorgaben durch den sebser zu tun. ein sensor mit bayer pattern liefert eben auch nicht viel mehr farbauflösung als die 4:2:2 oder 4:2:0, aber auch die meisten consumer video-codecs kommen mit entsprechender farbunterbatatsung in der bildrepräsenation besser klar.
"danke, ja, dazu müsste man wohl von kindauf assembleraffin gewesen sein, um richtig zu verstehen wie in maschinensprache aus sensordaten/bildern einsen und nullen werden, wie diese pakete dann als "Container" verfrachtet werden und letzendlich von kompressoren, webstandards und heimischen 8bit geräte wieder dekompiliert visualisiert werden"TomStg hat geschrieben:Du meinst nicht "runtersamplen", sondern downscalen.hokusfokus79 hat geschrieben:
habe ich dann DEFINITIV ein 1080 4:4:4 ?? oder
gibt es diese mathematische Faustregel nicht ?
Du erhälst definitiv kein 4:4:4, sondern es bleibt bei 4:2:2. Genausowenig entsteht aus 4:2:0 kein 4:2:2. Was vom Sensor nicht aufgenommen wurde, fällt nicht plötzlich vom Himmel. Es gibt dazu völlig andere Ansichten, siehe oben, aber keinen Beweis.
Dieses Thema wurde hier schon 3125x ausführlichst diskutiert. Dieses Gerücht hält sich hartnäckig, macht es aber physikalisch nicht wahrer.
so bald du grundsätzlich verstehst, was 4:2:0 und 4:2:2 in der digitalen bildrepräsentation tatsächlich bedeuten -- das also das bild in drei planes gegliedert ist, wovon nur die erste, die die helligkeitsangaben enthält, voll aufgelöst ist, während die andern beiden, also die farbinformation, eben nur ein viertel od. die hälfte der pixel enthalten -- ist das ganze eigentlich ziemlich trivial nachzuvollziehen. da braucht man keine großen beweise, sondern nur ein bisserl sachkundigkeit.TomStg hat geschrieben:Es gibt dazu völlig andere Ansichten, siehe oben, aber keinen Beweis.
Ja, das war im C64 so der Fall, dass mit Bitplanes zur Grafikanwendung gearbeitet wurde. Da waren die Farbinformationen der Pixel in einer oder mehreren Bitplanes gespeichert, weil kein ausreichender Arbeitsspeicher verfügbar war, mit dem entsprechenden Nachteil im Zugeiff, wenn einzelne Bits im Speicherwort nicht direkt zugreifest waren.mash_gh4 hat geschrieben:so bald du grundsätzlich verstehst, was 4:2:0 und 4:2:2 in der digitalen bildrepräsentation tatsächlich bedeuten -- das also das bild in drei planes gegliedert ist, wovon nur die erste, die die helligkeitsangaben enthält, voll aufgelöst ist, während die andern beiden, also die farbinformation, eben nur ein viertel od. die hälfte der pixel enthalten -- ist das ganze eigentlich ziemlich trivial nachzuvollziehen.TomStg hat geschrieben:Es gibt dazu völlig andere Ansichten, siehe oben, aber keinen Beweis.
schau dir vielleichtt besser den beispielcode ganz unten auf folgender seite an (einfach nach "plain" suchen :)):WoWu hat geschrieben:Ja, das war im C64 so der Fall, dass mit Bitplanes zur Grafikanwendung gearbeitet wurde. Da waren die Farbinformationen der Pixel in einer oder mehreren Bitplanes gespeichert, weil kein ausreichender Arbeitsspeicher verfügbar war, mit dem entsprechenden Nachteil im Zugeiff, wenn einzelne Bits im Speicherwort nicht direkt zugreifest waren.
Was haben wir heute ? 2016. .... Das war 1990.
die interpolation ist von anfang an in den daten enthalten -- die werte in den beiden color planes beziehen sich ja jeweils auf eine größere gruppe von pixeln in der Y plane bzw. deren mittelwert. es kommt da also nichts hinzu, sondern es wird vielmehr nur ein teil der information anders behandelt und in der ursprünglichen auflösung erhalten, während der rest tatsächlich verkleinert wird.WoWu hat geschrieben:und erklär' auch am Besten gleich mit, wie bei Planes die bereits vorhandenen Interpolationsfehler beseitigt werden, denn wir sprechen hier nicht über Computergrafik sondern über Video.
wie gesagt: es geht hier nicht um ein reinzaubern von nichtvorhandenen daten, sondern ausschließlich darum, das angaben wie 4:2:2 und 4:2:0 nichts anderes als das verhältnis der verhandenen bildauflösung in den verschiedenen kanälen od. planes des bilds angeben.WoWu hat geschrieben:Ist nur schade, dass die Kamera bereits unterabgetastet hat und der Fehler bereits im Bildinhalt vorhanden ist.
da ist in dem fall kein unterschied!WoWu hat geschrieben:Wie reden hier über Video einer Kamera und nicht über die Verarbeitung einer Computergrafik.
mash_gh4 hat geschrieben:wie gesagt: es geht hier nicht um ein reinzaubern von nichtvorhandenen daten, sondern ausschließlich darum, das angaben wie 4:2:2 und 4:2:0 nichts anderes als das verhältnis der verhandenen bildauflösung in den verschiedenen kanälen od. planes des bilds angeben.WoWu hat geschrieben:Ist nur schade, dass die Kamera bereits unterabgetastet hat und der Fehler bereits im Bildinhalt vorhanden ist.
wenns't ein bild also in der beschrieben weise verkleinert hast, liegt tatsächlich in allen kanälen die selbe auflösung vor -- also 4:4:4
dass das bild dadurch nicht schärfer wird, wird keinen verwundern -- an farbinformation geht dabei allerdings wirklich nichts verloren!
du kannst es auch mit drei körben voll äpfel, birnen und orangen durchspielen.
in diesem fall würden sich in analogie zur videoinformation im korb mit den äpfen genaue die vierfache anzahl an äpfen bezogen auf die anzahl der biinen und orangen befinden. beim verkleinern der menge geht man nun so vor, dass nur die anzahl der äpfel auf ein viertel reduziert wird, nicht aber die der birnen und orangen. man hat also schließlich drei körbe, die genau die selbe anzahl an jeweiligem obst enthalten. und genau dieses verhältnis wird eben durch das 4:4:4 ausgedrückt. und wie du an hand dieser illlustration auf grundschulniveau unschwer erkennen kannst, ist es dabei gar nicht notwendig irgendwelche äpfel zu spalten! die birnen und orangen sind zwar nicht mehr geworden, aber den äpfeln gegenüber nun zumindest im selben verhältnis vorhanden. mehr als das kann man wohl ohnehin nicht erwarten.
da ist in dem fall kein unterschied!WoWu hat geschrieben:Wie reden hier über Video einer Kamera und nicht über die Verarbeitung einer Computergrafik.
jpeg standbilder nutzen bspw. genau die selben mechanismen.
am besten du verkleinerst dein besipielbild genau acht mal -- die letzten beiden male bitte gemäß dem oben beschriebenen prozedere und zeigst mir dann die unterschiede! :)WoWu hat geschrieben:Schau einfach mal auf das Kamerabild 4:2:0 denn da sind in Deinem Apfelkorb bereits Orangen drin (gelbe Linien) die Du hinterher auch nicht mehr raus bekommst.
nein 4:4:4 ist es auf jeden fall, wenn man es richtig macht!WoWu hat geschrieben:Das änder aber nicht daran, das es immernoch ein 4:2:0 ist.
Er kann´s nicht lassen, ich hatte doch bereits Waffenstillstand angeboten... Warum versuchst Du immer noch mit Schwimmflossen die Niagarafälle hochzukommen??WoWu hat geschrieben:@Roland Schulz
Tja, wenn Dir egal ist, ob gelbe Linien (Beispiel) in Deinem Bild sind, die der Keyer nicht mag und die ja auch nicht so hübsch aussehen und wenn Dir egal ist, was die Kamera an Bild abliefert, dann kann man das natürlich verstehen, dass Du so einen Scheiss glaubst.
Aber Du sagst ja selbst "theoretisch" ... dann brauchst Du ja auch keine Kamera mehr.
Und ist Dir schon mal aufgefallen, das eine 3-Chip was ganz anderes ist ?
Kennst Du den Unterschied überhaupt ?
Die 3-Chip macht (mit dem richtigen Prozessing) sowieso 4:4:4, da kannst du hinterher skalieren, soviel Du willst.
Der Unterschied scheint Dir nicht wirklich klar zu sein.
Na das war jetzt aber nochmal ganz schwaches Gepaddel.WoWu hat geschrieben:Hast Du auch Fakten oder nur Polemik.
Weißt Du was ein De-Bayering ist und warum eine 3-Chip Kamera das nicht braucht ?
Ich denke mal, Du weist das nicht, sonst wäre der Schwachsinn nicht gekommen.
...er hat aber (wieder) angefangen *petz* ;-) ;-) ;-)!!Jott hat geschrieben:Wenn das Eis dünn wird, geht's mit Beleidigungen los. Verläßliches Schema! :-)
Vorsicht! Jetzt würfelst Du zwei völlig unterschiedliche Sachen durcheinander: Scharfzeichnung und Detailschärfe.Darth Schneider hat geschrieben: Dennoch drehe ich meistens die Schärfe schon vor dem Dreh mal weit runter, weil mir persönlich diese Videobilder eh für die meisten Motive viel zu Scharf sind. [...] Genau aus diesem Grund mag ich 4K nur bedingt, es ist Schön und Toll, aber eigentlich viel zu Scharf, was ja gerade bewegte Bilder nervös/unruhig macht.
Wenn ein bereits rauschiges Bild (wie es bei kleinen Sensoren nicht ungewöhnlich ist) künstlich geschärft wird, wird meist auch das Rauschen mitgeschärft - und das wirkt dann besonders unruhig.Darth Schneider hat geschrieben: Warum habe ich manchmal das Gefühl das bei günstigeren 4K Kameras die Bilder unruhig aussehen und bei anderen (teureren ) Kameras nicht ? Hat das vielleicht mit künstlicher Nachschärfung zu tun, odervieleicht auch mit den zu kleinen Sensoren in Verbindung mit zu vielen Megapixeln ?
das schärfen ist sehr oft ein notwendiger teil der rauschunterdrückung.beiti hat geschrieben:Wenn ein bereits rauschiges Bild (wie es bei kleinen Sensoren nicht ungewöhnlich ist) künstlich geschärft wird, wird meist auch das Rauschen mitgeschärft - und das wirkt dann besonders unruhig.