we were shooting on a Panasonic HVX-170 with a 1/3" sensor at the widest lens setting, so depth of field was not an issue. I was at f/11 and everything from one foot to infinity was in focus. The Humvee was about 2 feet from the camera and the actors were 40 feet away - ...
Genau, ich auch, mich interessieren (oft) nicht Kamerameldungen und Tests, die gibts oft davon im Netz. Nicht deswegen komme ich immer wieder, sondern weil es oft aufregende Sachen hier zu lesen gibt die mit Innovationen, WIE die Technik eingesetzt wird, Philosophien über Video/Film, Trends, ja manchmal auch witzige Sachen gibt.TaoTao hat geschrieben:Wegen solchen interessanten Sachen klick ich täglich 1x auf Slashcam <3
Wenigstens ist auf die Redaktion hier verlass.
deep compositing ist inzwischen ja nicht mehr die neueste sau die durchs digitale dorf getrieben wird. deep compositing ist super um auf einer making of dvd so richtig auf die kacke zu hauen und so zu tuen als wenn da raketenwissenschaft im einsatz ist. praktisch hat das aber keine echte bedeutung.enilnacs hat geschrieben: PS: Erklärt doch mal was Deep Data (im EXR Format) ist und was man damit als Anfänger machen kann, oder berichtet was andere damit gemacht haben, Lidar, VFX, etc...
Man sieht dass du damit nicht arbeitest (oder kennst).Peppermintpost hat geschrieben:deep compositing ist inzwischen ja nicht mehr die neueste sau die durchs digitale dorf getrieben wird. deep compositing ist super um auf einer making of dvd so richtig auf die kacke zu hauen und so zu tuen als wenn da raketenwissenschaft im einsatz ist. praktisch hat das aber keine echte bedeutung.enilnacs hat geschrieben: PS: Erklärt doch mal was Deep Data (im EXR Format) ist und was man damit als Anfänger machen kann, oder berichtet was andere damit gemacht haben, Lidar, VFX, etc...
bei deep compositing geht es nur darum die z-depth oder den word position path mit ins compositing einzubeziehen. ein multiply und ein grade node (zusammen) machen genau das gleiche, kling allesdings nicht ganz so fancy.
Es geht aber eben NICHT um XY, bzw Layer von PShop, oder 8 vs 32bit float, das hatte schon EXR 1.0 in float32, das ist immer noch ein pixel, sondern es geht um die Z Achse PRO PIXEL wo viele verschiedene Werte PRO PIXEL NUN IN DER Z ACHSE auch noch gespeichert werden, nicht nur XY und Bittiefe.Peppermintpost hat geschrieben:seit dem es layer gibt kann man in jedem x/y pixel beliebig viele informationen speichern. das ist nicht neu. das konnte schon photoshop 2.0 wenn auch nur in 8bit. ein exr ist einfach nur ein 32bitFP multilayer bild. du kannst also für jede X/Y position beliebig viele werte abspeichern, und durch die 32bitFP hast du auch ausreichend fein abgestufte werte zur verfügung.
alle beispiele die du beschrieben hast lassen sich genau so mit einem z channel und wie von mir beschrieben einem multiply und einem grade kontrollieren.
aber falls du glaubst das ich falsch liege, ok.
Im Beispiel funktioniert das aber nur wegen des feinen Sandes und der Wüstenlandschaft.Olaf Kringel hat geschrieben:...also ich finde diese (Trick) Möglichkeit einfach "genial!" (weil ich selber Modelle baue).
Eben nicht, was du da machst ist 2x Z-Depth Layers (zMerge) übereinander gelegt und das dann "deep compositing" genannt, hat Nichts mit Deep Data zu tun. Das wären höchstens 2 Werte pro Pixel (Ufo und Gebäude), es sind nur 2 Layer. Aber kein Deep Data. Du missbrauchst das Deep Merge Node als ein zMerge node (es nimmt ja auch zKanäle als einzelne Z-samples ja an).Peppermintpost hat geschrieben:ja, stimmt ja, macht keinen sinn da 100 jahre drüber zu diskutieren. ich hab mal schnell ein kleines youtube video gemacht was erklärt wie deep funktioniert. wer sich dafür interessiert kann es sich ja mal ansehen. und wenn ich falsch liege könnt ihr auch gerne kommentare hinterlassen.
Klingt absolut plausibel,TonBild hat geschrieben:
Dann muss man auch ein Modell des Boden anfertigen. Zum Beispiel das Auto auf feinen Eieruhr Sand positionierten wenn die Szene in einer Kiesgrube spielt.
naja, ich meine die ganze nummer mit miniaturen für vfx ist natürlich ein alter hut, weil man vor 20 jahren und früher natürlich ALLES so gedreht hat.soan hat geschrieben:Früher hat man für sowas Tilt-Shift-Objektive verwendet...ist doch ein alter Hut?? Meistens hat man bei dem "Trick" eh nur feste Einstellungen, ist doch alles Eia-Popeia??!