Vantage verleiht wohl gern die eigenen Kameras zusammen mit den Optiken (oder die Cams sind sogar umgebaut). Nun weiß ich nicht ob die auch RED mit solchen potenziellen Umbauten führen und man siche einfach für die Alexa aufgrund diverser anderer Faktoren entschied, oder ob die einfach nur die Alexa haben. Zu diesem Zeitpunkt aber vermutlich auch einfach (noch) keinen Dragon; und Hand aufs Herz, da nehme ich auch zehn mal lieber eine Alexa als eine Epic. So hart das klingt, zur RED greifen wir auch nur als B-Cam oder bei Low-Budget Sachen. Kameraleute fragen weniger oft danach.otaku hat geschrieben:jo hab auch erst ein einziges Projekt in Anamorph geposted, und das war auch auf Alexa gedreht, hab aber auch keine Ahnung ob es da technische Gründe gibt oder ob das Zufall war und es mit ner Dragon genau so möglich ist.
Das Bokeh ist bei 1,33x nicht so stark ausgeprägt, bzw der Spot hat auch nicht so viele Inhalte dafür.otaku hat geschrieben:hehe mit anamorph auf 16/9 cool, sieht bestimmt klasse aus, würde ich gerne sehen, vor allem sehr ungewohnt dann in einem vollen 16/9 plötzlich ovales bokeh zu sehen. sehr geil ;-)
Ich beziehe "aus der Praxis" nicht auf mich, sondern allgemein auf die Leute, die mit 4k+-Kameras nutzen.CameraRick hat geschrieben:Du schreibst aber auch immer "aus der Praxis" als ob Du der einzige bist, der damit arbeitet :)
Ist halt wirklich die Ästhethik. Das Bokeh, wie "räudig" die Focus-Pulls sind. Irgendwie eben auch "das Schmutzige", nicht perfekte. Lens Flares können schön sein.WoWu hat geschrieben:Kannst Du das "Spezielle" doch einmal genauer beschreiben ?
Was ist es genau, was Dich fasziniert ?
Wir haben vor ein paar Jahren auch mit anamorph geliebäugelt und es dann gelassen, weil wir die Vorteile nicht wirklich festmachen konnten.
Vielleicht haben wir ja etwas übersehen.
Würde mich also sehr interessieren.
Das machen wir doch auch. Wie Du weißt drehe ich selber ja im Endeffekt nichts, aber ich muss das Material halt behandeln - von vorne bist hinten.iasi hat geschrieben: Ich beziehe "aus der Praxis" nicht auf mich, sondern allgemein auf die Leute, die mit 4k+-Kameras nutzen.
Und was genau war an der Epic "Lawrence"-würdig, außer die Auflösung? War es die phantastische Dynamik oder was?Und die Alexa 65 bringt uns vielleicht mal wieder einen Film wie "Lawrence of Arabia" - darauf hoffe ich schon seit der F65 und den Red-Cams.
Es ist immer eine Frage des Preises, wobei die reine Auflösung nicht der einzige relevante Wert ist.An anderen Stellen lese ich auch ganz andere Zahlen: Von 200 Linienpaaren pro Millimeter ist da die Rede, die heutige gute Fotoobjektive schaffen könnten.
Natürlich wird sehr viel mit einer Red oder Alexa oder F55 gedreht, das auch mit anderen Kamera kaum schlechter geworden wäre - aber es gibt eben durchaus auch Leute, die das richtige Werkzeug für den jeweiligen Job zu wählen wissen.CameraRick hat geschrieben:Das machen wir doch auch. Wie Du weißt drehe ich selber ja im Endeffekt nichts, aber ich muss das Material halt behandeln - von vorne bist hinten.iasi hat geschrieben: Ich beziehe "aus der Praxis" nicht auf mich, sondern allgemein auf die Leute, die mit 4k+-Kameras nutzen.
Und da stellt sich - auch in der Praxis! - sehr oft ein, dass das manchmal totaler Käse ist. Vor allem bei der Performance.
Es ist eher das Vertrauen auf die Auflösung des Bildes - man kann eben eine Einstellung auch stehen und den Zuschauer das Bild abwandern lassen.CameraRick hat geschrieben:Und was genau war an der Epic "Lawrence"-würdig, außer die Auflösung? War es die phantastische Dynamik oder was?Und die Alexa 65 bringt uns vielleicht mal wieder einen Film wie "Lawrence of Arabia" - darauf hoffe ich schon seit der F65 und den Red-Cams.
Die Inflation an Informationen mag eben auch daran liegen, dass du die optischen Einheit nicht mehr so simpel und einfach fassen kannst - allein schon die aktuelle Entwicklung der Beschichtungen - da wird es dann eben eher schwer mit den Gesetzen der Wellenoptik.WoWu hat geschrieben:
Du siehst, auch da muss man genau hinsehen. Solche einfachen Werte -losgelöst von jedem Context- werden oft in Blogs oder Foren gebraucht, ohne das man sich über die Konsequenzen wirklich im Klaren ist.
Die Einheit Objektiv/Sensor ist eine optische Einheit, die den Gesetzen der Wellenoptik unterliegt. Die ganzen Funktionen sind im Internet ausgiebig dokumentiert. Nur besteht das Internet ja leider aus einer Inflation an Informationen, aber keiner übergreifenden Dokumentation, in der diese partiellen Details in Korrelation gebracht werden und komplexe Fragestellungen beantwortet werden.
Ich hatte dir schon wiederholt gesagt, dass du einfache Gesetze der Wellenoptik nicht so einfach auf komplexe Systeme anwenden kannst.WoWu hat geschrieben:Werd doch mal spezifischer.
Solche Allgemeinpositionen helfen nicht weiter.
Sag doch mal, was sich an der Wellenoptik verändert haben soll, warum Coating plötzlich anders funktioniert und welche Massnahmen in im Pixel-Pitch dazu führen, dass Auflösung anders berechnet werden muss.
Danach reden wir weiter.
Durch Wiederholung wird es nicht richtig.Ich hatte dir schon wiederholt gesagt, dass du einfache Gesetze der Wellenoptik nicht so einfach auf komplexe Systeme anwenden kannst.
Wenn ich so simpel herangehen würde, hättest Du ja keine Probleme, es zu verstehen und der F65 Sensor funktioniert ebenso wie jeder andere Sensor, nur dass sie ein versetztes Pixel-pitch benutzen und so (mechanisch) auf ein 3µ Grid kommen, was ihnen aber nicht viel nutzt, weil sie zwischen den Pixels nach wie vor nur 3 µ haben. Sie erreichen dadurch lediglich eine bessere Lichtausbeute, weil sie einen besseren Füllfaktor haben.Denkst du wirklich, eine simplifizierte Herangehensweise könnte einen Sensor wie den der F65 hinreichend beschreiben?
Woher weisst Du das ? Oder ist es einfach nur ein Notbehauptung.Du weißt doch noch nicht einmal, wie Sony den Sensor im Detail konstruiert hat. Da klebt doch z.B. auch schon längst nicht mehr nur ein farbiger Filter vor dem Pixel - um es mal zugespitzt zu formulieren.
Kein gesunder Mensch wendet heute mehr eine 20% Faustformel an.Der Arri-Mann sagte doch z.B. auch, dass man nicht mehr einfach die 20%-Faustformel bzgl. des DeBayer-Auflösungsverlustes anwenden kann, da die Algorithmen - auch aufgrund der gesteigerten Rechenleistung - sehr verbessert werden konnten.
Keiner hat aus "Prinzip" recht.Du hast natürlich im Prinzip und eben in der Theorie recht
Das ist Dein persönliches Defizit, für das Du keinen Andern verantwortlich machen kannst.nur sehe ich nicht, dass man dies so einfach auf die Realität übertragen kann , die sehr viel komplexer ist.
Das heisst aber noch lange nicht, dass sie die physikalischen Gesetzmässigkeiten ausser Kraft setzen.Die Entwickler sind ja nicht untätig, wenn es darum geht, die Grenzen mithilfe technischer Lösungen zu verschieben.
Tja und ein 4K Signal wird heute aus einem unscharfen HD Signal errechnet und jeder hält es für ein 4K Signal, obwohl kein einziges Bilddetail zusätzlich darin enthalten ist.Ein heutiger Dieselmotor unterscheidet sich doch auch erheblich, von denen aus den Anfangszeiten - und dabei folgen sie immer noch den selben Gesetzen eines Selbstzünders.
Nur weil du´s immer ignorierst, wird´s aber eben auch nicht falsch.WoWu hat geschrieben:Durch Wiederholung wird es nicht richtig.Ich hatte dir schon wiederholt gesagt, dass du einfache Gesetze der Wellenoptik nicht so einfach auf komplexe Systeme anwenden kannst.
Ja - das ist eben deine einfach Sicht, mit der du alles in dein Schema einpassen möchtest.WoWu hat geschrieben:Wenn ich so simpel herangehen würde, hättest Du ja keine Probleme, es zu verstehen und der F65 Sensor funktioniert ebenso wie jeder andere Sensor, nur dass sie ein versetztes Pixel-pitch benutzen und so (mechanisch) auf ein 3µ Grid kommen, was ihnen aber nicht viel nutzt, weil sie zwischen den Pixels nach wie vor nur 3 µ haben. Sie erreichen dadurch lediglich eine bessere Lichtausbeute, weil sie einen besseren Füllfaktor haben.Denkst du wirklich, eine simplifizierte Herangehensweise könnte einen Sensor wie den der F65 hinreichend beschreiben?
Ganz so einfach ist es dann doch nicht.glnf hat geschrieben:@Wowu: Ich bin ein wenig spät dran, hier floss schon viel Wasser den Thread runter, aber trotzdem. Eine Frage zu dem Thema habe ich dir bereits wiederholt gestellt und du hast nie direkt darauf geantwortet:
Du bist sicher einverstanden, dass es in der Fotografie einen Unterschied macht, ob ich mit 2MP oder 8MP fotografiere. Selbst kleine Sensoren zeigen bei genügend Licht einen riesigen Auflösungsunterschied zwischen 2MP und 8MP. Die Objektive kommen also problemlos mit. (Selbst in einem Handy.) Weshalb soll das bei einer Videokamera nicht gehen? Ist doch genau das selbe, nur 25 mal pro Sekunde. Oder?
Beste Grüsse
gl
Echt? Ich kann es nicht finden.iasi hat geschrieben:Ganz so einfach ist es dann doch nicht.
Du hast Effekte bei Bewegtaufnahmen, die bei Einzelbildern keine Rolle spielen - WoWu hat dies oben schon erklärt.
Danke für die Antwort. Und ich bin mit dir streckenweise auch einig.WoWu hat geschrieben: Du siehst, es besteht durchaus ein Unterschied zischen einem Handy Objektiv und einem Einsatz im Film- oder Broadcastbereich.