Man hat ja die Möglichkeit in gewissen Schnittprogrammen ein sogenanntes "Time Remapping" durchzuführen.
Meine Cam kann 25p und 50i aufnehmen. Soll ich die Szenen die ich in schwachem SlowMo wiedergeben möchte lieber in 50i aufnehmen und Time Remappen oder 25p und dann Time Remappen. Wenn die Qualität im 50i besser ist dann würde ich das schon vorziehen, oder halt kurz umstellen wenn ich eine Szene drehe bei denen ich weiss das ich es verlangsamen möchte.
Das ist keine Frage, die sich bündig beantworten lässt. Zum einen ist Time-Remapping nicht zwingend ein sauberer Effekt. Da er als Effekt auffällt, darf er imho auch stufig, d.h. stotterig sein. Kriegst du mit 25f. Soll es glatter sein, ist 50i vorteilhafter. Soll 50i aber später zu 25p deinterlaced werden - egal ob mit einer Software oder beim Abspielen auf einem progressiven Gerät - ist die Auflösung der Bilder dann etwas schlechter als mit 25p.
Die Entscheidung kann dir keiner abnehmen, aber erleichtern: Mache Testaufnahmen (alles bitte mit "M" oder "Tv" mit 1/50tel Shutter!):
1. Kamera auf Stativ, winke-winke machen, mal in "i", mal in "f".
2. Mit möglichst ruhiger Handkamera und WW-Einstellung langsam durchs Zimmer gehen, in "i" und dann in "f".
3. Vom Stativ langsam (und ich meine langsam) über eine Straße mit fahrenden Autos schwenken.
Das alles nicht auf dem Rechner vergleichen (hier sieht "i" immer scheiße aus), sondern über Component von der Kamera auf einem TV.
Du vergleichst die Ergebnisse anschließend kritisch. Beides hat Vor- und Nachteile, wie süß und sauer, du wirst sie zunächst nicht unbedingt benennen können, aber unterscheiden können wirst du sie. Zu guter Letzt ist es eine Geschmackssache. Entscheide nach deiner persönlichen Vorliebe. Vielleicht gibt es auch für das eine oder andere "Gelegenheiten" (Zeitlupen haben bessere Karten mit "i", aber SW sollte auch gut sein, Stichwort AAE oder so).
Axel hat geschrieben:
Das alles nicht auf dem Rechner vergleichen (hier sieht "i" immer scheiße aus),
Kann ich nicht bestätigen...
Die Wiedergabequalität hängt absolut von der verwendeten deinterlace-Art im jeweiligen Softwareplayer ab.
Der VLC player beispielsweise hat ein reichhaltiges Sortiment an deinterlacern, so daß man sich immer den Passenden aussuchen kann.
Aber es ist doch schon unmöglich, wenn man sich erst "einen passenden" aussuchen muss, nur um ein einwandfreies Bild zu bekommen.
Und kein Interlacer beseitigt die systembedingten Chromafehler, egal wie gut er ist.
Was mal als analoge Datenreduktion entwickelt wurde gehört schon lange nicht mehr in die Zeit.
Hoffen wir auf baldiges 1080p50.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.