Filme, die aussehen, als hätte sie ein Meister gemalt: Ein Student der Freiburger Universität hat ein Programm entwickelt, das Videos genauso wirken lässt. Große Filmstudios sind schon auf ihn und seine Entwicklung aufmerksam geworden.
Es gibt ja schon gute Filter für sowas (seit Jahren), aber diese Qualität ist schon ungewöhnlich gut.
...man merkt gerade bei der Tagesschau das Sommerloch...
Das Ganze ist ein simpler VFX-Filter und kein Trickfilm und der Informatikstudent ist auch kein neuer Shootingstar am VFX-Himmel.
Das Kopieren eines Mal bzw. Zeichenstils wurde in unzähligen Filmen wie "A Scanner Darkly" oder "SinCity" schon vor Jahren umgesetzt.
Wie man in Zeiten von unzähligen VFX-Filtern eine News daraus machen kann, bleibt mir ein Rätsel.
Inhaltlicher Gewinn durch die Bildveränderung ist dabei gleich Null und solche Filter programmiert dir jeder Informatiker, am besten noch über Cuda und dann geht das in Echtzeit und braucht keine Stunde.
Die echten Fachleute und Künstler für Trickfilm trifft man auf den ITFs in Stuttgart oder in Frankreich in Annecy.
Vielleicht ist das Besondere an dieser Entwicklung, dass man relativ kurzzeitig anhand irgendeines Kunstwerkes den entsprechenden Look haben kann. Ich stelle es mir so vor, dass man z.B. ein Rembrandtbild scannt, dann macht das Programm alles in diesem Look, und man scannt einen Matisse, dann sieht das Video kurze Zeit später aus wie dessen Bilder. Man kann also relativ kurzfristig bestimmte Looks erzeugen, was bisher einen größeren Programmieraufwand bedeutet hat. Keine Ahnung, ich bin kein Experte auf dem Gebiet aber mich beeindrucken die Videos auch. Man könnte so tatsächlich einen "Trickfilm" mit realen Schauspielern erzeugen, ohne dass man gezeichnete Bilder animieren muss.
Komisch, dass immer die, die sich nicht mal ansatzweise damit beschäftigt haben gleich schreien wie einfach und langweilig irgendwas ist.
Wo fange ich denn da überhaupt an...
(1) Die Software nutzt bereits CUDA bzw OpenGL backends, dumm gelaufen für dich.
(2) Sie basiert auf dem Neural Style/DeepStyle code, der wiederum Google's TensorFlow (Machine learning bibliothek) nutzt. Schon das ist ziemlich eindrucksvoll, da verschiedene künstlerische Stile auf andere Photos übertragen werden können.
(3) Das Ganze jetzt auf Videos anzuwenden ist eine riesige Herausvorderung, zwar gibt es fertig nutzbare Optical Flow Bibliotheken usw., aber diese dann sinnvoll einzusetzen ist nicht so einfach.
Aber klar, das macht dir jeder Informatikstudent mal eben.
Nur nochmal um das klarzustellen: ich kann das Programm mit einem beliebigen Bild füttern und heraus kommt ein video in ähnlichem Stil. Ich finde das ziemlich eindrucksvoll.
jwd96 hat geschrieben:
Nur nochmal um das klarzustellen: ich kann das Programm mit einem beliebigen Bild füttern und heraus kommt ein video in ähnlichem Stil.
Ja, das ist der wirkliche Unterschied in der Anwendung neuronaler Netzwerke zu irgendwelchen oldschool-Filteralgorithmen mit manuell eincodierten "Mal"-Effekten. Allerdings kommt das in den Demovideos bzw. im Tagesschau-Bericht nicht so deutlich 'rüber.
Na zunächst mal ist es Technik. Das Kreative wäre für mich die Umsetzung z.B. in einem Musikvideo. Für ganze Spielfilme seh ich eigentlich auch keinen Sinn. Aber Betätigungsfelder gäbe es ja einige. Siehe oben.
StanleyK2 hat geschrieben:Und wozu das Ganze? Wo ist da das Kreative? Oder die Sinnhaftigkeit an sich?
Die Anwendung dieses Algorithmus als Retroeffekt um sattsam bekannte Malstile auf Videos anzuwenden, ist natürlich extrem konventionell. Da der Algorithmus aber mit beliebigen Bildern als Referenz arbeitet, liegt es vor allem an Filmmachern, hier mehr rauszuholen. Im Prinzip lassen sich hiermit nach Belieben sehr einfach und schnell Looks bauen. Auch wenn die Ergebnisse eher psychedelisch sind, könnte das u.a. ein praktisches Tool zur Vorab-Visualisierung von gewünschten Looks sein. Z.B. könnte ein Regisseur ein Foto im ihm vorschwebenden Bildstil einlesen, mit der Software auf Dailies anwenden, um dem Coloristen seine Idee des Gradings zu vermitteln.
Seit dem Photoshop auch Videos verarbeiten kann, nutze ich auch schon mal die Mal oder Google Filter.
Aber das hier ist wirklich eine andere Nummer und ich kann mir vorstellen, das ein echter Fan,
der sich einem bestimmten Künstler verschrieben hat,
jetzt ein richtig tolles Gefühl hat und das ein bisschen so ist wie als wenn die Beatles doch noch mal eine neue Platte rausgebracht haben! :-)
Passend in dem Zusammenhang vielleicht auch folgendes Musikvideo, welches mit Hilfe der populären Prisma-App in aufwendiger Kleinarbeit frame für frame realisiert wurde...
das war ursprünglich sicher als Beispiel für die Leistungsfähigkeit neuronaler Netzwerke gedacht, daraus eine ernsthafte Anwendung machen zu wollen ist eine eigenartige Idee.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.