lol, aber da ist es doch prima, wenn man auch Hilfe angeboten bekommt...das man dir auch mal helfen kann, wer hätte das gedacht ;).
Nö, ist es nicht. Einfach mal nachdenken, was DaVinci ist. DaVinci ist ein professionelles Farbkorrektur Programm, welches von vorne Rein sagt, Ihr braucht einen Vorschaumonitor, da über die GUI das wiedergegebene Bild nicht dem tatsächlichen entspricht.dienstag_01 hat geschrieben:Ist schon seltsam, dass man Vollbild haben kann, damit aber alle Werkzeuge verdeckt. Scheint schon ein Plan dahinter zu stecken ;)
Klingt für mich irgendwie nach Schwachsinn, aber du wirst es sicher gleich erklären ;)blickfeld hat geschrieben:Ihr braucht einen Vorschaumonitor, da über die GUI das wiedergegebene Bild nicht dem tatsächlichen entspricht.
nein -- macht keinen sinn! -- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...blickfeld hat geschrieben:Deshalb passt das ganze schon, wie es ist. Macht einfach Sinn.
nicht wirklich. farbechtheit ist mit keinem programm ohne eine video i/o karte garantiert. punkt. auch bietet hdmi / displayport keine möglichkeit timecode wiederzugeben. punkt.mash_gh4 hat geschrieben:nein -- macht keinen sinn! -- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...blickfeld hat geschrieben:Deshalb passt das ganze schon, wie es ist. Macht einfach Sinn.
in wahrheit ist es aber mittlerweile so, dass die ausgabe über video-i/o-karten den möglichkeiten heute gebräuchlicher guter grafigkarten deutlich unterlegen ist. aus technischer sicht ist es daher als als ziemlich problemtisch anzusehen, dass bmd hier keine andere nutzung erlaubt.
aber geh! -- natürlich kann man auch die farbwiedergabe über eine normale grafikkarte kalibrieren... sind doch ganz genau die selben daten/werte, die übers kabel ausgegeben werden...blickfeld hat geschrieben:nicht wirklich. farbechtheit ist mit keinem programm ohne eine video i/o karte garantiert. punkt.
abgesehen davon, dass das faktisch unhaltbar ist, weil es durchaus möglichkeiten gibt, timecode in hdmi-ausgaben einzubetten, ist das eher ein wunderbares bsp., um zu illustrieren, warum der allergrößte teil der normale anweder derartige karten in wahrheit eben NICHT braucht, obwohl sie in dedizierten studioumgebungen durchaus sachliche berechtigung besitzen können.blickfeld hat geschrieben:auch bietet hdmi / displayport keine möglichkeit timecode wiederzugeben. punkt.
sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.mash_gh4 hat geschrieben:aber geh! -- natürlich kann man auch die farbwiedergabe über eine normale grafikkarte kalibrieren... sind doch ganz genau die selben daten/werte, die übers kabel ausgegeben werden...blickfeld hat geschrieben:nicht wirklich. farbechtheit ist mit keinem programm ohne eine video i/o karte garantiert. punkt.
abgesehen davon, dass das faktisch unhaltbar ist, weil es durchaus möglichkeiten gibt, timecode in hdmi-ausgaben einzubetten, ist das eher ein wunderbares bsp., um zu illustrieren, warum der allergrößte teil der normale anweder derartige karten in wahrheit eben NICHT braucht, obwohl sie in dedizierten studioumgebungen durchaus sachliche berechtigung besitzen können.blickfeld hat geschrieben:auch bietet hdmi / displayport keine möglichkeit timecode wiederzugeben. punkt.
das selbe gilt für diverse timing anforderung. auch hier kann man im spezialisierten studio- und rundfunkumfeld ganz andere ansprüche einfordern als auf isolierten schnitt- und colorgrading arbeitsplätzen. hier keine vernünftigeren anderen verwendungsweisen zu erlauben, muss einfach als schwäche des betreffenden programms angesehen werden.
Genau. Und weil *Video I/O Karten* nicht für Fotos zu gebrauchen sind, wird auch gleich klar, dass man mit diesem sogenannten Computer bei der Fotobearbeitung kein Glück haben wird ;)blickfeld hat geschrieben:sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
ich habe große zweifel daran, ob du das mit dem kalibrieren so viel besser verstanden hast? aber das ist natürlich [bis zu einem gewissen grad] nur meine ganz subjektive einschätzung.blickfeld hat geschrieben:sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
lesen und verstehen ist halt schwer.dienstag_01 hat geschrieben:Genau. Und weil *Video I/O Karten* nicht für Fotos zu gebrauchen sind, wird auch gleich klar, dass man mit diesem sogenannten Computer bei der Fotobearbeitung kein Glück haben wird ;)blickfeld hat geschrieben:sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
Video I/O Karten geben standardisierte Videosignale aus (oder Videosignale nach Standard), mehr nicht. Aber auch nicht weniger.
Das mach einiges einfacher, das heisst aber nicht, dass es mit einer normalen Grafikkarte nicht gehen würde.
Diese Grafikkarte muss man dafür natürlich nicht Kalibrieren, Grafikkarten kalibriert man nie, die Ausgangsgeräte, also Monitore werden kalibriert, die Daten in der Grafikkarte hinterlegt.
einfach mal das handbuch lesen, mein lieber. aber das würde ja bedeuten, dass man den kopf benutzen muss. die farbdarstellung der gui ist nicht genau, der einzige weg, ein verlässliches vorschaubild in davinci zu erhalten ist über eine video i/o karte.dienstag_01 hat geschrieben:Alles klar.
Über den Ausdruck *farbecht* haben wir ja alle schon gelacht. Du schreibst also, die GUI von Resolve ist nicht farbecht. Der Grund ist, du wechselst ständig die Grafikkarten.
Klingt überzeugend ;)
genau so isses auchmash_gh4 hat geschrieben:...-- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
endlich mal jemand, der ahnung von der materie hat.Frank Glencairn hat geschrieben:genau so isses auchmash_gh4 hat geschrieben:...-- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
:)blickfeld hat geschrieben:endlich mal jemand, der ahnung von der materie hat.Frank Glencairn hat geschrieben:genau so isses auchmash_gh4 hat geschrieben:...-- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
Natürlich.Bruno Peter hat geschrieben:Wichtig ist doch nur, daß wir unsere persönliche Farbkorrektur mit dem Meßwerkzeug (Scopes) im Colorraum überwachen um nicht die gesetzten Grenzen für die TV-Wiedergabe zu überschreiten nach meiner Meinung!
Mache ich mit dieser persönlichen Überlegung einen groben Fehler?
na dann....Das kann einem wohl mit DaVinci Resolve passieren, ich arbeite aber vorzugsweise mit EDIUS Pro 8.xx
wobei der TV auf "Natürlich" eingestellt ist
naja -- eine kalibrierte ausgabe (dh. ein nachmessen der tatsächlich angezeigten faben und entsprechende automatische korrektur) halte ich schon für ein fast unverzichtbares mittel, um tatsächlich content zu produzieren, der weitestgehend unabhängig von den stärken und schwächen der eigenen geräte ein mimimum an korrekter farbwiedergabe anstrebt. das kann in verschiedenerweise erfolgen und ist von der verwendeten ausgabehardware (video-io od. grafikkarte) auch weitestgehend unabhängig (bzw. in verschiedener weise für diversen möglichkeiten zu lösen). es ist dabei leider auch nicht ganz selbstverständlich, dass derartige bemühungen gleich alle verwendeten programme in gleicher weise betreffen und die verschiedenen benutzten ausgabekanäle durchgänig abdecken, aber natürlich sollte einem das immer als ziel vor augen schweben, weil das schwächste glied in der kette sonst immer wieder zu fehlern und irrtümern bei der bildkorrektur verleitet.Bruno Peter hat geschrieben:... dort sehe ich mit jeder Reglerbewegung wie das auf dem TV aussieht, wobei der TV auf "Natürlich" eingestellt ist und Zussatz-Bildverschlimmbesserungsoptionen nicht aktiviert sind.
wie gesagt, das verwendete ausgabedevice selbst ist nicht entscheidend, sondern vielemehr die art wie es genutzt wird bzw. ob vernünftige kalibrierungsmechanismen zum einsatz kommen. das kann auf beiden wegen in befiriedigender weise geschehen.dienstag_01 hat geschrieben:Die Ausgabe aus einem NLE heraus auf einen TV ist trotzdem nicht per se fehlerfrei. Der sicherste Weg ist immer über eine Monitoring Card.
Ich hab ja nur geschrieben, der *sicherste Weg* ;)mash_gh4 hat geschrieben:wie gesagt, das verwendete ausgabedevice selbst ist nicht entscheiuden, sondern vielemehr die art wie es genutzt wird bzw. ob vernünftige kalibrierungsmechanismen zum einsatz kommen. das kann auf beiden wegen in befiriedigender weise geschehen.
es bleibt einem oft eh nichts anderes über...dienstag_01 hat geschrieben:Ich hab ja nur geschrieben, der *sicherste Weg* ;)
Ob es in jedem Fall auch der beste ist, keine Ahnung.
Was heisst denn das?mash_gh4 hat geschrieben:dass die ausgabe über den computermonitor im resolve nicht sauberer aufbereitet wird