Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum DVD / Blu-ray Authoring / Encoding-Forum

Infoseite // Farbraum RGB oder 701 in Adobe Encore?



Frage von Blackeagle123:


Hallo,

was erwartet Adobe Encore für einen Farbraum? Ich vermute mal RGB, da man mit Premiere ja nur den vollen (0-255) RGB-Farbraum ausgeben kann.

Oder sollte ich aus Avid doch lieber den 609/ 701 Farbraum wählen? Ich habe die Vermutung, dass das Bild dann "milchig" aussieht...

Freue mich über Antwort.

Viele Grüße!

Space


Antwort von TheBubble:

Wie wäre es mit Ausprobieren?

Ich nehme an, in den Zahlen gibt es einen Zahlendreher. Abgesehen davon: BT.601 verwendet andere Primaries als BT.709 und sRGB, Du solltest also schon wissen, wohin Du willst.

Space


Antwort von dienstag_01:

Das sit schon etwas tricky.
Für welche Ausgabe hast du denn deinen Farbraum limitiert?

Space


Antwort von masterseb:

moment. dvd und bluray haben als zielraum sowieso nicht RGB. dvd hat SD rec601 und BR rec709. abhängig von deinem ausgangs codec, könntest du gleich in 709 gehen. wenn es ein 10bit industry codec ist, also DNxHD zb, dann ist der sowieso nur RGB. "milchig" bezieht sich wohl auf den unterschiedlichen gammawert, rec709 hat g2.4, RGB g2.2 - du kannst dem shift entgegenwirken (der bei jeglicher konversion der farbräume ineinander sowieso auftritt, manchmal vom abspielprogramm oder editor kompensiert wird), indem du eine gamma korrektur um die fehlenden 0.2 vornimmst.

Space


Antwort von dienstag_01:

Mach nicht solchen Unfug mit Gammakorrekturen. Das brauchts nicht. Das ist nur ein Workarround, wenn man die Konvertierung der Farbräume gar nicht mehr hinbekommt.

Space


Antwort von Blackeagle123:

Hey,

es geht hierbei um eine DVD in PAL-Auflösung, also 601 (sorry für den Zahlendreher gestern!). (709 ist sowieso nur für HD interessant, das Export Setting heißt bei Avid aber entweder "RGB" oder "601/709".)

Es ist nur die Frage, was Encore erwartet. Da Premiere nur in RGB exportieren kann, gehe ich davon aus, dass ich aus Avid ebenfalls RGB exportiere. Oder soll ich 601 exportieren?

Es ist unmöglich, an einem nicht eingemessenen Fernseher ohne Messgerät zu beurteilen ob das RGB oder 601 Bild von der Helligkeit richtig ist. Mir erscheint das RGB Bild aber passend zu sein!?

Viele Grüße!

Space


Antwort von dienstag_01:

Es ist unmöglich, an einem nicht eingemessenen Fernseher ohne Messgerät zu beurteilen ob das RGB oder 601 Bild von der Helligkeit richtig ist. Mir erscheint das RGB Bild aber passend zu sein!? Du bist schon Klasse.
Wie vergleicht man: Man nimmt die Werte aus dem Avid mit dem Color Picker auf und vergleicht sie mit denen von der DVD. Dazu öffnet man einen Software Player (z.B. Media Player Classic, Farbraum auf 0-255) und parallel dazu Photoshop. Jetzt kann man mit dessen Color Picker die Werte des Videos abnehmen.
Ausserdem sieht man das an jedem halbwegs normal eingestellten Monitor sofort, wenn man weiss, worauf man achten muss.

Space


Antwort von TheBubble:

Es ist unmöglich, an einem nicht eingemessenen Fernseher ohne Messgerät zu beurteilen ob das RGB oder 601 Bild von der Helligkeit richtig ist. Mir erscheint das RGB Bild aber passend zu sein!? Ein Messgerät kann doch sowieso nicht erraten, was Du eigentlich wolltest.

Irgendwie habe ich das Gefühl, dass Hintergrundwissen fehlt und daher weitere und genauere Erklärungen, die den hier angesprochenen Fall betreffen, alleine zu wenig bringen würden.

Pragmatische Lösung: Mach es irgendwie. Die meisten Wohnzimmer-TVs sind aus diversen Gründen eh so problematisch, dass es sowieso niemandem auffallen wird und jeder denkt, dass es genau so gedacht war, wie es eben bei ihm wiedergegeben wird. Wird ja nicht um eine DVD gehen, die irgendwo massenhaft verkauft werden soll.

Space


Antwort von Blackeagle123:

Du bist schon Klasse.
Wie vergleicht man: Man nimmt die Werte aus dem Avid mit dem Color Picker auf und vergleicht sie mit denen von der DVD. Dazu öffnet man einen Software Player (z.B. Media Player Classic, Farbraum auf 0-255) und parallel dazu Photoshop. Jetzt kann man mit dessen Color Picker die Werte des Videos abnehmen.
Okay, sorry, das ist natürlich ne Möglichkeit! :-/
Werde ich ausprobieren. Denn das geht ja soagr in der Kombination Quicktime-Player und Photoshop. Danke!
Ein Messgerät kann doch sowieso nicht erraten, was Du eigentlich wolltest.

Irgendwie habe ich das Gefühl, dass Hintergrundwissen fehlt und daher weitere und genauere Erklärungen, die den hier angesprochenen Fall betreffen, alleine zu wenig bringen würden.
Ich glaube nicht, dass Hintergrundwissen fehlt. Auf dem Messgerät (Waveform) kannst Du natürlich sehen, wo Schwarzwert und Weißwert liegen und das mit dem Avid-Bild vergleichen. Liegt ein Schwarz unterhalb von 16, ist es wohl der komplette RGB ohne Stauchen/ Beschneiden in 601.

Viele Grüße!

Space



Space


Antwort von dienstag_01:

Wenn du 16-235 korrigiert hast und dann mit RGB aus dem Avid exportierst, musst du entweder mit Sorenson encoden (und Black Level auf 16 stellen, funktioniert aber nur bei DVD) oder dein File in After Effects laden, den Farbraum einstellen (so dass es wieder Schwarz ist) und dann über den Media Encoder die Komposition auswählen und encoden. Erfahrung mit FullRange im Avid habe ich nicht.

Space


Antwort von WoWu:

@Blackeagle123

Deine Kamera kann nur 601/709 -YCbCr ausgeben (das ist die Norm-SMPTE240M) , es sei denn, Du hast Material im xvYCC Format.

Wenn Du zwischendurch mit dem Material in RGB gearbeitet hast, hast Du eben mit Zitronen gehandelt, weil Du das Material gestreckt hast.
Die fehlenden Werte verwandelt der Rechner dann in Dither und bei der Rückwandlung nach YCbCr wird das dann Banding.
Also ... Finger weg von RGB.

Space


Antwort von dienstag_01:

Wenn Du zwischendurch mit dem Material in RGB gearbeitet hast, hast Du eben mit Zitronen gehandelt, weil Du das Material gestreckt hast.
Die fehlenden Werte verwandelt der Rechner dann in Dither und bei der Rückwandlung nach YCbCr wird das dann Banding.
Also ... Finger weg von RGB. Ich bin mir nicht sicher, dass du da recht hast. Avid nennt sein RGB speziell RGB 709. Und wenn man 16 zu 235 Material in RGB exportiert, dann ist 16 auch 16 und nicht 0. Es wird also nicht nach FullRange gestreckt.
Soll ich mal die entsprechenden Erklärungen von Avid posten?

Space


Antwort von WoWu:

Nee, brauchst Du nicht.
Solange das "warum auch immer" RGB709 dem Standard entspricht, ist das ja ok.
Es ist nur eben so, dass das YCbCr nach RGB illegale Farben generiert, die dann bei der Rückconversion abgeschnitten werden.

Das ist ein ganz lästiges Thema.
Leider hat sich der Irrglaube verbreitet, man könne in RGB (1-256) irgendwie eine bessere Qualität erzeugen. Aber das ist eben der Schwachsinn.
Auch der Glaube, aus einer "normalen" Videokamera käme was anderes Raus als 709. (es sei denn, sie lässt sich auf xvYCC -oder RAW- oder ein Cine-Gammut stellen).
Videokameras sind immer SMPTE240M und das ist nun mal die Norm, in der 709 definiert ist.
Aber ich verstehe das sowieso nicht, denn das sieht man doch auf dem Waveform, wo man arbeitet.... hat den keiner an beim arbeiten ?

Space


Antwort von dienstag_01:

Ich glaube, Avid ist nicht umsonst der HIRSCH ;)
Auch wenns manchmal etwas umständlich anmutet, letztendlich gehen die keine Kompromisse ein.

Space


Antwort von WoWu:

Tja, das weiss ich nicht .... schliesslich kommen sie eigentlich aus der (analogen) Grafik und ich finde, da wird noch eine Menge ins Digitale mitgeschleppt .... egal, ob das nun analoge Skalierungen in ihren Messgeräten sind oder z.B. auch das analoge YUV.
Es gibt kein YUV im digitalen Bereich und dass es einen Unterschied zwischen 601 und 709 gibt haben sie offenbar auch noch nicht mitbekommen.

Also Platzhirsch hin oder her, fragt sich ob im Grafikbereich oder im Videobereich.
Ich tippe mal mehr auf Grafikbereich.

Space


Antwort von dienstag_01:

und dass es einen Unterschied zwischen 601 und 709 gibt haben sie offenbar auch noch nicht mitbekommen. Naja, MITBEKOMMEN glaub ich schon.

Space


Antwort von dienstag_01:

Aber ich verstehe das sowieso nicht, denn das sieht man doch auf dem Waveform, wo man arbeitet.... hat den keiner an beim arbeiten ? Meinst du extern oder intern?
Externe werden nicht so viele hier haben.

Space


Antwort von WoWu:

Nee, aber intern reicht ja auch.
Nur das Problem ist ja schon, dass viele gar nicht wissen, welche Skalierung sie eigentlich nehmen sollen und dann entsteht da natürlich irgendetwas auf dem Schirm, das ihnen auch nix weiter sagt.
Da müssten die NLEs viel stärker eingreifen und immer gleich die richtige Skalierung vorlegen ... und wenn sie es ganz toll machen wollen auch gleich ein paar Limitmarkierungen. Schliesslich habe sie das Signal und wissen die Presets für das Projekt auch ...
Statt dessen kommen viele da mit irgend einer mV Skala ... manchmal sogar ohne Offsetbereinigung ...
Sowas ist wirklich sch... und macht es den meisten Anwendern natürlich leidig so ein Tool zu benutzen.
Da wären die Hersteller wirklich gefragt. Externes braucht man dann gar nicht mehr, solange man nicht exotisches messen will.

Space



Space


Antwort von dienstag_01:

Statt dessen kommen viele da mit irgend einer mV Skala ... manchmal sogar ohne Offsetbereinigung ... Das war mal bei mir, aus Color Finesse (Plugin für After Effects).
Aber es stimmt, hier macht jeder Hersteller, was er will. Avid ist auch hier für mich am verständlichsten, da gibts eine Skala von 0-255 bit und 0-100% (16=0% und 235=100%). Und ich kann im Avid die Vorschau von FullRange auf 16-235 umschalten (expand Luminance for Computer Displays). Da kann ich wenigstens sehen, was ich gerade mache. Adobe ist da für mich verwirrender.

Space


Antwort von WoWu:

Das ist doch schon was.
Und wenn dann die Anwender noch einwenig wissen, was eigentlich aus ihrer Kamera rauskommt und dass das aus allen Kameras rauskommt und immer so aussieht .... und wenn sie dann noch das Wort "Superweiss" aus ihrem Wortschatz streichen, dann haben sie auch beste Aussichten auf gute Bilder und immer korrektes Gamma.
:-))

Space


Antwort von Tiefflieger:

Ich weiss welche 8 bit Bereiche und was ich aus der Kamera bekomme. ;-)

Space


Antwort von dienstag_01:

Ich weiss welche 8 bit Bereiche und was ich aus der Kamera bekomme. ;-) Ich wees, dir könnte man die BITS aus deiner Kamera auch in einem Haufen vor die Füsse kippen, du bekämst das trotzdem hin.
Unsereiner ist da zu doof dazu.

Space


Antwort von WoWu:

@Tiefflieger
Dann gehörst Du zu den Glücklichen.
Vielen ist das aber nicht wirklich klar und viele halten 709 für eine Broadcaster-Anforderung, obwohl es damit gar nichts zu tun haben.

Space


Antwort von Tiefflieger:

Ich weiss welche 8 bit Bereiche und was ich aus der Kamera bekomme. ;-) Ich wees, dir könnte man die BITS aus deiner Kamera auch in einem Haufen vor die Füsse kippen, du bekämst das trotzdem hin.
Unsereiner ist da zu doof dazu. Als Doof würde ich niemand bezeichnen, man muss die Grenzen effektiv ausloten und alle Optionen mal genutzt haben.
Vielleicht eine "echte" Belichtungsreihe erstellt haben und wissen welche Parameter zum Ziel führen und ob sie es wie erwartet tun.

Man muss einfach die Lage richtig einschätzen und die Grenzen der Kamera kennen ;-)

Space


Antwort von WoWu:

@Tiefflieger

...nun stapelst Du aber tief .... Deine Kamera hat doch gar keine Grenzen ;-)

Space


Antwort von dienstag_01:

...vor allem im TÜRKIS ;)

Space


Antwort von Tiefflieger:

@Tiefflieger

...nun stapelst Du aber tief .... Deine Kamera hat doch gar keine Grenzen ;-) Absolut gesehen hat sie Grenzen, relativ gesehen haben andere engere Grenzen und somit weniger Reserven.
Aber .... ;-)

Space



Space


Antwort von WoWu:

Das mit den Reserven verstehe ich immer nicht .... hast Du da noch irgendeinen Turboschalter, mit dem man auf 8k umschalten kann oder macht die Kamera auch Röntgenaufnahmen oder was ist das für eine Reserve?

Space


Antwort von Tiefflieger:

Die Reserven sind artefaktarme Bilder die problemlos auf 16K skaliert werden können (natürlich werden sie nicht schärfer).
Ohne dass man Debayer-Filter Farbmusterung und tanzende Lüftungsgitterstreben fürchten muss.
Oder an einem schönen Tag mit Himmel kein Schwarzrauschen im blau.

Space


Antwort von Angry_C:

Oder an einem schönen Tag mit Himmel kein Schwarzrauschen im blau. Erstmal ein blau hinbekommen;-)

Space


Antwort von Tiefflieger:

Naja mit pastell Türkis direkt ab Kamera (unbearbeitet) kann ich dienen. :-)

AVCHD 1080p50 Standbild
zum Bild http://www.fotos-hochladen.net/thumbnail/x900mbernflotmgyew8_thumb.jpg
(etwas Zeichnung der Video high lights befindet sich noch im Original oberhalb der Farbtonwerte von 235)

Space


Antwort von dienstag_01:

(etwas Zeichnung der Video high lights befindet sich noch im Original oberhalb der Farbtonwerte von 235) Und, das bekommste wohl nicht hin?

Space


Antwort von Tiefflieger:

Ich habe einen Fernseher und Abspielkette die sRGB in Videos darstellen kann, dazu muss ich kein NLE bemühen.
Und auch sonst bin ich als privter frei und ungebunden und kann die volle Qualität geniessen.

Wenn die technische Qualität unzureichend ist, mache ich selber Content. ;-)
Aber Inhalt ist ja wichtiger als das letzte quentchen Kameraqualität, die ggf. im NLE weiter verschenkt wird..

Gruss Tiefflieger

Space


Antwort von dienstag_01:

Ich habe einen Fernseher und Abspielkette die sRGB in Videos anzeigen kann, dazu muss ich keine NLE bemühen.
Und auch sonst bin ich als privter frei und ungebunden und kann die volle Qualität geniessen. Wenn es ums Skalieren geht (16k) ist dir keine Rechnerei zu abwegig, aber mal bissel Farbkorrektur anzuwenden, scheust du dich wie eine Jungfrau vorm Kind. Seltsame Art von Freiheit.

Space


Antwort von Tiefflieger:

Ich bin auf der Suche nach Authentizität, nicht nach Darstellung und selbstdarstellern (für nicht betroffene langweilig)

Mit den Standbildern und Crops zeige ich nur die Grenzen der Kamera hier im Forum auf.
200% oder 400% realtime Video crops schaue ich mir an um "zufällige" Ereignisse (Nebenschauplätze) genauer zu sehen.
Zum Glück reicht die Qualität dazu oftmals.

Space


Antwort von Reiner M:

Da Premiere nur in RGB exportieren kann, ... ???
Premiere Pro exportiert in dem Format, das der gewählte Export-Codec vorgibt.
Das kann RGB sein, ist aber für herkömmliche Video-Codecs i. d. R. YCbCr.

Beste Grüße,
Reiner

Space



Space


Antwort von dienstag_01:

Ich bin auf der Suche nach Authentizität, nicht nach Darstellung und selbstdarstellern (für nicht betroffene langweilig) Das klingt für mich auch sehr authentisch: hier habt ihr ein Bild, aber zum Glück sieht es bei mir anders aus.
Wo beginnt und endet Authentizität bei einem Bild/einer Kopie? Ist es nicht mehr authentisch, wenn man die Blende bei der Aufnahme vestellt hat? Oder erst, wenn man es in ein Bildbearbeitungsprogramm/NLE geladen hat? Und in einen anderen Farbraum umrechnet? Oder ein Video in ein Standbild?
Viele Fragen.

Space


Antwort von Tiefflieger:

Das Bild zum anklicken ist nach Norm und Standard Gamma.
Es zeigt die Farben satt so wie sie waren.

Nur steckt noch viel mehr im Bild, dazu müsste ich fast ein Multipage TIFF erstellen.
Wie gesagt ich kann in der Darstellungskette volles sRGB am TV zeigen.
Dazu habe ich einen von 4 HDMI TV Eingängen an das Kamera-Bild angepasst und nicht Bildteile im NLE heruntergezogen.

Space


Antwort von Angry_C:

Dann frage ich mich aber, warum du auf Slashcam schon 237483 Bilder gezeigt hast, wo alles über 235 weg ist. Was willst du uns mit diesen Bildern, von denen ich fast schon träume, so oft wiederholen sie sich, sagen? Bei Dir am Fernseher sehen sie doch sowieso anders aus. Macht ein Teilen mit der Community dann noch Sinn?

Space


Antwort von Reiner M:

Wo beginnt und endet Authentizität bei einem Bild/einer Kopie? Sehr gute Frage! ;-)

Alles, was hinter einer Linse "aufgezeichnet" wird - egal, ob auf Fotos, Videos oder auf der Netzhaut! - ist die Illusion einer möglichen Realität.
Licht hat keine Farbe und Landschaft keine Linienauflösung. Rot ist nicht rot, der Himmel weder türkis noch blau, das Blatt am Baum ist komplexer, als es mit drei Pixeln darstellbar ist und Wiedergabegeräte sind eine Sache für sich.

Wichtig ist nicht, was die Kamera aufzeichnet (das ist nur Mittel zum Zweck), oder wie ich das Bild wiedergebe, sondern das, was zum guten Schluss als Bild im Hirn des Betrachters erzeugt wird. Und da ist als Hilfsmittel zur Gestaltung ein gutes NLE mit seinen Nachbearbeitungsfähigkeiten mindestens genauso wichtig und nützlich, wie ein gutes Objektiv oder ein sauber eingestellter Monitor - wenn nicht noch wichtiger.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

Dazu habe ich einen von 4 HDMI TV Eingängen an das Kamera-Bild angepasst und nicht Bildteile im NLE heruntergezogen. Was ist hier genau der Unterschied? Am TV zu drehen ist authentischer als im NLE?
Mysteriös.

Space


Antwort von dienstag_01:

Licht hat keine Farbe Auch mysteriös.

Space


Antwort von Tiefflieger:

Dann frage ich mich aber, warum du auf Slashcam schon 237483 Bilder gezeigt hast, wo alles über 235 weg ist. Was willst du uns mit diesen Bildern, von denen ich fast schon träume, so oft wiederholen sie sich, sagen? Bei Dir am Fernseher sehen sie doch sowieso anders aus. Macht ein Teilen mit der Community dann noch Sinn? Albträume erzeugen möchte ich nicht, ich hoffe Du kannst trotzdem noch gut schlafen :-)
Es gibt immer wieder Leute die nach einem guten Camcorder fragen.
Oder Schwierigkeiten mit der Qualität unter bestimmten Bedingungen haben.
Das ist für mich ein Grund ein Standbild zu zeigen, weil es trotz allem noch mehr zeigt als ein YouTube Video.
Gute YouTube Videos zeigen noch 200% oder 400% Crops die noch etwas mehr Details zeigen.

Wie z.B. diese von der Canon HF G25


*******

Hier noch im vollen 8 bit Umfang mit weniger high lights
zum Bild http://www.fotos-hochladen.net/thumbnail/x900mbern255cmyxntu4wk_thumb.jpg (click)

Space


Antwort von Reiner M:

Licht hat keine Farbe Auch mysteriös. Tja, so ist das eben.

Beste Grüße,
Reiner

Space


Antwort von Tiefflieger:

Dazu habe ich einen von 4 HDMI TV Eingängen an das Kamera-Bild angepasst und nicht Bildteile im NLE heruntergezogen. Was ist hier genau der Unterschied? Am TV zu drehen ist authentischer als im NLE?
Mysteriös. Nein, aber ich verändere das "Original" als Quelle nicht.
Mit Smartrendering (kürzen, anordnen der Szenen und Nachvertonung) bleibt die original Bildqualität unangetastet.

Space



Space


Antwort von Tiefflieger:

Licht hat keine Farbe Auch mysteriös. Tja, so ist das eben.

Beste Grüße,
Reiner Lichtzusammensetzung und Absorption :-)

Space


Antwort von dienstag_01:

Licht hat keine Farbe

Auch mysteriös.

Tja, so ist das eben.

Beste Grüße,
Reiner Wenn ich nur wüsste, was du mit IST meinst. Das, was IST oder IST das IST was ganz anderes.
IST nicht so mein Ding, deine Welt ;)
Was IST nur los...

Space


Antwort von Reiner M:

Licht hat keine Farbe Auch mysteriös. Tja, so ist das eben.

Beste Grüße,
Reiner Lichtzusammensetzung und Absorption :-) Nein, Licht ist farblos. Die Wellenlängen sind nur in der Lage, einen Farbreiz zu erzeugen, so wie andere Wellenlängen Töne erzeugen. Bei uns Menschen. Innerhalb unserer Wahrnehmungsysteme.
Im Auge können zwar Wellenlängen unterschieden werden, aber Farbe und Farbempfinden ist Sache des Hirns und hat was mit Erleben, mit Empfinden, zu tun.
Selbst Farbenblinde "kennen" Rot und Grün oder Blau und Gelb, obwohl sie es noch nie "gesehen" haben. Und die sehen Deine Videos ganz anders ...

Ist also reine "Kopfsache", so ein Grading ... ;-)

Dein Standpunkt ist der: Du möchtest ein natives Bild der Cam bewahren. Kann ja für Dich völlig okay sein. Wenns Spaß macht.

Das hat aber mit Videoproduktion nichts zu tun. Da geht es darum, das Hirn der Betrachter zu überlisten. Es geht darum, die perfekte Illusion zu schaffen und Emotionen auszulösen. Es geht keineswegs darum, die physischen Merkmale einer ursprünglichen Aufzeichnung zu dokumentieren. Das wäre bestenfalls Content für ein Making-of - wenn überhaupt.

Fotografen beauftragen Agenturen, die stundenlang ein einziges Foto nacharbeiten. Filmproduzenten schicken ganze Horden von Coloristen los, um ihre Werke zu verfeinern. Und das alles nur, weil sie verstanden haben haben, wie Hirne ticken und weil sie diese Erkenntnisse für sich nutzen möchten. ;-)

Nachbearbeitung hat nichts damit zu tun, ein Video zu verschlechtern. Ganz im Gegenteil.

Beste Grüße,
Reiner

Space


Antwort von dienstag_01:

Nein, Licht ist farblos. Die Wellenlängen sind nur in der Lage, einen Farbreiz zu erzeugen, so wie andere Wellenlängen Töne erzeugen. Ja, ja, Töne kann man hören aber Farben nicht sehen.
Ist schon ein weites Feld mit diesen verflixten Wellenlängen.
Da IST was was nicht IST.

EDIT: Selbstverständlich hat Farbe etwas mit Wahrnehmung zu tun, Farbe ist sozusagene *wahrgenommene* Wellenlänge. Ebenso wie Töne. In einem anderen Spektrum.
Aber gibt es eigentlich Farbe ohne Licht?
Nein.
Also gäbe es, nähme man deine Aussage wie sie ist, gar keine Farbe.

Und was wollten deine ganzen Coloristen dann eigentlich graden?

Space


Antwort von Tiefflieger:

Auch mysteriös. Tja, so ist das eben.

Beste Grüße,
Reiner Lichtzusammensetzung und Absorption :-) Nein, Licht ist farblos. Die Wellenlängen sind nur in der Lage, einen Farbreiz zu erzeugen, so wie andere Wellenlängen Töne erzeugen. Bei uns Menschen. Innerhalb unserer Wahrnehmungsysteme.
Im Auge können zwar Wellenlängen unterschieden werden, aber Farbe und Farbempfinden ist Sache des Hirns und hat was mit Erleben, mit Empfinden, zu tun.
Selbst Farbenblinde "kennen" Rot und Grün oder Blau und Gelb, obwohl sie es noch nie "gesehen" haben. Und die sehen Deine Videos ganz anders ...

Ist also reine "Kopfsache", so ein Grading ... ;-)

Dein Standpunkt ist der: Du möchtest ein natives Bild der Cam bewahren. Kann ja für Dich völlig okay sein. Wenns Spaß macht.

Das hat aber mit Videoproduktion nichts zu tun. Da geht es darum, das Hirn der Betrachter zu überlisten. Es geht darum, die perfekte Illusion zu schaffen und Emotionen auszulösen. Es geht keineswegs darum, die physischen Merkmale einer ursprünglichen Aufzeichnung zu dokumentieren. Das wäre bestenfalls Content für ein Making-of - wenn überhaupt.

Fotografen beauftragen Agenturen, die stundenlang ein einziges Foto nacharbeiten. Filmproduzenten schicken ganze Horden von Coloristen los, um ihre Werke zu verfeinern. Und das alles nur, weil sie verstanden haben haben, wie Hirne ticken und weil sie diese Erkenntnisse für sich nutzen möchten. ;-)

Nachbearbeitung hat nichts damit zu tun, ein Video zu verschlechtern. Ganz im Gegenteil.

Beste Grüße,
Reiner Im Fernsehen und Kino kommt ja alles zusammen, Bild und Ton interessant verpackt.
Farben erzeugen Stimmung und Schnittfolge den inhaltlichen Eindruck.
Der Ton kann das zeigen was man nicht sieht und sogar den bildlichen Eindruck invertieren.
Passt auch noch die Bildauflösung dazu ist es perfekt.

Wenn ich z.B. den Film "The hobbits" anschaue hat das nicht viel mit HD und Bewegungsauflösung zu tun.
Und Codecverluste kann ich in folgenden zwei Bildern illustrieren.
1x Original AVCHD 1080p50 / MP4 H.264 21 Mbps
zum Bild http://www.fotos-hochladen.net/thumbnail/originaluj4ixygszf_thumb.jpg / zum Bild http://www.fotos-hochladen.net/thumbnail/halfhp326yanf1_thumb.jpg (click)

Wenn man beide Bilder schnell umschaltet sieht man sofort den Zeichnungsverlust zum Original.

Meine Annahme, Behauptung:
Wenn ich einen professionellen Codec verwenden würde, bleibt die Qualität erhalten. Bis ich wieder in den Zielcodec für eine 8 bit Umgebung rendere.

Durch alle diese Formatwandlungen wird es nicht besser.
Aber um Wirkung zu erzeugen vielleicht schon.
(Es geht ja vermutlich im professionellen Bereich in 1. Linie nicht darum wegen einer falsch eingestellten Kamera die Reserven ausreizen zu müssen.)

Space


Antwort von Reiner M:

Aber gibt es eigentlich Farbe ohne Licht?
Nein. Nun, das hängt von den verfügbaren Rezeptoren ab. Es gibt Lebewesen, die können "Farben" im Ultraviolett oder Infrarotbereich sehen. Deren Welt sieht anders aus.
Es ging ja um Authentizität. Wer hat denn nun Recht? Der Mensch, der behauptet, die Rose sei rot, oder der Hund, für den die roten Blütenblätter praktisch unsichtbar sind?

Wer beim angehängten Bild zwischen rechts und links keinen Unterschied wahrnimmt, hat zwar eine Farbfehlsichtigkeit (ausgeprägte Rotblindheit), für den ist das Seherlebnis aber genauso authentisch, also natürlich, wie für jeden anderen auch. Weil es seiner Erlebenswelt entspricht.
Also auch das rechte Bild besitzt eine "authentische" Farbwiedergabe. Und jede Stufe dazwischen wäre genauso korrekt. Es liegt eben im Auge (und im Hirn) des Betrachters ... ;-)

Kameras übersetzen Wellenlängen in Farbinformationen. Das machen sie immer mit gewissen "Farbfehlsichtigkeiten", die auch noch abhängig sind von verschiedenen Belichtungsparametern. Und das machen sie zudem mit sehr engen Beschränkungen der Farbräume und mit strikten Vorgaben der Farbprofile.

Ein möglichst gutes Farbwiedergabevermögen der Cams ist zwar wichtig, aber es ist nicht das Maß der Dinge.

Ich werde meine Erlebenswelt nicht den Vorgaben der Cam-Ingenieure unterwerfen. Bei mir kommen daher weder Fotos noch Videos unbearbeitet davon.

Beste Grüße,
Reiner

Space


Antwort von domain:

Ja da sieht man schon deutliche Verluste, aber kein Wunder wenn du in so einen Scheißcodec exportierst.
Habe dein Original mal ins Liquid geladen, mit 50 Mbit/s mpeg2 exportiert, reimportiert und davon einen Snapshot gemacht. Bei dem kann ich keinen Auflösungsverlust im Vergleich mehr erkennen.



Interessant übrigens die ausgebrannten Lichter auf deinem Bild. Wird doch nicht gar deine Pana X9... eine derart geringe Dynamikfähigkeit aufweisen?

Space


Antwort von Tiefflieger:

Danke Domain,
Ich bin unterwegs aber schaue mir das Bild zuhause genau an.
Im Original ist in den Lichtern noch Zeichnung.

Gruss Tiefflieger

Space


Antwort von Angry_C:

Ja da sieht man schon deutliche Verluste, aber kein Wunder wenn du in so einen Scheißcodec exportierst.
Habe dein Original mal ins Liquid geladen, mit 50 Mbit/s mpeg2 exportiert, reimportiert und davon einen Snapshot gemacht. Bei dem kann ich keinen Auflösungsverlust im Vergleich mehr erkennen.



Interessant übrigens die ausgebrannten Lichter auf deinem Bild. Wird doch nicht gar deine Pana X9... eine derart geringe Dynamikfähigkeit aufweisen? Ich rendere meine Videos mit den Premiere Standard h264 Bitraten raus. Die liegen bei 35 mbit Ziel / 40 mbit max. Das schaut mit dem Mainconcept Codec auch sehr gut aus. Wenn man aber Magix als Maßstab ansetzt, dann kann ich den Gedanken zum Smartrendering hin schon nachvollziehen, würde es aber trotzdem nicht machen, weil richtige Farben, ein perfekt sitzender Weißabgleich und eine angenehme und knapp ausgereizte Luminanzverteilung wichtiger ist als das letzte Quentchen Detail. Das sieht man mit gewissem Abstand sowieso nicht, alles andere schon.

Das mit denausgebrannten Lichtern ist ja gerade das Problem bei den Panasonics. Sie sind nicht wirklich ausgebrannt, aber durch das Aufzeichnen von 0-255 liegen die Details im Verborgenen und müssen entweder vor dem Schnitt gestaucht werden, oder man zieht im NLE die Luminanzkurve bei den Lichtern runter, was besser ausschaut, da ich nur von oben stauche. Außerdem spart man sich ein Renderschritt. Die Tiefen sind out of Cam komischerweise in Ordnung.

Space



Space


Antwort von dienstag_01:

Aber gibt es eigentlich Farbe ohne Licht?
Nein. Nun, das hängt von den verfügbaren Rezeptoren ab. Es gibt Lebewesen, die können "Farben" im Ultraviolett oder Infrarotbereich sehen. Es heisst nicht umsonst ultraviolettes LICHT und InfrarotLICHT. Weil es LICHT ist. Auch wenn du und ich es nicht sehen können. Deshalb nennt man diese Bereiche NICHTSICHTBARES LICHT.

Authentizität ist eine gedankliche/begriffliche Konstruktion. Dazu gehört ein System, auf das sie sich bezieht. Nehmen wir an, wir haben eine Farbfotografie von vor 100 Jahren. Die kann als vor mir auf dem Tisch liegendes Foto keine authentische Aufnahme dieser Zeit sein. Das Bezugssystem wäre hier der Stand der fotografischen Technik zu dieser Zeit und da war das unmöglich. Jetzt ist auf dem Bild der Mord an Erzherzog Ferdinand in Sarajevo zu sehen, nachträglich coloriert. Da der Anzug noch in irgendeinem Museeum hängt (ist jetzt gesponnen, weiss ich nicht), kann man sagen, die Farben (und damit auch das ganze Bild) sind authentisch. Hier ist das Bezugssystem eher eine Natürlichkeit des Bildes/der Wahrnehmung.

Mich hat ja an der Aussage von Tiefflieger eher die Diskrepanz zwischen einmal Nachbearbeitung durch Veränderung des TV-Bildes und zum anderen einer möglichen Veränderung des Bildes im NLE interessiert. Wo zieht man - er - da die Grenze.

Space


Antwort von Tiefflieger:

Ja da sieht man schon deutliche Verluste, aber kein Wunder wenn du in so einen Scheißcodec exportierst.
Habe dein Original mal ins Liquid geladen, mit 50 Mbit/s mpeg2 exportiert, reimportiert und davon einen Snapshot gemacht. Bei dem kann ich keinen Auflösungsverlust im Vergleich mehr erkennen.



Interessant übrigens die ausgebrannten Lichter auf deinem Bild. Wird doch nicht gar deine Pana X9... eine derart geringe Dynamikfähigkeit aufweisen? Die Konvertierung sieht sehr gut aus.

Mir sind 3 Punkte aufgefallen
- Das neue Bild ist etwas heller
- Erst im 800% Crop sieht man auf Pixelebene minimale Unterschiede ("MFT" und Position)
- Die Farbpalette ist etwa 1/3 vom Original

Aber nicht wirklich verschlechternde Unterschiede :-)

In Bewegung hat der MPEG2 Codec eine 16 Pixel Makroblockgrösse.
MPEG 4 (AVCHD) ggf. 4 Pixel Makroblockgrösse.

Wenn man im verbesserten Codec mit vielleicht mehr Dateigrösse bleibt, kann die Qualität konserviert werden.

Space


Antwort von domain:

Ja stimmt, das Bild ist im Zuge der bmp- zur png-Konvertierung etwas heller geworden. Das sind aber Dinge, über die ich mich gar nicht mehr aufrege und auch nicht über 16 Bit-Makroblöcke.
Sicher ist aber jedenfalls, dass dein demonstrierter Codec tatsächlich sichtbare Qualitätsverluste verursacht.
Vielleicht solltest du dir doch mal einen qualitativ hochwertigen NL-Editor zulegen. Ich kenne deine Verlustängste aus eigener Erfahrung sehr gut und hatte sie anfangs auch, aber glaube mir, der Zugewinn an Bildqualität in der Nachbearbeitung machen diese (unbegründeten) Ängste zehnmal wett und eigentlich beginnt erst damit die Bildgestaltung der Clips i.e.S. und auch ihre Anpassung untereinander.
Mit deinen von dir selbst gesetzten Prioritäten liegst du meiner Meinung nach ziemlich daneben, es kommt eben nicht auf die möglichst naturgetreue Wiedergabe, sondern auf eine emotional gestaltete und verstärkte und damit häufig veränderte Wiedergabe der Realität an.

Space


Antwort von WoWu:

Ihr vergesst immer, dass Ihr lediglich die Implementierungen seht und wenn Leute eine sch..Implementierung hingelegt haben, kann man noch keinen Rückschluss auf den Codec ziehen. Und die Makroblöcke (wieso 16 Bit ?) sieht man auch nur bei schnellen Bewegungen, weil erst dann die höhere Auflösung (4x4 und auch nur in bestimmten Profilen) zum Tragen kommt.

@Tiefflieger
Bei aller Freundschaft, aber das sind Bewegungscodecs und Deine Stills mögen ja künstlerisch wertvoll sein, ebenso wie domains "round - trip- Codierungen" aber sie sind so spannend wie ein Notartermin.

Space


Antwort von domain:

Schon klar, dass es nur um qualitativ verschiedene Implementierungen eines an sich sehr guten Codecs geht. Aber dann kann ja mal über die besch.. eidene Magix-Implementierung reden und urteilen .
Und außerdem bin ich durch die vielen Stillanalysen ja auch schon halb verblödet, obwohl ich immer dagegen gewettert habe, Analysen aufgrund von Snapshots zu machen.
Aber diese total falsche Vorgehensweise ist hier ja geradezu fundamental verankert und wird gar nicht in Frage gestellt.

Space


Antwort von WoWu:

doch !

Space


Antwort von domain:

Eine richtig gute Testsituation stellt ein rasch fließendes Gewässer mit vielen Sonnenreflexen dar, also z.B. ein rasant fließender Wildbach.
Also da hatte der 28 Mbit/s mpeg2 Codec der JV GZ-HD40 schon massive Probleme. Lauter kleine Klötzchen bei den Wasserspiegelungen in der Einzelbildbetrachtung. Leider habe ich damals keine Vergleichsaufnahmen im H.264-Codec gemacht, den diese Kamera ja auch bietet. Ich bin mir ziemlich sicher, dass dieser Codec in der Situation besser abgeschnitten hätte.
Allerdings muss ich sagen, dass man eine gewisse Verblockungstendenz im laufenden Video gar nicht richtig erkennt, so schnell ändert sich alles von Bild zu Bild.
Und damit sind wir ja genau bei der Problematik der frameweisen Einzelbildanalyse: sie ist für das laufende Video gar nicht sonderlich relevant, wird hier aber einzig und allein betrieben.
Allerdings wüsste ich im Moment auch nicht so recht, wie man die viel wichtigere dynamische Analyse gestalten könnte.

Space


Antwort von Tiefflieger:

Für mich gibt es zwei Sichtweisen.

Ein Foto mit feinem Korn (Megapixeln) friert die Szene ein. Oder zeigt mit leichtem verwischen Bewegungsunschärfen.

Ein Film sollte erkennbare Strukturen zeigen.
Die in Bewegungsinseln und Folgebildern bei Augenverfolgung "gleichbleibnde" Qualität zeigen.
Als Standbild betrachtet ist es nicht direkt mit einem Foto vergleichbar.

Fotokameras haben oft einen Megapixelteppich der real im +/- 8 MP optischen Bereich ist (APS-C).
Die Darstellung erfolgt oft nur in 2K oder ~2MP und sind dadurch sehr detailreich.

Videokameras lösen selten, bis auf wenige Ausnahmen nahezu FullHD auf (~2K, 2MP).
So sind eingefrohrene Szenen bestenfalls mit einem Foto vergleichbar.
Für Bewegung ist h.264 (AVCHD) prädestiniert, weil die Bilddatenreduktion auf "Bewegungsinseln" und deren Vektoren basiert.

Insofern sind für mich Standbildanalysen ein legitimes Mittel.
In Bewegung ist es Erfahrung um die Auflösung in einem Standbild inhaltlich und im Detail zu beurteilen (eingeschränkt Bewegungsqualitativ da nur ein Frame vorliegt).

Gruss Tiefflieger

Space


Antwort von Blackeagle123:

Hey,

ich wollte keine solche Grundsatzdiskussion auslösen.

Es geht doch nicht um RGB oder YCbCr, es geht lediglich darum, ob Adobe Encore die Helligkeit zusammenstaucht für den Fernseher und somit Helligkeitswerte von 0-255 beim Import erwartet, oder ob ich direkt in einem 601/709 Codec an Encore ausgeben soll.
(Ich habe noch keinen YCbCr-Export gesehen!?)

Außerdem: Wer sagt denn, ob ich in einer h.264 RGB oder 601/609 speicher? Der Codec gibt das nicht vor. Mit Premiere kann ich meines Wissens nach einen h.264 nur in vollen RGB-Helligkeitswerten ausgeben. Sieht es bei DV-PAL anders aus, kann dieser Codec nicht die 255 Helligkeitsstufen?

Space



Space


Antwort von domain:

Es stimmt schon was du sagst, denn um Bewegungsinseln mit Prädiktionsmöglichkeit handelt es sich bei Lichtreflexen, die nur Zehntelsukunden aufleuchten, ja nicht gerade, da hätte H.264 vermutlich auch nichts geholfen.
Da hilft nur eines: Intraframekompression in Einzelbildern.

Space


Antwort von dienstag_01:

es geht lediglich darum, ob Adobe Encore die Helligkeit zusammenstaucht für den Fernseher und somit Helligkeitswerte von 0-255 beim Import erwartet, oder ob ich direkt in einem 601/709 Codec an Encore ausgeben soll. Nochmal, das hängt davon ab, wie du im Avid farbkorrigiert hast.
16-235: Ausgabe in RGB.
0-255: Ausgabe in 709.

Space


Antwort von WoWu:

Er soll auf sein Waveform schaun, dann sieht er doch, was er vorliegen hat.
Die meisten Monitore stellen sRGB da und darin ist bei einer standardentsprechendem Kamera genau der Wertebereich benutzt, den der Standard vorschreibt: 16-235.
Alles andere ist ein Bedienfehler.

Space


Antwort von Blackeagle123:

Also ich habe die Farbkorrektur so gemacht, dass im Avid Waveform-Monitor nichts weiß dargestellt wird, sondern alles grün. (oben und unten!)
Dann gehe ich davon aus, dass ich in 16-235 korrigiert habe. Richtig?

Ich dachte wenn ich RGB exportiere, zerrt mir das RGB-Export-Setting das Bild auf 0-255 und das 601-Export-Setting lässt es wie es ist!?

Kann mir das mal jemand genau erklären bitte?

Space


Antwort von Blackeagle123:

Es ist doch so, oder?
- RGB-Import bedeutet, dass mein Bild vom RGB (0-255) in den 601/709 Farbraum gewandelt wird (16-235), also die Helligkeit zusammen gestaucht wird.
- 601/709-Import bedeutet, dass keine Helligkeiten geändert werden.

Dann ist es doch beim Export genau umgekehrt:
- RGB zerrt den Farbraum wieder hoch, 601/709 macht nichts an der Helligkeit. Daher in RGB-Setting exportieren, wenn es an AfterFX geht. Oder ist das auch falsch?

Das wäre doch jedenfalls logisch, wenn Avid intern mit 601/709 arbeitet. Ist das so richtig?

Space


Antwort von WoWu:

Du musst folgende beachten:
Dein Kamerasignal entspricht, wenn es normgerecht ist, immer 709 und es liegt im sRGB Farbraum.
Importierst Du nach RGB, wird es transformiert, also gestreckt und in den vollen Wertebereich gemapped.
Dabei werden die fehlenden Werte mit einer Pixelstruktur aufgefüllt. (Dither)
Importierst Du es nach 709, bleibt das Signal unverändert.

Exportierst Du ein RGB nach 709, wird es wieder gestaucht und die zuvor aufgefüllten Bereiche werden, (auch) weil mindestens zwei Rundungsfehler aufgetreten sind, zu Banding.
Ausserdem verschieben sich dabei leicht die Farborte und Werte, die nicht im ursprünglichen Farbmodell vorhanden waren, werden abgeschnitten (clipp).

Gibst Du es in RGB aus, bleiben die Signale unverändert, werden aber in den Geräten, die nach 709 arbeiten, geclipped.
Der Farbinhalte ist übrigens nicht grösser, als bei 709, weil Du bei den Transformationen keine zusätzlichen Werte gewinnst.
Du hast zwangsläufig nur soviele Werte, wie Deine Kamera geliefert hat.
Lediglich in zusätzlichen Grafiken könntest Du weitere Farben einbringen, die werden aber, sofern das Signal auf ein 709 Gerät trifft, auch abgeschnitten.

Space


Antwort von dienstag_01:

- RGB zerrt den Farbraum wieder hoch, 601/709 macht nichts an der Helligkeit. Daher in RGB-Setting exportieren, wenn es an AfterFX geht. Oder ist das auch falsch? Ich hatt ja auchgeschrieben, bei 16-235 Export in RGB .
Ob dabei beim Export gespreizt wird oder Premiere das nur anders interpretiert, keine Ahnung.
Auf jeden Fall brauchst du in Premiere, um dann für Encore zu encoden, wieder FullRange, sonst wirds flau.

Space


Antwort von Alf_300:

Sonst wirds Flau -
Es gibt ein paar millionen Fernseher bei denen bei Schwarz rote Schlieren zu sehen sind wenn der erweiterte Fsrbraum eingestellt ist

Space


Antwort von dienstag_01:

Sonst wirds Flau -
Es gibt ein paar millionen Fernseher bei denen bei Schwarz rote Schlieren zu sehen sind wenn der erweiterte Fsrbraum eingestellt ist Da kommt keen erweiterter Farbraum raus, du Knallnase ;)

Space



Space


Antwort von WoWu:

Weil Millionen von Anwendern glauben, mit einem erweiterten Farbraum bekommen sie was Tolles.
Pustekuchen.

Space


Antwort von dienstag_01:

Ihr seit schon so richtig ERWEITERTE Experten. Schon mal mit Premiere gearbeitet?

Space


Antwort von Alf_300:

Nein

Space


Antwort von dienstag_01:

Siehste.

Space


Antwort von gast5:

*ggggg absolut..

Space


Antwort von Blackeagle123:

Importierst Du nach RGB, wird es transformiert, also gestreckt und in den vollen Wertebereich gemapped.
Dabei werden die fehlenden Werte mit einer Pixelstruktur aufgefüllt. (Dither)
Importierst Du es nach 709, bleibt das Signal unverändert.
Danke erstmal euch allen.

@WoWu: Ist der RGB-Import nicht dafür da, um RGB Daten in den 709 Farbraum zu bringen? Dann wird nämlich beim Import zusammengestaucht und beim Export umgekehrt (auseinander gezogen). Jedenfalls importiere ich schon lange mit dem RGB-Setting Grafiken und Daten von AfterFX und sie liegen im Schnittprogramm dann richtig vor. Täusche ich mich?

Du schreibst auch, dass Encore RGB erwartet, da das Bild sonst flau wird. Das habe ich jetzt auch so rausgefunden. Jetzt kommt das große ABER ;-)
Ich habe eine Quicktime-Film im PAL-DV Codec rausgerechnet. Jetzt habe ich den Eindruck, dass der PAL-DV Codec schon sowas wie ein 709 macht. Denn selbst wenn ich mit dem RGB-Setting exportiere habe ich sehr helle Bildteile, nichts über 235. Exportiere ich sogar im 601/709-Setting ist das Bild nochmal wesentlich heller. Ist das beim PAL-DV Codec so normal??
Denn wenn ich eine h.264 probeweise in RGB rausrechne sieht diese wesentlich dunkler aus.

Viele Grüße!

Space


Antwort von dienstag_01:

Du willst jetzt aber nicht wirklich PAL DV aus dem Avid ausgeben um dann in Encore zu transkodieren? Oder ist die Quelle DV?
Wusste gar nicht, dass das im Avid (noch) geht ;)

Nach meiner Erinnerung war die Farbraumveränderung bei DV Export als mov Quicktime anzurechnen.

Space


Antwort von Blackeagle123:

Was würdest Du empfehlen?

Quicktime-Reference -> Adobe Media Encoder?
(Enore läuft aber nicht auf dem gleichen Rechner! Welcher Codec dann?)

Für den schnellen Export aus Avid raus, um dann an einem anderen Rechner in Encore ne SD-DVD zu erstellen fand ich den Weg über DV-PAL nicht schlecht. Nur ist das Bild eben scheinbar heller (Farbraum-Konvertierung des Codecs!?).

LG und Danke!

Space


Antwort von dienstag_01:

DNxHD.
Oder du encodest für DVD mit Sorenson.

Space



Space


Antwort von WoWu:

Es wird nur flau, weil du zwischen der Farbräumen hin und her jonglierst.
Wenn Du mit Video-Content arbeitest kannst Du (Adobe)RGB gleich vergessen. Du mischt hier Grafikbearbeitungstools mit Video, in dem die Werte gar nicht im Original vorhanden sind (nicht RAW).
Solange Du solche Experimente machst, wirst Du nicht nur die "springende Helligkeit" haben sondern Dir mit jeder Transformation auch noch die entsprechenden Rundungsfehler einhandeln.
Die maximale Helligkeit einer Videofarbe ist nun einmal 219.
So kommt es von der Kamera, so werden Fernehbilder übertragen und anders wird es im Internet auch nicht dargestellt. Auch Intermediatecodecs können z.Tl. nicht mehr. ProRes z.B. stellt auch als maximalen Lumawert nur 219 da. Wenn Du also ein RGB Signal nach ProRes überspielst, wird es automatisch flau.
Und das ist auch richtig so !
Dein RGB ist falsch, weil es kein Video Bearbeitungs Tool ist sondern ein Grafiktool, in einem für Video nicht zugelassenen Farbraum.
Wenn Du da Deinen Workflow nicht sauber hast, wirst Du ständig Ärger haben.

Space


Antwort von dienstag_01:

@WoWu
Bei der Verwenung von Avid und Adobe Premiere/Adobe Media Encoder MUSS man leider zwischen YCbCr 709 und RGB 709 wechseln. Liegt sicher daran, dass Adobe auf RGB-Basis arbeitet. Aber Grafikprogramme sind das trotzdem nicht.
Ein Video in 16-235 sieht natürlich am Computermonitor flau aus. So auch im Avid. Zum graden braucht man daher eine Video I/O Karte oder man wählt die interne Umschahltung der Vorschau auf FullRange.
In Premiere braucht man aber definitiv FullRange (*), damit der Media Encoder/Encore das richtige Ergebnis (16-235) ausgibt. Sicherlich liegt das daran, dass der Encoder WEISS, wie er das File von Premiere übergeben bekommt.
FullRange nenne ich das. Möglicherweise arbeitet Premiere aber auch in 16-235 und zeigt es in der Vorschau nur FullRange. Da bin ich wirklich überfragt.

Noch eine Frage: woher nimmst du den Wert 219?

Space


Antwort von WoWu:

Weil in beiden Fällen, also ARGB und sRGB beispielsweise das maximale Rot als 255/0/0 beschrieben wird, aber absolut, bezogen auf CIE-Lab, die Helligkeit bei sRGB geringer ist. Konvertiert man also korrekt von sRGB nach ARGB, bekommt das maximale Rot 219/0/0. (0-255 Werte)
Hat man aber ein ARGB Rot mit 255/0/0 kann das nicht in sRGB konvertiert werden, weil es ausserhalb des Farbraums liegt.
Macht man eine relativ farbmetrische Konvertierung würden alle Werte oberhalb von 219 zum Wert 255 zusammengefasst. Banding !


So ganz begriffen hab ich das übrigens noch nicht, warum das in den Programmen nicht gehen soll. Es muss doch möglich sein, in einem einheitlichen Farbraum zu arbeiten, der nicht auf "Print" sondern auf Video ausgerichtet ist.

Denn bei YCbCr hast Du ja ein weiteres Problem in der Wandlung, denn Luma liegt ja auf 235, wohingegen CbCr auf 240 liegt.
Die beiden Werte haben also unterschiedliche Spreizungen. Wenn das in der Wandlung nicht berücksichtigt wird, hat man ja die nächste Wundertüte.

Wenn Ihr solche Programme benutzen müsst, würde ich mir den Workflow aber mal ganz genau ansehen und wenn man nicht genau weiss, was das wie gewandelt wird, ist das ja ein einziger Blindflug.

Space


Antwort von dienstag_01:

@WoWu
Das ist deshalb kein Blinflug, weill man ja das final encodete File wieder zurück in den Avid importieren kann. Und wenn da alles korekkt ist... ;)

Space


Antwort von WoWu:

...... dann hast Du trotzdem alle Round-Trip Effekte drin, weil Du ja mindestens zweimal gewandelt hast und womöglich alle Zwischenarbeiten in einem "Print-Farbraum" durchgeführt hast, dessen Farben bei der Rückwandlung gar nicht darstellbar sind.

Space


Antwort von dienstag_01:

RGB 709 wird wohl kein Print-Farbraum sein. Und das Adobe standardmäßig in einem Print-Farbraum arbeitet, können wir hier doch auch ausschließen, oder.

Space


Antwort von WoWu:

Nein, 709 wird wohl keiner sein, aber Adobe RGB ist aber voll ein Print Farbraum !
Selbst Apple hat ja bis vor rd. 2 Jahren noch mit Print-Gamma Einstellungen gearbeitet. Warum also Adobe nicht ? Kommen sie doch aus dem Metier (und haben ja nach wie vor dort ihren Schwerpunkt.

Nur frage ich mich eben, wenn das alles (mit REC709) so klar ist, woher dann die ganzen Round-Trip Effekte kommen und keiner so genau weiss, in was er denn nun eigentlich exportieren soll und es mal flau wird und mal wieder nicht.

Irgendwas scheint doch im Workflow noch falsch zu sein.

Space


Antwort von dienstag_01:

Irgendwas scheint doch im Workflow noch falsch zu sein. Ich fände es gut, wenn es anders ginge.

Adobe kann RGB (damit ist meines Erachtens aber nicht unbedingt AdobeRGB gemeint) und YUV. Je nach Material. So stehts zumindest in Classroom in a Book.

Space


Antwort von WoWu:

Beides wäre falsch
YUV sogar ganz besonders, weil es YUV im digitalen Video gar nicht mehr gibt. Ganz im Gegenteil ist ist sogar richtiggehend falsch.
Vielleicht sitzen die Adobe Leute doch noch mit beiden Füssen im Print-Lager.
;-)

Space


Antwort von dienstag_01:

MediaInfo zeigt mir eigentlich bei allen meinen (digitalen) Files YUV als Farbraum an. Vielleicht ist das nur ein Oberbegriff/eine Bezeichnungsfrage.

Space


Antwort von WoWu:

Nein, YUV ist exakt definiert und ungleich aller andern Farbformate, sowohl der analogen, als erst Recht auch aller digitalen Formate.
Und YUV ist sowieso kein Farbraum.
Aber das ist eben das Problem, da wird irgendwas geschrieben und keiner weiss mehr, was sich eigentlich dahinter, in der Transformation verbirgt. Wer weiss, wie da gewandelt wird. Und von wo nach wo.

Space


Antwort von dienstag_01:

Egal. Angezeigt wirds trotzdem ;)
Vielleicht übersetze ich aber auch Color Space falsch ;)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum DVD / Blu-ray Authoring / Encoding-Forum

Antworten zu ähnlichen Fragen //


Farbraum RGB oder 701 in Adobe Encore?
BM VideoAssist 12G 5" Unterschiedlicher Farbraum zwischen interner und externen Aufzeichnung
"HILFE"Wie in Adobe Encore CS6 verlustfrei eine bluray image transkodieren?
Adobe Encore DVD: Authoring Skript-Fehler
Alternative Encore ODER Menü für HDD statt BD/DVD
Encore CS6 Fehlermeldung: this disk requires a layerbreak
Händy Film in CS 6 bearbeitet , lässt sich nicht mit Encore als DVD erstellenl
Schriftzug von Wand entfernen - aber im RGB Flackerlicht?
Quadralite RGB LED Ringlicht
Budget-Tip: Ulanzi VL49 RGB Video LED
Blackmagic Video Assist 3.8 Update mit verbessertem RGB-Histogramm
Aputure stellt Sidus Link Pro App und INFINIMAT RGB-Lichtmatten vor
Powerbank und RGB-Farben für Godox SL-60w?
Sony zeigt neue RGB-LED Backlight-Technologie - gut genug für Referenzmonitore?
Limited RGB Helligkeitsbereich messen
Adobe Engineering Hours: Was wünscht Du dir für Premiere Pro? Klartext mit Adobe reden und CC-Abo gewinnen
Adobe Max 2021: Über 400 kostenlose Workshops zu Adobe Programmen
Adobe kündigt Firefly an: Generative KI-Modelle nun direkt von Adobe
KI-Bilder mit Adobe Firefly - einfach, für jeden und besser als Midjourney oder Dall-E2?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash