Logo Logo
/// 

0 - 255 der Drops ist noch nicht gelutscht



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic MFT GH4 / GH5 / GH5s-Forum

Frage von -paleface-:


Hallo,
Ich würde gerne nochmal das Thema 0 - 255 Versus 16-235 eingehen.
Nach der Diskussion in meinem anderen Beitrag habe ich ein wenig rumgetestet und bin zu vollgendem Problem gekommen.

Ich habe zwei Clips erstellt, mit genau den selben Einstellungen und Ausschnitt. Außer das bei dem einen 0-255 und bei dem anderen 35-235 als Signal eingestellt war.

- In AfterFX geladen und übereinander gelegt. Kein optischer Unterschied.
- Dann auf den 0-255 eine Tonwertkorrektur drauf und den Output auf 16-235 gezogen. Der Clip wird deutlich heller.

Jetzt hab ich es ja so verstanden das AfterFX und Co. sowieso immer in 0-255 arbeiten. Aber müsste dann der 16-235 nicht etwas dunkler werden wenn ich ihn in AfterFX ziehe?
AfterFX drückt doch dann die 16 wieder auf Null drückt und die 235 auf 255.

Aber was sagt mir das denn jetzt? Bzw. was kann ich tun?
Angenommen ich will meinen Clip nun für YT exportieren.
Was muss ich dann jetzt bitteschön machen?



Antwort von Blackeagle123:

Hallo,

es gibt den RGB-FarbraumRGB-Farbraum im Glossar erklärt, der Helligkeitswerte von 0-255 zulässt. Im TV-Bereich sind aber nur die Werte von 16-235 erlaubt, ein Wert von 0 könnte dazu führen, dass das Bild "durchfällt", denn Werte die unterhalb von 16 und oberhalb von 235 liegen dienen nicht der Bildinformation sondern Synchronimpuls etc.

Daher arbeitet AfterFX mit RGB-Werten, es ist ja ein Grafik-Programm, genauso wie auch Photoshop. Anders ist Avid, hier stellt man den PAL-Farbraum 601/709 ein, der dann die begrenzten Werte hat. Das heißt: 16 ist schwarz, 235 ist weiß. Exportiert man für AfterFX, exportiert man im RGB-FarbraumRGB-Farbraum im Glossar erklärt, importiert man von AfterFX, stellt man in den Import-Settings auf RGB. Stellt man hier etwas falsches ein, kann man im Waveform-Monitor in Avid schön sehen, dass es zum Clipping kommt, das heißt, das Weiß wird abgeschnitten und hat keine Zeichnung mehr.
Bei Premiere spielt das keine Rolle, Premiere arbeitet auch im RGB-FarbraumRGB-Farbraum im Glossar erklärt von 0-255 und was es beim Export macht, habe ich noch nicht so ganz durchschaut (ist das abhängig vom exportierten CodecCodec im Glossar erklärt, z.B. mpeg2-DVD?) WEIß DAS JEMAND? Oder kann man Premiere auch auf 601/709 umstellen?

Exportiert man aus Avid für DVD, so exportiert man statt in "RGB" in 601/709. Schaut man sich das Video am PC an, dann ist das Video hell und flau, das liegt daran, dass der PC den vollen RGB-Helligkeitsraum von 0-255 erwartet, also 0 als Schwarz und 255 als weiß, somit wird das 235er-Weiß als helles grau dargestellt und das 16er schwarz als dunkles grau dargestellt. Am Fernseher wäre 16 dann richtiges schwarz und 235 dann richtiges weiß.

Exportierst Du für Youtube, dann exportierst Du ja für den PC und nicht für den Fernseher, also exportierst Du echte RGB-Werte von 0-255. Genauso, wie wenn Du für ein Grafikprogramm (am PC) exportierst. Bei Youtube am besten als h.264.

So viel in der Theorie.

Und wo für mich das Rätsel anfängt: Wenn man mit Premiere arbeitet und eine mpeg2-DVD ausgibt, bzw. eine h.264 BluRay, dann sieht die am PC "richtig" aus, also weder flau noch zu hell. So, als würde Premiere da Werte von 0-255 rein packen. Ist das wirklich so? Oder macht Premiere doch den 601/709 Farbraum? Brennt man sie auf DVD, was passiert dann? Encore berechnet diese Files nicht neu. Die DVD ist ja aber nur mit 16-235 definiert. Genau das gleiche gilt für die BluRay. Heißt das, wir können einfach RGB-Files auf die DVD brennen ohne uns Sorgen machen zu müssen (abgesehen davon, dass der Kontrast höher ist), oder könnte das Bild noch "durchfallen"?

Viele Grüße,
Constantin



Antwort von Blackeagle123:

- Dann auf den 0-255 eine Tonwertkorrektur drauf und den Output auf 35-235 gezogen. Der Clip wird deutlich heller.

Dabei stauchst Du Dein Filmmaterial zusammen, also sagst Du ebenfalls wieder: Schwarz hat statt 0 den Wert 35 und Weiß statt 255 den Wert 235. Korrekterweise müsstest Du Schwarz aber auf 16 stellen, nicht auf 35. Wo hast Du den Wert 35 denn her? Das Bild wird heller und flauer. Du machst quasi aus "RGB" die 601/709 Helligkeitswerte. Andersrum (also von 601/709 zu RGB) ist es nicht ganz so einfach.





Antwort von -paleface-:

Ups, Fehler beim Text schreiben von mir. Natürlich meinte ich 16. Werde ich im Text ändern.

Wenn ich aber nun ein Projekt habe mit dem Arbeitsfarbraum HDTV ( Rec. 709) und ich die ganze Zeit damit arbeite.

Dann muss ich GANZ AM ENDE meine Tonwertkorrektur mit dem 16-235 draufpacken?



Antwort von dienstag_01:

Ein 16-235 Video wird in AE als 0-255 angezeigt (wie in Premiere auch), sonst wäre es ja alles flau. Beim Export ist es dann wieder normgerecht.
(der DNxHDDNxHD im Glossar erklärt CodecCodec im Glossar erklärt ist ein spezieller Fall, weil man da den Farbraum wählen kann).



Antwort von ksr:

Wie man am besten mit den Farbräumen umgeht, versuch ich auch schon ewig rauszufinden...!

Nochmal zum Thema Avid: Wenn ich (in MC 6.5) h.264-movs von ner 5DMKII per AMA-Link verknüpfe und dann in DNxHDDNxHD im Glossar erklärt transcodiere - sollte ich dann RGBRGB im Glossar erklärt oder 601/709 wählen? (In 601/709 stehen auch wesentlich weniger DNxHD-Varianten zur Verfügung...!?)

Ich will am Ende eine DVD und eine BluRay erstellen - kann aber natürlich nicht vorhersagen, ob sie am PC oder am TV angeschaut wird, sollte also bei beiden gut aussehen...

DANKE für jeden Hinweis zur Klärung!



Antwort von dienstag_01:

sollte ich dann RGBRGB im Glossar erklärt oder 601/709 wählen
Wo wählst du denn das aus?
Ich will am Ende eine DVD und eine BluRay erstellen - kann aber natürlich nicht vorhersagen, ob sie am PC oder am TV angeschaut wird, sollte also bei beiden gut aussehen...
Das sollte beides GLEICH aussehen.



Antwort von WoWu:

@-paleface-

Solange Du nicht auch farbraumneutralen Material (z.B.RAW) oder aus einem andern definierten Farbraum kommst, sondern aus einem 709, egal ob 8 BitBit im Glossar erklärt oder 10 BitBit im Glossar erklärt, ist die Überführung nach 255 nicht nur nutzlos, sondern auch streng genommen kontraproduktiv.
Und 709 geht in Chroma auch nicht bis 235 sonder bis 240.
Wenn Du also hier beides auf 255 schiebst, hast Du bereits eine Y/C Veränderung im Signal vorgenommen, die Du hinterher sowieso nicht mehr korrekt beseitigen kannst.
Du hast aber ohnehin nur die 220 Werte in Deinen Bildinformationen. Jede Spreizung sorgt also dafür, dass Werte lediglich anders gemapped werden. das bedeutet, dass Zwischenwerte entstehen, die, je nach Programm mit einer Pixelstruktur aufgefüllt werden.
Danach bearbeitest Du jetzt Dein Signal und je nach Verarbeitungstiefe werden die sich daraus ergebenden Wortlängen abgeschnitten und Rundungsfehler entstehen.
Diese Rundungsfehler sorgen dafür, dass Werte, die ohnehin schon von den (709) Originalwerten durch die Spreizung abgewichen sind, weiter abweichen .
Bei einem Rücksprung nach 709 können die Werte dann soweit von den ursprünglichen werten entfernt sein, dass die ursprünglichen Werte nicht mehr zutreffen. Die Differenzen zwischen den einzelnen Werten kann sich soweit verändert haben, dass sie im Bild als Banding sichtbar werden.
Auch die, in der Nachbearbeitung gemachte Farbabstimmung stimmt nicht mehr denn (beispielsweise) im Falle einer relativ farbmetrischen Konvertierung würden alle RGB-Rot-Werte oberhalb von 219 zu dem Wert 255 zusammengefasst.
Was immer bei der Arbeit in grösseren Farbräumen vergessen wird, ist, dass man es mit gröberen Abstufungen zu tun hat.
Treibt man das als Beispiel mal ins Extrem dann ist das sRGB-Rot 255/0/0 in einem Film Farbraum gerade mal 179/70/26 - also jede Menge Reserve für mehr Sättigung. Die hat man aber nicht, wenn man hinterher auf den alten Farbraum zurück geht, oder man hat die bekannten Tonwertabrisse.
Und noch so ein paar andere Feinheiten.
Eine davon ist beispielsweise dass Tools, z.B. für "broadcast save", die man vorwiegend einsetzt, um Überschwinger zu kappen, in dem Fall auch Farbbereiche als "illegal" identifiziert, und sie ebenfalls abschneidet. Bei Schwarz führt das zu den bekannten Farbverfälschungen in dunklen Bereichen.

Und das Weiss der Kamera ist, solange Dein Monitor im dazugehörigen Farbraum arbeitet, immer Weiss. Nur wenn die Monitoreinstellung nicht stimmt, entstehen solche Unterschiede.
Wer also auf einem Monitor, der auf Grafik eingestellt ist, Video anschaut, macht einen Fehler und wenn ein Programm, das ein 709 Produkt bearbeitet an die Grafikkarte 255 sendet, ist das mindestens ebenso unklug.
Gute NLEs signalisieren an die Grafik, dass sie in 709 arbeiten und es findet ein Farbmanagement statt und der Monitor arbeitet nach GammaGamma im Glossar erklärt 2.2, was exakt den TV werten entspricht, sodass auch zwischen TV und Rechner kein (wesentlicher) Unterschied mehr besteht.
Wen also mein Monitor mir einen andern Farbraum anzeigt, als den, in dem ich arbeite, würde ich dort ansetzen, den Fehler zu beheben, bevor ich in meinem Content "rumfuhrwerke".



Antwort von dienstag_01:

und wenn ein Programm, das ein 709 Produkt bearbeitet an die Grafikkarte 255 sendet, ist das mindestens ebenso unklug.
Ich kenne nur Avid, die das nicht machen.



Antwort von -paleface-:

@WoWu
Hab ich das jetzt richtig verstanden das du mir empfiehlst gleich bei 16-235 zu filmen?

Ich habe noch ein wenig weiter herumgespielt.
Dabei ist mir aufgefallen das wenn ich exakt die selbe FarbkorrekturFarbkorrektur im Glossar erklärt auf beide Materialien lege und danach das 0-255 Material beschneide beide Filme unterschiedlich aussehen.
Beschneide ich aber erst das Material und lege dann die FarbkorrekturFarbkorrektur im Glossar erklärt drauf schaut es wieder exakt gleich aus. (eigentlich auch logisch)

Was für mich ja bedeutet in 0-255 Filmen ist in Ordnung, aber ich sollte nur VOR der FarbkorrekturFarbkorrektur im Glossar erklärt wandeln.

Später, sollte ich das Material dann mal für was anderes gebrauchen können lösche ich einfach die "Beschneidung" und alles ist gut.

Denke also macht Sinn bei 0-255 zu bleiben. Muss nur beim Projekt anlegen ein wenig mehr drauf achten. Eventuell auch mal ein paar Testfiles bei YT hochladen und schauen was die dann wieder damit machen.



Antwort von WoWu:

Es ist sehr wahrscheinlich, dass Deine Kamera das auch nur ausgibt denn für RGBRGB im Glossar erklärt musst Du erst mal eine Kamera haben, die auch 255 ausgibt.
Ansonsten nutzt Dir die ganze Wandlung absolut nichts.

Wenn Du eine Kamera hast, die 709 ausgibt, beginnen die Probleme nämlich schon bei der Konvertierung.
ADOBE hat dieses Mapping lange Zeit falsch gemacht, was regelmässig zum Clip im Blaukanal geführt hat.

Wenn Du also Wert auf durchgängig fehlerfreie Bearbeitung legst, dann würde ich, ohne jede Wandlung, durchgängig mit dem Material arbeiten, wie es die Kamera abliefert.
Es sei denn, Du bist wirklich "sattelfest" im Management von Farbübertragungen.



Antwort von dienstag_01:

Ja, Youtube ist eine grandiose Idee ;)
(Das hatten wir doch gerade erst hier)
Wenn schon, installiere dir den Media Player Classic, da kann man den Farbraum in der Ansicht verstellen.



Antwort von Der_Marco:

Hi,

Auch hilfreich ist es in den Grafikkarteneinstellungen zu definieren ob die Wahl des Farbraumes vom Abzuspielenden Programm gewählt wird oder fest definiert ist.

Bei Nvidia kann man das im Control Panel einstellen.
Bei AMD wird es ähnlich sein nehme ich an.

Gruss Marco



Antwort von WoWu:

Hi Marco

Das Problem dabei ist eben nur, wenn das Programm den Content zwangsweise, um mit Grafikprogrammen kompatibel zu sein, in RGBRGB im Glossar erklärt 255 wandelt, dann liegt das Kind schon im Brunnen und die Meldung an die Graka ist obsolet.
Man sollte sich also über jeden einzelnen Schritt im Workflow Gedanken machen, was-wann-wo passiert.



Antwort von Der_Marco:

Da hast du natürlich recht, meine Idee dahinter ist eigentlich auch nur das man so wüsste was angezeigt wird / werden sollte.
Das entstand eigentlich daraus das mir manche Youtube Videos beim
Abspielen im Falschen Farbraum angezeigt wurden, die meisten jedoch korrekt. Lustigerweise wurden die gleichen, falsch angezeigten Videos, zu einem späteren Zeitpunkt wieder richtig dargestellt. Und so weiter.
Da kam ich irgendwann auf den Trichter mit den Grafikkarteneinstellungen. Offenbar hatte der Flash-Player Probleme damit.

Wollte es eigentlich nur als Denkansatz bzw. mögliche Fehlerquelle in die Runde werfen. :-)

Gruss



Antwort von WoWu:

Das kann aber auch daran liegen, dass die Steuerbits im DatenstromDatenstrom im Glossar erklärt nicht oder falsch gesetzt sind, denn der Wertebereich wird ja signalisiert. Hat man's mit irgendwelchen obskuren Konvertierungen zu tun, dann gibt das ein heilloses Durcheinander.
Mit dem Thema setzen sich viel zu wenig Leute auseinander und fallen einfach auf den Trugschluss rein, dass ein grösserer Wertebereich eine bessere Qualität verspricht und benutzen irgendwelche Parameter, ohne die Konsequenzen zu kennen.
Dabei ist das ein ganz logisches und super leicht nachvollziehbares Thema.



Antwort von dienstag_01:

Das Videoprogramm konvertiert natürlich den Kontent nicht, nur die Vorschau wird auf 0-255 gemapped. Wie in jedem Software Player.



Antwort von WoWu:

Da wäre ich mir nicht so sicher denn der WF Monitor zeigt ja nicht den Sichtweg, sondern den Bearbeitungsweg.
Premiere hat (ich hat lange Zeit) den Blaukanal in den Clip dadurch getrieben. ich weiss nicht, ob sie das mittlerweile korrigiert haben.
Die haben also kräftig gewandelt, um gleich in AdobeRGB arbeiten zu können.



Antwort von dienstag_01:

Man sieht aber, ob Weiss, Weiss ist.
After Effects z.B. lässt mich auch mit Farbmanagment arbeiten. Da kann ich einstellen, was er mir anzeigt. Egal ob mir mein Color Picker 235 oder 255 anzeigt (bei unterschiedlichem Managment natürlich), es ist (das gleiche) Weiss.
Edit: Premiere schneidet bei 1 oben ab (für die Vorschau), egal ob da noch Werte drüber liegen.



Antwort von WoWu:

Tja, aber da geht es schon los. Da hast Du 255 und egal, was Du angezeigt bekommst, Du hast bereits umgemapped und die eigentlichen Probleme im Content.
Es geht mir gar nicht um die unterschiedlichen anzeigen in Browsern oder playern oder Monitoren.
Das ist eigentlich ein sekundäres Problem.
es geht darum, dass Du den Content "vergniedelst" und hinterher ein Produkt hast, was mit Bugs vollgespickt ist.
Die Anzeige ist sekundär und reine Gewohnheitssache.

Genau das ist ja der Grund warum Broadcaster durchgängig 709 machen, weil die auch nicht wissen, wie "Oma" ihren Fernseher eingestellt hat. Sie sind also nicht auf die Reproduktion fixiert, weil sie gar nicht wissen, wie reproduziert wird, sondern auf die Produktion, also darauf, dass Content untereinander ein identisches Aussehen hat. Dem zur Folge wird er nämlich auch auf "Omas" Tv Gerät, egal wie verkurbelt es ist, immer gleich gut aussehen.

Wir reden also von zwei verschiedenen Dingen.
Du von der Reproduktion und ich von der Produktion.



Antwort von dienstag_01:

Premiere und After Effects gehören in die Produktion.
Und dort hab ich 16-235.



Antwort von wolfgang:

Also der Rec 709 wird hier so beschrieben:

http://en.wikipedia.org/wiki/Rec._709

Rec. 709 coding uses SMPTE reference levels (a.k.a. "studio-swing", legal-range, narrow-range) levels where reference black is defined as 8-bit interface code 16 and reference white is defined as 8-bit interface code 235.

Interface codes 0 and 255 are used for synchronization, and are prohibited from video data.

Eight-bit codes between 1 and 15 provide footroom, and can be used to accommodate transient signal content such as filter undershoots.

Eight-bit interface codes 236 through 254 provide headroom, and can be used to accommodate transient signal content such as filter overshoots.

In some camera systems, headroom in the signal is used to contain specular highlights, however, these "extended-range" signals are not allowed in the broadcast system and are clamped during final mastering.

Bit-depths deeper than 8 bits are obtained by appending least-significant bits. Ten-bit systems are commonplace in studios. (Desktop computer graphic systems ordinarily use full bit-depth encoding that places reference black at code 0 and reference white at code 255, and provide no footroom or headroom.) The 16..235 limits (for luma; 16..240 for chroma) originated with ITU Rec. 601.

Also für mich liest sich das so:

- 0 und 255 sind verbotene Werte da für die Synchronisation genutzt
- 16 ist als Schwarz, 235 als Weiß definiert

- 1-15 ist Fußraum und kann sehr wohl mit Videoinformationen genutzt werden
- 236-254 ist HeadroomHeadroom im Glossar erklärt und kann sehr wohl mit Videoinformationen genutzt werden

- einige Kamerasysteme lassen sehr wohl die Nutzung von Fußraum und HeadroomHeadroom im Glossar erklärt zu

- nur in Broadcasting Bereich ist das nicht erlaubt

Die GH4 wärmt diese Diskussion von Superweiß und Superschwarz wieder auf, da sie den Luminanzumfang in 3 Einstellungen erlaubt:
- 0..255
- 16..255
- 16..235 (also der klassische sendesichere Bereich)

Es würde mich schon arg wundern, wenn hier Panasonic etwas zulassen würde, welches im Farbraum gar nicht mehr abbildbar wäre. Und wenn das was in obigem Zitat beschrieben ist stimmt, darf man also sowohl eigentlich den gesamten Bereich von 1..254 grundsätzlich nutzen. Produziert man für keine Sendeanstalt ist das ok - für Sender ist das halt nicht ok und auf 16..235 zu beschneiden.

Ich weiß also nicht, wieso oben gemeint worden sei, dass diese Helligkeitswerte nicht richtig dargestellt werden würde. Mag sein, nach dieser Seite scheint es nicht so zu sein.

Ich kann nur weiters sagen, dass Vegas den Bereich 0..255 durchaus verarbeitet. Auch gerenderte Ergebnisse in diversen integrierten Encodern, sei es dort der Sony AVC oder der Mainconcept mpeg2 oder der Mainconcept AVC oder der Sony XAVC Encoder oder auch der Sony MXFMXF im Glossar erklärt encoder - ALLE liefern im gerenderten Produkt grundsätzlich 0..255. Habe das gerade mit einem Testbild geprüft.

Mein eigener HDTV - ein Panasonic Gerät - kann grundsätzlich den Superweiß-Bereich wie auch den Superweißbereich darstellen - auch mit einem Testchart geprüft. Die gerenderten Materialien einiger Encoder haben interessanterweise aber nicht Superschwarz dargestellt.

Vegas hat natürlich einen Filter für die Broadcast-tauglichen Farben - wenn man den drüber legt beschneidet er wahlweise und je nach Einstellung auf 16..235. Aber da hat man als Anwender die Wahl.

Ich persönlich sehe für mich als Privatanwender, der nicht für Sendestationen produzieren muss, somit durchaus die Möglichkeit etwa mit einer GH4 in der Einstellung 16..255 zu filmen.

Ob ich das mache ist eine andere Frage - denn ich will ja eher flache Gamme-Kurven haben die nach oben nicht abgeschnitten sind. Aber das ändert nichts an der grundsätzlichen Möglichkeit. Mit einem Waveform Monitor vor Ort (Zusatzgerät) kann man sich zusätzlich ohnedies immer anschauen auf welche Luminanzbereiche das Gerät eingestellt ist.

Dass ich in der Postpro noch eine entspechende Justierung des Kontrasts erfolgen muss ist dem unbenommen. Und definitiv gehört diese Sache stimmig eingestellt - man muss schon wissen was die eigene NLE in dem Bereich macht und wofür man produziert. Bei Vegas etwa ist nachweislich der gesamten Luminanzumfang von 0..255 sowohl in der Vorschau anzeigbar - und auch im gerenderten Produkt vorhanden. Edius dürfte etwa immer die Einschränkung auf 16..235 vornehmen.

Ich finde in dem Bereich auch aktuelle Meinungen von Coloristen für interessant. So schreibt etwa Alexis van Hurkma in seinem Standardwerk Color Correction Handbook sehr wohl, dass Luma zwar zwischen 0 und 100% gemessen wird - aber dass professionelle color correction Anwendungen Luma grundsätzlich sehr wohl auch Superweiß zulassen (von 101-110%) wenn sie im Quellmaterial existieren. Interessanterweise bringt der den Begriff Superschwarz nicht ins Spiel - Schwarz ist für ihn immer 0% (Seite 92/93).

Zur Frage, was der Weißlevel sein soll, meint er aus der Praxis, dass ab zirka 82%/IR§ (585 mV) die meisten Menschen die Darstellung aus ausreichend weiß erleben (Seite 131). Je nach Bildinhalt kann man auch durchaus mal auch nur auf 70 oder 80% gehen (Seite 132). Er meint allerdings auch, dass der maximale Weißlevel eigentlich nie über die maximal erlaubte Signalstärke ghehen sollte - was er typischerweise ala 100%/IRE 700mV für Broadcast beschreibt (Seite 133). So beläufig stellt er noch fest, dass "letting your applications broadcast-safe control clip the highlights can result in the loss of valuable highlicht detail, which may or may not be important"(Seite 133). Also er ist sich sehr wohl bewußt dass man durch das Wegclipen von Superweiß Bildinformation verliert - was bedeutsam oder unbedeutsam sein kann.

Zur Frage, was der Schwarzlevel sein soll, stellt er fest dass zwar der Weißlevel offen für Interpretation sei, aber der Schwarzwert bei 0%/IRE/mV sitzen soll - und tiefe Schatten normalerweise in dem Bereich zwischen 0% und 15% sitzen würden. Hier wird in keiner Weise auf die Verwendung von Superschwarz unterhalb der 0% hingewiesen, und 0% entspricht ja einem Wert von 16 (Seite 137).

Ich vermute aus all dem genannten, dass es für einige Fälle zu unterschieden gilt:
- für Sendeanstalten ist 16..235 ein Muss
- für den Heimanwender ist es durchaus möglich zwischen 16..255 zu filmen und auch das Material rausrechnen zu lassen. Wenn die NLE das unterstützt, wenn es die verwendeten Darstellungsgeräte können. Freilich, man nimmt immer das Risiko dass ältere Geräte dann den Bereich Superweiß vielleicht nicht mehr darstellen können - das sollte halt eine bewußte Wahl sein.

In der Praxis dürfte das Ausreizen von Superweiß aber eher schwer sein, selbst mit einem guten Waveform Monitor vor Ort bei der Aufnahme. DAs kleine HistogrammHistogramm im Glossar erklärt der GH4 ist dafür nach meiner bisherigen Erfhrung tatsächlich zu vergessen. Welche der Optionen jemand fährt muss halt jeder selbst wissen.



Antwort von -paleface-:

Ja, Youtube ist eine grandiose Idee ;)
(Das hatten wir doch gerade erst hier)
Wenn schon, installiere dir den Media Player Classic, da kann man den Farbraum in der Ansicht verstellen.

Ist ja auch aus meinem anderen Beitrag.

Aber war auch gewollt von mir geschrieben. Klar muss man bei Yt mal was hochladen um zu sehen mit was die wie umgehen.

@Wowu
Es geht um die GH4 nicht Canon.



Antwort von wolfgang:

Wurde nicht kürzlich gesagt dass man für youtube auf 16..235 gehen sollte?



Antwort von WoWu:

Es geht aber auch um die asymmetrische Nutzung, beispielsweise dass Chroma bis 240 geht und die unsachgemässe Übertragung, wie auch der entsprechende Fehler bei einem Rücksprung nach 709.
Klar kann man andere, erweiterte Farbräume benutzen, wenn man weiss, wie man nach 709 sauber zurück kommt, weil das nun mal die meisten TV Geräte und Übertragungswege unterstützen.
Und wenn man denn noch weiss, wie man bei den Übergängen Tonwertabrisse verhindert, dann steht dem nichts entgegen.
8 BitBit im Glossar erklärt ist ohnehin an der unteren Grenze der Abstufungswahrnehmung des Menschen. Kleine Fehler wirken sich dabei entsprechend wahrnehmbarer aus als bei 10 oder 12 Bit.
Aber wenn man das Thema beherrscht, ist das sicher kein Problem, vergrösserte Farbräume sinnvoll zu nutzen, sofern die Kamera schon mehr als die 220 Werte hergibt und es sich nicht nur um ein Mapping handelt, sicher sinnvoll, wenn man keine Fehler macht und nicht hinterher sowieso wieder auf 709 zurück muss.



Antwort von dienstag_01:

Premiere zeigt Werte oberhalb von 1 (und das ist 235) alle als Weiss. Mich würde mal interssieren, ob das Programm *versteht*, dass bei der GH4 jetzt auf einmal diese Werte *sichtbar* seien sollen ;)



Antwort von wolfgang:

Es geht aber auch um die asymmetrische Nutzung, beispielsweise dass Chroma bis 240 geht und die unsachgemässe Übertragung, wie auch der entsprechende Fehler bei einem Rücksprung nach 709.

Ich weiß nicht ob die GH4 - um die es hier geht - Chroma auch bei 240 beschränkt. Darüber habe ich leider keine Informationen.

Premiere zeigt Werte oberhalb von 1 (und das ist 235) alle als Weiss. Mich würde mal interssieren, ob das Programm *versteht*, dass bei der GH4 jetzt auf einmal diese Werte *sichtbar* seien sollen ;)

Keine Ahnung wie die interne Signalverarbeitung da erfolgt - ob da bei 235 einfach alles geclipped wird oder nicht. Denn die GH4 liefert definitiv Helligkeitswerte über 235 wenn man sie so einstellt.

Aber Adobe ist da nicht alleine. Muss das noch prüfen, aber bei Edius scheints nicht anders zu sein.



Antwort von WoWu:

@ dienstag
Wenn die richtige Signalisierung im DatenstromDatenstrom im Glossar erklärt erfolgt und Premiere alle Werte implementiert hat (wobei ein Wert der GH4 (16-255) ein reiner ATI Monitorwert ist, der lediglich über HDMIHDMI im Glossar erklärt signalisiert werden kann), dann sollte das gehen.
@Wolfgang
Chroma läuft in 709 immer bis 240 und Puma nur bis 235. Insofern ist eine einfache Spreizung immer mit einem Chromaclip verbunden.



Antwort von ennui:

Warum hat man das bei der Einführung von digitalem Video eigentlich damals so gemacht, welche Gründe gab es da? Logischer wäre ja, die kümmerlichen 8 BitBit im Glossar erklärt wenigstens auch voll auszuschöpfen. Warum nahm man da nicht den vollen Range 0-255? Sollten da noch irgendwelche Zusatzinformationen übertragen werden? War die Technik noch nicht so weit?



Antwort von WoWu:

Schau Dir heute noch Überschwinger von digitalen Filtern an, dann weisst Du, wo die restlichen Werte bleiben.
Und je mehr am Bild geschärft und verändert wird, umso mehr Filter wirken.
:-(



Antwort von ennui:

Dann ist das also so eine Art "Aussteuerungsreserve", damit Signale nicht digital clippen? Aber dann wird dieser Bereich (0-16, etc.) ja doch genutzt. Oder nur manchmal? Wann genau und wo und wie?



Antwort von WoWu:

Signale, die den Adressraum verlassen bringen u.U. einen Bildspeicher zum "über- oder underflow" (Mir ist dafür keine geeignete deutsche Bezeichnung geläufig).
So nennt man jedoch den Zustand, wenn Daten in nicht dafür vorgesehene Speicherbereiche geschrieben werden (müssen).
Ein Underflow liegt vor, wenn bestimmte Zahlengrössen in einem System unterschritten werden.
Mit andern Worten: Es gibt im Übertragungsweg Bereiche, die zur Sicherung einer einwandfreien Übertragung reserviert sein müssen. Es ist also noch etwas Anderes als ein Clip.



Antwort von ennui:

Ok, aber wann und wo kommen diese Werte denn dann gewöhnlich zum Einsatz? In der Kamera ja schon mal nicht. Im NLE, intern bei Effekten? Wer oder was beschreibt und liest diese Wertebereiche denn sonst?



Antwort von WoWu:

Das sind eigentlich Werte aus der Computergrafik, wo solche Spikes nicht vorkommen.
In der Videotechnik werden sie als BtB und WtW bezeichnet, also "blaker than black" und" whiter than white".
Aber das stimmt natürlich nicht, denn FullWell des Sensors wird auch bei 709 auf 235 gemapped und Black auf 16. Insofern wird kein einziger Helligkeitswert mehr gewonnen. Sie werden nur an unterschiedlichen Wertepositionen transportiert.
Wenn der Monitor die entsprechenden Settings aus dem DatenstromDatenstrom im Glossar erklärt korrekt ausliest, dann wird er die maximale LED "Spannung" bei 235 anlegen und die minimale Spannung bei 16. Daher gibt es kein WtW, denn mehr als die maximale Helligkeit der Kamera kann das System nicht erzeugen.
Nur Monitore, die die Bits nicht auslesen, würden nach RGBRGB im Glossar erklärt erst bei 255 die maximale LED Helligkeit erzeigen (das sind sowieso immer nur so um die 70% bei LEDs aber das spielt jetzt mal keine Geige).
Das heisst, wenn der Monitor auf die richtige wertetabelle reagiert gibt es kein BTB oder WTW, nur bei falschen Einstellungen gibt es das, wenn der Monitor 0-255 signalisiert bekommt und der Videostrom 16-235 hat.



Antwort von wolfgang:

Also in der Praxis haben wir seit geraumer Zeit

a) Videokameras, die alle den Superweißbereich nutzen können. Genauer - ich habe überhaupt seit Jahren keine Prosumer-Kamera mehr gehabt die das nicht gekonnt hätte (mit Waveform Monitor in Vegas gut nachweisbar)

b) Monitore, die den Sußerweißbereich durchaus darstellen können (der Nachweis gelinbt seit Jahren mit passenden Testbildern natürlich sehr gut- wird ja auch fallweise Computer RGBRGB im Glossar erklärt genannt)

c) aber auch HDTVs von namhaften Firmen, die sich um das nicht kümmern und Superweiß darstellen können.

Footroom und HeadroomHeadroom im Glossar erklärt sind halt offenar signaltechnische Dinge für Sendeanstalten. Der Privatmann, der filmt und schneidet, oder der kleine Eventfilmer sind davon weniger betroffen - der Fernsehjournalist aber sehr wohl. Bei Sendern kommen diese Dinge zum Einsatz, sonst halt weniger.



Antwort von WoWu:

Alle Kameras können das, die nicht dem Standard entsprechen.

SMPTE 240M und 260M sind ja keine Broadcast-Übertragungsstanderds sondern Vidostandards.
Eingebracht hat das sony 1987 zur Standardisierung aller Videokameras, um kompatible Bilder zu erzeugen.



Antwort von ennui:

Genau das wunderte mich, dass man mit diesem Wertebereich ja normalerweise nichts zu tun hat, außer halt wie hier diskutiert, wenn was schiefgeht. Aber gebraucht wird er also trotzdem. Danke für die Erklärung.



Antwort von WoWu:

Dann hast Du noch keinen übergelaufenen Buffer gehabt. :-((
Die Bilder sind weg, da kann man machen, was man will und auch nachträglich nichts mehr begrenzen.
ich hab neulich von einer 4K Kamera Material gehabt, das hörte mit dem Weisspegel bei rd. 500mV auf. Der Rest bis 700mv waren Spikes von der Kantenaufstellung.
Dann habe ich diese Spikes lieber headroom, als sie vom Signalpegel abziehen zu müssen.
Erfolg war ... Du musst sie clipen und die restlichen 500mv hochziehen, mit den bekannten Folgen für Störabstand & Co.



Antwort von domain:

Sehr schön, dass dieses alte und durchgekaute Thema wieder mal hervorgekramt wurde und zwar auch mit den sich schon damals wiederholenden Postings. Der letzte undurchsichtige Stand der Dinge war, dass zwar die meisten Camcorder 16-255 aufzeichnen, der Wertebereich über 235 aber auf den "normalen" NLE-Vorschaumonitoren (in 709) nicht mehr gezeigt und rausgerendert wird, sondern mit Abschneidung nur noch 16-235.
Erst mit dezidierten Manipulationen kann man auch den Bereich über 235 "hereinholen" wie an folgenden Vergleichsbildern zu sehen ist.
Deutlich zu erkennen die bessere Durchzeichnung in den Lichtern (vorher nicht sichtbare Details in den weißen Gebäuden) und das größtenteils verschwindende Cyan-Himmelblau:





Antwort von dienstag_01:

Ich denke, die ganze Superweiss-Fraktion macht sich was vor: natürlich gibt es Werte über 235. Die werden auch beim Export aus dem NLE (sagen wir mal Premiere) mit ausgegeben. Und ich kann die im Softwareplayer auch sehen. Aber nur manchmal. Und das meist, wenn es schief gelaufen ist. Und vor allem, das hat man nicht in der Hand.
Anders gesagt, wenn ich mein Bild genauso wie im NLE sehe, heisst das, es ist 709. Und nichts anderes.
Noch anders gesagt, wenn ich die Werte über 235 nutzen will, muss ich sie im NLE unter 235 schieben. Alles andere wird Käse (mit wenigen, fehlerhaften Ausnahmen).
Könnt ihr euch mal merken ;)



Antwort von TheBubble:

Warum hat man das bei der Einführung von digitalem Video eigentlich damals so gemacht, welche Gründe gab es da? Logischer wäre ja, die kümmerlichen 8 BitBit im Glossar erklärt wenigstens auch voll auszuschöpfen. Warum nahm man da nicht den vollen Range 0-255? Sollten da noch irgendwelche Zusatzinformationen übertragen werden?

Das verwirrung stiftende Problem ist die KonvergenzKonvergenz im Glossar erklärt zweier Technologiezweige, die sich getrennt entwickelt haben. Ich versuche das mal kurz zusammenzufassen, vielleicht sollte ich das aber mal zum Nachlesen ausführlicher auf einer Website beschreiben.

Zum einen gibt es die Computertechnik. Hier hat man seit der Einführung von 24-Bit RGBRGB im Glossar erklärt "True Color" jedem der drei Farbkanäle einen Werteberich von 0-255 zugestanden. Weiß war hier immer 255,255,255 und Schwarz immer 0,0,0. Die verfügbaren 8 BitBit im Glossar erklärt pro Farbkanal wurden damit voll ausgeschöpft. Digitale Filter führen hier natürlich auch zu Überschwingern, diese kann man aber einfach abschneiden.

Was erst später kam, war die Festlegung auf sRGB als Farbraum. Vorher waren die Farbmonitore zwar ähnlich, aber nicht festgelegt. Mit sRGB kam die genaue Festlegung der drei Primärfarben und der Übertragungsfunktion ("Gamma").

Viele der verwendeten Dateiformate kommen aus der Computer-Ecke: BMP, TIFF, JPEG, PNG, AVIAVI im Glossar erklärt, usw. Hier werden natürlich die vollen 8 BitBit im Glossar erklärt gespeichert. Aus Computer-Sicht war 0,0,0 immer Schwarz und 255,255,255 immer Weiß.

Was sich bis heute leider nicht durchgesetzt hat, ist ein programmübergreifendes Farbmanagement. Daher gehen Programme ohne Vorhandensein von Zusatzinformationen bei der Verarbeitung und Darstellung von Bitmaps in der Regel von sRGB aus.

Zum anderen gab es die Fernseh-/Videotechnik. Diese war ganz lange analog. Auch hier gab es festgelegte Primärfarben und eine Übertragungsfunktion, jedoch andere Festlegungen als im Computerbereich.

Erste Schritte in Richtung digitaler Videotechnik haben ein analoges KomponentensignalKomponentensignal im Glossar erklärt einfach digitalisiert, meist mit 8 BitBit im Glossar erklärt pro Kanal. Verkomplizierend kommt hier dazu, dass es sich in der Regel nicht um RGBRGB im Glossar erklärt handelte, sondern YUVYUV im Glossar erklärt, was dadurch entstand, dass man auf lineares RGBRGB im Glossar erklärt die Übertragungsfunktion angewendet hat und erst danach über eine Matrix zu YUVYUV im Glossar erklärt konvertiert hat. Das geschah damals alles analog.

Aus diversen Entwicklungen ging dabei hervor, dass man sich bei 8-Bit-Aufzeichnungen auf einen Schwarzpunkt von Y=16 und ein nominelles Maximum von Y=235 (Weiß) festgelegt hat. Y=0 und Y=255 wurden speziellen Signalisierungszwecken vorbehalten, der restliche Bereich diente der Aufzeichnung von Überschwingern. Über die tatsächlichen Gründe dafür weiß ich nicht Bescheid, ich kann nur Vermutungen anstellen: Eventuell wollte man moderate Überschwinger unbedingt reproduzieren können, damit bei der Rückwandlung in ein analoges Signal bei sonst "hart" abgeschnittenen überschwingenden Verläufen keine weiteren neuen Störungen eingeführt werden. Vielleicht war diese Umsetzung damals auch einfach nur einfacher umzusetzen bzw. kostengünstiger. Jedenfalls findet der Wertebereich bis heute Verwendung.

Irgendwann konvergierten die Technologien, da man am PC Videodaten verarbeiten wollte.

Recht einfach ist es natürlich die 8-Bit Samples (1 Byte) aus der Videoecke als einfach ohne mehr Umwandlungen uns unbedingt nötig am PC darzustellen, als ob es sich um eine sRGB Bitmap handelt (eine Umsetzung von YCbCr nach RGBRGB im Glossar erklärt ist aber nötig). Zwar stimmen dann Schwarz und Weiß nicht und die Übertragungsfunktion ist auch eine Andere, aber es ist einfach zu programmieren, da die zugrundeliegenden RGB-Bitmaps im Speicher prinzipiell den gleichen Aufbau haben. Was dabei entsteht, ist eine am PC leicht kontrastarme Darstellung ohne richtiges Schwarz, die falsche Übertragungsfunktion fällt hingegen kaum auf. Ein Vorteil dieser Vorgehensweise: Sie ist schnell. Das war wichtig, als die PCs grade anfingen für Digital-Video schnell genug zu sein.

Wie schon gesagt: Hat man eine nicht komprimierte Computer-RGB-Bitmap und eine Video-RGB-Bitmap, dann haben diese die gleiche Größe, den gleichen Speicheraufbau, auch wenn die einzelnen Werte eine andere Bedeutung haben. Interpretiert man Letztere ohne sonstige Umwandlung als Erstere, dann kann diese vom PC direkt dargestellt werden, wenn auch leicht verändert (Kontrast, usw.).

Ohne Zusatzinformationen kann man jedenfalls die beiden nicht komprimierten 24-Bit-RGB-Bitmap-Typen nicht auseinanderhalten. Da ein Computer im Zweifel immer von sRGB ausgeht und viele Programme primär auf die Gegebenheiten der Computer-Technik ausgelegt sind und sich ein konsequentes Farbmanagement leider bisher nicht durchgesetzt hat, werden Video-Bitmaps gelegentlich "flau" ausgegeben.

Noch ein paar Hinweise: Es reicht nicht den Wertebereich anzupassen, es müssen auch die Übertragungsfunktionen berücksichtigt werden. Liegen die Video-Daten als YCrCb vor, muss noch mehr berücksichtigt werden, da sich hiermit Farben beschreiben lassen, die außerhalb von 0-255 für RGBRGB im Glossar erklärt liegen.

Soviel als kurze Zusammenfassung.



Antwort von domain:


Noch anders gesagt, wenn ich die Werte über 235 nutzen will, muss ich sie im NLE unter 235 schieben. Alles andere wird Käse (mit wenigen, fehlerhaften Ausnahmen).
Könnt ihr euch mal merken ;)

Sehe ich genau so.



Antwort von WoWu:

@ domain

Stell doch mal die beiden Waveform Darstellungen der Bilder dazu.
Wetten dass im ersten Bild Blau geklipped ist ?

@Bubble

gib doch mal Deine Web-Seite im Profil an.
Thanks.



Antwort von ennui:

Gibt es denn auch bei 10-Bit-Video solche reservierten Wertebereiche?



Antwort von WoWu:

Klar, 709 gibt es für 8 oder 10 Bit.



Antwort von domain:

@ WoWu
Nein. Im Waveformonitor wird nichts gravierend Geclipptes angezeigt, aber der zeigt bei mir auch ein anderes Bild als 709, viel weicher, es gibt kein richtiges Schwarz mehr und alle vorhandenen Lichter bis 255 werden noch angezeigt.
Entscheidend ist aber, dass der Import noch vollständig ist, also 16-255, dann aber in der NLE-Voransicht schon eine Beschneidung stattfindet, die eigentlich untragbar ist, jedenfalls bei mir und meinem NLE.



Antwort von WoWu:

Aber das sieht mir absolut nach dem RGBRGB im Glossar erklärt Import von premiere aus, bei dem die 235 den vollen Bereich einnehmen und Blau (ursprünglich 240) dabei in die Binsen geht.
Dann schiebt sich nämlich grün und rot umproportional nach und ergibt das nette Türkies.
Klassischer Fall von falscher Wandlung.



Antwort von dienstag_01:

Aber das sieht mir absolut nach dem RGBRGB im Glossar erklärt Import von premiere aus,
Das ist natürlich gemein, das Premiere in die Schuhe zu schieben ;)
(Das ist Vegas oder s.ä., denke ich)



Antwort von WoWu:

War nicht persönlich gemein, hab ich bisher nur von solchen Importen gesehen.
Kann sein, dass andere NLEs genauso bescheiden arbeiten.



Antwort von domain:

WoWu,
bescheiden ist nur das Auge von so manch einem von uns.
Kompletter Unsinn z.B. die reversen LU-Tabellen in meinen Augen zur Korrektur von S-Log, denn schon im geringsten Grading wird wieder alles nichtlinear und noch viel weiter verbogen.
Es zählt letztendlich nur die beabsichtigte Ziel- Ausgabe für das geschulte Auge und dazu kann auch das "Hereinholen" von Werten über 235 zählen.



Antwort von WoWu:

Na ja wenn Du meinst, dass LUTs überflüssig sind ... dann werden sie ja sicher bald abgeschafft.

LUTs sind im Amateursektor sicher nicht üblich, aber was qualifiziert Dich zu sagen, sie seinen unnötig.
Vielleicht das "Grading" des gepusteten Bildes ?
Selten so einen Schwachsinn gelesen.

Und schau Dir mal das Waveform von Deinem Bild an... da siehst Du genau in der Überlagerung, was ich oben beschrieben habe.
(Wenn Du das waveform überhaupt zu nutzen weisst).
Das hat nämlich mit "Grading" oder FarbkorrekturFarbkorrektur im Glossar erklärt überhaupt nichts zu tun.



Antwort von domain:

Ja ich kenne ja deine Einstellung dazu: erst muss mal ein normal gegenkorrigiertes Bild vorhanden sein, damit man es nachher ordentlich graden kann.
Aber die Entwicklung ging inzwischen weiter, wie hier auch schon mehrfach vorgestellt (kombinierte und integrierte Lösungen).
Schon mal rein logisch kann es keine Norm Anti-S-Log-LUT geben, weil diese nur abhängig vom Eingangskontrast und damit variabel sein muss.

Manche Dinge erkennt man nur im Extrem. Der Sinn von weichen S-Log-Bildern ist doch, dass sehr hohe Kontraste noch so halbwegs erfasst werden können. Nun stelle man sich eine Aufnahmesituation mit extrem hohen Eingangskontrasten vor, die aber schon ohne LUT-Korrektur ziemlich gut und normal im NLE aussehen würden.
Und wie würde das Bild dann mit einer normalisierenden LUT-Korrektur aussehen? Hoffnungslos übersteigert, mit ausgebrannten Lichtern und zugefallenen Schatten.
Eine Standard-LUT-Korrektur kann deshalb niemals der Ausgangspunkt für ein weiteres Grading sein. Die Sache ist viel komplizierter.



Antwort von WoWu:

Arri und der Rest der Kamerahersteller sollte dann die ganzen downloadbaren LUTs einfach vergessen und mal in Wien anrufen, was man denn besser machen kann.
Alles klar.

In welchem Blog hast Du das denn gelesen.
Eine Übertragungsfunktion beschreibt die Abweichung von einer linearen Funktion.
Und da ist nix abhängig von Objektgamma. Die Funktion beschreibt nur die Abweichung.

Aber lassen wir es dabei. ich glaube Dir gerne, dass Du keine LUTs für Deine "Gradings" brauchst.



Antwort von TheBubble:

gib doch mal Deine Web-Seite im Profil an.
Thanks.

Ich habe leider keine, die sich mit Digital Imaging/Video Themen befasst. Wäre aber vielleicht eine Möglichkeit für die Zukunft.



Antwort von WoWu:

Wenn Du da was vor hast, sag mal bescheid, vielleicht kann man Synergien nutzen.



Antwort von TheBubble:

Ja ich kenne ja deine Einstellung dazu: erst muss mal ein normal gegenkorrigiertes Bild vorhanden sein, damit man es nachher ordentlich graden kann.
Damit hat er aber Recht. Alles andere ergibt quasi ein künstlerisches Ergebnis.

Und wie würde das Bild dann mit einer normalisierenden LUT-Korrektur aussehen? Hoffnungslos übersteigert, mit ausgebrannten Lichtern und zugefallenen Schatten.

Man muss das gewandelte Resultat nicht sofort in 8-Bit pro Farbe pressen oder die Randbereiche abschneiden, sondern kann es in einem geeigneten Zwischenschritt verarbeiten. Dafür würde sich ein Fließkommaformat eignen, das für Zwischenschritte auch eigentlich unzulässige Farben/Helligkeiten erlaubt.

Eine Standard-LUT-Korrektur kann deshalb niemals der Ausgangspunkt für ein weiteres Grading sein. Die Sache ist viel komplizierter.
Es ist ein guter Ausgangspunkt, sofern man passende Software zur Weiterverarbeitung hat.



Antwort von wolfgang:

Die Diskussion um die Lookup Tables verstehe ich insofern nicht, als der Fragesteller hier eindeutig von der GH4 her kommt. Und die benutzt keine LUTs - oder zuminest nicht bisher. Da gibt es nur das Gerücht das Panasonic das nachschießen könnte - im Zuge eines Firmware-Updates. Unabhängig davon sind LUTs ja nur eine Tabelle - und wenn man in derartigen Einstellungen filmt sind dazu passende Luts einfach sinnvoll.

Die Behauptung, dass ich Luminanzinformationen im Bereich Superweiß unter 235 schieben muss - nun ich sehe das nicht. Interessant dass Chroma nur bis 240 läuft - allerdings bin ich da im extremen Weißbereich, und da gehts um eine bessere Auflösung in der Luminanz. Das Bildbeispielt von Domain zeigt recht klar dass man den Bereich von Superweiß nutzen kann - um ein besseres Bild zu bekommen. Aber natürlich kann ich das auch unter 235 schieben - ist aber doch klar dass dies Helligkeitsinformation kostet.

Also solange ich nicht für Sender produziere, solange meine NLE das sauber kann - warum soll ich nicht den Superweißbereich mit nutzen?



Antwort von Blackeagle123:

Also hier wird ja gerade mal wieder viel, viel Chaos geschrieben.

Dienstag:
Das Videoprogramm konvertiert natürlich den Kontent nicht, nur die Vorschau wird auf 0-255 gemapped. Wie in jedem Software Player.

Falsch! Beim Import in Avid wird z.B. eine DNxHDDNxHD im Glossar erklärt Datei erzeugt, dieses "Videoprogramm" erzeugt dann eine 601/709 Datei. Es könnte aber auch eine RGB-Datei erzeugen. Die "Vorschau" auf dem internen oder externen Monitor wird dann in RGBRGB im Glossar erklärt und 601/709 angezeigt.

WoWu:
Die Daten die von einer DSLR kommen sind nicht im 601/709 Farbraum, sondern im RGB-FarbraumRGB-Farbraum im Glossar erklärt, daher hat unser Fragestellt auch ein Problem, wenn ihm gesagt wird, er solle jetzt auf 601/709 drehen, er wird dann versuchen die Helligkeit so hoch zu drehen, dass die Werte erst bei 16 anfangen, das funktioniert natürlich nicht.

Welchen Farbraum man wählt, hängt meistens vom Einzelfall ab, ich schreibe jetzt mal ganz allgemein, wie Avid arbeitet, denn da ist es am verständlichsten:

Jetzt mal ganz allgemein: Brennt man eine DVD hat die einen 601-Farbraum (SD), eine BluRay den 709-Farbraum (HD), dabei wird nichts "beschnitten", es wird gestaucht. Legt man eine DVD in den Computer, weiß der Computer das ja und zeigt RGB-Werte an, ein Fernseher erwartet aber den 601/709 Farbraum, das heißt ein PixelPixel im Glossar erklärt am Monitor ist tatsächlich schwarz und weiß und nicht grau (also wäre es sogar in der ANZEIGE: 0-255), das ist aber auch ganz egal, weil das der Computer für uns übernimmt. Wichtig ist, wenn wir keine DVD einlegen und uns nur die Datei anschauen, die wir auf die DVD brennen: Schauen wir uns z.B. eine mpeg2-Datei an, dann können dort Helligkeitswerte von 0-255 oder aber auch 16-235 gespeichert sein, je nach Export-Setting in Avid. Da man in Avid sowieso nur schneidet, um später auf BluRay/ DVD/ für Fernsehen etc. auszugeben, arbeitet man dort idealerweise im 601/709 Farbraum und exportiert die mpeg2 (für DVD) auch so. Exportiert man (als "Nebenprodukt") auch eine Datei für den PC (z.B. für Youtube, eine h.264-Datei die man per Dropbox austauschen will o.ä.), dann wäre diese Datei "flau", daher stellt man RGB-Werte ein.

Bei den Formatwandlungen in Avid/ AfterFX/ Photoshop (Grafikprogramme die mit RGB-Werten arbeiten) ist das keine reine Anzeigen-Sache, sondern eine wirkliche Format-Komprimierungs-Frage. Ich würde hier trotzdem eine Datei in RGB-Werten nach AfterFX exportieren und in AfterFX mit der RGB-Datei weiter arbeiten. Warum? Setzt man eine Schrift in Schwarz, dann hat die Schrift den Helligkeitswert "0". Das Schwarz im Video hätte aber Helligkeitswert 16. Das heißt, man müsste das Video sowieso in den Helligkeitswerten in AfterFX anpassen, diese Arbeit lasse ich Avid beim Export übernehmen und stelle als Farbraum beim Export RGBRGB im Glossar erklärt ein. Will man z.B. ein Standbild aus Avid speichern, um es als Grafik weiter zu bearbeiten (und nicht, um es danach direkt wieder zu imporrtieren), dann wäre es Quatsch in 601/709 auszugeben, man speichert in RGBRGB im Glossar erklärt, das heißt, das Bild wird (unter anderem) in den Helligkeitswerten auf 0-255 gestreckt.

So, vielleicht kann ja jetzt jemand noch was dazu schreiben, was Adobe Premiere beim Import/ Export von Dateien im RGBRGB im Glossar erklärt und 601/709 Farbraum macht, bzw. was für ein Farbraum in einer mpeg2 (DVD) nach dem Export steckt - es sieht mir nämlich so aus, als würde Premiere den RGB-FarbraumRGB-Farbraum im Glossar erklärt exportieren! Denn das ist mir wirklich schon länger ein Rätsel! Denn wenn Premiere/ Encore RGB-Files auf DVD brennen "darf", dann kann das Avid ja wohl auch ;-) Oder wird bei RGB-Brennen auf DVD dann "sicherheitshalber" beschnitten? Oder geht die ganze Theorie nicht auf?

Viele Grüße,
Constantin



Antwort von wolfgang:

Eigentlich läßt sich das ja mit einem simplen Testbild feststellen - das man in die timeline legt und im Anschluß den Export macht. Habe ich ja oben beschrieben dass ich das mit Vegas gemacht habe - und aus Vegas heraus bleiben Superweiß und Superschwarz erhalten. Geht sicherlich auch mit Adobe so.



Antwort von dienstag_01:

Eigentlich läßt sich das ja mit einem simplen Testbild feststellen - das man in die timeline legt und im Anschluß den Export macht. Habe ich ja oben beschrieben dass ich das mit Vegas gemacht habe - und aus Vegas heraus bleiben Superweiß und Superschwarz erhalten. Geht sicherlich auch mit Adobe so.
Na dann stell doch mal einen kleinen Schnipsel deines aus Vegas gerenderten Testbildes hier rein, vielleicht h264. Soll ja laut deiner Ausage mit FullRange funktionieren.



Antwort von dienstag_01:

Exportiert man (als "Nebenprodukt") auch eine Datei für den PC (z.B. für Youtube, eine h.264-Datei die man per Dropbox austauschen will o.ä.), dann wäre diese Datei "flau", daher stellt man RGB-Werte ein.
Wenn du damit meinst, dass man Werte zwischen 0 und 255 einstellt, ist das falsch.
Edit: Dann müsste ich ja zwei verschiedene Farbkorrekturen machen.



Antwort von Viramedia:

In Sony Vegas sieht man am HistogrammHistogramm im Glossar erklärt eindeutig die unterschiede ob das MAterial als 0-255 oder 16-235 aufgenommen wurde.

16-235 muss nicht mehr geleveld werden, bei 0-255 muss es gestaucht werden um es dann 16-235 konform (also 0-100%) zu machen...

da ich ohnehin eine stauchung vornehme (weil grafiken, logos oft auch immer als compouter rgb mit 0-255 vorliegen) nutze ich in der GH4 natürlich den vollen 0-255 raum



Antwort von dienstag_01:

SOOOOO versteh ich das. Und SO ist es natürlich auch in anderen Programmen (bspw. Premiere).



Antwort von wolfgang:

Na dann stell doch mal einen kleinen Schnipsel deines aus Vegas gerenderten Testbildes hier rein, vielleicht h264. Soll ja laut deiner Ausage mit FullRange funktionieren.

Bin mir nicht sicher ob ich das darf - habe ja an den Testbildern nicht die Rechte. Aber man kann die ja leicht selbst generieren, wenn man das Testbild hat

http://www.burosch.de/technik/514-video-range.html

Und es gibt im Netz auch immer wieder Testbilder, die man nicht-kommerziell gratis nutzen darf.



Antwort von wolfgang:

16-235 muss nicht mehr geleveld werden, bei 0-255 muss es gestaucht werden um es dann 16-235 konform (also 0-100%) zu machen...

So kann man es machen, MUSS es aber nicht machen.



Antwort von Viramedia:

16-235 muss nicht mehr geleveld werden, bei 0-255 muss es gestaucht werden um es dann 16-235 konform (also 0-100%) zu machen...

So kann man es machen, MUSS es aber nicht machen.

so mach ich es und es funktioniert sehr gut....

natürlich, wenn ich ein 32 bit Full-Range Projekt habe würde man natürlich alles in 0-255 lassen. Es hängt halt wirklich davon ab, wie der Output erfolgen soll. In der Regel aber (TV, Internet, Player) sollte das MAterial wohl 16-235 sein



Antwort von dienstag_01:

@wolfgang
Wenn du behauptest, es ginge auch anders, dann zeig ein File.
Nimm zwei weisse Flächen, 235 und 255 bzw. 100% und ca. 110% und stell davon ein video hier rein. Deiner Meinung nach müsste man einen Unterschied sehen, ohne das es nach 709 konvertiert wird.
Mal schauen ;)



Antwort von tehaix:

Ich rette mal ein Zitat aus dem alten Thread hier rüber:

Dass die GH4 auch 16-235 kann (im Gegensatz zu bisher allen filmisch so viel genutzten DSLRs wie 5D M2, T2i oder T3i die alle von 0-255 aufnehmen) liegt ja nur daran, dass sie jenen, die mit der Convertierung - oder Workaraound nicht umgehen können, diesen Schritt erleichtern möchte.
Man kann also die GH4 so einstellen, dass ich mir über diesen Prozess keine Gedanken mehr machen muss...

Hallihallo,

ich schalte mich kurz in diese Diskussion mit einer Frage ein, denn mir ist die Problematik bislang nicht geläufig gewesen.

Wenn alle DSLR im Computer RGBRGB im Glossar erklärt Bereich arbeiten, also alle Werte zwischen 0 und 255 nutzen, muss ich das Material dann für eine optimale Darstellung in verschiedenen Medien konvertieren? Oder werden die Videos von meinem NLE (Edius und Premiere) automatisch beim Export in 16-235 ausgegeben?

Weiter: Ich hatte unter Edius über die After Effects Bridge mit Magic Bullet Looks gegradet und immer schon den Eindruck gehabt, dass die Bilder im Looks-Fenster flauer angezeigt werden, als im NLE. Hatte aber keinen blassen Schimmer, warum das so ist. Könnte dies etwas damit zu tun haben, dass After Effects und Edius verschiedene RGB-Wertebereiche bei der Bilddarstellung nutzen?

Ich filme auf einer Nikon D7100. Ich hoffe, die Anfängerfragen verschrecken euch nicht ;) Aber das Problem ist neu für mich, ich komme mir aber gerade so vor, als ob sich einige Dinge in meinem Kopf langsam erklären..



Antwort von wolfgang:

@wolfgang
Wenn du behauptest, es ginge auch anders, dann zeig ein File.
Nimm zwei weisse Flächen, 235 und 255 bzw. 100% und ca. 110% und stell davon ein video hier rein. Deiner Meinung nach müsste man einen Unterschied sehen, ohne das es nach 709 konvertiert wird.
Mal schauen ;)

Auf derartige "Forderungen" oder höflicher "Wünsche" reagiere ich grundsätzlich nicht gut. Ich habs für mich in Vegas getestet und sehe den Unterschied. Wers prüfen will solls prüfen. Nachweispflicht für mich sehe ich aber keine.



Antwort von Viramedia:

Ich rette mal ein Zitat aus dem alten Thread hier rüber:

Dass die GH4 auch 16-235 kann (im Gegensatz zu bisher allen filmisch so viel genutzten DSLRs wie 5D M2, T2i oder T3i die alle von 0-255 aufnehmen) liegt ja nur daran, dass sie jenen, die mit der Convertierung - oder Workaraound nicht umgehen können, diesen Schritt erleichtern möchte.
Man kann also die GH4 so einstellen, dass ich mir über diesen Prozess keine Gedanken mehr machen muss...

Hallihallo,

ich schalte mich kurz in diese Diskussion mit einer Frage ein, denn mir ist die Problematik bislang nicht geläufig gewesen.

Wenn alle DSLR im Computer RGBRGB im Glossar erklärt Bereich arbeiten, also alle Werte zwischen 0 und 255 nutzen, muss ich das Material dann für eine optimale Darstellung in verschiedenen Medien konvertieren? Oder werden die Videos von meinem NLE (Edius und Premiere) automatisch beim Export in 16-235 ausgegeben?

Weiter: Ich hatte unter Edius über die After Effects Bridge mit Magic Bullet Looks gegradet und immer schon den Eindruck gehabt, dass die Bilder im Looks-Fenster flauer angezeigt werden, als im NLE. Hatte aber keinen blassen Schimmer, warum das so ist. Könnte dies etwas damit zu tun haben, dass After Effects und Edius verschiedene RGB-Wertebereiche bei der Bilddarstellung nutzen?

Ich filme auf einer Nikon D7100. Ich hoffe, die Anfängerfragen verschrecken euch nicht ;) Aber das Problem ist neu für mich, ich komme mir aber gerade so vor, als ob sich einige Dinge in meinem Kopf langsam erklären..

Ja Du hast es richtig erkannt. Das Material muss auf 16-235 geleveld werden. Das ist im übrigen das PRoblem, dass so viele Premiere und AE Nutzer hatten, die DSLR MAterial bei der Wiedergabe als überbelichtet empfandne und die Tiefen absaufen. Damals wurde das ganze als QuickTime GammaGamma im Glossar erklärt Bug bezeichnet. Findest Du immer nocha uf Google.



Antwort von Viramedia:

@wolfgang
Wenn du behauptest, es ginge auch anders, dann zeig ein File.
Nimm zwei weisse Flächen, 235 und 255 bzw. 100% und ca. 110% und stell davon ein video hier rein. Deiner Meinung nach müsste man einen Unterschied sehen, ohne das es nach 709 konvertiert wird.
Mal schauen ;)

es reicht doch aus wenns Dir 2 Personen hier sagen dass es so ist. Und wenn Du es ncith glaubst, mach einfach nen Splitscreen mit jweiles Black und Weiß 100% und setz auf einem dieser Splitscreen Clips den Filter Computer RGBRGB im Glossar erklärt nach studio RGB.

Du wirst im HistogrammHistogramm im Glossar erklärt eindeutige utnerschiede sehen...



Antwort von dienstag_01:

Ich hab das Programm nicht. Außerdem behauptet Wolfgang das Gegenteil von dir. Nicht aufgefallen ;)



Antwort von Viramedia:

Ach quatsch. Wolfgang behauptet doch nicht das Gegenteil. Wir sind ja beide Vegas nutzer und haben die Problematik bereits zum abkotzen im Vegasforum besprochen... genau das gleiche Problem mit den Canon EOS damals.

Hier die Screens... das kannst Du Dir aber auch in PRemiere basteln.
Rechter Screen hat das HistogrammHistogramm im Glossar erklärt, das ist eingestellt auf %-Werte also 0-100% relativ zum Studio-RGB Bereich (16-235)

Vergleich GrauverlaufGrauverlauf im Glossar erklärt (Black 0,0,0 White 255,255,255) links ohne Studio Levels (Bild franzt aus) rechts mit Studiolevels (Bild ist genau 0-100%)


Vergleich GH4 Aufnahme (zuerst Fabkorrigiert mit bewusster über-unterbelichtung um es am HistogrammHistogramm im Glossar erklärt besser zu sehen) links ohne Studio Levels (Bild franzt aus) rechts mit Studiolevels (Bild ist genau 0-100%)


ich hoffe das reicht nun



Antwort von domain:

Die Diskussionen, ob div .Kameras nativ bis 255 aufzeichnen oder nicht ziehen sich ja durch das ganze Netz.

Hier ein Zitat und die Antwort:
" ...which a lot of people do and completely destroy their video because canon uses a special full 0-255 h.264"

Not if you use 5DtoRGB!


Also bei dieser Canon hat man offenbar eine Wahlmöglichkeit. Ich selbst habe noch nie eine Kamera gehabt, die nicht bis 255 aufzeichnen konnte. Hier z.B. die Waveform eines überbelichteten Bildes der XF100

zum Bild http://img5.fotos-hochladen.net/uploads/wavens2l17zcex.jpg

Es ist m.E. daher geradezu Pflicht, im WaveformmonitorWaveformmonitor im Glossar erklärt zu überprüfen ob etwas über 100% (= 235) liegt um es dann stauchen zu können. Es sei denn man will wirklich mit Superweiß arbeiten und auch so rausrendern.



Antwort von Viramedia:

endlich mal einer der hier auch sinnvolles schreibt. Danke.

Aber zum verallgemeinen: Letztendlich geht es nicht um die oder jene Kamera, sondern um das zu verarbeitende Footage.

Hat das Footage 0-255 und soll für Web, Player und TV exportiert werden, muss es geleveld werden auf 16-235

16-235 Footage kann man dagegne in diesem Bereich so lassen wie es ist...



Antwort von dienstag_01:

Viralmedia, mach doch mal ein Video von deinen zwei weissen Flächen, nicht auf 16-235 gebracht, in h264. Dann sollte ich ja die beiden Flächen im VLC sehen. Wolfgang behauptet das, aber fühlt sich überfordert, es ma einfach zu machen und nicht nur zu reden. Ist doch einfach und könnte helfen ;)



Antwort von Reiner M:



Wenn alle DSLR im Computer RGBRGB im Glossar erklärt Bereich arbeiten, also alle Werte zwischen 0 und 255 nutzen, muss ich das Material dann für eine optimale Darstellung in verschiedenen Medien konvertieren?

Meine DSLR Canon 60D zeichnet keineswegs RGBRGB im Glossar erklärt auf, es sei denn, ich fotografiere. Videos werden als YCbCr Rec709 16-235 aufgezeichnet und bleiben mit allen Luma-Werten exakt im 700mV-Fenster. Das wird bei den übrigen Canon-DSLRs ebenso sein.

Dass daraus RGB-Werte bis RGB(255,255,255) im NLE entstehen, ist eine Frage des Mappings, nicht der Aufnahme. Gemappt wird eben in einen Fullrange-RGB-Raum, z.B. in Premiere Pro und After Effects.

Beim Export wird das Mapping jedoch umgekehrt richtig ausgeführt. RGB(255/255/255) wird wieder Y(235). Da wird auch nichts abgeschnitten.

Kameras, die Fullrange aufnehmen (Y > 235) produzieren allerdings im 8-Bit-Farbraum der NLEs (z.B. Monitoranzeige) dann RGB-Werte größer 255/255/255, die natürlich in diesem Wertebereich nicht abbildbar und "unsichtbar" sind. Hier kann Stauchen das visuelle Ergebnis verbessern, wenn in der Aufnahme große Anteile oberhalb Y(235) vorkommen, die sonst jeder Player bei der Wiedergabe abschneiden würde (siehe Beispiel von domain).

Reiner



Antwort von tehaix:

Jetzt steigt das Maß der Verwirrung dann doch.. Ich verfüge leider weder über die richtigen Messinstrumente, noch über das Fachwissen, um das Material meiner D7100 diesbezüglich beurteilen zu können. Oder reichen da schon die Software-Waveform-Monitore?



Antwort von Reiner M:

Oder reichen da schon die Software-Waveform-Monitore?

Ja.
Hast Premiere Pro?
Befindet sich die Luma-Welle genau zwischen 0,3V und 1V ist das 16-235. Überschreitet sie 1V, zeichnet die Cam Werte Y>235 auf.

Bei anderen NLEs skaliert dieser Bereich im Graphen häufig von 0mV bis 700mV.

Reiner



Antwort von Viramedia:


Meine DSLR Canon 60D zeichnet keineswegs RGBRGB im Glossar erklärt auf, es sei denn, ich fotografiere. Videos werden als YCbCr Rec709 16-235 aufgezeichnet und bleiben mit allen Luma-Werten exakt im 700mV-Fenster. Das wird bei den übrigen Canon-DSLRs ebenso sein.

Kameras, die Fullrange aufnehmen (Y > 235) produzieren allerdings im 8-Bit-Farbraum der NLEs (z.B. Monitoranzeige) dann RGB-Werte größer 255/255/255, die natürlich in diesem Wertebereich nicht abbildbar und "unsichtbar" sind. Hier kann Stauchen das visuelle Ergebnis verbessern, wenn in der Aufnahme große Anteile oberhalb Y(235) vorkommen, die sonst jeder Player bei der Wiedergabe abschneiden würde (siehe Beispiel von domain).

Reiner

Natürlich nimmt Deine Canon 60D Full-Range RGBRGB im Glossar erklärt mit 0-255 auf. Die Canon DSLRs haben keinen Studio-RGB Bereich (nur AdobeRGB Full-Range)

Die nimmt genau die gleichen werte auf wie beim Foto.
Mach mal Film und Foto von der gleichen Szene, sind genau die gleichen Werte.



Antwort von Viramedia:

Oder reichen da schon die Software-Waveform-Monitore?

Ja.
Hast Premiere Pro?
Befindet sich die Luma-Welle genau zwischen 0,3V und 1V ist das 16-235. Überschreitet sie 1V, zeichnet die Cam Werte Y>235 auf.

Bei anderen NLEs skaliert dieser Bereich im Graphen häufig von 0mV bis 700mV.

Reiner

wichtig ist dass der Waveform Monitor auf Studio RGBRGB im Glossar erklärt eingestellt ist. Man kann den auch oft als Computer RGBRGB im Glossar erklärt umstellen (wie bei Vegas) und ist dann im Full-Range bereich



Antwort von Viramedia:

hier das Demo File wie gewünscht

http://files.viramedia.de/GH4 Test.MP4



Antwort von dienstag_01:

mach mal den Link richtig (der funktioniert nämlich nicht) und nimm dieWeissflächen als Video.



Antwort von Reiner M:



Natürlich nimmt Deine Canon 60D Full-Range RGBRGB im Glossar erklärt mit 0-255 auf. Die Canon DSLRs haben keinen Studio-RGB Bereich (nur AdobeRGB Full-Range)

Wir sind im Bereich Video. Canon benutz H.264, YCbCr 8bit 4:2:0. BT.709. Zumindest in meiner. ;-) Prüfe mal die Datei-Infos der Videos.

Reiner

Anm.: Musste das sein mit diesen riesigen Bildern? ;-) Etwas kleiner wäre browserfreundlicher gewesen.



Antwort von Viramedia:

http://files.viramedia.de/GH4Test.MP4

Seite Speichern unter clicken...



Antwort von Viramedia:

Die Canons nehmen definitiv Luma Wert mit 0-255 auf... und nicht 16-235 wie bei der GH4.

Brauchst nur mal das FormatFormat im Glossar erklärt beider Kameras im NLE integrieren

Canon DSLR, GH4 im 0-255 und GH im 16-235
die Unterschiede sind im wavemonitor eindeutig sichtbar



Antwort von dienstag_01:

zum Testfile:
Also ich seh da auf die Schnelle nichts, was über 100 gehen könnte.
Aber ich schau mirs nochmal genauer an, muss nur erst was rechnen.



Antwort von Reiner M:

Die Canons nehmen definitiv Luma Wert mit 0-255 auf... und nicht 16-235 wie bei der GH4.

Brauchst nur mal das FormatFormat im Glossar erklärt beider Kameras im NLE integrieren

Canon DSLR, GH4 im 0-255 und GH im 16-235
die Unterschiede sind im wavemonitor eindeutig sichtbar

Schau doch bitte in die Datei-Infos der Output-Files der Canon und prüfe es im Y-Waveform-Monitor. Nicht im RGB-Monitor - der zeigt nur das Ergebnis nach dem Mapping von YCbCr nach RGB.
Produziert die Canon Y-Waves oberhalb 700mV (1V bei Premiere Pro)? Dann speichert sie Luma > 235. Sonst nicht.

Reiner



Antwort von dienstag_01:

@Viralmedia
Mach mal bitte noch ein Video mit zwei FarbFLÄCHEN, nicht Verläufen. Und wenn es geht, nicht in 4k, da geht mein Rechner in die Knie.
Ich denke, du wirst dich wundern.



Antwort von Viramedia:

zum Testfile:
Also ich seh da auf die Schnelle nichts, was über 100 gehen könnte.
Aber ich schau mirs nochmal genauer an, muss nur erst was rechnen.

na die Werte haben jetzt max 0-255 Luma... die eine Seite hat 16-235

Du wirst einen Optischen Unterschied im NLE und im Videoplayer erkennen. die hellen töne franzen aus, die dunklen saufen ab. Im NLE dürfte das vorerst perfekt dargestellt werden, weil das NLE ja den vollen RGBRGB im Glossar erklärt Bereich mit 0-255 nutzt...

es betriefft ja nur den output und entsprechend die wiedergabe, wo dieser optische unterschied dann erkennbar ist



Antwort von Viramedia:

Die Canons nehmen definitiv Luma Wert mit 0-255 auf... und nicht 16-235 wie bei der GH4.

Brauchst nur mal das FormatFormat im Glossar erklärt beider Kameras im NLE integrieren

Canon DSLR, GH4 im 0-255 und GH im 16-235
die Unterschiede sind im wavemonitor eindeutig sichtbar

Schau doch bitte in die Datei-Infos der Output-Files der Canon und prüfe es im Y-Waveform-Monitor. Nicht im RGB-Monitor - der zeigt nur das Ergebnis nach dem Mapping von YCbCr nach RGB.
Produziert die Canon Y-Waves oberhalb 700mV (1V bei Premiere Pro)? Dann speichert sie Luma > 235. Sonst nicht.

Reiner

ich arbeite seit Jahren im SemiPro Bereich mit 4 Canon DSLRs für Filmaufnahmen. ich kann Dir sagen, dass wenn das Canon Footage nicht auf 16-235 im NLE gestaucht wird, feine Details in den Dunklen und hellen Bereichen ausfranzen und nicht mehr sichtbar sind, wenn das MAterial auf YouTube, Desktop Player oder am TV wiedergeben wird.

Einfach weil die Player alls unter 16 als superdark und über 235 als superwhite darstellen. Dass natürlich die Informationen unter und über diesen Schwellenwerten im gerenderten Clip noch vorhanden sind (der Clip ist ja tatsächlich ja 0-255) müsste auch klar sein und wenn Du das im NLE nochmal lädfst, ist alles sichtbar.

Die Problematik betrifft ja nur die Wiedergabe des Materials. Daher sollte man Material, das einen Luma von 0-255 hat (RGB Grafiken, Canon DSLrs, GH4 mit 0-255) natürlich nach Studio RGBRGB im Glossar erklärt wandeln, um diese ausfranzung bei der Wiedergabe zu vermeiden.

Ich habe das jetzt hier öfters geagt, mit beispielen auch belegt, selbst erlebt... es sollte ein Anreitz für jene sein, damit sie ihren Workflow optimieren. Wen das nicht interessiert, der kann ja weiterhin so produzieren wie bisher...



Antwort von dienstag_01:

@Viralmedia
Machst du das nochmal mit den Flächen? Vielleicht in HD ;)



Antwort von Viramedia:

So letzter Versuch um es irgendwie darzustellen, danach klinge ich mich genauso aus...

Screenshot 3: rechter Monitor zeigt weiß 255 und scharz 0 (RGB Fullrange) mit hellem grau und dunklem grau (erkennbar), mittlerer Monitor simuliert die Wiedergabe auf einem TV oder YouTube Player (die beiden Flächen sind nichtmehr sichtbar, szusagen ausgefranzt)

Download des Renderings:
http://files.viramedia.de/Luma0-255_3.MP4
Bei der Wiedergabe sind die Flächen nicht sichtbar, importiert man es im NLE, jedoch schon

Screenshot 4: genau gleiche Farbflächen, allerdings alles geleveld von Computer RG auf Studio RGBRGB im Glossar erklärt (beachtet mal einfach den wavemonitor, alles wurde auf 0-100% und somit 16-235 gestaucht)
Ergebnis: keine ausgefranzten Elemente (somit keine Superwhites), und alles schön sichtbar.

Download des Renderings:
http://files.viramedia.de/Luma0-255_4.MP4
Im übrigen werdet Ihr nun merken, dass bei der Wiedergabe beide flächen wieder sichtbar sind und dass die Darstellung = mit dem Screenshot Nr.3 interne NLE Vorschau (niucht die Simulierte)

Damit dürfte jedem Klar sein, wie er sein Material nun einsetzen sollte. Ich hoffe, meine wertvolle Zeit hier sinnvoll eingesetzt zu haben, damit andere Ihren Workflow nun optimieren können.

Große Screenshots müssen sein, so kann man das Originalmetrial erkennen.

Grüße
Igor



Antwort von dienstag_01:

@Viramedia
Du kannst hier noch hunderte Screenshots einstellen, aber du wirst es nicht hinbekommen ;)
Es geht um WEISS und WEISS und nicht um Weiss und Schwarz.
Die Behauptung ist: man kann das ungeleveled ausgeben, mit Mainconcept (z.B.) und es funktioniert.
So wird das nichts.



Antwort von domain:

Außerdem geht es nicht nur um Weiß oder Superweiß sondern ums Abschneiden:

" ...which a lot of people do and completely destroy their video ..."

Möchte nicht wissen, wieviele von euch ihr Video auf diese Art schon "destroyed" haben.
Es geht um verborgene Informationen knapp vor wirklichem Reinsuperweiß, aber noch über 235. Also um verschenkte Durchzeichnung in den Lichtern und um Cyan-Himmelblau, über das sich schon so mancher gewundert und geärgert hat.
Habe ich doch weiter oben beim Bahnhof-Snapshot schon demonstriert.



Antwort von Reiner M:



Das ändert ja nichts an den Tatsachen. ;) YUVYUV im Glossar erklärt, Rec.709 16-235 in meiner Canon im Video-Modus. RGBRGB im Glossar erklärt ist ganz sicher falsch, und ich habe es noch nicht geschafft, Y über 235 zu bringen. Hier clippt die Canon im Zweifelsfall.

----------

Wie Du Deine Videos der Canons nachbearbeitest, bleibt Dir überlassen. Es ist klar, dass die sehr hellen und sehr dunklen Bereiche durchgezeichneter erscheinen, wenn Du da nachträglich noch stauchst. Speziell in bestimmten Playern. Wenn das für Dich und Deine Zielgruppe visuell besser ist als andere Methoden und das Ergebnis alle zufrieden stellt, ist doch alles gut.

Doch längst nicht jede Aufnahme besitzt ausgeprägte Tiefen und Lichter mit (subjektivem) Korrekturbedarf. Deine Methode (sofern ich sie verstanden habe) greift aber immer und in jedem Fall und zusätzlich in die gesamte Farbwiedergabe ein, oder? Ich würde in diesem Fall, bei der Canon DSLR, andere Werkzeuge wählen, aufnahmeabhängig.

----------

Bei Cams, die Luma größer 235 aufzeichnen, macht das Luma-Stauchen von oben herab Sinn. Dadurch lässt sich das visuelle Ergebnis z.T. erheblich verbessern. Mache ich mit meinen Panas X909 öfters. Habe ich ja weiter oben schon geschrieben, sieht z. B. domain auch so, und das ist ja auch Deine Erfahrung.

Allerdings würde ich auch hier unbedingt empfehlen, dass nur abhängig von der Aufnahme auszuführen und immer in Zusammenspiel mit weiteren Korrekturen, nicht pauschal und grundsätzlich einfach stauchen. Aber ich denke, das ist wohl klar.

Reiner



Antwort von -paleface-:

Also bei mir sind in VLC bei beiden Videos die Flächen sichtbar.
Bei dem zweiten Video ist das Weiß leicht grau.

In AfterFX und Premiere ist 4 sichtbar 3 nicht.



Antwort von dienstag_01:

Ok, ich hab mir gerade das Video runtergeladen, ich schau mirs mal an.
Hatte ich vorhin übersehen, aber ich kann nur auf meinem Laptop schauen, da wird es total unübersichtlich mit den Riesenbildern. Ich entschuldige mich!



Antwort von Viramedia:

Außerdem geht es nicht nur um Weiß oder Superweiß sondern ums Abschneiden:

" ...which a lot of people do and completely destroy their video ..."

Möchte nicht wissen, wieviele von euch ihr Video auf diese Art schon "destroyed" haben.
Es geht um verborgene Informationen knapp vor wirklichem Reinsuperweiß, aber noch über 235. Also um verschenkte Durchzeichnung in den Lichtern und um Cyan-Himmelblau, über das sich schon so mancher gewundert und geärgert hat.
Habe ich doch weiter oben beim Bahnhof-Snapshot schon demonstriert.

und genau das hat der Screenshot und das gerenderte Material bewiesen. Welche Informationen unter 16 und über 235 verloren gehen... oder worüber diskutieren wir sonst hier, Dienstag?



Antwort von dienstag_01:

So hab mirs mal angeschaut. Das Video ist in die Level von 709 gebracht (siehe Anhang).
Die Behauptung war aber, es ginge auch ohne die Stauchung.



Antwort von Viramedia:



Allerdings würde ich auch hier unbedingt empfehlen, dass nur abhängig von der Aufnahme auszuführen und immer in Zusammenspiel mit weiteren Korrekturen, nicht pauschal und grundsätzlich einfach stauchen. Aber ich denke, das ist wohl klar.

Reiner

das ist klar, daher auch meine Erwähnung... gh4 0-255 muss man stauchen, gh4 16-235 muss man nicht
ich mache es generell weil ich bei meinen videos immer titel + Fotos verwende... und die würden danna usfranzen.



Antwort von Viramedia:

Also bei mir sind in VLC bei beiden Videos die Flächen sichtbar.
Bei dem zweiten Video ist das Weiß leicht grau.

In AfterFX und Premiere ist 4 sichtbar 3 nicht.

Du hast recht, der VLC wiedergibt wohl Computer RGBRGB im Glossar erklärt 0-255, andere MEdiaplayer eben nur 16-235

eigentlich dürfte Test3 aber in AE und Premiere ebenfalls sichtbar sein. Wenn nicht, dann bedeutet es wohl dass die Adobe PRodukte von Studio RGBRGB im Glossar erklärt Material (also 16-235) ausgehen und alls darunter und darüber beinhart wegschneiden (und somit informationen gelöscht werden)

danke für den test, Pelaface... (immerhin einer der das tatsächlich auch ausprobiert ;-)



Antwort von Viramedia:

So hab mirs mal angeschaut. Das Video ist in die Level von 709 gebracht (siehe Anhang).
Die Behauptung war aber, es ginge auch ohne die Stauchung.

gehen tuts schon ohne stauchung... nur dass dann die wiedergabe ggf. material ausfranzt... und das solls ja nicht sein ;-)



Antwort von dienstag_01:

gehen tuts schon ohne stauchung... nur dass dann die wiedergabe ggf. material ausfranzt... und das solls ja nicht sein ;-)
Nee, da franst nichts aus. Da hast du einfach anstatt 4 nur noch 2 Flächen, eine weisse und eine schwarze.
Edit: WARUM? Weil es abgeschnitten wird, oben und unten.

Und darum gehts, will man die Werte für die WIEDERGABE erhalten, muss man nach 709.
Player - wie bspw. VLC - zeigen 709 (also 16-235) als 0-255. Sonst wärs Matsch.
Dit is nu ma so ;)



Antwort von freezer:

Premiere zeigt Werte oberhalb von 1 (und das ist 235) alle als Weiss. Mich würde mal interssieren, ob das Programm *versteht*, dass bei der GH4 jetzt auf einmal diese Werte *sichtbar* seien sollen ;)

Premiere schneidet das Superweiß nur ab, wenn Du die Sequenz nicht auf maximale Bittiefe gestellt hast.

Gehe in die Sequenzeinstellungen und aktiviere unten rechts "maximale Bittiefe". Nun leg einen Videofilter wie Luminanzkurve oder RGB-Kurven auf Deinen Clip und zieh mal den oberen Endpunkt der Kurve runter und schau was die RGB-Parade dann macht - plötzlich ist wieder Zeichnung da.



Antwort von dienstag_01:

@freezer
Mit abschneiden in Premiere meine ich, die kann man nicht sehen. Wenn ich sie nach unten ziehe, sehe ich sie logischerweise wieder ;)
Hast du einen besseren Begriff als *abschneiden*?
Sind halt unsichtbar ;)



Antwort von ennui:

Wie sieht es denn mit Sony- oder Canon-8-Bit-Log-Material aus? Da scheint ja immer auch mehr da zu sein an Höhen als man zunächst direkt sieht. Nutzen die auch zusätzlichen diesen Superwhite-Bereich? Oder "nur" den üblichen Range?



Antwort von -paleface-:

Premiere zeigt Werte oberhalb von 1 (und das ist 235) alle als Weiss. Mich würde mal interssieren, ob das Programm *versteht*, dass bei der GH4 jetzt auf einmal diese Werte *sichtbar* seien sollen ;)

Premiere schneidet das Superweiß nur ab, wenn Du die Sequenz nicht auf maximale Bittiefe gestellt hast.

Gehe in die Sequenzeinstellungen und aktiviere unten rechts "maximale Bittiefe". Nun leg einen Videofilter wie Luminanzkurve oder RGB-Kurven auf Deinen Clip und zieh mal den oberen Endpunkt der Kurve runter und schau was die RGB-Parade dann macht - plötzlich ist wieder Zeichnung da.

Stimmt.
Bei After Effects kommen die wenn ich auf 32-Bit stelle auch wieder. Bei 16 interessanter Weise nicht.



Antwort von dienstag_01:

Bei After Effects kommen die wenn ich auf 32-Bit stelle auch wieder. Bei 16 interessanter Weise nicht.
Vielleicht haste einfach nur deinen Monitor zu hell eingestellt ;)
Im Ernst, mir ist schon weiter oben aufgefallen, dass du in AE die Lumawerte angeblich nicht siehst. Da dürftest du der einzige sein. Der verlinkte Clip (Luma_0-255) muss natürlich in AE richtig zu sehen sein. Ist er bei mir auch.
Schon zuviel dran rumgedreht?



Antwort von domain:

Es ist ja kein Wunder, dass dieses Thema schon seit Generationen für hunderte Thread-Seiten gesorgt hat, wenn schon die verschiedenen NL-Editoren, wenn auch u.U. durch spezielle Einstellungen verschieden reagieren können, weiters auch die div. Viewer und erst recht die Wiedergabegeräte. Alles ziemlich undurchsichtig vor allem auch im Zusammenspiel.
Nur eines erscheint mir klar: eine begrenzende 16-235 Aufzeichnung schon in der Kamera kann nicht sinnvoll sein, wer geht bei 8 BitBit im Glossar erklärt schon freiwillig auf ein gröberes Quantisierungsmuster?
Null bis 255 erscheint mir anderseits auch nicht optimal, denn was außer Rauschen findet man denn schon unter 16?
16-255 kommt mir daher eher sinnvoll vor.
Abgesehen davon würde es mir nie einfallen, ein nicht standardisiertes Superweiß rauszurendern, denn so selten gebe ich meine Videos auch wieder nicht weiter.



Antwort von srone:

schon die gh2 macht 16-255, 1. korrekturschritt in premiere, das auf 235 runterziehen.

jedoch bin ich auch bei wowu, ein mapping in 8bit, ist auch nicht das wahre.

mich würde ein vergleich interessieren, welche methode bringt mehr bild-qualität/(-realität?) 0-255 zu 16-235 oder direkt 16-235 oder wie verhält sich der gewinn an werten gegenüber der distortion der werte durchs mapping?

lg

srone



Antwort von wolfgang:

Ich frage mich gerade wie man das beantworten soll. Auf die Antworten bin ich gespannt - weil mir fällt da kaum ein Weg sowas schnell und einfach zu vermessen und zu beantworten.



Antwort von srone:

nun ja, testtafel und eine gh4 mit einer guten festbrennweite, bearbeitung premiere zb, dann final differenzbild.

lg

srone



Antwort von wolfgang:

nun ja, testtafel und eine gh4 mit einer guten festbrennweite, bearbeitung premiere zb, dann final differenzbild.

Ja klar - aber das fällt halt nicht mehr so ganz unter die Kategorie "schnell und einfach". :)

Zumindest nach meinem Empfinden.

Und ob Premiere dafür geeignet ist - hat es nicht geheißen dass das Superweiß wegschneidet?



Antwort von srone:

nun ja, testtafel und eine gh4 mit einer guten festbrennweite, bearbeitung premiere zb, dann final differenzbild.

Ja klar - aber das fällt halt nicht mehr so ganz unter die Kategorie "schnell und einfach". :)

Zumindest nach meinem Empfinden.

Und ob Premiere dafür geeignet ist - hat es nicht geheißen dass das Superweiß wegschneidet?

ja, deswegen korrigiert auf 16-235 für die finale ausgabe, schlussendlich geht es ja, um die qualität der 0-255 auf 16-235 anpassung, bzw um die frage, ergibt das ein besseres bild als 16-235 "unbearbeitet"?

lg

srone



Antwort von Reiner M:


Und ob Premiere dafür geeignet ist - hat es nicht geheißen dass das Superweiß wegschneidet?

Tut es nicht.

Reiner



Antwort von dienstag_01:

Und ob Premiere dafür geeignet ist - hat es nicht geheißen dass das Superweiß wegschneidet?

Macht jedes NLE.
Lies dir nochmal den Vergleich durch, den Srone machen will.
Ich denke, du wirst es nie verstehen. Superweiss, wer sowas schon schreibt ;)

Edit:
Ich versteh ja, dass es nicht so ganz einfach ist, nachzuvollziehen, dass 235 im Video auf einem Bildschirm Weiss ist, der aber sagt, dass ist 255. Aber *irgendwann* sollte man es dann doch mal durchdrungen haben. WEISS ist WEISS, und weisser als WEISS geht nicht. Auch bei 10bit ist WEISS WEISS. Was ich gewinnen kann, sind mehr Lumawerte ZWISCHEN Schwarz und Weiss, aber die ändern nichts am Schwarz- oder Weisswert. Deshalb sind Begriffe wie SUPERWEISS reine Marketingbegriffe und eines halbwegs mit Videotechnik Vertrauten eigentlich unwürdig. Und, um das gleich vorwegzunehmen, die Lumawerte, die man gewinnt (bei 10bit oder weil man in 8bit bis 255 aufnehmen kannt), werden für eine Ausgabe in 8bit für Video mit Rec709 natürlich wieder auf dieselben Werte gestaucht (verringert), als hätte man sie bei der Aufnahme gar nicht zur Verfügung gehabt.



Antwort von Reiner M:

Wenn die Cam 0-255 liefert, steht das auch in Premiere Pro zur Verfügung.

Wegen der Begrifflichkeit "wegschneiden":

Es gibt zwei Wege, um auf 16-235 zu trimmen, die nicht verwechselt werden dürfen. Einmal durch "Wegschneiden", also Löschen der Infos außerhalb 16-235 (geht ja tatsächlich), und einmal durch Stauchen der Lumakurve. Wegschneiden macht natürlich keinen Sinn.

-----

Zur Frage nach mehr Bild-Qualität/-realität:

Technisch liefert wohl die direkte 16-235-Aufnahme das bessere Ergebniss, wenn man Auslassungen, Sprünge und Verdichtungen in den Wertebereichen nicht mag. Die Stauchung lässt sich eben in einem Integer-Wertebereich nicht so linearisieren, dass sie einer 16-235- Wave gleichkommt.

Visuell liefert m.E. die 0-255-Aufnahme das bessere Ergebnis bzw. die bessere Ausgangssituation für bessere Ergebnisse. Also durchaus mehr Realität. Was aber akribische Nacharbeit bedeuten kann. Pauschal auf 16-235 stauchen hieße, die Vorteile gerade nicht nutzen und das Ziel verfehlen.

Insgesamt ist das wohl aufnahme-/motiv-/belichtungsabhängig.

Beispiel: In einem Clip existieren weder Tiefen noch Lichter. Kommt häufig vor. Die 0-255-Aufnahme muss gar nicht gestaucht werden. Alles im sichtbaren Bildbereich vorhanden. Sie wird gegenüber der 16-235-Aufnahme wohl das bessere Bild liefern, weil der Luma-Bereich breiter ist, in dem sich das eigentliche Motiv befindet. Folge: technisch perfekt (nicht gestaucht), jedoch mehr Farben, mehr Details, also mehr Realität in diesem Fall.

Beste Grüße,
Reiner



Antwort von wolfgang:

Nein nicht jede NLE schneidet automatisch Superweiss weg. Denn womit meinst du hat dir der sehr geduldige User viramedia extra für dich (!) die Files mit einmal 0..255 und einmal mit 16..235 erstellt und ins Netz gestellt? Na mit dem Hex editor sicher nicht. Es gibt also NLEs die es wahlweise so oder so können und machen.

Ich habe sehr wohl verstanden was der Kollege will. Es steht dir ja frei die hier gewünschten Tests zu machen wenn dir das auch klar ist.

Mich interessieren die Fragestellung von ihm eher weniger. Einfach weil ich nicht von der altmodischen Denke ausgehe dass man koste was wolle die Endausgabe auf 16..235 den Lumabereich beschränken muss. Ich verstehe dass ich für die meisten meiner Zwecke sehr wohl in 16..255 filmen, schneiden und ausgeben kann - und dann habe ich seine Fragestellung halt eher selten. Und für andere wenigen werden die meist wenigen Hochtöner halt mal beschnitten oder gestaucht - denn so dominant sind die maximal bei Winterlandschaften oder in der Wüste. Und bei 10bit hört sich das eh ziemlich alles auf.

Zu vergessen warum wir das überhaupt diskutieren heisst halt das eigentliche Problem ignorieren. Und das ist lediglich das Vermeiden von Clipping.

Aber jemand der sich schon vom Wort Superweiss fürchtet - der einfach nur dagegen ist - na der wird das halt aufgrund seiner Emotionalität tatsächich nicht verstehen können.



Antwort von wolfgang:

Wenn der Lumabereich eher schmal ist - was oft vorkommt - wird man entweder beim Filmen bereits den Bereich verbreitern; was die bessere Wahl ist. Sonst hat man weder was vom nicht genutzten Luma Bereich noch einen ausreichenden Kontrast. Das geht auch mit flachen Gammakurven in die man eingreifen kann recht gut. Oder man muss sich den Kantrast in der Postpro holen - aber dann hat man halt nur den schmalen Lumabereich. Aufdehnen ohne ins Clipping zu kommen ist daher meist der bessere Weg.



Antwort von dienstag_01:

Denn womit meinst du hat dir der sehr geduldige User viramedia extra für dich (!) die Files mit einmal 0..255 und einmal mit 16..235 erstellt
Das mit 0-255 hab ich wohl verpasst ;)
Zumindest ist das File, was so heisst, einfach 16-235.
Wird dir aber nicht auffallen. Dem Kollegen von dir ist das aber schon bewusst, darüber denk mal nach.



Antwort von WoWu:

schon die gh2 macht 16-255, 1. korrekturschritt in premiere, das auf 235 runterziehen.

jedoch bin ich auch bei wowu, ein mapping in 8bit, ist auch nicht das wahre.

mich würde ein vergleich interessieren, welche methode bringt mehr bild-qualität/(-realität?) 0-255 zu 16-235 oder direkt 16-235 oder wie verhält sich der gewinn an werten gegenüber der distortion der werte durchs mapping?

lg

srone

Gegenfrage: welchen Vorteil bring eine "theoretische" Erweiterung des Werftenbereiches, die man hinterher wieder staucht ?

Und "Superweiss" gibt es nur da, wo eine falsche Signalisierung stattfindet, denn in 709 ist FullWell auf 235 gemapped.Und woher soll das zusätzliche Weiss kommen ? Das entsteht nur da, wo Monitoren nicht signalisiert wird, dass sie 709 bekommen und dann auch 255 brauchen, um weiss zu werden.
Und ob die Kameras wirklich mehr Werte erzeugen, denn die können sie ohnehin erst ab 240 erzeugen, denn bis dahin geht Chroma von 709, das steht noch auf einem andern Blatt.
Es kann ebenso gut sein, dass die Kameras nur anders mappen.

Und weil unsern Content Kunden auf TV Geräten zu sehen bekommen, die das Signaling richtig verstehen, machen wir Bilder, die garantiert auch beim Kunden gut ankommen.
Und wenn dann jemand mit einer Computergurke schaut, die die Programmstromheader nicht richtig auslesen, soll uns das recht sein.

Also: es gibt einen Standard, der seit nun rd. 20 Jahren bestens funktioniert und ich habe noch keine schlagenden Gründe gefunden, davon abzuweichen.
Speziell nicht, weil weiss nicht weisser wird und nicht klar ist, ob man überhaupt zusätzliche Farbwerte bekommt.
Und wenn ich das möchte, dann mache ich x.v.YCC, da hat man nämlich wieder die richtige Signalisierung im DatenstromDatenstrom im Glossar erklärt und erhält auch mehr Chromawerte .. und ist sogar noch kompatibel zu 709.
Es gibt also für Beides eine anständige Lösung.

Alles andere ist, in meinen Augen, ziemliches Gebastelt.



Antwort von Reiner M:

Aufdehnen ohne ins Clipping zu kommen ist daher meist der bessere Weg.

Die Lösungswege für mein Beispiel in der Post sind klar, Wolfgang.
Bei einer 0-255-Aufnahme muss ich in diesem Fall aber weniger spreizen, habe mehr Details im Bild und werde auch dann das bessere Ergebnis erzielen. Es ging ja nur um den Unterschied, nicht um Problemlösungen.

Ich denke, dass diejenigen, die ihre 0-255-Aufnahmen ohne Rücksicht auf die Waverform und auf das Motiv auf 16-235 stauchen - oder womöglich sogar hart beschneiden! -, die Vorteile, die in ihren Aufnahmen stecken, zerstören, bevor sie nutzbringend verwendet werden können. Wenn sie wissen, was sie da tun und mit dem Ergebnis zufrieden sind, ist alles gut. Der Kunde oder Konsument weiß eh nicht, dass ein anderes Ergebnis hätte erzielt werden können. ;)

Beste Grüße,
Reiner



Antwort von Blackeagle123:

Kann mir mal einer erklären, seit wann wir für Web 16-235 brauchen?
Youtube und Vimeo erwarten doch wohl RGBRGB im Glossar erklärt von 0-255, abesten als h.264 oder täusche ich mich?

Auf welchem Level arbeitet Premiere intern, also was sind dort im Waveform "100%"? Was exportiert Premiere, wenn man eine Standard mpeg2 exportiert? RGBRGB im Glossar erklärt oder 601/709?

Viele Grüße!



Antwort von dienstag_01:

Kann mir mal einer erklären, seit wann wir für Web 16-235 brauchen?
Schon immer.
Premiere gibt auch in 601/709 aus.

So sind die Prinzipien. Der Teufel steckt, wie immer, im Detail ;)



Antwort von WoWu:

Ich verstehe sowieso die ganze Aufregung nicht, denn selbst wenn man 255 übertragen würde, hat man noch keinen einzigen zusätzlichen Farbwert, weil man sich noch im selben Farbraum bewegt.
Benutzt man x.v.YCC hingegen, hat man 1,8 mal soviele Farbwerte weil man sich in einem erweiterten Farbraum beweg. Ausserdem hat man standardisierte Signalisierenden, die auch der AVC-Codec unterstützt.

Diese Werteerweiterung von 240 auf 255 ist nicht anderes, als ein Mappen innerhalb der Tabelle, die nirgend korrekt signalisiert wird, keinen einzigen zusätzlichen Farbwert bringt und zu etlichen Problemen führt.
Was diese "Bastelei" eigentlich soll, kann vermutlich auch keiner sinnvoll begründen. ... Das ist einwenig wie "möglichst viele Pixels"...



Antwort von dienstag_01:

Diese Werteerweiterung von 240 auf 255 ist nicht anderes, als ein Mappen innerhalb der Tabelle, die nirgend korrekt signalisiert wird, keinen einzigen zusätzlichen Farbwert bringt und zu etlichen Problemen führt.
Naja, eigentlich könnten die GH4 Besitzer mal posten, was Panasonic ihnen dazu ins Manual geschrieben hat.



Antwort von WoWu:

You can set the luminance range for motion pictures. When you combine multiple materials into a single motion picture, set a range that covers all materials.
MENU > > Settings: //

This function works only for motion pictures. Still pictures (including those you take during motion picture recording) will be taken with .
• When is set to or , in will switch to .
Aber das ändert ja nichts daran, dass sie keinen erweiterten Farbraum haben, weil 255 nicht gleich einem grösseren Farbraum entspricht.
Dann doch lieber x.v.YCC, da hat man wenigstens ein weiteres Farbspektrum.
Das hier sorgt nur dafür, dass Weiss an einen andern Wert gemapped wird.



Antwort von VideoUndFotoFan:

Natürlich hat man einen Vorteil, wenn man in 0-255 filmt.

Beispiel: Filme ich in 16-235 und habe dann bei ungünstigemLicht einige Aufnahmen, die zu wenig Helligkeitsdynamik haben und somit zu flau aussehen, dann möchte ich diese nachträglich verbessern. Ziehe ich diese aber auf, dann verschlechtert sich die Bildqualität und ich bekomme ggf. auch noch Banding ins Bild.

Filme ich aber in 0-255, dann ist die Helligkeitsdynamik in der Aufnahme bei gleichem Motiv bereits höher. So muß ich bei der Endausgabe 16-253 gar keine Dynamik aufziehen, sondern nur die "unbelichten" Teile bei Weiß und Schwarz "abschneiden".

Klar, daß ich bei allen gut belichteteten Clips dafür aber die Helligkeitsdynamik verringern muß, aber die Luminanz-Dynamik zu verringern bringt keine Bildqualitätsverschlechterung und auch kein Banding.

Also: Selbst wenn die GH4 in einem Clip mal tatsächlich den ganzen Bereich von 0-255 ausnutzt bringt eine Änderung auf 16-235 (oder 241) keine Verschlechterung.
Filme ich aber gleich in 16-235, und muß dann die LuminanzLuminanz im Glossar erklärt aufziehen (sprich die Luminanz-Dynamik erhöhen), weil die GH4 das Motiv zu flau belichtet hat, dann verschlechtert sich die Bildqualität sehr wohl (im schlimmsten Fall handle ich mir dadurch sogar Banding ein).

Also filme ich grundsätzlich mit 0-255 (wenn's die Cam denn möglich macht), und habe somit immer Bearbeitungsreserve (ohne Gefahr von Bildqualitätsverlusten, weil ich die Luminanz-Dynamik immer nur verringern (oder abschneiden oder auch nur im Schwerpunkt verschieben) muß.



Antwort von WoWu:

Das ist leider ein Trugschluss, weil FullWell des Sensors die Dynamik bestimmt und der Wert ist einmal auf 235 gemapped und das andere Mal auf 255. Die Dynamik ist in beiden Fällen identisch denn die wird nicht durch das Mapping bestimmt.

Aber andere Frage ... wenn Du mehr Werte haben möchtest, warum benutzt Du nicht x.v.YCC, da hast Du auch gleich noch einen erweiterten Farbraum mit fast doppelt so vielen Farbwerten ?
Warum das Gebastelt, was gar nix bringt ?



Antwort von srone:

was dann bedeuten würde, es findet lediglich eine spreizung des "übertragungsweges" statt?

lg

srone



Antwort von WoWu:

Letztlich..ja.
Mir ist nur nicht klar, ob sie da YCbCr nehmen oder RGB. letzteres hätte ja auch noch andere Auswirkungen z.B. auf die IntDCT, die in AVC benutzt wird, aber ich denke, dass sie schon den Vorteil der neuen DCTDCT im Glossar erklärt nutzen werden und damit bei YCbCr bleiben.
Man müsste so ein Signal mal untersuchen, was sie da eigentlich machen.
Mich würde auch interessieren, was sie an die Folgegeräte (bzw. Player) im DatenstromDatenstrom im Glossar erklärt signalisieren (und wer das verstehen soll, denn 16-255 ist kein normiertes Format).
Ich hatte mal bei Panasonic angefragt, was in welchen Bits signalisiert wird ... aber das konnte mir auch keiner sagen.

ich versteh den Hype darum nicht, denn keine neuen Farbwerte, umgemappte Luma- und vermutlich auch Farbwerte- und das alles ... wofür ?

Es gibt zwei standardisierte Verfahren für Video: 709 und x.v.YCC und wer mehr Werte in den Tabellen braucht, (wobei sich bei 8 BitBit im Glossar erklärt die Frage stellt, warum), kann 10 BitBit im Glossar erklärt nehmen.



Antwort von Reiner M:


Auf welchem Level arbeitet Premiere intern, also was sind dort im Waveform "100%"?

Zu den Premiere Pro - Fragen:

YC-Waveform

Es gibt im YC-Waveform-Monitor von Premiere keine 100%.

Angezeigt wird für Videos, die auf PALPAL im Glossar erklärt basieren, eine Skala mit Volt-Werten. Der sichtbare Bildbereich, also dass was über einen Software-Player auf dem Monitor oder auf einem TV zu sehen ist, befindet sich zwischen 0,3 V und 1V. Das entspricht (verkürzt auf Y ausgedrückt) Y(16-235).

Cams, die irgendwas Y > 235 aufzeichnen (verkürzt ausgedrückt: 0-255, aber eben Y, nicht RGB) produzieren Bildanteile oberhalb 1V. Will man diese Bildanteile sichtbar machen, muss man sie nach unten drücken, unter die 1V-Linie.

Die selbe Skala wird automatisch statt in Volt in »IRE« angezeigt, wenn das Video einer NTSC-basierten Quelle entspringt. Das kann nicht händisch umgestellt werden.

Interne RGB-Speicher

Intern wird in Premiere Pro das dekodierte Videobild von YCbCr in 32bit-Float-RGB-Speicher gemappt. Der sichtbare Bildbereich für den Monitor befindet sich zwischen RGBRGB im Glossar erklärt (0,0/0,0/0,0) und RGBRGB im Glossar erklärt (1,0/1,0/1,0). Dahinein wird der sichtbare Y-Bereich (Y16 - Y235) zusammen mit den Chrominanzwerten nach RGBRGB im Glossar erklärt umgerechnet.

Die Werte Y > 235 führen in Premiere Pro zu RGB-Werten größer 1,0, was erlaubt ist. Dadurch gehen sie nicht verloren und stehen folgenden Manipulationen (Effekte) zur Verfügung. Jedoch: Sie sind zwar vorhanden, aber eben nicht sichtbar. Nicht auf dem Monitor und nicht in einem Video, dass mit diesen Informationen exportiert wird.

Für die Ausgabe auf den Vorschau-Monitor wird der Bereich RGB(0,0) bis RGB(1,0) nach RGBRGB im Glossar erklärt 0-255 umgerechnet. Geht nicht anders.

Beim Export wird der gesamte RGB-Speicher (inkl. Werte > RGBRGB im Glossar erklärt 1,0) nach YCbCr umgerechnet. Aus RGBRGB im Glossar erklärt (1,0/1,0/1,0) wird Y235.

Der RGB-Paraden-Monitor

Der RGB-Paraden-Monitor in Premiere Pro besitzt eine Skala von 0 bis 100.
Auch das ist nicht Prozent. Da sich abhängig von der Bearbeitung (genutzte Effekte) und der Quellen dahinter konkrete 8bit- oder 32bit-Werte befinden können, ist das neutral gekennzeichnet. "100" meint also entweder RGBRGB im Glossar erklärt 255 oder RGBRGB im Glossar erklärt 1,0.

Workflow

Es ist immer zu unterscheiden, in welchem Speicherbereich sich Daten befinden. Ein simpler Video-Clip liegt ja in mehreren Speichern gleichzeitig vor (z. B. nicht dekodiert: Import / dekodiert und bearbeitbar : YCbCr / intern: RGBRGB im Glossar erklärt 32bit und RGBRGB im Glossar erklärt 8bit usw.)

Was man im Workflow wann wie tut (an welchen Stellen wird eingegriffen) und auf welche Monitore man sich dabei verlässt, wirkt sich unmittelbar auf die Bildqualität aus.

Erschwerend kommt hinzu, dass die Importer Quellen beim Import ins Programm typgerecht interpretieren. Für unterschiedliche Quellen gibt es unterschiedliche Importerprogramme (läuft alles automatisch, nicht drüber nachdenken). So werden beispielsweise Bilder anders behandelt als Videos. Und bei Videos hängt es davon ab, ob sie PALPAL im Glossar erklärt oder NTSCNTSC im Glossar erklärt sind. Bei allen ist es zudem ein gravierender Unterschied, oder ob ihnen eine explizite Farbraumbeschränkung mitgegeben ist (beispielsweise 16-235) oder nicht (embedded Profile).

Fotos und Grafiken

Deshalb brauchen Fotos, Grafiken usw. üblicherweise nicht vorweg reduziert zu werden. Sie sollten auch nachträglich im Videoprogramm nicht auf 16-235 getrimmt werden, wenn man sie schließlich möglichst originalgetreu im Video sehen möchte.

Der Importer weiß, dass der gesamte Farbraum des Bildes, also eben das Bild, im sichtbaren Bereich liegen muss und mapped ihn im Videoprogramm zwischen RGBRGB im Glossar erklärt 0,0 und RGBRGB im Glossar erklärt 1,0 (oder RGBRGB im Glossar erklärt 0-255).

Betrachtet man das Foto im YC-Wavemonitor, liegt es genau zwischen 0,3V und 1,0V (was Y16-235 meint), also eben im sichtbaren Video-Bildbereich.

Wer solche Bilder, Grafiken etc. nachträglich im Videoprogramm auf 16-235 trimmt, also nochmal staucht, zerstört Bildinhalte. Falls das aber gewünscht oder nötig ist, wäre der richtige Ort für die Korrektur des Bildes im Workflow ein Bildbearbeitungsprogramm wie Photoshop (weshalb auch Photoshop mit den Videoprogrammen Premiere Pro und After Effects integriert arbeitet).

Beste Grüße,
Reiner



Antwort von srone:

danke wowu, setzt den begriff "hersteller-processing" für mich in ein neues licht.

lg

srone



Antwort von dienstag_01:

"100" meint also entweder RGBRGB im Glossar erklärt 255 oder RGBRGB im Glossar erklärt 1,0.
235. Wie sollte denn bei Luma 235 bei RGBRGB im Glossar erklärt 255 rauskommen?



Antwort von WoWu:

@ srone
Tja mal sehn ...

@Reiner
Unterabgetastete Werte erzeugen in RGBRGB im Glossar erklärt Illegale Farben weil die schwarzen Werte, wie in dem Beispiel "positiv" Rot, "negativ" Grün und "negativ" Blau.
haben.
Du hast zwar geschrieben, sie könnten nicht dargestellt werden, aber Auswirkung kommt in Deiner Beschreibung einwenig kurz.



Antwort von srone:

"100" meint also entweder RGBRGB im Glossar erklärt 255 oder RGBRGB im Glossar erklärt 1,0.
235. Wie sollte denn bei Luma 235 bei RGBRGB im Glossar erklärt 255 rauskommen?

gespreizt/gemapped, wie auch immer.

lg

srone



Antwort von dienstag_01:

gespreizt/gemapped, wie auch immer.
Vor allem: wie auch immer ;)
Der Wert RGB255 besagt, dass Rot, Grün und Blau mit einer LuminanzLuminanz im Glossar erklärt von 255 vorliegen. Das passt nur gaaaaaaaaanz grob zur LuminanzLuminanz im Glossar erklärt von 235.

Es ist wie immer, der Farbraum und die Anzeige am Computer, das macht noch unsere Besten konfus ;)



Antwort von Reiner M:

"100" meint also entweder RGBRGB im Glossar erklärt 255 oder RGBRGB im Glossar erklärt 1,0.
235. Wie sollte denn bei Luma 235 bei RGBRGB im Glossar erklärt 255 rauskommen?

Es gibt eben einen gravierenden Unterschied ziwschen YCbCr und RGB: Sie enthalten keineswegs identische Werte! Wie sollten sie auch?

Identische "Zahlen" durchaus, aber die "Werte" haben völlig unterschiedliche Bedeutung.

RGB kennt keinen Luminanz-Kanal, und nur 3 statt 4 Farben. Die Umrechnung LuminanzLuminanz im Glossar erklärt + Cb + Cr nach RGBRGB im Glossar erklärt Rot/Grün/Blau wird nach standardisierten Matrizen mit definierten Koeffizienten vorgenommen. Und niemals 1:1. Hier greift die Matrix yuv2rgb-full.

Diese Standard-Verfahren sind das, was "mapping" meint. Es sind komplizierte Umrechnungen, und die werden beispielsweise selbstverständlich auch von Software-Playern für die Video-Wiedergabe am PC genutzt. Geht nicht anders. ;)

Reiner



Antwort von WoWu:

Wobei sich darin schon der nächste Fehler verbirgt, weil in den Wandlungen in erster Linie, mit dem Lumawert und nicht mit der LuminanzLuminanz im Glossar erklärt, also nicht in einem linearen Umfeld gerechnet wird. Daraus resultiert dann, dass PixelPixel im Glossar erklärt mit einem positiven Wert heller erscheinen, als sie sein dürfen.
Statt also mit den "komplizierten" Umrechnungen zu arbeiten, die eigentlich nur Näherungsformeln sind, sollte man erst mal das GammaGamma im Glossar erklärt entfernen und erst anschliessend die Berechnungen vornehmen. Das GammaGamma im Glossar erklärt kann dann durch Investierung der Formel wieder aufgebracht werden.

Also, so toll ist die ganze Umrechnung nicht und weicht an allen Ecken und Kanten vom Original ab.



Antwort von dienstag_01:

Reiner, du kannst umrechnen was du willst, RGB255 ist LuminanzLuminanz im Glossar erklärt 255 und nicht LuminanzLuminanz im Glossar erklärt 235. Für YCbCr gibt es einen extra Monitor.

Ich hab dir ja schon vor längerer Zeit mal geschrieben, lade dir spasseshalber mal Avid runter, die nehmen nämlich die Lumawerte zur Skalierung und man sieht eindeutig die Zusammenhänge. So wie du das machst interpretierst du dir deine Skalen nur solange zurecht, bis sie in dein Bild passen (Premiere schreibt eben nicht die Lumawerte an die Skala, wohl wissend, das die nicht mit ihrer Anzeige auf dem Computermonitor korropondieren (würden).)



Antwort von Reiner M:

@ srone
Tja mal sehn ...

@Reiner
Unterabgetastete Werte erzeugen in RGBRGB im Glossar erklärt Illegale Farben weil die schwarzen Werte, wie in dem Beispiel "positiv" Rot, "negativ" Grün und "negativ" Blau.
haben.
Du hast zwar geschrieben, sie könnten nicht dargestellt werden, aber Auswirkung kommt in Deiner Beschreibung einwenig kurz.

Die Bereiche außerhalb des sichtbaren Bildbereichs sind im Video unsichtbar (negative RGB-Werte oder solche > 1,0).
Erst dann, wenn sie in den sichtbaren Bildbereich gedrückt werden (ihre Luma-Werte werden verändert) entstehen echte Bildinformationen (videotechnisch legale Luminanzwerte) und unterwegs selbstverständlich legale Farben.
Da es sich aber um diskrete Ausgangwerte handelt (vor RGB! In der Aufnahme tatsächlich enthalten) gewinnt das Video an Bildinformationen (Details/und oder Farben).

Reiner



Antwort von Reiner M:

Reiner, du kannst umrechnen was du willst, RGB255 ist LuminanzLuminanz im Glossar erklärt 255 und nicht LuminanzLuminanz im Glossar erklärt 235. Für YCbCr gibt es einen extra Monitor.

Folgt man Deiner Annahme, hieße dass: Kein Video kann es schaffen, auf einem PC-Monitor RGB-Werte (egal in welchem Kanal) größer 235 zu produzieren ... ;) Und die ganze 16-235 Diskussion wäre eh obsolet.

Wäre echt schade, wenns so wäre. ;)

Beste Grüße,
Reiner



Antwort von dienstag_01:

Folgt man Deiner Annahme, hieße dass: Kein Video kann es schaffen, auf einem PC-Monitor RGB-Werte (egal in welchem Kanal) größer 235 zu produzieren ... ;) Und die ganze 16-235 Diskussion wäre eh obsolet.

Wäre echt schade, wenns so wäre. ;)
JEDES standardkonforme Video ist 16-235 und wird von Softwareplayern auf 0-255 gemapped (sehen wir mal von den Fehlinterpretationen der Player ab, die gibt es). Und das ist keine Annahme, sondern Fakt.



Antwort von WoWu:

Erst dann, wenn sie in den sichtbaren Bildbereich gedrückt werden (ihre Luma-Werte werden verändert) entstehen echte Bildinformationen
von "magischer" Hand ?
Was sollte denn die Werte noch verändern, dass sie zu sichtbaren Informationen werden ?



Antwort von Blackeagle123:

Wenn im Web auch 601/709 erwartet wird, was passiert dann, wenn ich RGBRGB im Glossar erklärt im Web hochlade? Bisher hat das immer sehr gut funktioniert! Und ich dachte, wenn es um PC/ Web geht, dass ich hier RGBRGB im Glossar erklärt hochladen sollte. Habe ich aus Avid in 601/709 exportiert, sahen die Videos flau aus.



Antwort von dienstag_01:

Wenn im Web auch 601/709 erwartet wird, was passiert dann, wenn ich RGBRGB im Glossar erklärt im Web hochlade? Bisher hat das immer sehr gut funktioniert! Und ich dachte, wenn es um PC/ Web geht, dass ich hier RGBRGB im Glossar erklärt hochladen sollte. Habe ich aus Avid in 601/709 exportiert, sahen die Videos flau aus.
Verstehe ich richtig, dass du mit DNxHDDNxHD im Glossar erklärt an Sorenson übergibst?
Wenn deine Korrektur normal in 709 (16-235) stattgefunden hat, ist RGBRGB im Glossar erklärt richtig. Es bleibt aber 16-235 ;)



Antwort von Reiner M:


JEDES standardkonforme Video ist 16-235 und wird von Softwareplayern auf 0-255 gemapped (sehen wir mal von den Fehlinterpretationen der Player ab, die gibt es). Und das ist keine Annahme, sondern Fakt.

Genau!

Aber was meinst Du denn nun wirklich? Eben noch schriebst Du das Gegenteil:

Reiner, du kannst umrechnen was du willst, RGB255 ist LuminanzLuminanz im Glossar erklärt 255 und nicht LuminanzLuminanz im Glossar erklärt 235.

Wird nun aus Y16-235 ein RGB-Bereich 0-255, oder doch nicht? ;)

Ich halte Deine neue Aussage für besser.
Es wird gemapped, anhand von definierten Standard-Verfahren. Und zwar vorwärts wie auch rückwärts.

Für den Wokflow ist es deshalb sehr wichtig zu verstehen, wo was wie greift, abhängig von NLEs, Einstellungen und Effekten. Man sollte YC-Werte und RGBRGB im Glossar erklärt nicht durcheinanderwerfen.

Reiner



Antwort von dienstag_01:

Wird nun aus Y16-235 ein RGB-Bereich 0-255, oder doch nicht? ;)
Diese Aussage ist und bleibt falsch.
Wenn von 16-235 nach 0-255 gemapped wird, dann betrift das die LuminanzLuminanz im Glossar erklärt des Bildes. Es kann nur beides 16-235 oder beides 0-255 sein, nicht das eine das, das andere jenes.

Dein Bild liegt in Premiere in 16-235 vor (Luma und RGB) und wird in der ANZEIGE nach 0-255 gemapped.
Is so.
Gibt auch andere NLEs, die das Mapping nicht machen. Da muss es aber eine Methode geben, das zuzuschalten (über Filter o.ä.), sonst könnte man auf einem Computermonitor nicht arbeiten. Premiere schaltet standardmäßig das Mapping an.



Antwort von Reiner M:

Erst dann, wenn sie in den sichtbaren Bildbereich gedrückt werden (ihre Luma-Werte werden verändert) entstehen echte Bildinformationen
von "magischer" Hand ?
Was sollte denn die Werte noch verändern, dass sie zu sichtbaren Informationen werden ?

Bitte? Meinst Du das jetzt ernst? ;)

Die Veränderung findet z.B. durch Stauchen der Luma-Kurve statt. Nicht von "magischer" Hand, sondern von der Hand dessen, der das Video im NLE vorliegen hat. Er nutzt geeignete Effekte. Es gibt unterschiedliche Werkzeuge dafür. Darum geht es hier doch die ganze Zeit. ;)

Aus meiner Sicht ist das pauschale Stauchen auf 16-235 kein gutes Werkzeug.

Wer das aber gar nicht macht, verzichtet eben darauf. Auch gut. Ganz sicher ist Nicht-machen nicht der optimale Workflow, wenn ich schon eine Cam habe, die 0-255 bietet und damit Vorteile.
Der größte Teil der Cams am Markt dürfte inzwischen so arbeiten, seit vielen Jahren gibts das. Das ist alles nichts Neues. ;)

Beste Grüße,
Reiner



Antwort von WoWu:

Wie bitte machst Du aus illegalen Farben durch "Stauchung" legale Farben ? (Und was soll "Stauchung" sein, welcher Rechenprozess verbirgt sich dahinter)?

Aber wir drehen uns mal wieder im Kreis.
Alles klar.
Jeder soll die Kamera benutzen, mit der er klar kommt ... mit allen Überraschungen, die sich so einstellen.



Antwort von Reiner M:


Diese Aussage ist und bleibt falsch.
Wenn von 16-235 nach 0-255 gemapped wird, dann betrift das die LuminanzLuminanz im Glossar erklärt des Bildes. Es kann nur beides 16-235 oder beides 0-255 sein, nicht das eine das, das andere jenes.

Mach Dich mal über die Umrechnung YUVYUV im Glossar erklärt nach RGBRGB im Glossar erklärt schlau. Du wirst zahlreiche Formeln, Tabellen und Matrizen finden, die dir zeigen, wie tatsächlich umgerechnet wird.

Aber paar Praxistest (Du hast ja Pr und Ae):

Leider hat Premiere Pro keinen Colorpicker. Aber After Effects. Die Mimik ist dort die selbe wie in Premiere Pro. Einziger Unterschied: In AE musst Du das Projekt auf 32bit umstellen, was bei Premmiere Pro der Standard ist. Dann funktioniert es identisch.

Der AE- "Colorpicker" zeigt Dir nicht die RGB-Werte der Monitor-Ausgabe, sondern die im internen RGB-Speicher, der für das Processing verwendet wird. Da schau mal rein. Du wirst Werte angezeigt bekommen, die Dein Monitor ganz sicher nicht darstellen kann. RGB-Werte. Die DEINER Meinung nach von einem Video gar nicht produziert werden können. Höchstens in der Monitor-Ausgabe. ;)

In Premiere Pro bleibt nur der Blick in die RGB-Parade. "100" meint dort RGBRGB im Glossar erklärt 1,0 bzw. RGBRGB im Glossar erklärt 255. Nichts anderes. Hast Du Werte zwischen 90 und 100? (entspräche so ungefähr RGBRGB im Glossar erklärt 236-255).

Reiner



Antwort von Reiner M:

Wie bitte machst Du aus illegalen Farben durch "Stauchung" legale Farben ? (Und was soll "Stauchung" sein, welcher Rechenprozess verbirgt sich dahinter)?

Wolfgang, lies bitte in Ruhe noch mal diesen Thread. Da ist m. E. alles wunderbar erklärt. ;)

Jeder soll die Kamera benutzen, mit der er klar kommt ... mit allen Überraschungen, die sich so einstellen.

Da bin ich voll bei Dir.
Nur sollte er auch mit den Werkzeugen in der Post klar kommen. Wenigstens soweit, dass "gute" Videos dabei rauskommen (was immer dieser subjektiv gefärbte Begriff für ihn auch meint).

Beste Grüße,
Reiner



Antwort von dienstag_01:

Reiner, du willst wieder mal die Realität nicht wahrhaben.
Rec709 beschreibt auch für RGBRGB im Glossar erklärt 16-235. Vollkommen unabhängig von deiner Umrechnung.

Aber, damit du mal begreifst, was im Hintergrund deines geliebten AE so alles passiert: Neues Projekt, 8bit (reicht), ohne Farbmanagment, weisse Farbfläche auf Layer: RGB255. Jetzt schalte mal Farbmanagment ein: 709 16-235. Und jetzt schau mal, was dein Picker anzeigt. Ist das Weiss anders geworden? Hier kannst du lernen, was Mapping bedeutet.

Edit: Sorry, funktioniert scheinbar nicht mit Farbflächen, musst ein Video nehmen. Kannst du dir ja aus Premiere hohlen.

Edit: was aber schön geht, in AE zwei Farbflächen übereinander, RGB255 und RGB235 und dann Farbmanagment an (709 16-235).



Antwort von Reiner M:

Wobei sich darin schon der nächste Fehler verbirgt, weil in den Wandlungen in erster Linie, mit dem Lumawert und nicht mit der LuminanzLuminanz im Glossar erklärt, also nicht in einem linearen Umfeld gerechnet wird. Daraus resultiert dann, dass PixelPixel im Glossar erklärt mit einem positiven Wert heller erscheinen, als sie sein dürfen.
Statt also mit den "komplizierten" Umrechnungen zu arbeiten, die eigentlich nur Näherungsformeln sind, sollte man erst mal das GammaGamma im Glossar erklärt entfernen und erst anschliessend die Berechnungen vornehmen. Das GammaGamma im Glossar erklärt kann dann durch Investierung der Formel wieder aufgebracht werden.

Wie die Entwickler von Applikationen, die Videos an RGB-Geräten ausgeben, das umsetzen, ist sicher noch einen Tick komplexer. Nicht umsonst unterscheiden sich die Ausgaben diverser Player auf dem selben PC. Die Umrechnung von YUVYUV im Glossar erklärt nach RGBRGB im Glossar erklärt ist aber der entscheidenende Teil. Kommt man nicht dran vorbei.

Also, so toll ist die ganze Umrechnung nicht und weicht an allen Ecken und Kanten vom Original ab.

Mag ja sein, aber seit Anbeginn aller Zeiten, seit dem die Bildausgabe von YC nach RGBRGB im Glossar erklärt nötig wurde, eben das Verfahren dafür. Ohne Umrechnung gehts eben nicht.

Was aber auch nicht schlimm ist. Die ganze Videobearbeitung lebt von Kompromissen und vom "Versuch", ein wirklichkeitsgetreues Bild zu erzeugen. Da weicht doch jede Aufnahme "an allen Ecken und Kanten vom Original ab.". Und zwar heftig, oder?;)

Beste Grüße,
Reiner



Antwort von srone:

Was aber auch nicht schlimm ist. Die ganze Videobearbeitung lebt von Kompromissen und vom "Versuch", ein wirklichkeitsgetreues Bild zu erzeugen. Da weicht doch jede Aufnahme "an allen Ecken und Kanten vom Original ab.". Und zwar heftig, oder?;)

Beste Grüße,
Reiner

sowieso:-), jedoch für mich am ehesten die frage, wie nehme ich einfluss darauf bzw kontolliere dies?

lg

srone



Antwort von Reiner M:

Reiner, du willst wieder mal die Realität nicht wahrhaben.
Rec709 beschreibt auch für RGBRGB im Glossar erklärt 16-235. Vollkommen unabhängig von deiner Umrechnung.

Bitte Dienstag. Informiere Dich einfach über die Basics ... z. B. yuv2rgb

Aber, damit du mal begreifst, was im Hintergrund deines geliebten AE so alles passiert: Neues Projekt, 8bit (reicht), ohne Farbmanagment, weisse Farbfläche auf Layer: RGB255. Jetzt schalte mal Farbmanagment ein: 709 16-235. Und jetzt schau mal, was dein Picker anzeigt. Ist das Weiss anders geworden? Hier kannst du lernen, was Mapping bedeutet.

Edit: Sorry, funktioniert scheinbar nicht mit Farbflächen, musst ein Video nehmen. Kannst du dir ja aus Premiere hohlen.

Ach!!! ;)

Farbmanagement! ... Etliche verstehen es noch nicht mal in Photoshop ...
(was aber auch nicht schlimm ist)

Ich hatte weiter oben beschrieben, dass es einen gravierenden Unterschied macht, wenn eine Quelle ein embedded Profile besitzt. Das gilt auch, wenn Du einen Farbraum in AE erzwingst.
Dienstag, das ist Technik für Fortgeschritttene. Bitte lass' uns das hier, an dieser Stelle, nicht vertiefen! Ich fürchte, dann sind wir allein ...

Die Auswirkungen hängen von beliebig kombinierbaren Zuständen der Quell- und Zielfarbräume ab und würden endlose Diskussionen zur Folge haben. (z. B. Was passiert, wenn ein Video explizit auf REC.709 (16-235) kodiert ist (kann man nämlich machen) und nicht nur auf REC.709 (wie die meisten, die so vorliegen)? Und was ist da eigentlich der Unterschied? Was passiert dann, wenn dann noch der Farbraum umgestellt wird, und was passiert mit Fotos (Photoshop kann auch Fotos als REC.709 (16-235) speichern!)) und Farbflächen und wieso ist eigentlich alles so flau oder sowieso anders als ich dachte? ... ;)

Genau vor solchen Auswirkungen möchte ich die Warnen, die Ihr Y(!)) 0-255 Video pauschal auf Y(!)16-235 trimmen. Egal ...

Gerne biete ich Dir einen Wokshop dazu an. Lass' uns zusammensitzen und das Stück für Stück in Ae angehen. Vielleicht wird dann manches klarer. Gerne lerne ich umgekehrt was von Deinem Avid. Komm mal vorbei.

Beste Grüße,
Reiner



Antwort von dienstag_01:

Reiner, hier geht es nicht um Fortgeschrittene, sondern um Grundlagen.
Du behauptest, eine weisse Farbfläche kann GLEICHZEITIG den Lumawert Y=235 haben und RGB255. Das ist Unsinn. Da du aber in den Adobeapplikationen mit dieser Annahme gut arbeiten kannst, bitte, mach es.
Falsch bleibt sie trotzdem.
Sobald du aber in den Austausch mit anderen Applikationen trittst, kommst du mit deiner zurechtgebogenen Welt schnell an ihre Grenzen. Machst du nicht, ich weiss. Biste fein raus.
Wenn du es aber hier schreibst und darauf Theorien und Erklärungen aufbaust, wird es eben ganz schnell Mist.
(Letztes Jahr hatten wir hier schon mal diese Diskussion, da hat dir auch jemand die Specs für 709 als Bild gepostet. Explizit für Leute wie dich mit R16-235, G16-235 und B16-235. War scheinbar ausserhalb deines Wahrnehmungsspektrums)



Antwort von Reiner M:

Was aber auch nicht schlimm ist. Die ganze Videobearbeitung lebt von Kompromissen und vom "Versuch", ein wirklichkeitsgetreues Bild zu erzeugen. Da weicht doch jede Aufnahme "an allen Ecken und Kanten vom Original ab.". Und zwar heftig, oder?;)

Beste Grüße,
Reiner

sowieso:-), jedoch für mich am ehesten die frage, wie nehme ich einfluss darauf bzw kontolliere dies?

lg

srone

srone, das ist wohl DIE Frage schlechthin, die sich wohl alle Cam- und NLE-Hersteller, aber alle Benutzer stellen.

Es gibt wohl keine allgemeingültige Antwort. Wenn es eine gäbe, hieße sie m. E. ganz platt: Durch einen wohlüberlegten Workflow!

Sein Ziel: Das beste Verhältnis zwischen Qualität und Effizienz in der Bearbeitung schaffen. Und der Workflow hängt eben auch von den Werzeugen ab, die zur Verfügung stehen. Sie sollten an den richtigen Stellen optimal eingesetzt werden. Sehr platt, oder? Natürlich stehen dahinter konkrete Maßnahmen. Ich hatte schon angedeutet, dass ich Videos meiner Canon DSLR anders behandle als die der Panas.

Beispielsweise ist Luma-Korrektur m. E. clip-abhängig und gehört für mich in eine Pre-Post-Phase, also nach dem Grobschnitt, aber vor dem eingentlichen Schnitt. Dann nämlich fließen in der TimelineTimeline im Glossar erklärt bei der Erstellung des Ziel-Videos gut vorbereitete Assets zusammen, die sich (hoffentlich) harmonisch ergänzen werden und keinerlei "Problemstellen" (Rauschen, Verwackelungen, schlechter Ton und eben unschöne Belichtung) mehr besitzen. Das ist aber nichts Festgeschriebenes, wenns brennt im Projekt, kommts womöglich eher auf Durchsatz an als auf Qualität. Nur huddeln, das sollte dennoch nicht passieren. ;)

Beste Grüße,
Reiner



Antwort von WoWu:

@ srone

Ich hab hier mal die Lage der Kurve zu 16-255.
Das ist dem C-Log nachempfunden, also kein Standardsignal.
Das ist schon so, wie ich oben geschrieben habe, das ist ATI, um für den amerikanischen Analogmarkt die TV Zulassung zu kriegen.
Das ist also ein Zugeständnis für US-analoge TV Geräte.



Antwort von Reiner M:


Du behauptest, eine weisse Farbfläche kann GLEICHZEITIG den Lumawert Y=235 haben und RGB255. Das ist Unsinn.

Dienstag, solange Du Dich nicht über die diversen Umrechnungsverfahren YUVYUV im Glossar erklärt nach RGBRGB im Glossar erklärt schlau gemacht hast, und mir daran aufzeigst, dass aus Y16-235 niemals RGB0-255 oder RGBRGB im Glossar erklärt 0,0-1,0 gemappt werden kann, brauchen wir nicht weiterreden.

Es ist für mich nur schwer verständlich, dass Du einem Software-Player das Mapping von Y16-235 nach RGB0-255 zugestehst, aber einem NL nicht. Dabei ist die Aufgabe des NLEs, ein Bild zu erzeugen, dass später von genau diesem Player möglichst identisch gezeigt wird. Ich weiß, Du schiebst es auf die AUSGABE des Vorschaumonitors im NLE. Doch der Blick in die RGB-Parade hat mit dem Vorschau-Monitor nichts zu tun. Schau da bitte endlich mal rein.

Solange Du nicht die sehr einfachen Praxistest, die ich Dir aufgezeigt habe, durchführst und adäquat beantwortest ohne fadenscheinige Ausflüchte in besondere Konstrukte wie Profilumstellungen, die hier gar nicht zur Debatte stehen, brauchen wir nicht weiterreden. Obwohl diese Test und die Antworten sehr einfach sind.

Ich bin mir ziemlich sicher: Du hast es bemerkt! Man kann nämlich gar nicht übersehen, dass REC.709-Videos RGB-Werte bis 1,0 erzeugen und REC.709 Videos mit Signalen im HeadroomHeadroom im Glossar erklärt sogar über +1,0 nämlich bis zum Signalwert max. +1,069V aus der Luma-Wave. Und das im RGB-Speicher, nicht auf dem Monitor, der kann nämlich 32bit gar nicht anzeigen. Wie soll das also gehen? Wo kommen diese Werte her? Erklär mal bitte!

Ja, Ae mappt sogar "Superweiß" (die Brightwhite area) nach RGBRGB im Glossar erklärt , aber eben oberhalb RGB+1,0 , wo es hingehört. Wozu das gut ist? Besondere Verfahren eben ... ;)

Nimms bitte nicht persönlich. Komm lieber vorbei und zeig mir, wie es geht! Würde mich freuen. ;)

Beste Grüße,
Reiner



Antwort von srone:

Was aber auch nicht schlimm ist. Die ganze Videobearbeitung lebt von Kompromissen und vom "Versuch", ein wirklichkeitsgetreues Bild zu erzeugen. Da weicht doch jede Aufnahme "an allen Ecken und Kanten vom Original ab.". Und zwar heftig, oder?;)

Beste Grüße,
Reiner

sowieso:-), jedoch für mich am ehesten die frage, wie nehme ich einfluss darauf bzw kontolliere dies?

lg

srone

srone, das ist wohl DIE Frage schlechthin, die sich wohl alle Cam- und NLE-Hersteller, aber alle Benutzer stellen.

Es gibt wohl keine allgemeingültige Antwort. Wenn es eine gäbe, hieße sie m. E. ganz platt: Durch einen wohlüberlegten Workflow!

Sein Ziel: Das beste Verhältnis zwischen Qualität und Effizienz in der Bearbeitung schaffen. Und der Workflow hängt eben auch von den Werzeugen ab, die zur Verfügung stehen. Sie sollten an den richtigen Stellen optimal eingesetzt werden. Sehr platt, oder? Natürlich stehen dahinter konkrete Maßnahmen. Ich hatte schon angedeutet, dass ich Videos meiner Canon DSLR anders behandle als die der Panas.

Beispielsweise ist Luma-Korrektur m. E. clip-abhängig und gehört für mich in eine Pre-Post-Phase, also nach dem Grobschnitt, aber vor dem eingentlichen Schnitt. Dann nämlich fließen in der TimelineTimeline im Glossar erklärt bei der Erstellung des Ziel-Videos gut vorbereitete Assets zusammen, die sich (hoffentlich) harmonisch ergänzen werden und keinerlei "Problemstellen" (Rauschen, Verwackelungen, schlechter Ton und eben unschöne Belichtung) mehr besitzen. Das ist aber nichts Festgeschriebenes, wenns brennt im Projekt, kommts womöglich eher auf Durchsatz an als auf Qualität. Nur huddeln, das sollte dennoch nicht passieren. ;)

Beste Grüße,
Reiner

eben drum, lohnt es sich gelegentlich, ein paar worte darüber zu verlieren, um den "workflow" weiter zu entwickeln. :-)

lg

srone



Antwort von dienstag_01:

Dienstag, solange Du Dich nicht über die diversen Umrechnungsverfahren YUVYUV im Glossar erklärt nach RGBRGB im Glossar erklärt schlau gemacht hast, und mir daran aufzeigst, dass aus Y16-235 niemals RGB0-255 oder RGBRGB im Glossar erklärt 0,0-1,0 gemappt werden kann, brauchen wir nicht weiterreden.
Reiner, es geht weder um gemapped noch um RGBRGB im Glossar erklärt 0,0-1,0.
Es geht einzg un allein darum das Y235 nicht in der RGBParade plötzlich als Lumawert 255 stehe kann. Als 1,0 schon. Und als 235.
Das hat mit deinen Umrechnungen überhaupt nichts zu tun, die gehören hier nicht her.
Um dir mal zu zeigen, wie es ein NLE handhabt, dass sich nicht vor den Bit-Werten als Skaleneinteilung drückt, siehe Screenshots.

Du glaubst jetzt nicht, dass Avid deine Umrechnung VERGESSEN hat ;)



Antwort von Reiner M:


Du glaubst jetzt nicht, dass Avid deine Umrechnung VERGESSEN hat ;)

Natürlich nicht. ;)

Wenn Du Dich schlau gemacht hättest, wüsstest Du, dass es verschiedene Matrizen für die Umrechnung gibt. Avid benutzt offensichtlich eine andere, aber es benutzt eine. Ganz sicher. Weils nicht anders geht. Es sei denn, Du hast eine neue Lösung gefunden? ;)

Man kann Y(16-235) selbstverständlich nach RGBRGB im Glossar erklärt 16-235 überführen, aber eben auch nach RGBRGB im Glossar erklärt 0-255. Die Definitionen sehen das vor. Sehr einfach.

Es gibt für beide Verwendungen sehr konkrete Gründe.

Ich rede übrigens über PREMIERE PRO (und AE). Zu Avid werde ich nichts sagen, da kenne ich mich nicht aus.

Du aber redest über Premiere Pro und kommst dann mit Beispielen aus Avid? ... ;)

Noch mal die Bitte:
Mach das das einfach in Premiere Pro und Ae. Es sollte Dir doch leicht fallen, die Ergebnisse korrekt zu interpretieren?

Wenn also das Infofeld in AE aus einem Video für ein PixelPixel im Glossar erklärt RGBRGB im Glossar erklärt 255 anzeigt, was meint das?

Richtig: Dann ist auch RGBRGB im Glossar erklärt 255 drin. Sehr einfach, oder? Obwohl nur Y235 als Ausgangswert da war.
Wenn Du wieder glaubst, das sei falsch, dann erkläre mir bitte endlich, wo dieser Wert 255 herkommt. ;)

Egal, wie Avid das macht:
Premiere Pro mapped Y16-235 (wenn keine Besonderheiten vorliegen, was aber sein kann) nach RGBRGB im Glossar erklärt 0,0 bis 1,0 in den 32bit RGB-Raum. Die Umrechnung erfolgt nach Standard-Matrizen nach RGB-Full_range.

Übrigens: Der Wertebereich RGBRGB im Glossar erklärt 0,0 bis 1,0 wird per Definition nach RGBRGB im Glossar erklärt 0-255 überführt, wenn eine 8bit-Verarbeitung ansteht. RGBRGB im Glossar erklärt 32bit 1,0 ist also per Definition RGBRGB im Glossar erklärt 8bit 255. Immer. Nichts anderes.

Und so nebenbei sei angemerkt: Der Premeire Pro Vorschau-Monitor ist leistungsfähiger als Du wohl denkst. Er greift direkt auf den RGB-Speicher zu und zeigt so gut wie möglich die Inhalte des Speichers, nur eben in 8bit. Es wird nicht der Grafikkarte überlassen, hier zu korrigieren.

Wenn also RGBRGB im Glossar erklärt (16-235) tatsächlich im Speicher vorliegt sieht man das im Vorschau-Monitor sofort. RGB235 und RGB255 unterscheiden sich in der Helligkeit ja stark genug. Die Grafikkarte wird das nicht auf 0-255 aufblasen, und es gibt keinen Grund für Premiere Pro, das zu tun. Wäre ziemlich kontraproduktiv. Aber auch das lässt sich leicht überprüfen: Wenn man will. ;)

Ach ja. nach wie vor: Du bist herzlich eigeladen ...

Beste Grüße & Gute Nacht.

Reiner



Antwort von Blackeagle123:

Wenn deine Korrektur normal in 709 (16-235) stattgefunden hat, ist RGBRGB im Glossar erklärt richtig. Es bleibt aber 16-235 ;)

Das ist falsch! Hier kommt die Erklärung.

Avid schreibt dazu:
Avid exports RGBRGB im Glossar erklärt data and quicktime stores this data somehow (can be converted to YUVYUV im Glossar erklärt, but you never know). Only if you do a "same as source export" the data is stored in YUY without converting to RGB.

But you can export RGBRGB im Glossar erklärt data in differnt ways:

RGB: 0/0/0 -> Video Black, 255/255/255 -> 100% video white

this means you can't have video levels below 0% and over 100% => exports for computer video use RGBRGB im Glossar erklärt to get a good black and white.

601: 16/16/16 -> Video black, 235/235/235 -> 100% video white

this means you can have video levels below 0% and over 100% => for uncorrected material like raw camera footage use 601, else you'll get clipping!

So viel zum generellen Import/ Export.

weiterhin:

1. When exporting from inside MC, if you choose your export to be 601/709, all levels will remain UNCHANGED. So they will either be at broadcast 601/709 levels (if you have made sure your footage is legal), or outside those levels (if you have let your footage outside the specs).

2. When exporting from inside MC, if you choose your export to be RGBRGB im Glossar erklärt, then all values in your signal will be expanded (remapped) from 16-235 to 0-255. So everything under 16 will be crushed to 0, and everything over 235 will be clipped to 255. All values in between (17-234) will be "stretched" over 1-254.



If your DVD/BD encoder app does not understand that video is coming in at 16-235 (and some of those apps will not understand this), it will (incorrectly) assume that the incoming file is 0-255, and will remap those values back to 16-235 (so that they are 601/709 legal again). That means that your 16-235 stuff will look washed out (greyish blacks, dullish whites), as the (empty) values 0-15 have been pushed up 16 steps, and the (empty) values 236-255 will have been lowered 20 steps. Your black is now somewhere around 30 rather than 16, and your whites are now somewhere around 220 rather than 235. If you hook up the DVD player to a scope, it will easily show this.

So me, personally, when sending stuff to a DVD/BD encoder app, I would want that DVD/BD encoder app to have the option to realize that the source is already within 601/709, and NOT touch the levels, as I don't see any benefit in changing levels that are already correct, and I dislike the unnecessary remapping from 16-235 to 0-255 and back, since it is bound to cause rounding errors (and likely to cause issues like banding).

I use TMPGenc for DVD encoding (it recognizes color spaces, or you can manually set them) and Squeeze for BD. Both allow me control over 16-235 remapping in their (advanced) settings.

Was bedeutet, dass der sicherste Weg der ist, aus Avid "Same as Source" zu exportieren (also 601/709) und dann eine BluRay- (h.264) oder DVD-Datei (mpeg2) im 601 oder 709 Farbraum zu erzeugen, die das DVD-Programm gar nicht mehr konvertiert, z.B. Encore.
Also ebenfalls genau das, was ich in meiner ersten Antwort geschrieben habe.

zusätzlich schreibt Avid:

Files meant for viewing on a computer monitor (you tube, websites, quicktime) should be RGBRGB im Glossar erklärt and files meant for broadcast tape or DVD/BluRay should be 601/709.

Was dann wohl bedeutet, dass Web Werte von 0-255 erwartet, was ich von Anfang an geschrieben habe!

Es bleibt eben nicht 16-235 wenn ich RGBRGB im Glossar erklärt exportiere sondern wird auf 0-255 gestaucht, sonst würde ja der RGB-Export gar keinen Sinn machen.
Demnach muss ich eben mit dem 601/709 Setting oder "Same as Source" exportieren, wenn ich für Web exportiere.

Und zu Adobe:
Adobe arbeitet so, dass Grafiken automatisch in den 601/709 Farbraum gestaucht werden, weil Premiere den Farbraum als RGBRGB im Glossar erklärt erkennt. Alles andere muss manuell angepasst werden (s. Waveform Monitor). Dazu sollte dann auch das Material von DSLRs gehören - wobei ich mir hier gerade nicht sicher bin ob Premiere das DSLR-Material nicht sogar auch in den richtigen Farbraum bringt.

Hoffe, dass damit jetzt alle Unklarheiten beseitigt wurden.

Viele Grüße!



Antwort von Blackeagle123:

Ich bin mir ziemlich sicher: Du hast es bemerkt! Man kann nämlich gar nicht übersehen, dass REC.709-Videos RGB-Werte bis 1,0 erzeugen und REC.709 Videos mit Signalen im HeadroomHeadroom im Glossar erklärt sogar über +1,0 nämlich bis zum Signalwert max. +1,069V aus der Luma-Wave.

Natürlich geht das, dafür gibt es in der ColorCorrection von Avid ja extra die Möglichkeit, das Signal oben und unten zu beschneiden, wobei dadurch natürlich auch genau diese Informationen verloren gehen. (Stichwort Clipping)



Antwort von dienstag_01:

Es bleibt eben nicht 16-235 wenn ich RGBRGB im Glossar erklärt exportiere sondern wird auf 0-255 gestaucht, sonst würde ja der RGB-Export gar keinen Sinn machen.
Demnach muss ich eben mit dem 601/709 Setting oder "Same as Source" exportieren, wenn ich für Web exportiere.
Nee, RGBRGB im Glossar erklärt ist schon richtig.
Ich wehre mich nur, dass als 0-255 zu bezeichnen/anzuerkennen. Das hängt mit ein paar Seltsamkeiten beim Export für Youtube zusammen. Aber auch, dass einige Avid-User dann eine zweite FarbkorrekturFarbkorrektur im Glossar erklärt fürs Web machen: 0-255.



Antwort von Reiner M:


Und zu Adobe:
Adobe arbeitet so, dass Grafiken automatisch in den 601/709 Farbraum gestaucht werden, weil Premiere den Farbraum als RGBRGB im Glossar erklärt erkennt. Alles andere muss manuell angepasst werden (s. Waveform Monitor). Dazu sollte dann auch das Material von DSLRs gehören - wobei ich mir hier gerade nicht sicher bin ob Premiere das DSLR-Material nicht sogar auch in den richtigen Farbraum bringt.

Premiere Pro erkennt ganz sicher den richtigen Farbraum der Quellen. ;)

Wie geschrieben, benutzt Premiere Pro dafür unterschiedliche Importer, die von der Quelle abhängen. Was in einer Quelle vorhanden ist, kann dafür vor dem Laden in Erfahrung gebracht werden. Es lässt sich ja auch mit Tools außerhalb von Premiere Pro anzeigen.

Wenn DSLRs Videodateien produzieren im FormatFormat im Glossar erklärt YUVYUV im Glossar erklärt 4:2:04:2:0 im Glossar erklärt (wie bei Canon), dann ist da auch YUVYUV im Glossar erklärt drin, also YCbCr, und nicht RGB.
Diese Videos werden selbstverständlich korrekt geladen und gemäß Codec-Angabe dekromprimiert (H.264). Sie liegen dann im internen YUV-Speicher des NLEs. Um damit in der TimelineTimeline im Glossar erklärt arbeiten zu können, müssen sie zusätzlich in den RGB-Speicher und liegen schließlich für die Verarbeitungsprozesse im NLE sowohl als YCbCr wie auch als RGBRGB im Glossar erklärt 32bit in den internen Speichen vor.

Bei RGB-Fotos passiert es einfach umgekehrt: Sie werden dekomprimiert und in den RGB-Speicher geladen. Um sie videotechnisch bearbeiten zu können werden sie zusätzlich nach YCbCr umgerechnet.

Es ist eben nötig, dass zeitgleich beide Speicherformate vorhanden sind, weil etliche Verarbeitungsprozesse und Effekte auf den YCbCr - Speicher zugreifen und dort wirken (solche Effekte sind in Pr mit "YUV" gekennzeichnet), andere im RGB-Speicher arbeiten. Beide Speicher werden ständig synchronisiert.

Beste Grüße,
Reiner



Antwort von Blackeagle123:

Hallo Reiner,

danke für diese technisch präzise Antwort :-)
Jetzt weiß ich auch endlich mal, was Adobe Premiere da macht, das war mir immer ein Rätsel.

Weißt Du denn auch, wie es beim Export aussieht? Denn da steht ja nirgends dabei, ob es RGBRGB im Glossar erklärt oder 601/709 ist. Gibt es deswegen die Bezeichnung mpeg-2 und mpeg-2 DVD? Ich dachte bisher, dass das nur Voreinstellungen für den Export sind - oder ist damit auch ein Farbraum verknüpft?

Viele Grüße,
Constanitn



Antwort von Reiner M:

Hallo Constantin,

das verwendete Farbmodell wird nicht von Premiere Pro vorgegeben, sondern vom Exporter. Zum Schluß ist es der benutzte CodecCodec im Glossar erklärt, der das Modell und den Farbraum vorgibt.

Bei manchen Formaten (z. B.AVI) kann man den zu verwendeten CodecCodec im Glossar erklärt anwählen. Einige dieser Codecs erlauben es dann zwischen RGBRGB im Glossar erklärt, RGBA oder YUVYUV im Glossar erklärt zu wählen.

Bei wenigen Formaten geht nur RGBRGB im Glossar erklärt (meist Bildsequenzen wie TIFF), bei den meisten anderen nur YUVYUV im Glossar erklärt (auch JPEG ist übrigens YUV). Dann sind keine Codec-Einstellungen möglich.

Schau also: Sind Codec-Einstellungen möglich? Wenn ja, welche.

Wenn nein: Produziere einfach eine Test-Ausgabe und schau hinterher mit einem Tool wie Media-info oder so mal in die Datei. Dort wirst Du die Infos dazu finden.

Und zu Youtube, Vimeo & Co.: Wähle als FormatFormat im Glossar erklärt einfach H.264. Premiere Pro bietet dann mehrere passende Vorgaben (Presets) mit optimierten Einstellungen für die Videoplattform. Auswählen, exportieren, hochladen.

Das wird dann wohl PALPAL im Glossar erklärt, YUVYUV im Glossar erklärt, BT.709 in den gewünschten Framesizes und Datenraten sein. Und das ist richtig so und völlig okay. ;)
Und nicht nur für die genannten Videoportale, sondern ganz allgemein fürs Web.

Beste Grüße,
Reiner



Antwort von dienstag_01:

danke für diese technisch präzise Antwort :-)
Das war wohl gegen mich gerichtet. Vielen Dank.
Du musst immer sehen, ich bin hier einer der wenigen, die auf beiden Systemen zu hause sind. Mir fällt daher auf, wenn jemand totalen Kokolores erzählt.
Jetzt weiß ich auch endlich mal, was Adobe Premiere da macht, das war mir immer ein Rätsel.
Glaubst du wirklich, was Reiner so beschreibt?! Na, viel Spass.

Nochmal zurück zum Web: Das ist ja auch ein weites Feld und Video in Browsern produzieren eine Menge Fehler. Was *erwartet* aber nun Youtube und Co.?
Vielleicht sagt man am genauesten: RGBRGB im Glossar erklärt 0-255 mit einem Videolevel von 16-235. Ich finde diese Einschränkung wichtig, da es Konstellationen gibt (aus Premiere heraus hab ich das mal getestet), dass Weisswerte oberhalb von 235 sichtbar werden (gemacht werden können). Aus Avid hab ich das noch nicht probiert, (der sagt ja, dass er abschneidet) mach ich vielleicht mal.
Edit: ich sprech hier natürlich von DNxHDDNxHD im Glossar erklärt RGB.

Für DVD: Ich gehe für DVD auch immer über DNxHDDNxHD im Glossar erklärt RGBRGB im Glossar erklärt aus dem Avid und über Sorenson Squeeze in Encore (oder direkt in Encore).
So funktionieren die beiden Welten ZUSAMMEN.

Nochmal zu RGBRGB im Glossar erklärt 0-255: Einige Avid User verstehen das so, jetzt zwischen 0 und 255 farbkorrigieren zu können/sollen. FALSCH.
Premiere: Als Beispiel der Export nach h264: Habe ich hier Lumawerte oberhalb von 235, so werden sie im Video nicht verändert. Sie werden aber nicht angezeigt (sind da, kann man *sichtbar* machen. Auch nach Premiere re-importieren). Bei DNxHDDNxHD im Glossar erklärt (RGB) sind die Werte weg, abgeschnitten.

Zwei Codecs, unterschiedliche Vorgehensweisen. Unpräzise Beschreibung ;)



Antwort von Reiner M:


Du musst immer sehen, ich bin hier einer der wenigen, die auf beiden Systemen zu hause sind. Mir fällt daher auf, wenn jemand totalen Kokolores erzählt.
...

Glaubst du wirklich, was Reiner so beschreibt?! Na, viel Spass.

Ich kenne viele, die meinen, wenn sie ein Werkzeug besitzen, dass sie es auch beherrschen. ;)

Beantworte lieber meine Fragen. Erklär mir endlich , wie die RGB-Angaben im Infofeld von Ae zustande kommen. Bitte!

Denn Du behauptest durchgehend allen Ernstes, dass das nicht geht. Und eben genau das ist FALSCH. Hätte dir ja eigentlich AUFFALLEN müssen ... ;)

Nochmal zurück zum Web: Das ist ja auch ein weites Feld und Video in Browsern produzieren eine Menge Fehler. Was *erwartet* aber nun Youtube und Co.?
Vielleicht sagt man am genauesten: RGBRGB im Glossar erklärt 0-255 mit einem Videolevel von 16-235. Ich finde diese Einschränkung wichtig, da es Konstellationen gibt (aus Premiere heraus hab ich das mal getestet), dass Weisswerte oberhalb von 235 sichtbar werden (gemacht werden können). Aus Avid hab ich das noch nicht probiert, (der sagt ja, dass er abschneidet) mach ich vielleicht mal.
Edit: ich sprech hier natürlich von DNxHDDNxHD im Glossar erklärt RGB.

Werde bitte konkret: Was lädts Du nach Youtube oder sonstwo ins Web hoch? DNxHD? Könnte ja ein Ansatz sein ...

Für DVD: Ich gehe für DVD auch immer über DNxHDDNxHD im Glossar erklärt RGBRGB im Glossar erklärt aus dem Avid und über Sorenson Squeeze in Encore (oder direkt in Encore).
So funktionieren die beiden Welten ZUSAMMEN.

Und? Ich benutze für die Zwischendateien gerne einen Uncompressed. Damit kann die DVD aber auch nichts nichts anfangen.
Dienstag, spannend ist doch: Was ist schließlich auf der DVD drauf?

Welches Format? Welches Farbmodell? RGB?
Wenn man das weiß kann man auch gleich in diesem FormatFormat im Glossar erklärt aus Pr exportieren und kann dann ohne neue TranskodierungTranskodierung im Glossar erklärt brennen.

Sag also bitte ganz einfach, was zu produzieren ist. Für den Upload nach Youtube, für den Upload ganz allgemein ins Web und für das Brennen auf DVDs. ;)

Ach ja: Mich würde interessieren: Welche Fehler das sind, die da in Mengen in Videos in Browsern auftreten sollen. Kannst Du das näher ausführen und belegen?

Beste Grüße,
Reiner



Antwort von dienstag_01:

Sag also bitte ganz einfach, was zu produzieren ist. Für den Upload nach Youtube, für den Upload ganz allgemein ins Web und für das Brennen auf DVDs. ;)
Reiner, als REINER (!!!) Adobe-User musst du nur aufs jeweilige Knöpfchen drücken, dann funktioniert alles. Ist mein Ernst.

Was aber falsch ist, sind deine teils obskuren technischen Auslassungen. Lies dir nochmal den Absatz von TheBubble hier auf Seite 2 im Thread durch und akzeptiere, dass an irgendeiner Stelle der SPRUNG des Videofarbraums mit 16-235 zum Computerfarbraum mit einer Range von 0-255 stattfinden muss. Adobe macht den eiinfach im Hintergrund, eher unbemerkt von den Nutzern, man kann auch sagen, sie werden mit solchen Fakten nicht behelligt (Avid geht da einen anderen Weg, ob der nun besser oder schlechter ist, sei mal dahingestellt).
Jetzt gibt es aber Leute, die sagen, ich hab doch gehört, die Norm für Video ist 16-235 (Vielleicht, weil sie eine DVD machen wollen).Wieso zeigt mir mein After Effects für Weiss 255 an, obwohl es doch 235 sein sollte? Ab da wird es kompliziert. Du führst zum Verständnis Formeln ein und fängst an Unterschiede zu beschreiben, wo es keine gibt, siehe Luma 235 ist in der RGBRGB im Glossar erklärt Parade Luma 255 - ist technisch und logisch Quatsch.
Man sollte versuchen, die Schwierigkeiten klar zu sehen und zu beachten. Sobald du mal über einen externen Dienstleister/Studio gehen musst, bei dem du nicht einfach den Abgleich: Premiere? Premiere! machen kannst, tauchen manche Probleme sicher gar nicht auf. Ab dem Punkt oder wenn hier Leute mit anderer Software arbeiten, wirds WIRKLICH kompliziert (und falsch).



Antwort von Reiner M:

Sag also bitte ganz einfach, was zu produzieren ist. Für den Upload nach Youtube, für den Upload ganz allgemein ins Web und für das Brennen auf DVDs. ;)
Reiner, als REINER (!!!) Adobe-User musst du nur aufs jeweilige Knöpfchen drücken, dann funktioniert alles. Ist mein Ernst.

Dienstag, sind Dir die Antworten etwa unangenehm? ;)

Web: H.264, YUVYUV im Glossar erklärt (ist inzwischen praktisch defacto-Standard dafür, mit OpenSource versucht man die Lizenz-Probleme zu umgehen, hat sich aber noch nicht durchgesetzt. Ist aber auch YUV)
DVD: MPEG2MPEG2 im Glossar erklärt, YUV

Da kommt nirgends RGBRGB im Glossar erklärt vor. Alle Hinweise in diese Richtung münden in falsche oder ungenaue Informationen und verunsichern m. E. nur die User.
----------
RGB ist nur nötig zur Bearbeitung der Videos in der TimelineTimeline im Glossar erklärt und um z. B. in bestimmten Workflows Zwischenergebnisse zu produzieren (beispielsweise dafür, wenn im Compositing Alpha-Channels gebraucht werden, oder für Datenaustausch, oder für Spezialaufgaben, u.ä.).

Selbstverständlich erscheint das YUV-Video dann in RGBRGB im Glossar erklärt auf dem PC- Bildschirm. Sowohl im Browser wie auch vom PC-Software-DVD-Player. Aber das machen Software-Umsetzer in den Playern, die Y16-235 in aller Regel nach RGB0-255 umrechnen (ja, Weiß ist dort auch 255/255/255, was ja Deiner Meinung nach gar nicht sein dürfte, oder?)

RGB ist m. E. in der Videoproduktion der Zielformate kein Thema für diese Aufgaben (web/dvd). Punkt.
----------

Wieso zeigt mir mein After Effects für Weiss 255 an, obwohl es doch 235 sein sollte? Ab da wird es kompliziert. Du führst zum Verständnis Formeln ein und fängst an Unterschiede zu beschreiben, wo es keine gibt, siehe Luma 235 ist in der RGBRGB im Glossar erklärt Parade Luma 255 - ist technisch und logisch Quatsch.

Inhaltlich ist das Quatsch, Dienstag.
Erstens soll es nicht RGBRGB im Glossar erklärt 235 sein. Nur bei Dir. Bei AE-Usern nicht. ;)
Wenn es sollte, würde man einfach den Zielfarbraum begrenzen. Es soll ja aber nicht. Ich will ja keine Vorteile im Workflow verschenken.

Zweitens: Es gibt in RGBRGB im Glossar erklärt kein Luma! Nur Farbe. Tja, so ist das. ;)
Auch RGBRGB im Glossar erklärt 255/255/255 ist eine Farbe, zusammengesetzt aus drei einzelnen Farbwerten.
Der Y-Kanal geht bei der Berechnung gleichzeitig in die unterschiedlichen RGB-Farbkanäle ein und darin auf. Da passiert aber nix 1:1. Sondern komplexe Floating-Berechnung erledigen das. ;)
Vielleicht solltest Du Dich doch mal über die Umrechnung zwischen den Farbmodellen informieren? Egal, Du magst halt nicht ... - weißt ja, wie es richtig geht - verräts es aber nicht. ;)

Denn noch steht sie aus die Antwort, auf die ich bestehen muss, weil Du behauptest, ich läge falsch und Dich daran hochziehst. Deine Chance Nr. 5 (oder so): Beweise es!

Wie erklärst Du den RGB-Wert 255 in Ae in einem REC.709-Video-File?
Bitte konkret!
Und ohne den ausweichenden Hinweis auf "kompliziert". Ist es nämlich nicht. ;)

Man sollte versuchen, die Schwierigkeiten klar zu sehen

Ich sehe sie. O ja. ;)

Wie wärs mit Grillwurst, Bier und ein wenig Fachsimpeln über Ae und Avid? Die Einladung steht nach wie vor. Würde mich echt freuen. :)

Beste Grüße,
Reiner



Antwort von dienstag_01:

Zweitens: Es gibt in RGBRGB im Glossar erklärt kein Luma! Nur Farbe. Tja, so ist das. ;)
Auch RGBRGB im Glossar erklärt 255/255/255 ist eine Farbe, zusammengesetzt aus drei einzelnen Farbwerten.
Der Y-Kanal geht bei der Berechnung gleichzeitig in die unterschiedlichen RGB-Farbkanäle ein und darin auf. Da passiert aber nix 1:1. Sondern komplexe Floating-Berechnung erledigen das. ;)
RGB255 heisst: Rot:255, Grün: 255, Blau:255.
Und das sind die LUMAWERTE. HELLIGKEIT. 1:1. Nix, komplexe Floating-Point-Berechnung. Junge, Junge.

Wie erklärst Du den RGB-Wert 255 in Ae in einem REC.709-Video-File?
Bitte konkret!
Hab ich dir schon mal geschrieben (Du kannst dir übrigens auch den Color Picker von Photoshop nach Premiere holen, egal): 255 in der Ansicht heisst 235 im Video. So ist der Standard. ich hab ihn nicht gemacht ;)
(Und das der Austausch von Premiere nach AE so gut klappt, du solltest dich bei Adobe bedanken.)

Edit: Für Web und DVD bin ich von der Spezifikation Rec709 als Norm ausgegangen. Jetzt fällt mir gerade auf, dass du so auf RGBRGB im Glossar erklärt und YUVYUV im Glossar erklärt rumreitest. Verstehe ich dich richtig, dass du annimmst, dass YUVYUV im Glossar erklärt 16-235 sozusagen RGBRGB im Glossar erklärt 0-255 ist?



Antwort von Reiner M:


RGB255 heisst: Rot:255, Grün: 255, Blau:255.
Und das sind die LUMAWERTE. HELLIGKEIT. 1:1. Nix, komplexe Floating-Point-Berechnung. Junge, Junge.

Okay, Dienstag, lassen wirs.
Wenn Dir noch nicht einmal trivialste Basics geläufig sind, lohnt sich das nicht.
Luma gibts in RGBRGB im Glossar erklärt nicht. Glaub es, oder lass es. Du liegst mit dieser Annahme völlig falsch.

"Hellblau" und "Dunkelblau" sind in RGBRGB im Glossar erklärt zwei verschiedene Farben, auch dann, wenn sie nur ein BitBit im Glossar erklärt weit auseinanderliegen. Weshalb Bilder in 24bit-RGB (also je Farbe 8bit), einen Farbumfang von 16.777.216 Farben besitzen - Luma kommt nicht vor.

Aber beweise Deine Kenntnisse. Erklär doch mal bitte:
Welchen Lumawert hat das PixelPixel im Glossar erklärt mit den RGB-Werten 255/62/112 ? Na? Dann zück mal den Taschenrechner ... ;)

Bei dem korrespondierenden PixelPixel im Glossar erklärt in YCbCr könnte man das sofort ablesen - aber da gibts ja auch Luma.

Eine RGB-Information besteht immer aus drei Werten, die beliebig kombinierbar sind. Und daraus kann man - mit Hilfe geeigneter Verfahren! - tatsächlich YCbCr umrechnen und kennt dann, erst dann, Luma. Ohne die nötigen Formeln und Matrizen wirst Du das nicht schaffen.

Genügt jetzt dazu. Lies einfach die Literatur.

Wie erklärst Du den RGB-Wert 255 in Ae in einem REC.709-Video-File?
Bitte konkret!
Hab ich dir schon mal geschrieben (Du kannst dir übrigens auch den Color Picker von Photoshop nach Premiere holen, egal): 255 in der Ansicht heisst 235 im Video. So ist der Standard. ich hab ihn nicht gemacht ;)

fast richtig... ;) Nur wirfst Du wieder YC-Werte und RGBRGB im Glossar erklärt durcheinander.
RGB 255 im RGB-Speicher ist Y235 im YCbCr-Speicher. Dann passts. Sonst nicht.

Bei RGBRGB im Glossar erklärt 255/255/255 ist das noch einfach. Bei allen anderen Werten für r, g und b in RGBRGB im Glossar erklärt (r/g/b) wirst Du keine Chance haben so leicht Luma aus dem YC-Speicher zu bennen wie oben geschrieben.
M.E. interpretierst Du die Beziehung zwischen den RGB-Werten und den YC-Werten völlig falsch. Nämlich scheinbar irgendwie 1:1.

Mit der "Ansicht" hat das übrigens rein gar nichts zu tun. Hör endlich auf, den armen Monitor Verantwortlich zu machen. Wir sind im Speicher, unterhalb des PC-Bildschirms. ;)

(Und das der Austausch von Premiere nach AE so gut klappt, du solltest dich bei Adobe bedanken.)

Warum so sauer? Ich bin mit allem, auch mit dem Austausch recht zufrieden. Ich weiß aber auch, wie was geht und kann meinen Workflow darauf einrichten. ;)

Edit: Für Web und DVD bin ich von der Spezifikation Rec709 als Norm ausgegangen.

Du darfst auch von der Norm REC.709 ausgehen. Aber eben auch von den Formaten der Zielmedien, in diesem Fall für Web und DVD. MPEG2MPEG2 im Glossar erklärt ist YUVYUV im Glossar erklärt, H.264 auch, oder?

Verstehe ich dich richtig, dass du annimmst, dass YUVYUV im Glossar erklärt 16-235 sozusagen RGBRGB im Glossar erklärt 0-255 ist?

o Mann ... - worüber reden wir denn die ganze Zeit? ;)

Nein! YUVYUV im Glossar erklärt bzw. YCbCr ist NICHT RGB. ganz wichtig!
Das sind völlig verschiedene Speicherzustände des selben Dings, das wir Video nennen. ;)

Es besteht aus diversen Gründen in der Praxis die Notwendigkeit, von einem Speicherformat in ein anderes umzuwandeln. Und dafür werden DEFINIERTE Verfahren eingesetzt. Über die Du Dich einfach nicht schlau machen willst. ;)

Der sichtbare Bildbereich in einem PAL-Videofile ist nach REC.709 300mV bis 1V, oder digital Y16 bis Y235.

Der sichtbare Bildbereich an einem PC-Monitor ist RGBRGB im Glossar erklärt 0-255.

Die Umrechnungsverfahren machen nichts anderes, als den YC-Bildbereich in den RGB-Bildbereich zu übertragen und umgekehrt.
Dabei können sie Verfahren wählen, die nur RGBRGB im Glossar erklärt 16-235 füllen, oder solche, die RGBRGB im Glossar erklärt 0-255 füllen. Beides ist zulässig und geübte Praxis. In NLEs, in Videoplayern, usw. Das ist alles nichts Neues, auch dann nicht, wenn es Dir entgangen sein sollte. ;)

Man könnte aus Y(16-235) auch RGBRGB im Glossar erklärt 0-1024 füllen, Premiere Pro füllt einen riesigen Wertebereich 32bit-Float von 0,0 bis 1,0 damit - es ist nur eine Frage der Algorithmen, die zum Einsatz kommen. Kein Hexenwerk.

Beste Grüße,
Reiner



Antwort von dienstag_01:

Reiner, danke, ich lass es. Es hat einfach keinen Zweck, du negierst die Tatsachen.

Ich habe hier nochmal einen Artikel für dich verlinkt, da kannst du dich mit den Grundlagen befassen (der Artikel ist übrigens eine Weiterleitung von einer Adobe-Hilfe-Seite).
Sollte in diesem Artikel nicht drin stehen, dass Video die Range von RGBRGB im Glossar erklärt 16-235 hat, fress ich n Besen ;)
Falls dir was nicht passt, schreib am besten den Autoren ihr Forum voll, die freuen sich sicher über jemanden wie dich. Vielleicht schaffst du es auch, dass sie ihre Bücher komplett überarbeiten ;)

Und nun viel Spass:
http://provideocoalition.com/cmg_keyfra ... ce_ranges/



Antwort von Reiner M:

Reiner, danke, ich lass es. Es hat einfach keinen Zweck, du negierst die Tatsachen.

Welche Tatsachen denn?
Dass Du die Antworten nicht gibts auf meine Fragen? Nur ausweichst? ;)

Welchen Lumawert hat denn nun das PixelPixel im Glossar erklärt mit den RGB-Werten 255/62/112 ? Dürfte doch nicht so schwer sein! ;)
Nein, probier es erst gar nicht. Du wirst es nicht schaffen. Und zwar ganz einfach deshalb nicht, weil Du fälschlicher Weise davon ausgehst, dass das nicht so funktioniert, mit der Umrechnerei.
Allerdings frage ich mich schon, wie Du Dir vorstellst, wie aus einem Bildpixel YCbCr (drei Werte) ein Bildpixel RGBRGB im Glossar erklärt (drei Werte) werden kann, und zwar so, dass beide PixelPixel im Glossar erklärt nachher (möglichst) identisch aussehen. Erklären tust Du das nämlich nicht. Nur ausweichendes Gerede ohne viel Inhalt.

Oder meinst Du Deine unbewiesenen Behauptungen und tatsächlich im Kern falschen Aussagen? - Die muss man doch negieren, nein, richtig stellen! Der Meinung bist Du doch auch immer - zumindest bei anderen! ;)

Ich habe hier nochmal einen Artikel für dich verlinkt,

Sollte in diesem Artikel nicht drin stehen, dass Video die Range von RGBRGB im Glossar erklärt 16-235 hat, fress ich n Besen ;)

Bitte? Videos haben in YCbCr (so sind sie gespeichert), die Range Y(!) 16-235.

RGB ist was anderes ...
Da obliegt es den Programmierern der Anwendung, was draus zu machen. Und es wird unterschiedlich umgesetzt. Glaubs endlich! ;)

Nicht? Dann solltest Du doch noch mal drüber nachdenken, wo in Ae die RGB-Werte > 235 herkommen. Du behauptest gerade wieder, dass das nicht geht. Obwohl Du es mit eigenen Augen siehst!
Wem soll ich denn nun vertrauen: meinem Programm, dass mir faktisch und unumstößlich zeigt, "so isses!", oder Dir, der nichts als Behauptungen in den Raum wirft, ohne sie zu belegen? ;)

Wenn Du den Artikel gelesen hättest, wäre Dir aufgefallen, dass dort erklärt wird, wie Videos importiert, im Speicher aufbereitet und exportiert werden.

... you need to ask yourself, at every step of your production, ...:

Which luminance range is this source using?

Which luminance range does the software I am currently using assume?

Which luminance range does my output codec and hardware expect?

Ja, das solltest Du Dich mal fragen ... - hast Du nicht, also denken wir mal kurz drüber nach:

Das meint also:
1) Import: gemäß luminance range, also des Bildbereichs des Videos. Importieren wir H.264 nach Norm, dann also Y16-235,
2) während der Vearbeitung am PC: Was ist der Bildbereich deiner Anwendung? In Premiere Pro ist das RGBRGB im Glossar erklärt 32bit 0,0-1,0, (bei anderen womöglich anders)
3) Export: Wohin wandert den der Bildbereich der Anwendung? Gemäß Output-Codec. Bei H.264 also YUVYUV im Glossar erklärt, Y16-235.

Und wie beantworten die Autoren die Fragen?

... the answers are:

Our captured sources use the 601 luminance range; all of our other sources use the computer luminance range.

Our software uses the computer range.

Our final output should be back in the 601 range.


Bitte beachte "Our software uses the computer range" - also "meine Software" (Premiere Pro) nutzt die "computer range" RGBRGB im Glossar erklärt 0,0 - 1,0 bzw. 0-255.

Und deshalb ist ein Mapping von Y16-235 nach RGBRGB im Glossar erklärt 0,0 - 1,0 unumgänglich.

Guten Appetit!

Letzter Aufruf: Lieber Steaks statt Besen oder Würtschen? Oder besser Vegan? Stell mich gerne auf alles Machbare ein. ;)

Beste Grüße,
Reiner



Antwort von WoWu:

Welchen Lumawert hat denn nun das PixelPixel im Glossar erklärt mit den RGB-Werten 255/62/112

144,62
Du brauch doch nur die Distanz (Euclidean) zu Weiss.
http://en.wikipedia.org/wiki/Euclidean%5Fdistance

Jeder RGBRGB im Glossar erklärt Wert hat einen Lumawert.



Antwort von dienstag_01:

Ach Reiner, ein wirklich langer Artikel, da findet man manchmal die richtige Stelle nicht ;)
Black is just over 6% brightness, or an RGBRGB im Glossar erklärt color value of 16/16/16; White is just over 92% brightness, or an RGBRGB im Glossar erklärt color value of 235/235/235 (again, based on 8-bit-per-channel ranges). This system is defined by the ITU-R 601ITU-R 601 im Glossar erklärt specification used by most digital video equipment, from DV to D1 decks, and transmitted over digital video connections such as SDISDI im Glossar erklärt and FireWire (IEEE1394). We'll call this system "601" luminance, with a range of 16-235.
Am besten nicht drüber nachdenken, einfach weiter negieren ;)



Antwort von Reiner M:

Welchen Lumawert hat denn nun das PixelPixel im Glossar erklärt mit den RGB-Werten 255/62/112

144,62
Du brauch doch nur die Distanz (Euclidean) zu Weiss.
http://en.wikipedia.org/wiki/Euclidean%5Fdistance

Danke, Wolfgang! Also hieße das, Y wäre 144 (Integer-Werte) und damit ein ganz normaler, etwas hellerer Punkt im Video. Richtig?

Wenn Die Farben berechnet werden, würden sie so in CB / CR liegen, dass was Pinkfarbenes dabei rauskommt.

Beste Grüße,
Reiner



Antwort von WoWu:

Das weiss ich nicht, wie die Farbe aussieht, ich hab nur den Wert ausgerechnet.



Antwort von merlinmage:

Würde nochmal kurz mit einer "einfachen"Frage dazwischengrätschen:

Habe Rohmaterial(egal ob Full Range oder VideoRange) werfe es in Premiere und kann anhand des YCBCR Scopes schon sehen, ob es 0-255 oder 16-235 oder 16-255 Material ist.

Wenn es dann 16-255 oder 0-255er Material ist, per Videolimiter die Grenzen auf 0-100% setzen und dann an den Mediaencoder senden, für DvDs BDs ,709 Sendemaster(XDCAM)?



Antwort von Reiner M:

Ach Reiner, ein wirklich langer Artikel, da findet man manchmal die richtige Stelle nicht ;)
Black is just over 6% brightness, or an RGBRGB im Glossar erklärt color value of 16/16/16; White is just over 92% brightness, or an RGBRGB im Glossar erklärt color value of 235/235/235 (again, based on 8-bit-per-channel ranges). This system is defined by the ITU-R 601ITU-R 601 im Glossar erklärt specification used by most digital video equipment, from DV to D1 decks, and transmitted over digital video connections such as SDISDI im Glossar erklärt and FireWire (IEEE1394). We'll call this system "601" luminance, with a range of 16-235.
Am besten nicht drüber nachdenken, einfach weiter negieren ;)

Ach, Dienstag ... ;)

Lies einfach den Artikel ist Ruhe. Abgesehen davon dass er aus dem Jahr 2000 ist und daher bevorzugt entsprechend zeitgemäßes Equipment aus NTSC-Land diskutiert, zeigt er sehr wohl etliche Besonderheiten auf, die beispielsweise auch beim Laden von Videos in Software gelten, die den Aufnahmebereich (Y0-235) auf RGB0-255 mappen, wie z. B. AE, AE CS3. Hat es tatsächlich damals schon getan.

Ich habe keine Lust das hier stückweise vorzulesen. ;)

Aber wurscht.

Hauptsache, DU kennst die Erklärung dafür, warum AE und Software-Player RGB-Werte größer 235 anzeigen. Für den Rest der Welt wird Dein Geheimwissen wohl leider geheim bleiben. Sehr schade!

Negiere Du einfach weiter, was tausende User täglich nutzen. Sowohl in ihren NLEs als auch beim simplen Gucken von Videos auf RGB-basierten Geräten. Da findet genau die selbe Mimik statt. RGBRGB im Glossar erklärt 0-255. Punkt. ;)

Beste Grüße,
Reiner



Antwort von Blackeagle123:

Ein "RGB-Wert von 16-235" spricht für den 601/709-Farbraum.



Antwort von WoWu:

Würde nochmal kurz mit einer "einfachen"Frage dazwischengrätschen:

Habe Rohmaterial(egal ob Full Range oder VideoRange) werfe es in Premiere und kann anhand des YCBCR Scopes schon sehen, ob es 0-255 oder 16-235 oder 16-255 Material ist.

Wenn es dann 16-255 oder 0-255er Material ist, per Videolimiter die Grenzen auf 0-100% setzen und dann an den Mediaencoder senden, für DvDs BDs ,709 Sendemaster(XDCAM)?

Am waveform siehst Du, was es ist, aber mit dem Limite würde ich das nicht machen, weil er dir alles clippt.
Nimm den ProcAmt (das heisst in Premiere noch irgendwie anders) und sie den gesamten Pegel runter und gleich dann die weissspitzen an (oder Clip sie leicht) und ebenso Black, dass es korrekt auf 16 aufsitzt.
Das ist ne Sache von 30 sec.



Antwort von Blackeagle123:

Nur Gain und Black anzupassen ist aber noch keine richtige Wandlung von 0-255 in den 16-235 Raum!



Antwort von WoWu:

Es geht hier auch nicht um die Wandlung, weil man für eine Wandlung zunächst mal genügend Werte haben muss, den Zielraum zu bedienen. Wenn Du gar nicht genug Werte hast, kannst Du die fehlenden Werte auch nicht wandeln.
Frage ist dann, was steckt man da rein und auf die Wandlung hast Du eh keinen Einfluss, (wenn Du keinen Aufwand für einen einfachen Import treiben willst) denn das macht das NLE ohne Dein Dazutun.
Ein "RGB-Wert von 16-235" spricht für den 601-Farbraum.
Die Diskussion geht völlig an der eigentlichen Fragestellung vorbei.
Frage ist doch nicht, welche Fehler treten bei welcher Wandlung auf, denn dass Fehler bei jeder Wandlung auftreten, dürfte hier niemand bestreiten, sondern wieviele "echte" Werte liefert die Kamera im Übertragungsweg ab. Denn der Zuwachs hält sich in deutlichen Grenzen, wie es aussieht, denn oben geht es um die Differenz von 240 zu 254 und unten von 1 bis 15 (wenn überhaupt, denn bei 16-255 fällt das ohnehin schon mal weg und weil es als Offset sitzt, sind die werte nach 255 hin nur verschoben.
Es stellt sich also A) um die Frage: hat die Kamera mehr als die 220 Werte von 709 eingefügt oder B) ist die Skala lediglich verschoben.
Wenn A, dann wieviele "neue" Werte sind eigentlich enthalten und was steckt da drin ? Oder hat man die Übertragungsweite der 220 Werte lediglich vergrössert und wie wird diese neue Übertragungsweite überhaupt dem Player mitgeteilt, denn der richtig sich nach der "video_full_range_flag" 0 oder 1.

Und erst dann können wir überhaupt sehen, was eigentlich mit dem Signal passiert und was daraus entsteht, wenn man es nach 0-255 streckt.
Und mich würde eben nach wie vor noch interessieren, warum die 0-255 Verfechter eigentlich nicht den dafür vorgesehenen Video-Farbraum (x,v,YCC benutzen sondern das irgendwie in RGBRGB im Glossar erklärt reinquetschen wollen.



Antwort von dienstag_01:

Hauptsache, DU kennst die Erklärung dafür, warum AE und Software-Player RGB-Werte größer 235 anzeigen. Für den Rest der Welt wird Dein Geheimwissen wohl leider geheim bleiben. Sehr schade!
Mapping auf Computer RGB. Sag ich dir schon seit meinem ersten Post. Muss für die Anzeige gemacht werden. Video RGBRGB im Glossar erklärt ist 16-235. Das ist Video nach der Rec709 (und 601). Deshalb nochmal, nur für dich:
Black is just over 6% brightness, or an RGBRGB im Glossar erklärt color value of 16/16/16; White is just over 92% brightness, or an RGBRGB im Glossar erklärt color value of 235/235/235 (again, based on 8-bit-per-channel ranges). This system is defined by the ITU-R 601ITU-R 601 im Glossar erklärt specification used by most digital video equipment, from DV to D1 decks, and transmitted over digital video connections such as SDISDI im Glossar erklärt and FireWire (IEEE1394). We'll call this system "601" luminance, with a range of 16-235.
Ich bezweifle, dass das was nützt.

Wenn es dann 16-255 oder 0-255er Material ist, per Videolimiter die Grenzen auf 0-100% setzen und dann an den Mediaencoder senden, für DvDs BDs ,709 Sendemaster(XDCAM)?
Die Range von 0-100 ist richtig. Ob der Videolimiter das geeignete Mittel ist, kann ich jetzt nicht beantworten (mein Workflow in Avid: FarbkorrekturFarbkorrektur im Glossar erklärt in legal Ranges und danach nochmal den Limiter drauf).
Falls du filebasiert arbeitest, mit dem Studio sprechen, welches FormatFormat im Glossar erklärt sie haben wollen und vielleicht vorher einen kurzen Test schicken.



Antwort von merlinmage:

Wenn ich in Avid arbeite schicke ich es danach sowieso ins Grading mit dem Originalmaterial an die CC,da weiß ich was ich bekomme, daher meine Frage zum Premiere Weg. :)



Antwort von dienstag_01:

OK, dann richtet sich deine Frage explizit in Richtung der Nutzung des Limiters bzw. wie man Material in die legal Range bekommt?
Ich denke, Material was bspw. 16-255 ist, sollte man erst mal mit Mitteln der FarbkorrekturFarbkorrektur im Glossar erklärt in die Range bringen. Ich könnte mir vorstellen, dass man ansonsten Werte verliert. Aber WISSEN tu ichs nicht ;)



Antwort von WoWu:

Jau, das ist genau die Frage, die ich oben aufgeworfen habe.
Wenn die Kamera tatsächlich mehr als die 220 Werte vom Sensor untergebracht hat, würde ich das auch durch die FarbkorrekturFarbkorrektur im Glossar erklärt machen lassen, denn dann macht es keinen Sinn, vorher schon den Bereich zu begrenzen.
Dann würde ich das Material so schneiden und es an die CC mit dem Hinweis geben, das Material nach der CC in 709 zu bringen. Denn damit wird auch die FR-Flag richtig gesetzt (aus der sich übrigens auch wieder der Gamet-Code für HDMIHDMI im Glossar erklärt ergibt).
Und der wird das dann auch schon -ohne Limite- dahin bringen.



Antwort von merlinmage:

Bei der Premiere Frage ging es mir primär um Broadcast, da unsere Bänder halt nur ne Stereo Mischung aber keine CC bekommen. Deshalb hab ich bisher immer den Limiter mit 0-100 draufgehaun und es ist durch die Quako gekommen. Wenn man den Filter immer wieder an und ausschaltet sieht man zwar, dass ein wenig "Farbe" verloren geht, aber dramatisch ist das nicht.

Ich hatte neulich noch wegen Resolve eine 709 Frage:

Resolve ist bei uns (ist auch standardmäßig so drin) auf Video Levels eingestellt. Also 16-235 laut unserem Coloristen. Jetzt sagte er mir, dass diese Range erstmal nichts mit 709 zu tun hätte, weil Range und Farbraum ja zwei unterschiedliche Dinge sind. Aber gibt es überhaupt "Full Range" 709? Meines Wissens nach ist 709 immer legal range gewesen.



Antwort von Reiner M:


Mapping auf Computer RGB. Sag ich dir schon seit meinem ersten Post. Muss für die Anzeige gemacht werden.

Mapping auf RGBRGB im Glossar erklärt muss für ALLE Prozessverarbeitungen, die auf RGBRGB im Glossar erklärt aufsetzen, gemacht werden. Das KANN (Konjunktiv) auch die Anzeige sein.

Lass bitte endlich die »Anzeige« außen vor. Die Anzeige kann selbstverständlich in einem beliebigen Wertebereich stattfinden, je nach Gerät (es gibt 8bit- und 10bit-Monitore, Videos können mit RGBRGB im Glossar erklärt 16-235 oder RGBRGB im Glossar erklärt 0-255 ausgegeben werden - beides ist zulässig!). Du findest in Anwendungen häufig Einstellmöglichkeiten, um das zu beeinflussen (prüfe einfach die Optionen der Wiederdergabe bei Playern und Grafikkarten und denk mal darüber nach, was sie bewirken - im Speicher, nicht auf dem Monitor!)

Wir sind aber nicht in der Anzeige!
Wir sind im Speicher für die Bearbeitung der Videoframes. Also im RGB-Speicher, auf den sich während der Videobearbeitung alle Prozesse auswirken.

Fakt ist: Wenn Ae einen RGB-Wert anzeigt, ist das der Wert aus dem RGB-Videospeicher. Die Anzeige hat damit rein gar nichts zu tun. ;)

Es können selbstverständlich Werte 8bit RGBRGB im Glossar erklärt >235 oder 10bit RGBRGB im Glossar erklärt >940 oder 16bit RGBRGB im Glossar erklärt > 30080 oder 32bit RGBRGB im Glossar erklärt > 0,92 auftreten. Weil der Bildbereich der REC.709-Videos in den Bildbereich der Anwendung geladen wird. Und der umfasst nun mal in Pr und Ae den vollen Wertebereich, abhängig von der Bittiefe.

Und: Sobald Du darauf einen Effekt anwendest, stehen Dir auch die entsprechenden Grenzen des gültigen Wertebereichs zur Verfügung. Was auch sonst? Alles andere wäre Unfug.

Das zeige ich jetzt eben mal.

Übrigens: In diesem Artikel, den Du verlinkt hast, wird auch genau das gezeigt und diskutiert! Nur: Das ignorierst Du! ;)

----------

Ich habe drei Bilder beigefügt. Alle Bilder zeigen immer links Premiere Pro (Pr) und rechts After Effects (Ae).

Quelle: Video, H.264, YUVYUV im Glossar erklärt, REC.709, keine Videodaten in Head- und Footroom, Y also 16-235

Bild 1: In Pr und Ae ist das Video nur einfach geladen worden. Null Änderungen, keine Effekte.

Achte bitte auf das Info-Feld in Ae: Das überstrahlte PixelPixel im Glossar erklärt im Blütenblatt besitzt den RGB-Wert 255/255/255.
Beide Bilder in den jeweiligen Vorschau-Monitoren sehen gleich aus. Alles andere wäre ja auch fatal.

Bild 2: In Pr habe ich den Clip durch die AE-Komposition ersetzt. Nun wird die Ausgabe von Ae an Pr geschickt. Nach wie vor RGBRGB im Glossar erklärt 255/255/255 für das überstrahlte PixelPixel im Glossar erklärt in Ae.
Wieder die identische Anzeige in Pr. Beide Systeme arbeiten intern gleich.

Bild 3: Jetzt habe ich mit einem Effekt den RGB-Bereich verändert. Das überstrahlte PixelPixel im Glossar erklärt ist nun RGBRGB im Glossar erklärt 235/235/235. In keinem RGB-Kanal kommen jetzt noch Werte > 235 vor.
Das Bild sieht aber anders aus. ;) In Pr haben wir dennoch wieder das optisch gleiche Bild wie in Ae, also RGBRGB im Glossar erklärt 16-235.

Achte auf die Parameter des Effekts: Der Eingabe-Bereich läuft von 0-255! Zum Glück ... Alles andere wäre katastrophal!
Wird die Bitttiefe umgestellt (10bit, 16bit, 32bit) wird dieser Effekt die korrespondierenden Werte benutzen, nicht mehr 0-255. Auch zum Glück.

Achte bitte auf die RGB-Parade unten links. Jetzt laufen die RGB-Werte nicht mehr bis 100. O ...
Die RGB-Parade in Premiere Pro umfasst den vollen Wertebereich RGBRGB im Glossar erklärt 0,0 - 1,0 (0-255).
Das muss so sein, logisch, weil Premiere Pro den Bildbereich des Videos nach RGBRGB im Glossar erklärt 0,0 - 1,0 (0-255) mapped. Alles andere wäre Quatsch und würde zu blödsinnigen Ergebnissen führen. ;)

----------

Zur »Anzeige«:
Die Bilder sind Screenshots. Es gab also viele Stellen, an denen das Bild bis zum PNG hätte verfälscht werden können.
Schau Dir bitte die Bilder genau an. Insbesondere die Vorschau-Monitore von Pr und Ae. Sie zeigen die korrespondierenden Werte im RGB-Verabeitungsspeicher. Niemand hat unterwegs irgendwas gespreizt oder gestaucht. Warum sollte das auch passieren? Prüfe es z. B. mit Photoshop. Die »Anzeige« beeinflusst die Werte selbstverständlich nicht!

----------

So, das war Hilfestellung meinerseits.

Nun würde mich Deine Interpretation interessieren.
Deshalb zum x-ten Mal: Wie kommt es, dass AE (und Pr) RGB-Werte > 235 verarbeiten?
Eine Antwort, die eine sachlich fundierte, nachvollziehbare Erklärung liefert, ohne den Begriff »Anzeige«, wäre echt nett! ;)

Übrigens: Die Autoren des Artikels, auf den Du verlinkt hast, haben die Antwort gegeben. ;)

Viel Spaß noch!

Reiner

P.S.: Meine Einladung steht noch immer. Sie ist ernst gemeint. Ich würde mich wirklich darüber freuen! :)



Antwort von WoWu:

@merlinmage

Die Rec709 definiert das Videointerface, also Videosignal am Kameraausgang für 8 oder 10 Bit.
Davor kann der Hersteller machen, was er will.
Man wollte damit die Kompatibilität der Videosignale (Kamera, Übertragungsweg und TV-Set) erreichen. -Was ja auch gelungen ist-.

Insofern schliesst die Reglung natürlich mehr ein, als nur die Übertragungswerte und das Farbmodell.
Es ist die Definition der gesamten Bild-Repräsentation.
Das schliesst die Videopegel und deren Übertragungswerte ebenso ein wie Primaries und Weisspunktdefinition.

Insofern betrifft es den Farbraum und das Farbmodell schon.
Spricht man also von 709, dann liegen all diese Punkte fest.
Spricht man "nur" von 16/235, dann kann man da natürlich auch alles mögliche Andere drin übertragen, was für mich aber im Moment keinen Sinn machen würde.
Mit andern Worten: "Full Range 709" gibt es nicht bzw. entspricht nicht dem Standard.



Antwort von dienstag_01:

Resolve ist bei uns (ist auch standardmäßig so drin) auf Video Levels eingestellt. Also 16-235 laut unserem Coloristen. Jetzt sagte er mir, dass diese Range erstmal nichts mit 709 zu tun hätte, weil Range und Farbraum ja zwei unterschiedliche Dinge sind. Aber gibt es überhaupt "Full Range" 709? Meines Wissens nach ist 709 immer legal range gewesen.
Die Luminanzrange ist schon Bestandteil der Rec.709.
Den digitalen Werten sind ja analoge zugeordnet, da würde es in manchen Fällen sonst einfach nur noch PUFFFF machen ;)
In Resolve kann man in FullRange arbeiten (oder besser: arbeitet man). In Avid ebenso. Und da beginnt die ganze Konfusion.
Man muss das passende Monitoring dazu haben (Arbeite ich in Rec709 brauche ich auch ein Monitoring für Rec709, ansonsten FullRange).
Und, sehr wichtig, man muss wissen, was bei der Übergabe passiert. Bestimmte Codecs *legalizen* einfach die Ausgabe. Andere nehmen die volle Range. Gerade für VFX mit den Grafikformaten bietet sich das sogar an. Wenn man jetzt ins nächste System wechselt, z.B. Avid oder Flame, muss klar sein, in welcher Range das Material kommt. Wenn ich immer schön brav im Standard nach 709 arbeite und dort plötzlich in FullRange gearbeitet wird, dann ist alles schön flau. Oder umgekehrt, alles crushed und clipped. Da hilft nur testen.
Aber auch bei denen gilt, wenn es ausgegeben wird und über den Sender gehen soll, dann wird es 709. Mit legal Range.
Mein Wissensstand ;)



Antwort von merlinmage:

Danke an dienstag und WoWu! Ich les mir jetzt mal den Beitrag von Reiner noch durch. :)



Antwort von Reiner M:

Ich les mir jetzt mal den Beitrag von Reiner noch durch. :)

Der bezieht sich aber nicht auf Deine Frage.
Da hatte Wolfgang schon passend geantwortet.

Nur noch die Info zum Videolimiter vielleicht:
Wenn Du in Premiere Pro den Videobegrenzer nutzt, achte ggf. darauf, dass er mit der Einstellung "Reduzierungsachse: Intelligente Grenze" arbeitet. Dann werden die Kurven in den Bereich innerhalb der Limits überführt, umgerechnet.
Andere Einstellungen kappen einfach oben und unten.

Was besser für Deine Zwecke geeignet ist, must Du entscheiden. Hängt ja auch davon ab, wie die Quellen aussehen und wo im Verarbeitungsstapel der Effekt sitzt. Man sollte nur beachten, dass dieser Effekt sehr unterschiedliche Auswirkungen haben kann, je nach Einstellung der Parameter.

Ansonsten bist Du für solche Zwecke mit allen dafür geeigneten Effekten gut beraten, die in Premiere Pro mit "YUV" gekennzeichnet sind.

Beste Grüße,
Reiner



Antwort von merlinmage:

Hab die eng Version hier, "smart" hatte ich immer verwendet. Passt also.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic MFT GH4 / GH5 / GH5s-Forum

Antworten zu ähnlichen Fragen:
VHS ist immer noch nicht tot
Windows 10 ist fertig. Aber noch nicht für jedermann
GoPro: Auslieferung der Karma-Drohne steht noch immer nicht fest
DVD brennen - Encore CS6 ist nicht in der Cloud?!
Adobe + Prores files + 0-255 Bug?
Frame drops beim capturen trotz rel. starker Hardware
Kurznews: Einer geht noch - Natron V1.2.1 ist da
BMPC 4K immer noch nicht verfügbar
Was ist denn jetzt mit der neuen Pana auf der NAB?
Ist diese Aufnahme vom Vortrag noch irgendwie bearbeitbar? (Entwackeln, Beamer-Flimmern)
Als DaVinci noch nicht Resolve war (1987)
Wenn 8K TVs nicht 8K (und 4K nicht 4K) sind - Samsungs Problem mit der Auflösung
Camcorder-Suche: Noch niedrigere Anforderungen gibt es scheinbar nicht... :)
GH4 bekommt V-Log - aber noch nicht im nächsten Update
Will High Frame Rate Cinema immer noch nicht zünden?
AviDemux neueste Version 2.6.9 V2 kanns immer noch nicht mit YUY2
Wer filmt noch mit der Canon XH A1?
Wie hieß noch mal der Film?
Lohnt der Update auf Adobe 1.5 noch?
ZDF info "Verschwörungstheorien - Leben im Wahn" : ist das noch d
Ist das Apple MacBook Pro noch Pro?
D-Exit: Dankt der deutsche Film international noch weiter ab?
Besteht das Überhitzungsproblem bei der a7r ii noch? A7s ii?
Wenn 8K nicht 8K ist
BRAW ist nicht RAW
Podest wackelte bei der Aufnahme - kann man das noch retten?

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
7-10. November / Linz
Linz International Short Film Festival
alle Termine und Einreichfristen