Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // AVCHD scheint in der Farbkorrektur besser zu halten als alle anderen codecs



Frage von Frank Glencairn:


Entweder hab ich irgendwas komplett übersehen, oder der AVCHD scheint in der Farbkorrektur besser zu halten als alle anderen Codecs.

Ich hab ein original AVCHD File mit überstrahlten Lichtern auf eine Premiere Timeline gezogen und mit dem Fast Color Corrector ausprobiert, wie viel Detail ich noch aus den hellen Flächen raus kitzeln kann.

Natürlich würde man in einer normalen Korrektur nie soweit dran rum schrauben, ich war einfach nur neugierig.

Dann hab ich das selbe File nach Cineform (Film), Black Magic unkomprimiert 8 Bit YUV, 10 Bit YUV und 10 Bit RGB exportiert und die selbe Farbkorrektur angewendet. Das Ergebnis hat mich von den Socken gehauen - Irgendwie stellt das alles auf den Kopf was ich über Codecs weiß.

Hier mein Bericht: http://frankglencairn.wordpress.com/201 ... hing-else/

Wowu - hast du ne Idee was da vor sich geht? Irgendwie steh ich momentan aufm Schlauch.


Frank

Space


Antwort von Jott:

Egal, was da vor sich geht - vielleicht ein Konversionsfehler (Farbraum) - AVCHD ist in einer professionellen Kamera wie der FS100 wirklich gut. Deswegen verstehe ich auch nicht, warum so vielen meinen, man MUSS unbedingt irgend einen externen Recorder dranhängen, weil das gerade in Mode ist. KANN reicht völlig. Das Gefummel lohnt sich in vielen Fällen wirklich nicht.

Space


Antwort von Frank Glencairn:

AVCHD kann man zwar mittlerweile einigermaßen flüssig schneiden (entsprechendes System und Software vorausgesetzt) aber im Vergleich mit unkomprimiertem Material ist das ganze immer noch recht zäh.

Wenn dann noch VFX oder Keying dazu kommt und das ganze auch noch auf eine Leinwand soll, ist AVCHD nicht der beste Codec um damit anzufangen.

Ansonsten ist es wirklich beachtlich welche Qualität AVCHD mit gerade lächerlichen Datenraten zustande bringt und wie robust der Codec - auch in der Farbkorrektur - ist. Ich hab es mit normalem Grading jedenfalls bisher noch nicht geschafft ih auseinanderfallen zu lassen.

Frank

Space


Antwort von Axel:

Afaik ist das zum durchaus geringeren Teil das Verdienst des Codecs. Es hängt zusammen mit der Qualität ("float") und den dafür erforderlichen Leistungsreserven der Software (und damit indirekt der Hardware). Vor allem die Grätsche zwischen guter Performanz (die in Bezug auf die Beurteilung der Bildqualität zweitrangige Echtzeit) und getreuer Vorschau darf nicht unterschätzt werden.

Bis wohin einen der Originalcodec trägt, muss die Praxis zeigen. Man kann nur staunen, wie weit das heute ist.

Zumindest ich staune.

Space


Antwort von wolfgang:

Das ist kein Problem der Farbkorrektur - sondern scheint lediglich ein Problem zu sein, wie in der Konversion der Superweiß-Anteil behandelt wird. Der geht nämlich offenbar bei der Konversion zum Cineform wie auch zum Blackmagic Codec komplett verloren, bleibt aber bei der Korrektur des AVCHD Materials vermutlich teilweise erhalten. Zusätzlich wird bei der Behandlung des AVCHD Materials der Kontrastumfang besser - was in Summe den besten Bildeindruck macht.

Ich weiß nicht, wie dein Schnittsystem mit Superweiß umgeht - und wie die Codecs das behandeln. Neuere Premiere Versionen behandeln ja Superweiß längst korrekt, aber ob die Codecs das machen weiß ich nicht. Würde man das mit einem Codec machen, der nicht den Superweiß-Anteil verwirft, wie etwa dem Canopus HQ codec, hätte man diese Probleme nicht.

Und ansonst: ja, dass AVCHD nativ behandelt heute keine schlechteren Ergebnisse mehr liefern muss als wenn man über Intermediate Codecs geht, ist längst kein Geheimnis mehr. Vorausssetzung sind aber gute Decoder, wie sie längst in einigen NLEs implementiert sind. IMMER stehen die nicht vermeidbarn Verluste bei dem Wechsel zu einem Intermdiate den Verlusten gegenüber, wenn ich den Schritt direkt an nativen AVCHD Material mache - und dass da AVCHD Material nicht schlecht abschneiden muss, wissen wir seit den Tagen seit NLEs konsequent auf den nativen AVCHD Schnitt setzen - begonnen damals mit Sony Vegas, übernommen später von Premiere, und sogar von Edius, wo Grass Valley aufgrund seines superben Intermedate Codecs diesen Weg spät gegangen ist. Also so gesehen nichts Neues! :)

Space


Antwort von Frank Glencairn:

Daß die Umwandlung in einen Intermed Code keine direkte Bildverbesserung bringt war mir klar, aber ich dachte bisher immer, daß wenigstens beim Wechsel auf einen "höheren", also unkomprimierten Codec (10 bit - 4:4:4) wenigstens keine Informationen verloren gehen.

Ich hab gerade einen Test gemacht, AVCHD aus der Kamera vs. unkomprimiert BM Hypershuttle. läd gerade auf Vimeo hoch (ich poste den Link später).

Das Ergebnis ist enttäuschend (für jemand der das Shuttle gekauft hat).
So gut wie kein sichtbarer Unterschied (und ich bin ein ausgesprochener Pixel-Zähler). Einzig in schnellen Bewegungen ist minimal was zu sehen, aber nix was das Shuttle und den Workflow rechtfertigen würde.

Selbst bei exzessiver Farbkorrektur (so weit würde man normal nie gehen), hällt der 4:2:0 AVCHD quasi genauso gut Stand wie unkomprimiert.

Erstaunlich.

Frank

Space


Antwort von Axel:

Besser als das Original kann ein Intermediate bzw. Mastercodec auch nicht werden. Und ein nativer Codec wird - sofern die Software nicht auf integere 8-bit-Berechnungen beschränkt ist - allenfalls durch eine Addierung von Rundungsfehlern verschlechtert. Diese Gefahr wird durch die Bearbeitungsreihenfolge des Benutzers wiederum stärker beeinflusst als durch den Codec: Was weg ist, weil ich's weggefiltert habe, steht, Fließkomma oder nicht, im nächsten Schritt nicht mehr zur Verfügung. Auch nicht in besseren Codecs.

Aus 8-bit 420 wird auch nichts Besseres, wenn man es vor dem Bearbeiten in einen solchen Codec überführt.

Beispiel Photoshop. Sehr gerne hätte man ein Raw-Foto, aber nehmen wir mal an, man hätte nur ein Jpeg in Web-Auflösung. Würde dieses tatsächlich mit dem Original-Pixelraster und dem Original Kindergarten-8bit-Farbkasten von Photoshop behandelt, bräuchte man es gar nicht erst zu öffnen. Aber Photoshop behandelt jedes Bild während der Bearbeitung "als" Psd (Skalierung mit raffinierter Interpolation, virtuell höhere Farbtiefe).

Es hat wohl wenig Sinn, das fragliche Bild vor der Bearbeitung schon als größeres Tiff o.ä. zu speichern, oder?

Nun ist die Frage, wenn ich wiederum nur ein Webbild benötige, ob ich es als .psd oder als .jpg speichere. Argumente?

Mit extremem zeitlichem Aufwand durch AAE gezogene Clips mit unübersehbar vielen Keyframes würde man traditionell wohl unkomprimiert ausgeben. Muss man das? Wird die Qualität besser, wenn man es ohnehin später bei YouTube hochlädt? Argumente.

Mein Kumpel rendert Tiff-Sequenzen, weil bei später festgestellten Fehlern nicht mehr der komplette Clip neu berechnet werden muss. Das wäre zum Beispiel ein Argument. Aber Farbkorrektur fällt da wohl noch nicht drunter.

Space


Antwort von dienstag_01:

Entweder hab ich irgendwas komplett übersehen, Musst du.
Deine Beispielbilder haben definitiv nichts mit dem "Halten" des Codec zu tun, da stimmt der Workflow den Farbraum betreffend nicht (Oder deine Farbkorrektur hatte das Ziel, alles schön flau zu machen). Also, das aus Weiss hinterher Grau mit Werten um die 190 wird, nee, also das ist dein Fehler.

Space


Antwort von wolfgang:

Daß die Umwandlung in einen Intermed Code keine direkte Bildverbesserung bringt war mir klar, aber ich dachte bisher immer, daß wenigstens beim Wechsel auf einen "höheren", also unkomprimierten Codec (10 bit - 4:4:4) wenigstens keine Informationen verloren gehen. Wir reden von 2 oder 3 verschiedenen Dingen - einmal, ob der Luminanzumfang 0-255 erhalten bleibt, also die Superweiß-Superschwarz Thematik. Unsere Camcorder zeichnen Superweiß durchaus auf. Kommt es zu einer Einschränkung im Umfang auf 16..235, so wirkt das Bild flauer, wie bei dir beobachtbar.

Das andere ist das Farbsampling - wenn du von 4:2:0 kommst, hast du immer die Gefahr des "Auslaufens" bestimmter Farben. Da kann es besser sein auf 4:2:2 oder gar 4:4:4 vor bestimmten Arbeitsschritten zu gehen - aber hier dürfte das nicht relevant sein, so dramatisches Compositing sehe ich da nicht.

Das Dritte ist ob du in 8 oder 10bit arbeitest - wieder eine andere Baustelle.

Du betrachtest eher den zweiten und dritten Punkt, aber der relevante Punkt ist in deinen Beispielen eher der erste Punkt.

Space



Space


Antwort von dienstag_01:

Unsere Camcorder zeichnen Superweiß durchaus auf. Kommt es zu einer Einschränkung im Umfang auf 16..235, so wirkt das Bild flauer, wie bei dir beobachtbar. Das ist auch eine sehr verkürzte, wenn nicht falsche Darstellung.
Der Videofarbraum umfasst nach Spezifikation (601/709) 16-235 Luminanzwerte. 235 (zum Beispiel) wird am TV, aber auch im (Software-) DVD-Player als "volles" Weiss dargestellt. Software-Player können allerdings auch mit einem Farbraum von 0-255 umgehen. Vorausgesetzt sie interpretieren den Farbraum richtig, sehen beide Versionen (annähernd) gleich aus.
Der Gedanke, den 0-255 Farbraum für bspw. DVD zu nutzen, kann aber auch nach hinten los gehen, wenn nämlich dein Abspielgerät einen Farbraum nach Spezifikation erwartet und dann z.B. deine dunklen Grauanteile (um die 16) schon als Schwarz interpretiert (Ähnlich mit Werten um 235, die sind dann auch schon komplett weiss).
Vom Broadcast-Bereich gar nicht zu reden, da gelten sowieso die Spezifikationen.

Space


Antwort von Frank Glencairn:

Hir der versprochene Link zum Vergleich FS100 AVCHD vs. Hypershuttle unkomprimiert.



Frank

Space


Antwort von WoWu:

@Frank

Das liegt weniger am Codec, als daran, wie die Kamera quantisiert.
Moderne Kameras verändern die Quantisierung, je nach Bildanalyse. Z.B. bei dunklen Bildinhalten legen sie mehr Quantisierungsstufen in den unteren Bereich und bei hellen Bildinhalten in den Weissbereich. (nur als Beispiel).
Das hat mit den unterschiedlichen Werteräumen nichts zu tun. Da kann es nur zu einer Spreizung (bzw. Stauchung) und damit zu Fehlfarben innerhalb des Gesamtbereiches kommen, weil man ja Weiss nicht vom Rest des Spektrums losgelöst betrachten kann.

Solche, oben beschriebenen Quantisierungsveränderungen werden im Codec abgebildet.
Transcodierst Du das ganze nun mit einer linearen Quantisierung, hast du nur noch eine limitierte Anzahl von Schritten in diesem Bereich und verlierst natürlich die Vorteile.

Es gibt noch ein paar mehr Gründe, nativ zu arbeiten.

@Frank Nachfrage: wie bist Du in das Hypershuttle reingegangen ?

Space


Antwort von Frank Glencairn:

Danke für die Einsichten Wolfgang - wie immer eine kompetente Quelle unerschöpflichen Wissens.

:-) Frank

P.S. Dein Buch war im Übrigen auch sehr nützlich und lehrreich für mich.

Space


Antwort von WoWu:

@ Frank

Vielen Dank.
Bezüglich des Hypershuttles frage ich deswegen, weil ein Deck, das transparent aufzeichnet, nicht automatisch 10 Bit machen muss, denn wenn das ganze über HDMI läuft, spielt die Schnittstelle mit.
Normalerweise kommen nämlich über HDMI nur 8 Bit mit 1(pix/group) und 1 frag/group). Will man 10 Bit über HDMI machen, muss das signalisiert werden. Dann wird erst die clock der TMDS Codierung auf das 1,25-fache heraufgesetzt und 4 pix/group und 5 frag/group übertragen.
Ist das nicht der Fall, funktioniert HDMI nicht in 10 Bit sondern nur in 8 Bit.
Wenn auf dem Aufnahmeweg also nicht für diese Signalisierung gesorgt wird, verhält sich HDMI default-mässig.

Space


Antwort von Frank Glencairn:

Ich bin über HDMI in das Hypershuttle rein.
Was ja schon damit losgeht, da die FS100 nur 8bit 4:2:2 über HDMI ausgibt.
Irgendwie hatte ich gedacht man würde einen Unterschied zu AVCHD 4:2.0 sehen. Ist aber so gut wie gar nicht der Fall.

Über Komponenten gibt sie wenigstens 4:4:4 aus, ist rein optisch aber auch nicht DER Riesenunterschied, obgleich deutlicher zu sehen als über HDMI. Ich kann nicht mal sagen ob es wirklich "besser" ist, nur halt anders.



Frank

Space


Antwort von WoWu:

Ah, alles klar. Ich dachte, dass die FS100 10 Bit ausgibt.
Wie bist Du denn sonst mit dem Teil zufrieden ?

Space


Antwort von Frank Glencairn:

Nachdem ich wochenlang Picture Profile gemessen, geändert und getestet habe, ein Traum.

Wir haben gerade einen Imagefilm für eine Bank abgedreht - der erste ernste "real world" Einsatz mit der FS100. Ich war selten mit einer Kamera so happy. Wenn sie jezt noch 24 und 60 Frames könnte wie das US Modell, wär"s perfekt.

Frank

Space


Antwort von wolfgang:

Also ich glaube nicht dass das falsch ist, Dienstag. Die Kamera nimmt halt im unerlaubten (?) Superweißbereich auf, wie jede Consumer-Kamera. Vermeidbar ist das bei dem hier gezeigten Bild nur dann, wenn man den ganzen Luminanzbereich auf unter 245 drückt - aber dann sitzt halt der vordere Bildteil arg im Dunklen.

Und wenn der Superweiß-Bereich eben das Bild besser aussehen läßt - dann ist es halt leider so dass sich das Material wenig um die Norm kümmert! :) Die hier bevorzugte Methode von Frank, dann offenbar nativ zu bleiben, wählt er in Wahrheit ja deshalb, weil das Material mit den Superweiß-Komponenten besser aussieht.

Ernsthaft, die gänigen Einwände bezüglich sendesicherem Bereich kenne ich seit geraumer Zeit. Die Frage ist aber eher die, ob ich mich vor dem Hintergrund meiner Arbeit - wo die eingesetzt wird - daran halte oder nicht. DAS ist sowieso immer die - hoffentliche bewußte - Entscheidung des Cutters. Geht mein Material in den Broadcast Bereich, werde ich mich definitiv daran halten - im Heimbereich kanns ganz anders aussehen, je nach verfürgbaren Geräten (einige können sehr wohl Superweiß). Und wenn die eine Luminaz durch die Verwendung von Codecs - die das einfach machen - auf 235 geclippt oder beschnitten werden, finde ich das nicht gut.

Das Problem: es gibt Aufnahmesituationen, da hat man einene fließenden Übergang in Superweiß hinein. Und das kann Probleme machen. Denn dass das Clipping auf 235, wie es im DV-Zeitalter auch der Mikrosoft-DV-codec gemacht hat, auch Nachteile in der Verbeitung haben kann, hat gerade hier auf Slashcam Holger in seinen grundlegenden Artikeln sehr wohl gezeigt. So führt das Cliping bei einem fließenden Übergang in den Superweiß-Bereich hinein zu Helligkeitsprüngen.

https://www.slashcam.de/artikel/Grundla ... chied.html

Wir haben immer empfohlen, dass man auch im Heimbereich sein Equipment austesten möge - um überhaupt zu wissen wie man vorgehen soll. Das geht mit einfachen Mitteln, wie etwa simplen Testbildern.

Und klar liegts an der Quantifizierung der Kamera Wolfgang. Aber mach die gleiche hier gemachte Übung mal mit einem Canopus HQ codec, der Superweiß wahlweise zu- oder wegläßt. Dann sieht das Ergebnis wie beim nativen Material aus.

Space



Space


Antwort von Alf_300:

Von Weis und Superweis versteh ich nix aber vielleich findet sich einer (vielleicht der WoWu) der so nebenbei erklären kann woher der erweiterte Farbraum für Blu Ray kommt

Space


Antwort von Frank Glencairn:

Lustigerweise interresiert das die Broadcaster bei eginem Material nicht, da geht es ins Superweiß daß die Schwarte kracht - aber whe du lieferst als Externer sowas ab, dann ist Polen offen.

Frank

Space


Antwort von dienstag_01:

Und wenn der Superweiß-Bereich eben das Bild besser aussehen läßt - dann ist es halt leider so dass sich das Material wenig um die Norm kümmert! :) Die hier bevorzugte Methode von Frank, dann offenbar nativ zu bleiben, wählt er in Wahrheit ja deshalb, weil das Material mit den Superweiß-Komponenten besser aussieht. Wenn du mal ne (kommerzielle) DVD einlegst und schaust, siehst du, das das Weiss genauso ein "Superweiss" ist wie von 0-255 Video, obwohl es den Spezifikationen entspricht (16-235). Umgekehrt kann dir aber passieren, dass an einem Gerät, das Video im Rahmen der Spezifikation erwartet, das Weiss ausbrennt und das Schwarz zuläuft.
Der Computermonitor und die verschiedene Abspielsoftware treffen da nicht immer die richtige Wahl, deshalb sieht es dann schnell Grau in Grau aus.
Aber wenn man irgendwann mal was mit TV oder kommerzieller Veröffentlichung auf anderen Medien zu tun hat, kann man den Farbraum eben nicht einfach so wählen, wie es am heimischen PC gerade mal am besten aussieht.

Space


Antwort von dienstag_01:

Lustigerweise interresiert das die Broadcaster bei eginem Material nicht, da geht es ins Superweiß daß die Schwarte kracht - aber whe du lieferst als Externer sowa ab, dann ist Polen offen. Das ist eben Quatsch.
Ich würde mal vermuten, dass dein Workflow für die Vorschau überhaupt nicht hinhaut.

Space


Antwort von WoWu:

Ich hatte das eben schon angesprochen...
Die ganze "Superweiss" Diskussion ist eigentlich müssig, weil die Schnittstellen sie nur mit der erforderlichen Signalisierung (Full rage) übertragen. Ist das nicht der Fall, wird nur "limited rage" berücksichtigt.
Gebe ich aus einer HDMI ein Signal, das vermeintlich im R'G'B' Raum verarbeitet ist, ohne die entsprechende TMDS Signalisierung heraus, nimmt der HDMI Empfänger das also nur default- mässig im limited rage an.
Das mag auf dem PC noch toll ausgesehen haben und ich mag über analoge Schnittstellen auch noch einen gewissen Effekt damit erzeugen können, aber das ist alles nicht reproduzierbar, zumal auch eine Stauchung des GESAMTEN Signals damit einhergeht.
Wer gute Bilder machen möchte, sollte sich von dem ganzen Firlefanz verabschieden und Systeme so nutzen, wie sie vorgesehen sind. Es gibt ja die Möglichkeit, solche Werftenbereiche und erweiterte Farbräume zu benutzen.
Warum als rumbasteln ? Moderne Geräte reproduzieren das ohnehin nicht und Sendeencodern ist sowieso eine Analyse vorgeschaltet, die solche Wertebereich "kippt". Man darf sich also nicht beschweren, wenn die Bilder, die mit solchen Verfahren angefertigt wurden, nachher völlig anders aussehen.

Space


Antwort von Frank Glencairn:

Lustigerweise interresiert das die Broadcaster bei eginem Material nicht, da geht es ins Superweiß daß die Schwarte kracht - aber whe du lieferst als Externer sowa ab, dann ist Polen offen. Das ist eben Quatsch.
Ich würde mal vermuten, dass dein Workflow für die Vorschau überhaupt nicht hinhaut. Was hat es mit meiner Vorschau zu tun, was das ZDF sendet?

Kürzlich war ne Reportage (im unsäglichen Stil von Gallileo) wo es um den Umgang mit Hitze (z.B. in Zügen mit ausgefallener Klimaanlage) ging.
Offensichtlich auf ner DSLR, aus der Hand gedreht, Blende bis zum Anschlag offen, Tiefenschärfe 12mm. Du kannst dir vorstellen mit welcher ISO die in einem Zugabteil gedreht haben und wie die Fenster an einem strahlenden Hochsommertag aussahen.

Kein Problem fürs ZDF.

Wir haben was abgeliefert, daß in ner stockdunklen Kirche gedreht wurde - mit entsprechendem Ergebnis an den Fenstern. Klar kann ich das jetzt künstlich runter drehen bis aes innerhalb der Specs ist und aus der weißen Fläche ne hellgraue Fläche wird. Schöner wird es dabei aber auch nicht.

Nebenbei gesagt verlass ich mich immer noch am liebsten auf meine Scopes, obwohl ich kalibrierte Broadcast Monitore für die Vorschau habe.

Wobei die ganze Mühe bei den meisten Flachbild-Billigglotzen in Werkseisstellung sowieso für die Katz sein dürfte. Ich hatte kürzlich für einen Bekannten ein solches Teil. so gut wie"s geht eingestellt "kalibriert möchte ich das nicht nennen" - danach hat die Familie gesagt er soll es wieder zurückstellen, weil das Bild so flau und unscharf ist.


Soviel dazu....

Frank

Space


Antwort von WoWu:

Ja Frank, nur das Problem ist, dass Du auf den Vorschauen nicht siehst, was im Sendeweg, bei einer Rückführung in die Sendesignale, aus Deinem Produkt gemacht wird.
Wenn Dir also nicht völlig Wurscht ist, wie es beim Zuschauer ankommt, wird man in der Produktion schon berücksichtigen, was auf dem Weg zum Zuschauer geschieht.
Denn als Macher ist mir ja nicht wichtig, wie es bei mir aussieht, sonder wie es beim Zuschauer rüber kommt.
Oder bin ich da nun zu altmodisch ?

Space


Antwort von dienstag_01:

Wir haben was abgeliefert, daß in ner stockdunklen Kirche gedreht wurde - mit entsprechendem Ergebnis an den Fenstern. Klar kann ich das jetzt künstlich runter drehen bis aes innerhalb der Specs ist und aus der weißen Fläche ne hellgraue Fläche wird. Schöner wird es dabei aber auch nicht. Das mein ich doch, deine Vorschau stimmt nicht.
Wenn du den überstrahlten Bereich in den Bereich der Spezifikationen drehst, dann ist er eben nicht Grau, sondern Weiss. Auf einer ordentlichen Videovorschau sieht man das (auch in manchen Schnittsystemen). Wenn du aber einfach 1:1 auf deinem Computermonitor arbeitest, wird das in den meisten Fällen schief gehen.

Space


Antwort von Frank Glencairn:

Nein, da hast du völlig recht, nur hab ich darauf immer weniger Einfluss.

Früher hatte ich nen Klasse1 Monitor, Vectorsope und Histogramm und was darauf in Ordnung war ist (weitgehend) auch so bei den Röhrengeräten draußen angekommen. Heute sind so viele Variablen und Wandlungen im Spiel, daß du das vergessen kannst. Was beim Zuschauer ankommt ist ja oft schon lausig, aber dann macht die Settop Box noch ihr eigenes Ding und der Fernseher verschlimmbessert das gane nochmal mit wildem skalieren, 400HZ Bullshit, Farbboostern, Supermotion undwasweißichnochalles.

Außerdem soll es auch noch auf alten Röhren, am Computer mit 6bit TFT Pannel und auf dem Handy/Tablett gut aussehen.

Juhuuu, schöne neue Welt.....

Space



Space


Antwort von WoWu:

Ganz im Gegenteil !

Heute hast Du die Möglichkeit, Dein Signal, so wie es bei Dir aussieht, exakt bis in die Wohnzimmer zu bringen. Du darfst nur solche (bessermach) Experimente nicht durchführen.
Benutzt man das System, wie vorgesehen, funktioniert es ganz fabelhaft.

Space


Antwort von Frank Glencairn:

In meinem Wohnzimmer schon, aber auf die Millionen anderer Wohnzimmer mit ihren Bildverschlimmbesserungs Geräten hab ich eben keinen Einfluss.

Space


Antwort von WoWu:

:-)) Das ist wohl richtig.
Aber wenn man denen ein standardkonformes Signal anbietet, arbeiten sie wenigstens nicht unberechenbar.
Das ist doch wenigstens schon etwas.

Space


Antwort von wolfgang:

Wenn du mal ne (kommerzielle) DVD einlegst und schaust, siehst du, das das Weiss genauso ein "Superweiss" ist wie von 0-255 Video, obwohl es den Spezifikationen entspricht (16-235). Dieses Beispiel trifft die Sache nicht - wir reden hier von Ausgangsmaterial, in dem definitiv Superweiß enthalten ist und nicht von einem Endprodukt. Und es geht auch nicht um die Frage, wie das in den Übertragungswegen aussieht, wie Wolfgang meinte. Nein, die Frage ist eher, wie man mit dem Superweiß im Zuge der Bearbeitung umgeht.

Warum ist das von Bedeutung? Hat man im Superweiß-Bereich Informationen, dann kann das unter Umständen zu Helligkeitssprüngen führen, wenn man unreflektiert den Superweißbereich vor der eigentlichen Bearbeitung durch ein Clipping wegschneidet. Das ist dann AUCH auf Geräten sichtbar, die den vollen Umfang gar nicht darstellen können.

Abgesehen davon sieht man auch am hier von Frank gezeigten Bildmaterial mal wieder, dass es für den Erhalt der Zeichnung im Weißbereich immer besser ist, wenn während der Bearbeitung durchgängig der volle Luminanzumfang erhalten bleibt, und erst im letzten Schritt durch Anwendung eines Knees das Sußerweiß auf den Luminanzwert 235 reduziert wird - wenn man das machen will. Nur durch diese Reihenfolge rettet man feine Details aus dem Superweißbereich auch für Geräte, die gar nicht Superweiß darstellen können.

Durch den Einsatz der beiden Codecs hat Frank aber ein Clipping bereits vor den eigentlichen Bearbeitungsschritten erfolgt - und damit die Bildinformation im Superweiß Bereich zur Gänze verloren. Das ist eine Vermutung, die sich rein aus dem optischen Eindruck ergibt - die man noch mit Meßinstrumenten prüfen müßte. Aber Frank ist das auch aufgefallen, und es wundert mich nicht dass ihm das Material mit dem vollen Luminanzumfang am besten gefällt.

Es hängt also zum einen davon ab, an welcher Stelle der Bearbeitungskette es zu der Veränderung des Luminanzumfanges kommt und wie genau es durchgeführt wird. Solche Feinheiten sollte man als Cutter beachten, sonst sieht man negative Effekte auch unter Umständen auf Geräten, die sich brav an die Norm halten. Das mögen kleine Feinheiten sein. Es sind aber keine, die ihre Bedeutung durch die Art der Wiedergabegeräte verlieren.

Es geht also nicht darum, Superweiß einfach zu vergessen oder gedankenlos weg zu schneident. Es geht viel eher darum, sich darüber im klaren zu sein, dass der Luminanzumfang im Ausgangsmaterial sehr wohl 255 erreichen kann - und zu wissen wir man das in der Bearbeitung iintelligent berücksichtigt. Ob man dann am Ende der Bearbeitungen bewußt einen Knee reinlegt oder nicht sollte sich nur vor dem Hintergrund der Frage entscheiden, ob das für die gewünschte weitere Verwendung des Materials sinnvoll erscheint oder nicht. Und da wird die Antwort mal ja, mal nein sein. Will ich das Material auf einem Beamer oder PC präsentieren, oder auf einem Gerät welches Superweiß sehr wohl kann - dann werde ich das nicht unbeidingt machen. Will ich den sendesicheren Bereich einhalten, werden ich das unbedingt durchführen.

Space


Antwort von dienstag_01:

@wolfgang
Man muss ja nicht unbedingt klippen, man kann ja auch die Kurve stauchen.
Abgesehen davon sieht man auch am hier von Frank gezeigten Bildmaterial mal wieder, dass es für den Erhalt der Zeichnung im Weißbereich immer besser ist, wenn während der Bearbeitung durchgängig der volle Luminanzumfang erhalten bleibt, und erst im letzten Schritt durch Anwendung eines Knees das Sußerweiß auf den Luminanzwert 235 reduziert wird - wenn man das machen will. Das hat nicht nur mit dem Absenken auf 235 zu tun, sonst wären die Weisswerte in einigen Bildern nicht zu einem "Supergrau" geworden. Da ist noch mehr fehlerhaft.

Space


Antwort von WoWu:

@Wolfgang
Das kann ich so nicht nachvollziehen und auch nicht, dass Frank das Transkodierte (255) Material als das Besser beurteilt hat.
Ganz im Gegenteil sagt er, dass das aus dem ursprünglichen 235er Material mehr rauszuholen war.
(Oder hab ich das falsch verstanden ?)

Grundsätzlich erreichst Du mit einer Umcodierung von von 235 in 255 ausser Dithering absolut nichts. Auch nichts im Weiss.
Woher soll der neue Farbraum die Werte nehmen ?

Im Gegenteil. Es tut sich ja nicht nur etwas in Weiss oder Schwarz, also an den Enden, sondern auch mitten drin werden alle Farben gespreizt.
Wenn Du ein solches Spektrum darstellst, nimmt das TV Gerät genau den Wert 16 als Schwarz und den Wert 235 als Weiss und stellt sie so da. Da kannst Du darüber und darunter haben, was Du willst. Es findet im Gerät nicht mehr statt.
(Übrigens ist auch für die "unlimited" Version, deren Value bis 255 gehen, für den Fernseher Bei HDMI YCbCr bei 240 Schluss).

Wo also siehst Du auch nur einen einzigen Vorteil?
Ich sehe da nur Nachteile.

Space


Antwort von Bernd E.:

...FS100...Wenn sie jezt noch 24 und 60 Frames könnte wie das US Modell, wär"s perfekt... Sieht so aus, als ob sich dieser Wunsch erfüllen würde: viewtopic.php?t=92249

Space


Antwort von Frank Glencairn:

Jungs, vielleicht ist das irgendwie untergegangen, aber das "Supergrau" ist nicht durch das umrechnen in einen anderen Codec entstanden, sondern durch absolut exzessive Farbkorrektur - so weit würde man normalerweise nie an dem Material drehen. Nach der Umwandlung in einen anderen Codec sehen alle Clips optisch völlig identisch aus.

Was ich hier versucht habe, ist herauszufinden, wie viel Korrektur verschiedene Codecs aushalten.

Ursprünglich hatte ich angenommen, daß der AVCHD als erstes auseinanderfällt, und der BM 10bit RGB am längsten durchhält.

Aber so einfach ist das offensichtlich nicht.

Frank

@Bernd - ja Philip hat in einem seiner Filmchen mal sowas erwähnt.
Ich treff mich morgen auf ein Bier mit ihm, weil er gerade in München ist, da werd ich nochmal nachfragen.

Space


Antwort von Frank Glencairn:

Ich hab noch was für euch:

Original AVCHD File:



File nach Black Magic gewandelt.



Frank

Space



Space


Antwort von gammanagel:

Kleine Anfrage an Euch Profis,

wäre dieser Workflow sinnvoll um das Pflichtenheft der ARD einzuhalten und sendeerlaubtes Material abzuliefern:

Aufnahme mit EX-1 über SDI auf Hyperdeck shuttle, danach in NLE (Edius) in HDCAM 4-2-2 wandeln und in diesem Format weiterverarbeiten.

Hintergrund: bin längere Zeit unterwegs und habe nur SSD für 45 min, will also abends am Laptop umwandeln und auf externe Platten überspielen. Unkomprimiert müßte ich zuviele Sicherungsplatten mitschleppen.


Vielen Dank

Elimar

Space


Antwort von wolfgang:

@wolfgang
Man muss ja nicht unbedingt klippen, man kann ja auch die Kurve stauchen. Ja und was hatte ich geschrieben?? Wenn ich meine dass man das am Ende der Bearbeitung macht, ist das je eine mögliche Variante - falls man es braucht.


@Wolfgang
Wo also siehst Du auch nur einen einzigen Vorteil?
Ich sehe da nur Nachteile. In dem Bild ist massiv Superweiß enthalten - das zeigen sowohl die Meßwerte die Frank hier zeigt (Ausschlag bis 100 in der Intensität ist eh klar, wenn man sich das Bild ansieht). Heißt, ein markanter Anteil der Bildinformation sitzt leider im laut Norm "illegalen" Superweißbereich, also über 235.

Die Frage ist nun, wie man damit in der Postpro umgehen soll. Läßt man es so, ist es für den Broadcasting Bereich nicht brauchbar. Für den Heimbereich eher. Aber unterstellen wir mal, dass wir normgerecht bleiben wollen (was eine Entscheidung ist die man so oder auch anders fällten kann). Dann muß man den Bereicht auf 16..235 reduzieren. Was in den gezeigten Messwerten auch beim Blackmagic Codec nicht passiert ist - waren also andere Korrekturen die das sichtbare Ergebnis liefern.

Zum Umgang mit dem Superweiß hat man die Varianten
1 so belassen wie es ist
2 alles über 235 einfach wegschneiden
3 den Bereich von 0..255 (besser 16..255) auf 16..235 stauchen.

Will man normgerecht bleiben, fällt 1 aus. Verzichtet man darauf normgerecht zu sein, weil etwa meine Sichtkette das darstellen kann, ist 1 ideal - für meine lokale Präsentation.

Da im Superweiß Bereich viel Bildinformation sitzt, ist 2 relativ ungünstig - weil die Bildinformation verloren geht und es zu den schon erwähnten Helligkeitssprüngen kommen kann. Besser ist 3, weil ich wenigstens die Bildinformation aus dem Superweißbereich teilweise erhalte.

Und ich muß 3 ziemlich am Ende der Postpro machen, um negative Effekte wie Helligkeitssprünge zu vermeiden - sprich man sollte alle Operationen und Berechnungen vorher mit dem vollen Umfang machen, und etwa am Schluß die Stauchung vornehmen. Der Vorteil ist dann ganz klar - ich werde normgerecht UND erhalte einen Teil der Bildinformationen aus dem Superweiß-Bereich.


Jungs, vielleicht ist das irgendwie untergegangen, aber das "Supergrau" ist nicht durch das umrechnen in einen anderen Codec entstanden, sondern durch absolut exzessive Farbkorrektur - so weit würde man normalerweise nie an dem Material drehen. Nach der Umwandlung in einen anderen Codec sehen alle Clips optisch völlig identisch aus.

Was ich hier versucht habe, ist herauszufinden, wie viel Korrektur verschiedene Codecs aushalten.

Ursprünglich hatte ich angenommen, daß der AVCHD als erstes auseinanderfällt, und der BM 10bit RGB am längsten durchhält. Gut dass du das klärst, den was du genau gemacht hast um zu den Ergebnissen zu kommen ist natürlich so nicht direkt erkennbar. Dein gezeigtes Beispiel erläutert ja demnächst auch nur, dass nach der Wandlung zum Blackmagic Codec der Farbraum und die Luminanz noch erhalten bleiben - die Frage wäre eher wie das aussieht, wenn du mit deinen Änderungen fertig bist. Vorausgesetzt, dass der Umfang der Änderungen überall gleich war.

Space


Antwort von WoWu:

Also, wir müssen einmal ein paar Begriffe klären:
Den Begriff SUPERWEISS gibt es nicht, bezw. er taucht einzig in der Beschreibung der Playstation auf, weil sie die Signalisierung für andere Farbräume nicht "verstehen' konnte und nur manuell umzuschalten war.
Ansonsten gibt es kein Superweiss und der Begriff ist irreführend, weil er nicht das beschreibt, was wirklich dahinter steht.
Denn dies ist (auch bei der PS) der erweiterte Farbraum xvYCC oder wie Sony es nennt: x.v.Color.
Dieser Farbraum beinhaltet aber noch diverse andere Veränderungen, beispielsweise beruht er auf den monochromatischen Primärfarben von 700, 525 und 450 nm mit all seinen Folgen für die farbliche Darstellung.
Dieser Farbraum wird durch seine Metadaten beschrieben, die über die Schnittstellen entsprechend signalisiert werden und zur korrekten Verarbeitung führen, einschliesslich möglicher Wandlungen in andere Farbräume. Es gibt also hier nichts zu bemängeln und der Workflow ist nachvollziehbar. Dieser Farbraum hat auch nur begrenzte Ähnlichkeit mit R'G'B' Farbräumen. ich werde normgerecht UND erhalte einen Teil der Bildinformationen aus dem Superweiß-Bereich. Das stimmt daher nicht.

Insofern sollte das Thema SUPERWEISS hier abgeschlossen sein.
Ein anderer Sachverhalt liegt vor, wenn man YCbCr Farbräume in R'G'B Farbräume umlodert. Hier werden zwar auch die Ehrte oberhalb von 235 belegt, allerdings lediglich durch Spreizung der vorhandenen Werte.
Damit gilt, das vorher gesagt.

Es ist also zunächst zu klären, um welchen Farbraum es sich innerhalb der dargestellten Abbildung überhaupt handelt. Nicht auszuschliessen ist, dass es xvYCC ist. Andernfalls ist zu klären, in welcher Weise und in welchen Mess-Setting die Darstellung entstanden ist.

Fazit: Superweiss gibt es nicht.
Werden die Werte eines YCbCr Farbraums in einen R"G'B' Farbraum überführt, entsteht kein einziger neuer Farbwert und jeder "Roundtrip" YCbCr-R'G'B'-YCbCr führt zu Fehlern, wie immer er auch gestaltet ist, ist also immer verlustbehaftet.

Fest steht weiter, dass für normierte Signale (für Rundfunkanstalten) lediglich die beiden vorgesehenen Farbräume akzeptiert werden und soetwas wie "Superweiss" bisher noch als illegales Signal gekappt wird, weil xvYCC noch nicht akzeptiert wird.

Edit: ich hab mal nachgesehen, in welchem Farbraum die FS100 arbeitet, aber in den Specs gibt Sony das nicht mal an:
http://pro.sony.com/bbsc/ssr/cat-broadc ... EXFS100UK/
Schwaches Bild, denn wenn das tatsächlich xvYCC ist, wird man sich nach einer funktionierenden Wandlung umsehen müssen, sofern man im prof. Bereich tätig ist. Auch BR kann das, soweit ich mich erinnere, nicht.

Space


Antwort von Jott:

Apple belegt ebenfalls den Begriff "Superweiss/Superwhite" in fcp, in den Sequenzeinstellungen, und zwar schon immer (also seit 12 Jahren). Der Begriff kann also nicht von der Playstation und Sonys Consumerfarbraum stammen, das gab's damals alles noch nicht.

Was da bei Apple genau passiert, müsste ich mir aber auch erst mal anschauen.

Space


Antwort von WoWu:

Ja, ich weiss, es gab da auch mal den Begriff "Broadcast White" für 109% und irgend jemand in der Grafik hat dann mal alles über 109% als Super White bezeichnet, das ist so, als würde jemand alles über 100km/h als Hyperfast bezeichnen. Das sind Spielzeugbegriffe, weil die korrekten Definitionen nicht gegeben werde.
Also ich finde, die Definition 100 IRE=100% Weiss sagt alles.
Weiss ist in jedem Farbraum übrigens definiert. Man braucht also Weiss gar nicht (allein) anzugeben, weil man (besser) in einem definierten Farbraum arbeitet und nicht im "Luftleeren".
Das versuche ich ja gerade mal auf nachvollziehbare Füße zu stellen.

Space


Antwort von wolfgang:

Also gibts den Begriff jetzt oder gibts ihn nicht? Oder ist der mit FCP gestorben? :))

Wolfgang ehrlich, den Begriff Superweiß wie auch Superschwarz nutzen wird seit Jahren in unseren Praxis-Diskussionen - und wenn du dich damit besser fühlst: gemeint sind damit lediglich die Luminanzbereich außerhalb des Bereichs 16..235. Marco hats mal hier dargelegt:

viewtopic.php?t=17232?highlight=superweiss

Ich muss da Sony in Schutz nehmen - ich hatte Camcorder von Panasonic, JVC, Sony. All diese Geräte zeichnen in der Praxis munter bis 255 auf, wenn man sie läßt. Das ist halt leider ein Faktum. Aber vielleicht irrt sich die gesamte Consumer-Camcorder-Industrie. Mag auch sein, hilft nur keinem.

Mit Farbräumen und Farbraumkonversion hat das in meinen Augen wenig zu tun, auch wenn du schon recht haben wirst mit deinen Betrachtungen. Aber meine Welt ist simpler. Jedes Histogramm - auch das oben verlinkte - zeigt den Luminanzbereich an. Auch in dem hier gezeigten Histogramm ist für jeden erkennbar dass der genutzte Helligkeitsumgang bis 255 reicht! Und daher würde ich schon davon ausgehen, dass dies Bestandteil unserer täglichen Schnitt-Realität ist. :))

Frage: Wie gehst du konkret mit Material um, das in dem Bereich über 235 Signale enthält? Sagst du einfach: das darf doch gar nicht sein, das gibt es daher nicht? Akzeptieren wir das nicht? Sagen wir hier etwa Frank, seine Kamera macht etwas Unerlaubtes? Mir ist das alles recht, aber bitte was konkret ergibt sich aus diesen deinen Ausführungen? Denn die Consumer-Geräten mache das unverschämterweise halt doch. Vielleich sogar die Profi-Geräte??

Ich würd es schätzen eine Diskussion zu führen aus der praktisch umsetzbare Handlungsanleitungen ableitbar sind. Etwa, wie wir mit dem Phänomen in der Praxis Superweiß umgehen...

Und ansonst denke ich mir schon, dass du sehr genau weißt von was wir hier reden. Und richtig, wir nutzten den Begriff schon lange vor der Playstation... siehe alleine den alten Link den ich hier gepostet habe.

EDIT: Abgesehen davon, dass gerade du, lieber Wolfgang, das schon oft diskutiert hast - siehe etwa hier. Ist ganz lustig zum Nachlesen, wie wenig sich die Dinge ändern - von wann war das? Jänner 2009?

viewtopic.php?t=67358?postdays=0&postorder=asc&&start=0

Space


Antwort von WoWu:

Hallo Wolfgang
Ja klar, kann man einfach jeden Wertebereich mit irgend einem Begriff belegen und dann redet eben jemand von Broadcast weiss und usw.
Was den Wertebereich oberhalb von 235 betrifft ist der natürlich Nutzbar, dafür gibt es die entsprechenden Farbräume.
Wenn ein Gerät aber innerhalb eines bestimmten Farbraums, in dem die Nutzung nicht vorgesehen ist -und das regeln die Standardisierungen- trotzdem benutzt, ist das Gerät defekt. So einfach ist das und so gehe ich auch damit um.
Wenn ein Benutzer sich dieser Werte bedient, um vermeintlich bessere Qualitäten zu erzielen, weiss er nicht wirklich, was er tut, denn er gewinnt nicht einen einzigen zusätzlichen Wert, sondern lediglich Artefakte und Rundungsfehler.

Und das dürfte Deine Frage beantworten: Ich nutze den Wertebereich in Farbräumen, die dafür vorgesehen sind.
Wer aber solche Farbräume und ihre Besonderheiten nicht kennt und xvYCC mit R'G'B' verwechselt, nur weil es auf dem Messgerät so ähnlich aussieht, darf sich später weder über Farbverschiebungen noch über den Violetschimmer in seinem Bild wundern.
Denn solche Dinge haben eben nichts mit "Superweiss" zu tun.
Und das, was wir hier von Frank gesehen haben, muss erst einmal definiert werden, was es eigentlich ist. Und weil er ja, wie ich vermute, nichts daran geändert hat, handelt es sich nach meinem Dafürhalten um einen Farbraum, der zugelassener Massen den vollen Wertebereich nutzt und auch als der Farbraum behandelt werden sollte, der er ist.

Also nochmal:
Jeder Farbraum entspricht einer Standardisierung, an die sich die meisten Geräte, auf jeden fall aber die neuen Schnittstellen halten.
Jeder Farbraum sollte daher so benutzt werden, wie es vorgesehen ist. Knöpfchen, auf denen "Superweiss" sind keine Zaubermittel, die mehr Weisswerte erzeugen, sondern lediglich den Farbraum spreizen ... mit all seinen negativen Folgen, wenn man nicht, beispielsweise aus der Grafik, solche zusätzlichen Werte nutzen muss/möchte und weiss, wie das Gesamtsignal hinterher wieder in bestehende Farbäume umzurechnen ist.

Das alles spielt im privaten Sektor sicher keine Rolle ... da sorgt schon HDMI für das der Murcks nicht bis zum TV durchgereicht werden kann, wohl aber im professionellen Sektor.

Edit: Ich weiss nicht, was Du da gelesen oder hineininterpretiert hast. Da geht es um die Weissschulterdefinition und ich kann nicht erkennen, dort etwas anders definiert zu haben: Das würde aber bedeuten, dass "alle Kleinen" xvYCC machen ... machen sie aber nicht.
Die Schwarzwertanhebung ist leider bei der Digitalisierung übernommen worden und analog 1V entspricht Code 235.
Genau das macht sich ja xvYCC zu Nutze, indem es den gesamten Raum belegt. Wo sonst sollte der erweiterte Farbraum untergebracht werden ?
Und das sich nichts seit 2009 geändert hat ....? Soll mich das jetzt wundern ?
Schliesslich sind all solche Dinge seit geraumer Zeit in Standards festgelegt. Man muss sie nur lesen, dann weiss man auch, was solche Knöpfe wie "Superweiss" bedeuten.

Space


Antwort von wolfgang:

Wenn ein Gerät aber innerhalb eines bestimmten Farbraums, in dem die Nutzung nicht vorgesehen ist -und das regeln die Standardisierungen- trotzdem benutzt, ist das Gerät defekt. So einfach ist das und so gehe ich auch damit um. Bitte verwende NIE einen Consumer-Camcorder. Du müßtest jedes Gerät direkt nach dem Kauf als defekt reklamieren. Ich kann auch nichts dafür, es ist einfach so dass diese Geräte halt 16..255 nutzen können.


Ich nutze den Wertebereich in Farbräumen, die dafür vorgesehen sind. Na mit Profigeräten ist das vermutlich sogar machbar - nur nutze wirklich nie Amateurgeräte. Wobei du das selbst aber sehr wohl machst- ich erinnere mich an einen Test von dir zur JVC 100, die allerdings auch in den Superweiß-Bereich hinein aufzeichnet. Also nutzt du es ja doch!


Wer aber solche Farbräume und ihre Besonderheiten nicht kennt und xvYCC mit R'G'B' verwechselt, nur weil es auf dem Messgerät so ähnlich aussieht, darf sich später weder über Farbverschiebungen noch über den Violetschimmer in seinem Bild wundern. Für den üblichen Videoschnitt brauchst du keine Farbraumkonversion, das erledigt ja im Regelfall die Schnittsoftware für dich. Wie die NLE intern rechnet findst du nicht mal in den Spezifikationen der NLEs - im Regelfall. Derjenige, der sein Material schneidet, dürfte da nur eine begrenzte Notwendigkeit haben mit den Farbräumen umzugehen. Mit Superweiß hingegen kann JEDER Cutter in Berühung kommen - Berge von Material die sowas in sich tragen gibt es.

Wie Marco damals meinte: es sind unterschiedliche Welten. Der Cutter nutzt die Farbräume selten direkt - er schneidet einfach. Da trifft er eher auf die Notwendigkeit mit Superweiß umzugehen, als sich über Farbräume den Kopf zu zerbrechen. Das müssen eher die Programmierer der NLE gemacht haben.

Und das, was wir hier von Frank gesehen haben, muss erst einmal definiert werden, was es eigentlich ist.

Und weil er ja, wie ich vermute, nichts daran geändert hat, handelt es sich nach meinem Dafürhalten um einen Farbraum, der zugelassener Massen den vollen Wertebereich nutzt und auch als der Farbraum behandelt werden sollte, der er ist. Ja nehmen wir doch Frank als Beispiel - wollte er jetzt sein Material verwerten, was müßte er denn damit machen? Er kauft eine Kamera, filmt, schneidet - und dann? Was sagen wir ihm, was er mit dem Material machen soll?

Space


Antwort von WoWu:

Kann es sein, dass es auch Fehlinterpretationen gibt?
FCP z.B. definiert 16 als 0% und 235 als 100%.
Und dass Camcorder mit irgendwelchen Farbräumen arbeiten, glaube ich auch nicht. Sie werden sich schon an die Normungen halten. Und das, was wir hier manchmal aus Camcordern verarbeiten, bestätigt das. Und wenn Überschwinger (oder Spikes) in den oberen Werftenbereichen sind, dann nutzen genau den Raum, der dafür vorgesehen ist. Darüber hinaus .. was soll ein Monitor darstellen, wenn der Wert 235 als WEISS definiert ist ? Er hat keinen weitere Steuerspannung für seine LED.s mehr für andere Werte vorgesehen... und das hat seinen guten Grund, weil in dem Bereich nur noch Speis vorkommen, die ein Gerät gar nicht darstellen sollte. Wie Nutzlos ist der Bereich also ? Na mit Profigeräten ist das vermutlich sogar machbar - nur nutze wirklich nie Amateurgeräte. Wobei du das selbst aber sehr wohl machst- ich erinnere mich an einen Test von dir zur JVC 100, die allerdings auch in den Superweiß-Bereich hinein aufzeichnet. Also nutzt du es ja doch! Und wenn Du die alte HD100 ansprichst ... das, was ich sage, in dem Bereich stattfindet ist Müll. Deswegen wird ja geklemmt. Das heizt also, es ist ein Entgegenkommen an die Industrie, denn das exakte Einhalten würde die Consumergeräte drastisch verteuern. Sie dürfen als Überschwinger und Überpegel hier einbringen ... dazu ist der Raum da. Der Anwender darf das nur nicht mit dem Nutzsignal verwechseln.
Insofern nutze ich es keineswegs ... ich drücke ja nicht auf den "Superweissknopf" erst der würde nämlich im NLE den Bereich öffnen.

Es bleibt also dabei: Farbräume sind definierte Gebilde, mit denen man am besten so umgeht, wie vorgesehen. Dann sehen die Bilder gut aus und man ist frei von bösen Überraschungen. Du müßtest jedes Gerät direkt nach dem Kauf als defekt reklamieren. Ich kann auch nichts dafür, es ist einfach so dass diese Geräte halt 16..255 nutzen können. Und wieso gerade nur 255 ... warum macht der Recorder dann nicht auch Superschwarz von 0-15 ?

Und was die "unterschiedlichen Welten" angeht. Man muss gar nicht zwischen Cutter und Technik unterscheiden. Leute, die einfach nur Knöpfe Drücken, ohne die Konsequenzen zu kennen, sind nämlich keine Cutter. Das sind Amateure denn ein Cutter kennt all diese Zusammenhänge, kennt sich exakt mit Farbräumen aus und weiss, wie sehr genau, welche Handlungen am NLE, welche Folgen haben.
Genau das unterscheidet nämlich einen Cutter von einem Amateur.
Ein Cutter, speziell im professionellen Bereich würde erst gar nicht anfangen, mit solchen Superweiss Geschichten rumzumachen, es sei denn, er hat frei Zeit und will basteln, denn er weiss genau, wie hinterher sein Broadcastsignal auszusehen hat.
Aber im Amaterbereich, und da bin ich bei Dir, ist das wirklich ziemlich egal. Da nimmt es hinterher die HDMI weg, wenn keine Metadaten mitlaufen. Sozusagen als Automatikfunktion. Ja nehmen wir doch Frank als Beispiel - wollte er jetzt sein Material verwerten, was müßte er denn damit machen? Er kauft eine Kamera, filmt, schneidet - und dann? Was sagen wir ihm, was er mit dem Material machen soll? Ich kann ihm nicht sagen, was er damit machen soll ... ich kann nur sagen, was ich damit tun würde:
Ich würde erst einmal in Erfahrung bringen, um welchen Farbraum es sich handelt, wie jeder professionelle Anwender. Und zwar nicht von einem Marketing "Fritzen" sondern von einem Techniker oder aus einem vertrauenswürdigen Papier. Denn nur dem Amateuren ist das egal.
Und wenn das wirklich ein erweiterter Farbraum ist, dann würde ich mir den aber sehr genau ansehen und mich fragen, was das für mein Rot bedeutet, was das für den optischen Eindruck nach einer Konversion bedeutet und wie ich den so rüber bekomme, dass nicht jede hergelaufene Schnittstelle etwas anderes daraus macht ... und auch ob meine LUTs im Monitor noch stimmen und ich wirklich das sehe, was ich drauf habe.
Und um das alles zu umgehen, würde ich mir ganz schnell einen Workflow überlegen, wie ich am "schamlosesten" nach 709 komme und dann darin arbeiten.

Space



Space


Antwort von wolfgang:

Ich glaube auch nicht, dass die Geräte mit irgendwelchen Farbräumen arbeiten... das habe ich auch nicht thematsiert. Thema ist einfach der Luminanzpegel über 235 - und das ohne den Farbrauch zu betrachten. Denn das ist alles keine Antwort auf die einfache Frage, wie ein Cutter - egal ob nun mit Hintergrundwissen oder nicht - deiner Meinung nach mit dem Phänomen Superweiß umgehen soll. Was bitte soll er machen wenn er solches Material bekommt? Und er bekommt das Tonnenweise, gar keine Frage.

Du fragst ernsthaft danach, warum wir kaum über Superschwarz reden? Wolfgang, du bist wirklich weit von der Praxis weg - ich sag das nicht böse gemeint und möglichst wertfrei. Du würdest sonst nämlich wissen, dass es praktisch keinen Camcorder gibt, der Superschwarz aufzeichnet - zumindest ich habe noch keinen gefunden. Superweiß hingegen nehmen sie alle auf, bessere Geräte wie die EX1R lassen hier die Begrenzung auf 235 zu (aber auch dort kann man 255 zulassen).

Ach ja, und zur Profession des Cutters: natürlich wissen gute Cutter über Farbräume bescheid, da bin ich schon bei dir. Aber es geht nicht darum ob der die Theorie dahinter kann und weiß - den mit Farbraumkonversion muss er sich im Regelfall im Standardschnittbetrieb wenig befassen. Für Konversionen ja, aber für den Standardschnitt weniger. Insofern ist mir deine Unterschiedung Amateur versus Cutter viel zu eindimensional gedacht. Farbraumkonversion brauchts also nicht immer - aber ein Video mit einem Luminanzumfang über 235 bekommt er viel häufiger, das ist also deren tägliches Brot.

Ja nehmen wir doch Frank als Beispiel - wollte er jetzt sein Material verwerten, was müßte er denn damit machen? Er kauft eine Kamera, filmt, schneidet - und dann? Was sagen wir ihm, was er mit dem Material machen soll? Ich kann ihm nicht sagen, was er damit machen soll ... ich kann nur sagen, was ich damit tun würde:
Ich würde erst einmal in Erfahrung bringen, um welchen Farbraum es sich handelt, wie jeder professionelle Anwender. Und zwar nicht von einem Marketing "Fritzen" sondern von einem Techniker oder aus einem vertrauenswürdigen Papier. Denn nur dem Amateuren ist das egal.
Und wenn das wirklich ein erweiterter Farbraum ist, dann würde ich mir den aber sehr genau ansehen und mich fragen, was das für mein Rot bedeutet, was das für den optischen Eindruck nach einer Konversion bedeutet und wie ich den so rüber bekomme, dass nicht jede hergelaufene Schnittstelle etwas anderes daraus macht ... und auch ob meine LUTs im Monitor noch stimmen und ich wirklich das sehe, was ich drauf habe.
Und um das alles zu umgehen, würde ich mir ganz schnell einen Workflow überlegen, wie ich am "schamlosesten" nach 709 komme und dann darin arbeiten. Wolfgang, nicht böse sein, aber das brauchts meines Erachtens gar nicht. Meines Erachtens ist die Frage, in welchem Farbraum die Kamera arbeitet, für den Schnitt nicht sonderlich wichtig. Frank kann natürlich das Material unmittelbar in die NLE seiner Wahl nehmen, und gut ist es. Warum ich das glaube? Nun, weil du in den mir bekannten NLEs nicht enstellen mußt, in welchem Farbraum die Kamera aufgezeichnet hat (mag sein dass echte Profisoftware das kann, aber ich beziehe mich auf halbprofessionelle Tools wie Vegas oder CS5 oder Edius - dort ist das kein Thema).

Also nimmt Frank das Material in sein Schnittprogramm und schneidet es. Dort sollte er natürlich die Übersteuerung bis 255 erkennen - und dann hat er damit passend umzugehen.

Nach meinem Verständnis ist das die Vorgehensweise in der Praxis. Und man beachte, dass da keine Farbraumkonversion enthalten ist. Mag sein dass ich da falsch liege, ich lerne gerne dazu - aber so würde ich das machen. Bin halt Amateur.... ;)

Space


Antwort von Axel:

In Franks Bild sieht man das typische Histogramm, bei der die Höhen bei 100% (laienhaft gesagt hundert Prozent dessen, was dargestellt wird) abgeschnitten sind.

Beim Schnitt braucht einen das nicht zu kümmern, in der Farbkorrektur dann schon. Der erste Schritt in der Farbkorrektur ist die Optimierung der Tonwerte durch Festlegung des Schwarz- bzw. Weißpunktes im Bild. Wie auch immer das entsprechende Werkzeug im NLE heißt, diese Korrektur ist absolut grundlegend und bedeutet auch in 90% aller Fälle eine dramatische Verbesserung des Bildeindrucks, gleich, wie gut die Automatiken des Aufnahmegeräts waren oder wie genial der Kameramann beleuchtet und belichtet hat.

Wählt man "auto levels", befinden sich interessanterweise anschließend alle Werte im Bereich zwischen 0 und 100. Im Handbuch von Color, Color Finesse und - selbstredend - den tausend Tutorials von Colorista wird die Tonwertkorrektur auf Sicht, mithilfe des Histogramms und Vektorskops, empfohlen. Irgendwie rät keine auf Farbkorrektur spezialisierte Software dazu, sich mit geclippten Lichtern zu bescheiden. Stattdessen ist es ohne Zweifel *schöner*, Werte zu skalieren. Nicht nur schöner, es kann auch natürlicher aussehen.

Warum wir uns mit diesen Verschiebungen überhaupt befassen müssen? Das ist durchaus eine gute Frage. Ich schätze, es gibt gute technische oder technik-museale Gründe - Einhaltung von Fernsehnormen, für viele hier nicht mehr relevant, ähnlicher Kram. Wie dass man Pilze nicht in Kupferpfannen brät, 3-Minuten-Eier nicht mit Silberlöffeln ißt und Zigaretten im Schützengraben nicht herumreicht.

Space


Antwort von wolfgang:

Sprichst du von Premiere? Wenn ja - die Autolevels in Premiere machen genau das, was ich für unerwünscht halte: sie schränken dem Umfang des Materials von sich immer aus auf 16..235. Sowas will ich selbst entscheiden können - ok dann muss man halt die manuelle Korrektur nehmen.

Ansonst stimmt nicht ganz: das Originalmaterial von Frank geht bis zum Level 120%, und nach der Wandlung ist er bei 100%. Da ist offenbar in der Bearbeitung bereits ein Clipping erfolgt.

Space


Antwort von WoWu:

@Wolfgang

Guten Morgen.
Ich geb Dir ja Recht, dass sich mein Erfahrungsschatz mit Camcordern der Konsumerklasse im sehr begrenzten Rahmen hält und wir nur auf Material zugreifen, das uns hier zum Zukauf angeboten wird aber die Camcorderhersteller arbeiten auch nicht im luftleeren Raum undproduzieren einfach so blind vor sich hin. Sie orientieren sich daran, was ihre Verabredung mit den Monitor/Schnittstellenherstellern besagen. Und das nennt man nun einmal Standard. Und dieser Standard sagt ganz klar .... dass es NICHT egal ist, wie hoch der Luminanzlevel ist (wobei man den durchaus nicht losgelöst betrachten kann ... nach dem Motte: Farbe völlig egal, denn die Werte hängen zusammen, denn jede Farbe hat einen Luminanzanteil, sonst wäre jede Farbe Schwarz.-

Ich weiss nicht, wie viele andere NLEs die Skalierung vornehmen, aber unsere Systeme und das schliesst FCP ein, misst 0% den Wert 16 zu und 100% den Wert 235, es sei denn, man misst in einem anderen Wertebereich, den es ja durchaus gibt. Wenn man dann nicht weiss, in welchem Farbraum man eigentlich arbeitet, ist der Messfehler natürlich vorprogrammiert.
(Übrigens deuten die 120 ohnehin auf einen Messfehler in, denn 255 wären 109% und den Clip nach der Umcodierung kann ich nicht erkennen)

Was den Cutter betrifft, so habe ich gar nicht bestritten, dass er (leider) tonnenweise solchen Camcorderkram bekommt. Nur weiss er damit eben umzugehen und bringt es in einen normgerechten Zustand und fummelt nicht mit "Superweiss" rum.
Aber lassen wir es dabei .... wenn es auf deinem TV gut aussieht dann freu' Dich, denn HDMI überträgt Dein Superweiss nur, wenn der erweiterte Farbraum durch das AVI-Frame mitgeteilt wird. (Und da sind wir wieder bei den Farbräumen, von denen Du ja annimmst, sie spielen keine Rolle). Für die EIA tun sie das merkwürdiger Weise. (EIA-CEA-861-B).

Bezogen auf Franks Material habe ich oben schon dargestellt, was ich tun würde, um ein kompatibles Signal zu erhalten.
Man kann natürlich auch, einfach nur an den Farben rumdrehen, bis sie einem gefallen und Farbraum, Farbraum sein lassen.
Nur so schätze ich Frank nicht ein.

Space


Antwort von Axel:

Okay. Bitte um Korrektur:

Franks Bild hat Werte um 120 % (das Histogramm hat noch einen "minus zehn" - Strich, obwohl hier nichts liegt). 100% bezieht sich hier wohl auf eine Norm. Ist es korrekt, dass diese Norm einen unter bestimmten Bedingen "darstellbaren Bereich" definiert?

Beim manuellen Korrigieren von Tonwerten folge ich dem Augenschein sowie der Anzeige meines Monitors. Durch Absenken der Höhen würde ich vermutlich hier in Bildpartien Zeichnung sehen, wo vorher keine zu sehen war.

Dieses Vorgehen könnte man natürlich auch als "Clipping" bezeichnen, aber im allgemeinen Sprachgebrauch ist wohl zeichnungsloses Weiß gemeint, also visuell das Gegenteil.

Ich bin darauf gefasst, dass meine Augen (sowohl deren geschulte Sensibilität für Nuancen als auch deren physisch-optischer Zustand) nicht optimal sind und natürlich auch, dass mein Monitor kein High-End-Referenzmonitor ist, sondern lediglich ein kritisch kalibrierter Normal-LCD.

Nun, auf eben diesem Monitor mit eben diesen Augen werden mir Originalclips ohne irgendwelche QT-Gammashifts (QT spielt gar kein AVCHD) oder sonstige mir bekannten Korrekturen teilweise mit dem Clipping angezeigt, von dem man schon ahnt, dass da "noch was drin" ist.

Ich hätte gerne, dass alle Anzeigegeräte 120% darstellten (bzw. 130, wenn man die Subwoofer-Tiefen von Color Finesse dazunimmt), aber das ist überhaupt nicht so. Was ich zumindest weiß: Meine Monitore sind nicht worst case, die meisten Wiedergabegeräte sind versticht und verschleiert und das Grauen.

Space


Antwort von WoWu:

Hi Axel.
Die Normaleinstellungen bei NLEs zeigen bei 8Bit YCbCr 0% für den Wert 16 an und 100% für den Wert 235. Headroom (up und low) ist für Errors, Noise und Spikes und verhindert den over– oder underflow des A/D Konverters.

Werden solche Wertebereiche (wie in erweiterten Farbräumen) genutzt, sollen aber so nicht nach 709 übertragen werden, wird man sie clippen müssen, um zumindest die Lage der restlichen farbwerte nicht zu verschieben. Staucht man den Wertebereich, wird man alle Farbwerte in der Lage verändern.

Zum Monitor. Die neuen Schnittstellen, z.b. HDMI, spielen eine gewaltige Rolle mit im Konzert, weil sie aktiv sind. Es befinden sich also Bausteine darin, die auch Farbconvertierungen vornehmen, die aber, und das ist wichtig, zunächst einmal eine automatische Formaterkennung haben (am Timing) und danach die Werte der Übertragung setzen. Wenn sie 709 erkennen, setzen sie von ganz allein 16-235, lassen dem Hersteller aber die Freiheit, je nachdem welchen Wandler er einsetzt, bis 240 zu übertragen, es sei denn, sie bekommen einen erweiterten Farbraum signalisiert.

Der Monitor spielt danach eigentlich nur noch eine untergeordnete Rolle, weil ihm die Schnittstelle schon alles abgenommen hat.
Wenn man aber in einem erweiterten Farbraum arbeitet, muss der Monitor natürlich in der Lage sein, die Farben auch darzustellen.
Hat man aber einen Monitor, der das ohnehin nicht kann, weiss das der HDMI Empfänger und sendet es direkt an den HDMI Sender, der dann gleich diesen Farbraum gar nicht überträgt.

Insofern finde ich diese ganze Diskussion mit "Superweiss" auch bereits durch die Technik überholt, weil solches "künstliches Superweiss" das AVI-FRAME mit den Metadaten gar nicht bedient.

Space


Antwort von Axel:

@WoWu
Zunächst danke für die Erläuterung, einige Dinge sehe ich dadurch klarer.
Werden solche Wertebereiche (wie in erweiterten Farbräumen) genutzt, sollen aber so nicht nach 709 übertragen werden, wird man sie clippen müssen, um zumindest die Lage der restlichen farbwerte nicht zu verschieben. Staucht man den Wertebereich, wird man alle Farbwerte in der Lage verändern. Farbkorrektur im Sinne einer bestimmten Bildwirkung kann weitaus mehr sein als Herstellung einer idealen Farb- und Tonwertbalance. Wenn es dir als schlimm erscheint, Farbwerte absichtlich zu verschieben, hast du sicher für Grading im Sinne des heute sehr angesagten Look-Designs kein Verständnis. Nehmen wir als extremstes Beispiel mal HDR-Fotografie. Um hier zwanzig Blenden und mehr einer Belichtungsreihe in den vom Wiedergabegerät darstellbaren Bereich zu zwingen, bleibt in Bezug auf die Relativität aller Farb- und Helligkeitswerte kein Auge trocken. Dennoch kann ich auch ein HDR-Bild als 8-bit Jpeg abspeichern, das noch nicht surreal wirkt, sondern (so heißt auch das Photoshop-Preset) fotorealistisch. Bloß, dass es bei einer einzigen Aufnahme gar keinen so flachen picturestyle gibt, wie er nötig wäre, um das Ausmaß an Zeichnung trotz maximaler (für 8-bit) Dynamik zu erreichen.

Und das wäre erst der Anfang. Was mehrfache sekundäre Farbkorrektur am Original verändert, geht noch weit darüber hinaus.

Aber alle diese Manipulationen sollten auf der Grundlage des möglichst Originalinformationen erhaltenden Umgangs mit dem Footage erfolgen, und dazu muss man wissen, was man hat. Dass der Headroom oder zumindest der größere Teil davon so gedacht ist, wie du es beschrieben hast und dass dies auch mit einer D/A-Problematik zu tun hat, war mir nicht klar.

Space


Antwort von Marco:

Wenn ich das richtig deute, stammen die 120 Prozent auf Franks Screenshot des Waveform-Monitors vom Composite-Signal, während das zeitgleich dargestellte Luminanzsignal bei beiden Videos 110 Prozent zeigt.

Space


Antwort von WoWu:

Oh doch, Axel ... ich bin da 109% :-)) Deiner Meinung. Es geht mir nicht darum, nur normgerechte Werte herzustellen ... und dann die Finger davon ! Ganz im Gegenteil. Gradient spielt eine übergeordnete Rolle zur Herstellung eines Produktes, einer Stimmung ... aber was sage ich Dir ?

Mir kommt es nur darauf an -und das habe ich Deinem letzten Absatz auch so entnommen-, dass man nicht "random" in den Farben rummacht und dadurch zu einem (fast) beliebigen Ergebnis kommt, sondern dass man sich auf einer nachvollziehbaren Basis bewegt.
Um mehr geht es eigentlich gar nicht.

Wenn also Komponenten im Spiel mitspielen, die dazu führen, dass ich andere Dinge auf meinem Monitor sehe, als jemand anders, der vielleicht anderes Equipment hat, ist das sicher nicht in meinem (und Deinem) Sinn.

Betrachtet man aber das technische Umfeld, so wird man jede Menge solcher Stellen finden, die ausserhalb der vorgesehenen Benutzungsweise nicht nachvollziehbar funktionieren.
Das ist für mich der Unterschied zwischen Amateurequipment und Profiequipment (und Handhabung).
Und daher halte ich es für sinnvoll, jedes Equipment im Rahmen seiner Funktion zu benutzen und nicht in Toleranzbereichen oder sogar darüber, wo vielleicht noch was geht, aber beim nächsten Anwender vielleicht auch nicht mehr.
Das kann der Amateur machen, der sein Bild vom NLE auf sein TV Gerät spielt und mehr nicht. Nichts dagegen einzuwenden, aber Frank hat sicher Anderes damit vor.

Aber wie gesagt .... Gradient .. selbstverständlich.

Space



Space


Antwort von camworks:

Ich hab mir jetzt nicht den ganzen Thread durchgelesen, aber ein Statement ist mir aufgefallen, welches ich kurz kommentieren will:

Edius hat seit langem in seinen Settings bzw. Eigenschaften von Videoclips auch die Möglichkeit, "Superweiß" einzuschalten (also nicht nur FCP).

Space


Antwort von WoWu:

Nichts gegen einzuwenden, wenn man weiss, was man tut und es hinterher auch der HDMI Schnittstelle mitteilen kann ....

Space


Antwort von camworks:

Hatte sich nicht jemand an der Begrifflichkeit gestört?

Space


Antwort von ruessel:

Matrox nennt in Ihren Einstellungen bei der MXO2 "Superschwarz" und "Superweiß".

http://www.matrox.com/video/de/products ... w/#monitor
Superschwarz- und Superweiß-Monitoring

Die Matrox MXO ermöglicht das Superschwarz- und Superweiß-Monitoring und erweitert den sichtbaren Farbbereich Ihres DVI-Monitors.


Space


Antwort von WoWu:

Hatte sich nicht jemand an der Begrifflichkeit gestört? Ja, weil die Begrifflichkeit irreführend ist, denn sie öffnen nicht nur den oberen wertebereich, sondern auch noch den unteren Wertebereich.
Der Begriff ist damit schlicht und ergreifend FALSCH !

Space


Antwort von wolfgang:

Geh Wolfgang, häng dich nicht an der Begrifflichkeit auf - wir können das Ding auch anders nennen, der Begriff ist wirklich sekundär. Und ich kann mich nicht daran erinnern, die Kategorien "richtig" oder "falsch" in meinem Technikstudium oft gehört zu haben :) - das sind halt eher Wertungen.

Ansonst: also offenbar finden wir diese Dinge doch zumindest in Edius, Vegas, Matrox und FCP in irgendeiner Form möglich. Na gut.


Zur HDMI-Thematik. Ich habe hier am PC einen Monitor über HDMI an der Graka hängen. Aus Vegas heraus sehe ich Superweiß wie auch Superschwarz. Geht also hier auch über HDMI.

Ok, ist eine Grafikkarte. Also nehme man ein professionelleres Produkt - nix übermäßig teures, sondern nur Edius 6 und meine alte Canopus NX, die über Komponente das Signal auf einen anderen Monitor ausgibt. Ok, auch dort sehe ich Superweiß und Superschwarz über YUV am Monitor.

Sowohl in Vegas wie auch in Edius ist im Vektorskope ein Ausschlag bis +110 erkennbar. Ich nutze da ein kleines altes Testbild "Hello World", wo man den Schriftzug nur lesen kann wenn Superweiß und Superschwarz dargestellt werden (oder entsprechend gestaucht werden). Wer das haben will, findet es übrigens hier als mpeg2:

http://www.videotreffpunkt.com/attachme ... hmentid=37

Jetzt kann ich noch die Blackmagix Intensity Pro testen die auch über hdmi ausgibt, was ich damit sehen werde. Ich habe es nicht gemacht, noch nicht - aber ich wette langsam auch dort sehe ich Superweiß- und Superschwarz.

Also langsam frage ich mich: wenn HDMI ein Engpaß ist, dann aber offenbar zumindest nicht in den Schnitt oder Grafikkarten. Mag in HDTVs anders aussehen.

Space


Antwort von WoWu:

Dann hat sich der Standard eben geirrt und der Videotreff hat Recht.
Hab ich kein Problem mit.
Und ich hab auch kein Problem damit, was Amateure da so vor sich hin basteln ... nur dürften bei professionellen Anwendungen andere Maßstäbe angelegt werden.
Ich kann es mir nicht wirklich leisten, dass Produktionen von der technischen Abnahme abgelehnt werden .... das Problem hast Du glücklicherweise nicht.
Weil es bei uns weniger darum geht, was Spass macht und was nicht.
Es geht schliesslich auch um Reproduzierbarkeit und die Auswirkungen in Übertragungen, in denen ein paar Mehr TV Geräte bedient werden Museen, als ein einsamer Fernseher im Wohnzimmer.
Aber irgend einen Unterschied muss es ja schliesslich zwischen Amateur und Profi geben ... vielleicht gehört das dazu.
Ansonsten ... hier ist der Standard zum Thema HDMI: EIA-CEA-861-B (Sektion 5, wenn ich mich da recht erinnere)
Aber ich denke, Lesen ist müssig, weil Basteln eben mehr Spass macht.
hab ich auch kein Problem mit. Als STEREO kam haben wir das auch gemacht.

Und ich seh' auch wirklich das Problem nicht. Frank wird schon wissen, ob er für sein Wohnzimmer damit Bilder macht, oder er gewerbsmässig damit arbeiten wird.

Space


Antwort von wolfgang:

Seltsam dein Kommentar - wo ich vom Anfang an gesagt hatte, dass es um den Hintergrund geht, darum wo man das Material anwendet und wofür man es erstellt. Habe ich irgendwo geschrieben dass Normen im Broadcasting Bereich nicht einzuhalten seinen? Na sicher nicht. Ein bisschen mehr Fähigkeit zur Differenzierung bitte!

Profis versus Amateure? Du konstruierst immer Fronten, wo gar keine sind. Wo hört das eine auf, wo fängt das andere an?

Aber wenn der Unterschied zwischen Amateuren und Profis der sein sollte, flexibel und geschmeidig über sowas nachdenken zu können, dann will ich wahrlich lieber Amateur sein.

Space


Antwort von WoWu:

Wo hört das eine auf, wo fängt das andere an? Scheint doch ganz klar: Am Standard
Der eine benutzt ihn, der andere scheint ihn nicht mal durchgängig zu kennen (was ja auch nicht unbedingt erforderlich ist denn niemand erwartet von einem Amateur, dass es weiss, was innerhalb von HDMI passiert oder was 709 bedeutet).

Space



Space


Antwort von wolfgang:

Na wenn das alles ist - dann liest man einen Standard, hält sich ein wenig daran und ist in deinen Augen also Profi! Na das wäre ja einfach... :)

Space


Antwort von WoWu:

Na wenn das alles ist - dann liest man einen Standard, hält sich ein wenig daran und ist in deinen Augen also Profi! Na das wäre ja einfach... :) So ein Quatsch kann nur mangels sachlicher Argumente noch kommen.
Lassen wir's dabei.

Space


Antwort von Bilderspiele:

Farbkorrektur hin oder her, habe was Interessantes zu AVCHD vs. direkte Aufnahme nach ProRes gefunden:

http://photo.it-enquirer.com/2011/07/08 ... recording/

Ich freu mich schon auf den Nachfolger Samurai :D

Space


Antwort von gast5:

Beruhigt euch wieder, davor war es total interessant euren Ausführungen zu folgen...

Es wirft trotz Standards das Problem auf was zu tun ist wenns diese zwar gibt aber nicht nachvollziehbar falsch verarbeitet werden.

Was nutz es mir wenns diese gibt aber diese im meiner NLE oder mit meiner HW falsch interpretiert werden und dementsprechend falsch weiterverarbeitet werden..

Space


Antwort von WoWu:

Farbkorrektur hin oder her, habe was Interessantes zu AVCHD vs. direkte Aufnahme nach ProRes gefunden:

http://photo.it-enquirer.com/2011/07/08 ... recording/

Ich freu mich schon auf den Nachfolger Samurai :D Der Test ist nichts wert. Die unterschiedlichen Belichtungsverhältnisse lassen absolut keine Beurteilung zu.
Hinzu kommt, dass Unterschiede im Codec gerade in bewegten Bildern (und auch nicht in Schwenke, sondern in individuellen Bewegungen im Bild) zutage treten.
Man sollte die Unterschiede der Codecs schon da anzeigen, wo sie auftreten.

@motiongroup
Die Farbkorrektur ist schon von Bedeutung, denn moderne Kameras haben mittlerweile eine dynamische Quantisierung, in der sie nach Bildanalyse die Quantisierungswerte setzen und wenn die Analyse es für besser hält, häufige Werte im dunklen Bereich zu setzen, dann bleiben für den Weissbereich nur noch wenige Auflösungswerte übrig. Dann nutzt es auch nichts, dass man den Wertebereich ab 235 aufmacht, weil nicht mehr Werte da sind.
Und der Blödsinn, die Kamera würde mehr werte samplen, nur weil sie eventuell den oberen Bereich nutzt, würde voraussetzen, dass sie auch die Samplefrequenz (und damit die Clock) erhöht.
Und das ist ja nun völlig abwägig, dass da irgend ein beliebiger Syncwert benutzt wird.
Einzige Lösung besteht eben darin, dass xvYCC, also ein erweiterter Farbraum benutzt wird, der auch von allen Geräten erfasst werden kann.
Der begriff "Farbraum" ist vielleicht etwas irreführend, aber auch Lump spielt sich darin ab.
Es ist also nicht nur die Übertragung, die nicht gesichert funktioniert, sondern auch die Inhalte, die u.U. gar nicht da sind, um überhaupt etwas zu bewirken, von den Stauchungsfehlern bei einer Korrektur mal ganz abgesehen.

Space


Antwort von wolfgang:

So ein Quatsch kann nur mangels sachlicher Argumente noch kommen.
Lassen wir's dabei.
Na wenn du auf das Niveau steigst, dass den Profi nur die Kenntniss der Norm ausmacht und sonst nix - dann bekommst du diesen Quatsch genauso verkürzt eben 1:1 zurück gespiegelt. :) Aber belassen wir es tatsächlich dabei.

Tatsächlich geht es für mich eher um genau diese Frage, die hier gestellt worden ist:
Es wirft trotz Standards das Problem auf was zu tun ist wenns diese zwar gibt aber nicht nachvollziehbar falsch verarbeitet werden. Wobei ich nicht unbedingt an die falsche Verarbeitung von den NLEs her glaube - ich habe zu den Herstellern von CS5, Edius oder auch Vegas (und auch anderen natürlich) durchaus das Vertrauen, dass ihre Produkte korrekt rechnen.

Es ist eher die Frage, wie man Superweiß eben in der täglichen Praxis verarbeiten soll - denn das es das gibt ist unbestritten. Und das einzige, was man von der Norm beachten muss, ist doch, dass man für eine normgerechte Produktion die Signale unter 235 justieren muss. Und das können gute Schnittprogramme durchaus.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen //


Suche VX1000 (oder anderen Camcorder) mit Fisheye-Objektiv zur Ausleihe
Neue Methode zur Videostabilisierung per KI: Besser als alle bisherigen?
Sigma scheint Nikon Z-Mount Optiken für 2023 zu planen
FCP: Ultra Studio Monitor 3G scheint nicht mehr zu funktionieren...
AVCHD-Video mit mehr als 18 Mbps mit DMR BS 785 brennen
Fujifilm GFX Eterna: Sensor, Codecs und Modi der kommenden Cinema-Kamera
Netflix: Empfohlene Monitore für Farbkorrektur und mehr: iPad Pro als günstige Option?
Wiedergabe in der S5II und PC besser als in Resolve (60 & 30 FPS))
AMDs RX 9070 (XT) - endlich vor der Auslieferung und besser als erwartet?
Premiere Pro Hardwareanforderung für Multicamschnitt HD AVCHD
lange AVCHD Videos in Premiere Pro organisieren
AVCHD-Videos schneiden. Welches Muxer-Ausgabeformat?
Tonlücke bei AVCHD Szenen
AVCHD konvertieren oder nicht für Premiere Pro?
Vegas Pro Update: Unterstützung von ProRes Codecs, Sprache-zu-Text (beta)
Ablauf / Konvertierung / Codecs
AMD Alveo MA35D: FPGA-Beschleuniger für AV1-, H.265- und H.264-Codecs
macOS 14 kann wieder externe Codecs einbinden - bald BRAW-Support durch MediaExtension-Framework?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash