Newsmeldung von slashCAM:
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Autodesk Smoke 2013 Reviews
Antwort von -paleface-:
Ein Vorschlag an Slashcam:
Wie wäre es denn mal mit einem Artikel wo alle Editing und Compositing Programme aufgeführt sind. Und vielleicht mit einem kleinen Pro und Contra.
Ist soviel am Markt und der ein oder andere ist ja zur Zeit etwas Adobe verfeindet. ;-)
Wäre dann eine Liste die man dann über die Jahre immer wieder etwas verfeinern kann. Gibt bestimmt viele die das Interessiert.
bye
Antwort von rob:
Hallo -paleface-,
Danke für die Anregung - eine standardisierte Liste geistert tatsächlich schon geraume Zeit durch unsere Köpfe - hoffen wir mal, dass demnächst genügend Zeit ist, um solch ein Datenbank basiertes Projekt zu realisieren.
Viele Grüße
Rob
Antwort von WoWu:
Ich beneide Euch da nicht drum. Das ist ne Menge Arbeit.
Chapeau, wenn Ihr das hinkriegt.
Vielleicht nochmal einen Tipp dazu (wenn ich darf)>
... schaut Euch mal an, was in welchem NLE eigentlich nur 8 bzw. 10 Bit fähig ist
(von 12 brauchen wir gar nicht erst reden.
Auch von den zusätzlichen Effekten)
.... dann trennt sich sehr schnell Spreu von Weizen und die Kategorisierung geht deutlich schneller.
In Anbetracht des derzeitigen RAW Hypes vielleicht angesagt.
Antwort von dienstag_01:
Premiere berechnet Effekte in 16 bzw. 32 Bit. Das meinst du aber nicht oder.
Antwort von Paralkar:
AE kann man auch zwischen 8, 16, 32 (floating) bits wechseln
Die meisten Effekte sind max. 16 bit
Alle Weich und Scharfzeichnungseffekte sogar 32 bit.
Gibt schon einpaar wenige 8 bit Effekte
Bei Premiere is es schwerer genau rauszufinden was
Antwort von dienstag_01:
Bei Premiere is es schwerer genau rauszufinden was
32Bit-Effekte sind gekennzeichnet. Die anderen sind 8, nicht 16bit.
Antwort von WoWu:
Bei Premiere is es schwerer genau rauszufinden was
32Bit-Effekte sind gekennzeichnet. Die anderen sind 8, nicht 16bit.
Die 32Bit kannst Du sowieso alle (für Video) vergessen, weil (selbst Adobe sagt..) dass man im Preview ein 8 Bit (oder was man auch immer macht) darüberlegen soll, um das Ditherin und Banding zu beurteilen, sonst ist die böse Überraschung beim Rausrendern da.
Antwort von dienstag_01:
@WoWu
Dieses Dokument verstehe ich als Widerspruch zu deiner Aussage:
http://blogs.adobe.com/VideoRoad/2010/0 ... ssing.html
Klar wird das in Punkt 2 (unten) beschrieben.
Antwort von WoWu:
Das kann sein, dass irgend ein Blogschreiber da anderer Meinung ist. Aber wer sich mit dem Thema einmal intensiv beschäftigt hat, wird zu einem ähnlichen Schluss kommen, wie Adobe:
Merely increasing the color depth within a project won’t eliminate gradients if the output format has a low bit depth.
To mitigate banding, After Effects introduces dithering of colors when the colors are converted to 8-bpc colors, including when rendering and exporting to an 8-bpc format. This dithering is not introduced for previews.
To force dithering for previews, apply an 8-bpc effect that does nothing—such as the Arithmetic effect with the default values—to an adjustment layer.
Hinzu kommt noch, dass man genau den Vorteil eines neueren Codecs, der durch die Int.DCT generiert wird, im Inverse Fall verliert, wenn man auf Floating Point im Roundtrip gewechselt hat.
Dazu kommt noch, dass die, dort auftretenden negativen Werte in der Rückkonvertierung gnadelos abgeschnitten werden.
Und ob der vermeintliche Vorteil überhaupt zum tragen kommt ist sehr zweifelhaft, denn wenn z.B. Bildpunkte mit einer Wortbreite von 32 Bit und Korrekturwerte mit einer Wortbreite von 16 Bit in einer Multiplikation verknüpft werden, hat der resultierende Ausgangswert eine Wortbreite von 48 Bit.
Soll dieser Wert in einem weiteren Bearbeitungsvorgang mit einem Korrekturwert bearbeitet werden, der ebenfalls eine Wortbreite von 16 Bit (oder sogar mehr) aufweist, so erreicht das Ergebnis des zweiten Bearbeitungsvorgangs bereits eine Wortbreite von 64 Bit (oder mehr).
Du bist also bei 32 Bit genauso am Runden und Wegstreichen, wie bei 8 Bit und hast keinen einzigen realen Wert mehr.
Nur die Fehler bei der Rückrechnung.
Das ist ein Überbleibsel aus der Grafik, das für Video nicht unbedingt so übernommen werden darf.
Aber manche finden es eben "schick". Die wenigsten wissen aber genau, was sich da im Hintergrund eigentlich abspielt ... die kommen mit irgendwelchen gigantischen Rechenbeispielen, können sie aber gar nicht anwendungsbezogen deuten.
Nee, nee .... 8 Bit (speziell mit der Int.DCT) bleibt immernoch am besten bearbeitet in 8 Bit.
Antwort von dienstag_01:
@WoWu
Dein Adobe Zitat bezieht sich auf After Effects, nicht auf Premiere.
(Woher ist übrigends das Zitat?)
Aber: Das beispielsweise die Anwendung von mehreren Effekten auf einer Quelle extrem von einer Berechnung in höherer Bittiefe profitiert, weiss ich aus eigener Erfahrung, gerade in After Effects.
Das das nicht für alle Codecs gleichermaßen gilt, nun gut, dann muss man es eben, wie immer, erst selber testen. Ich bin in AE auch schon manchmal auf eine 16bit Workflow zurückgegangen, weil mir die Bearbeitung in 32bit ein schlechteres, wenn nicht sogar zerstörtes Ergebnis (grüne oder rote Pixelflächen) lieferte. Mir schein, 32bit ist eher was für Grafiken.
Aber mir fehlt da auch theoretisches Wissen.
Adobe könnte sich aber auch für die von dir genannten neueren Codecs was neues einfallen lassen ;)
Antwort von WoWu:
Das Zitat bezieht sich zwar auf AE aber ist gleichfalls für alle 32 bit gültig. Es ist aus einer Original- Adobe-Produktbeschreibung .... ich müsste selbst schaun, welche das war.
Die 32 Bit gelten (zwangsläufig) für Grafik - und machen da auch Sinn, weil (Farb) Werte da natürlich künstlich hergestellt werden. In Video hast Du aber nur eine begrenzte Anzahl, je nachdem, von wo Du kommst. Du gewinnst weder einen einzigen zusätzlichen Wert, noch werden deine Berechnungen besser, weil die Rundungen ebenso vorkommen, wie bisher, sogar deftiger, weil Du es bei der Int.DCT nur mit Additionen und Shift Operationen zu tun hast.
Ich bin übrigens sicher, dass Adobe in 8 Bit auch die Int.DCT für die Codecs implementiert hat. Der Standard lässt gar nichts anderes mehr zu.
Nur, wenn man Berechnungen in 32 Bit ausführt, entgehen einem die Vorteile natürlich.
Es ist nicht immer alles von Vorteil, wenn eine grosse Zahl draufsteht. :-)
Nur sollte man eben in so einer NLE Gegenüberstellung mal einwenig deutlicher hinschauen, was wann .. wie passiert und einmal anfangen eine Kategorisierung vorzunehmen.
In dem Zusammenhang ist es auch etwas unverständlich, warum Oliver Peters SMOKE quasi als "finnischer" abtut ... es ist doch eine offene Frage, wo ein NLE anfängt und wo es aufhört. Nur weil ihm ein paar Tools "unterbelichtet" sind .... also ehrlich.
Antwort von dienstag_01:
Also du würdest sagen, bei Video in 8bit auch alle Effekte, Color Correction etc nur in 8 bit berechnen (in Aviid kann ich zwischen 8 und 10 wählen)? Meine Erfahrung ist da eigentlich anders. Aber vielleicht manipulieren mich ja auch die großen Zahlen ;)
Aber: das, wiederum, würde oben verlinktem Blogeintrag widersprechen. Und der ist auf den Hilfeseiten von Adobe Premiere als weiterführende Information verlinkt und deckt sich auch mit deren Aussagen zur Effektbearbeitung mit 32 bit.
Antwort von WoWu:
Das stimmt alles, wenn man entweder die Farbtiefe im Computer erzeugt, oder gleich in 10 oder 12 Bit (Video) arbeitet. (12 Bit über Proxy)
Bei Roundtrips ... und besonders wenn das Originalmaterial über eine Int.DCT kommt, überwiegen die Nachteile.
Die meisten Blogs erklären auch nur den Unterschied der Umrechnung, gehen aber nicht auf die Auswirkungen im Bild ein.
Weder darauf, was mit den negativen Werten geschieht, noch darauf, dass natürlich pro Verarbeitungsschritt immense Wortbreiten entstehen, die gleichwohl zu denselben Kürzungsfehlern kommen.
So auch der Link. Und selbst die Beispiele, die im Link gezeigt sind, sind Computergrafiken .... was soll also damit in Bezug auf Video bewiesen werden ?
Von der begrenzten Toolmenge mal ganz abgesehen.
Aber das muss jeder selbst wissen, wie er damit umgeht.
Ich würde jedenfalls dem Adobe Tipp folgen und in meinen Preview ein Tool mit der Zielauflösung geben, um zu sehen, was hinterher bei dem Roundtrip eigentlich rauskommt.
Nur allzu oft werden Artefakte, die man hinterher im Bild hat, auf einen schlechten Codec geschoben ... und sind in Wirklichkeit ein schlechter Workflow.
Antwort von -paleface-:
@WoWu
Aber gerade wenn man doch mehrere Ebenen hat und ein ausgefallenes Grading von Teilbereichen, ist es schon ein Unterschied ob man nun 8 oder 16bit wählt.
32 nutze ich zb, fast nie. Sehe ich irgendwie NULL unterschied.
Und auch wenn ich das exportiere (uncompressed - 8bit), sieht das leicht schöner aus als wenn ich NUR in 8bit gearbeitet habe.
Was dann beim finalen Exportieren nochmal passiert ist ja eine andere Sache.
Für mich ging es beim switschen von 8, 16 und 32bit ja meist nur um die zugewinnung von vielleicht 10-15% mehr Qualität.
Finde deine Aussage also recht Interessant. Aber bin noch leicht skeptisch :-)
Antwort von WoWu:
Ich will, um Gottes Willen, niemanden dazu überreden, seinen Workflow zu ändern und wenn Du die Ergebnisse besser findest ... kein Problem, aber woher hast Du die Erkenntnis, dass die Qualität 10-15% besser sein soll ?
Besser als die Ausgangsqualität kann es gar nicht werden. Warum also sollte die Qualität durch fehlerbehaftete Bearbeitung auf 115% ansteigen?
Anders ist es, wenn Grafiken zum Einsatz kommen.
Hier entsteht die Farbe erst im Rechner und wird nicht als Wert aus einer 8 Bit Aufnahme übergeben.
Insertiert man also Shading, Weichzeichnung Farbverläufe oder andere Elemente, dessen Ursprung der Computer ist, ist die Auflösung u.U. durchaus hilfreich.
Fraglich ist aber auch hier, was bei einem Export nach 8 Bit davon übrig bleibt.
Domain hat schon recht gehabt, wenn er sagt, dass 8 Bit eigentlich gar kein Banding hat .... man darf es eben nur nicht im Roundtrip gewonnen haben, denn der Rechner wird immer die zusätzlichen Werte versuchen durch Pixelstrukturen (Dither) aufzufüllen (und in der höherwertigen Darstellung anzuzeigen), um sie bei einer Rückführung nach 8 Bit wieder sehr grob quantisieren muss.
Im Idealfall wird dabei wieder der Ausgangswert getroffen. Manchmal aber eben nicht und der wert verändert seine Darstellung, ohne dass es beabsichtigt war.
Banding ist das Ergebnis solcher Roundtrips.
Gute NLEs verfügen eine Art Tabelle, in der sie die Ausgangswerte ablegen und nach dem Roundtrip darauf wieder zugreifen.
Das ist eine Computerroutine, die das Entstehen langer Bitsequenzen analysiert und bei der Rückabwicklung des Prozesses wieder invertiert.
Ansonsten ist das Arbeiten in 10 (oder mehr) Bit natürlich von Vorteil, solange auch das Ausgangsmaterial in der Auflösung vorliegt weil die Fehlerspannungswerte entsprechend geringer sind, der Störabstend also grösser wird.
Kommt man allerdings aus einem relativ kleinen Störabstand, wie bei 8 Bit, nutzt die geringere Fehlerspannung einer 10/16/32 Bit Bearbeitung rein gar nichts, weil sie dann deutlich innerhalb der 8 Bit Ratio liegt, den ursprünglichen Wert also nicht verändert.
Hinzu kommt eben das Problem der spezifischen Rundungsfehler bei Floating Point, wo negative Werte auftreten, die nicht zurück zu wandeln sind.
Die Bilder wirken dadurch unschärfer und weicher.
Sieht man solche unbeabsichtigten Änderungen allerdings als Vorteil an, dann .... nur zu.
Nur solche Unschärfen hab ich lieber selbst in der Nachbearbeitung in der Hand und nicht -random- durch den Computer.
Antwort von -paleface-:
Ich hab im Anhang mal 2 Bilder mit angehängt.
Aus einer Comp in der ich mit 16bit arbeite.
Daraus habe ich ein Bild als JPEG in 8Bit abgespeichert. (16.jpg)
Dann habe ich AfterFX von 16 auf 8bit geswitcht und wieder ein Jpeg mit 8bit rausgehauen (8.jpg)
Wenn du nun beide in Photoshop übereinander legst und hin und herswitchst.
Siehst du den Unterscheid. Er ist Minimal...daher hab ich 10-15& gesagt.
Liegt aber auch am Material.
Nicht jetzt von der JPEG Komprimierung ablenken lassen. Aber gerade in den Linien ist etwas mehr Detail. "ETWAS"!
Ich habe andere Scenen gehabt wo die Sonne durch die Bäume gefallen ist und alle recht knallig bunt war.
Und da habe ich beim Grading schon leicht feinere Abstufungen gehabt.
LEICHTE...also der Unterschied von 8 zu 16 ist keine Zauberkiste.
Es ist nur ein KLEINER Feinschliff von seinem Material.
Jedenfalls bei VDSLR Material, wie es in meinem Fall ist.
Antwort von WoWu:
Wie ich schon sagte, wenn Du zufrieden bist, mach es... und dass es Unterschiede gibt, ist auch klar. Frage ist nur, ob man die beschriebenen Veränderungen des Bildes, durch den Rechenprozess als positiv oder negativ bewertetet.
Für mich ist immer noch> Eingangsbild=Ausgangsbild die beste Lösung.
Und wenn Du im Ausgangsbild sogar mehr Farben zu erkennen glaubst, als im Eingangsbild, dann stimmt etwas nicht, denn Du gewinnst kein einziges Sample mehr, was nicht schon im Ausgangsbild ist.
Zaubern kann ein Computer auch nicht. :-)
@benjolino
Ich will Canon das nicht unterstellen (und kann es mir auch nicht vorstellen) dass sie absichtlich die Qualität mindern.
Nach wie vor denke ich, dass es mit der Prozessorleistung zusammen hängt, die natürlich für die unterschiedlichsten Aufgaben gleichzeitig herhalten muss. In den kleinen Kisten ist es oft eine Frage der Wärmeentwicklung.
Was HDMI betrifft, so ist das eine Monitorschnittstelle, die sehr genau definiert ist und an die sich besser jeder Hersteller auch exakt hält.
Es ist keine Datenschnittstelle und hat ausserdem ein recht umfassendes Kommunikationslayer.
Einzige Lösung wäre, deren 48 Bit-Fähigkeit zu nutzen.
Das setzt aber voraus, dass der Prozessor auf die doppelte Taktfrequenz umgeclocked wird und dass das Kommunikationslayer irgendwie bedient wird.
Das kann man natürlich auch von aussen machen, setzt aber einen entsprechenden Recorder voraus.
Aber das Hochtakten ist eine ganze Menge, die der Prozessor erst mal leisten muss.
Aber das sagt sich auch so einfach, denn nun müsste in der Tat der gesamte Verarbeitungsprozess verändert werden.
Da wäre es fast einfacher, die gesamte Firmware zu flashen und eine eigene Verarbeitung zu generieren.
Nur das, denke ich, haben die ML Leute auch noch nie getan und werden sich einwenig schwer damit tun.
So, wie ich das aus dem, was ich so in dem Forum gelesen habe, sehe, probieren sie in dem Teil der Software, der ihnen zugänglich ist, durch Änderungen, mehr oder weniger random, Ergebnisse zu erzielen.
Es ist also schwer, da irgend eine Systematik zu erkennen.
Was die ursprünglich Schärfe des Bildes betrifft, ist nicht exakt zu erkennen, was die Schärfe kostet.
Sie werden mit Sicherheit einen LPF durchlaufen, um das Bild moirefrei zu machen und es auch den Anforderungen von SMPTE204M anzupassen, denn das ist der weltweite Standard, nach dem alle Videokameras gebaut werden. (Es sei denn, man gibt ein RAW Format aus oder unterstützt andere Farbräume).
Also ... ich würde mit dem RAW Format, so, wie es die Kamera ausgibt, leben.
Ich würde mich nicht darauf verlassen, dass aus dem HDMI höherwertiges heraus kommt, obwohl es eigentlich möglich wäre.
(Aber eben keine Datenformate sondern quasi transparentes Material).
Spätestens dann taucht erneut die Frage nach der Aufnahme auf, denn 12 Bit transparent ist auch ein ganzer Haufen, der erst mal weggeschaufelt werden muss.
Insoweit ist die jetzige Lösung schon gar nicht schlecht.
Antwort von WoWu:
@paleface
Ich hab die beiden Bilder mal verglichen ... sie unterscheiden sich darin, dass ein Gammashift bzw. eine Gammaspreizung stattfindet.
Das darf nicht sein und geschieht vermutlich in der Umwandlung der Farbmodelle.
Beseitigst Du den, hast Du wieder identische Ergebnisse.
Leider gibt das Bild zuviel Dynamik her, als dass man die klassische Banding-Problematik sehen könnte.
Antwort von WoWu:
@paleface
Ich hab die beiden Bilder mal verglichen ... sie unterscheiden sich darin, dass ein Gammashift bzw. eine Gammaspreizung stattfindet.
Das darf nicht sein und geschieht vermutlich in der Umwandlung der Farbmodelle.
Beseitigst Du den, hast Du wieder identische Ergebnisse.
Leider gibt das Bild zuviel Dynamik her, als dass man die klassische Banding-Problematik sehen könnte.
Antwort von dienstag_01:
Das denk ich auch: die einzige Problematik, die man mit höherer Bittiefe in den Griff bekommen könnte, ist Banding. Nicht mehr Details.
Antwort von WoWu:
doppelt, sorry
Antwort von WoWu:
Aber nur, wenn Du mit dem Zielprodukt nicht wieder zurück gehst, sonst generierst Du erst Banding, was im Original noch nicht vorhanden war.
Die Wegschneiderei von negativen Werten ist eine der Hauptursachen dafür.
Antwort von -paleface-:
Hmmm....
Das mit dem Gamma finde ich gerade interessant.
Hab nochmal einen Ausschnitt der Haare nebeneinander gelegt.
Finde ja dass bei 16 ein hauch mehr Detail zu sehen ist.
Aber wirklich nur ein HAUCH!
Schwer gerade...bin grad kurz davor nochmal alte Projekte aus zu packen und nochmal zu vergleichen.
Antwort von dienstag_01:
@WoWu
Sorry, hatte mich unklar ausgedrückt. Ich meinte, dass nicht, wie paleface schrieb, mehr Details durch höheres Bit-Processing behalten werden, sondern das nervige Banding verhindert/abgeschwächt werden kann.
Antwort von WoWu:
Das ist sehr schwer zu beurteilen, weil geringe Helligkeitsunterschiede den Vergleich schon torpedieren.
Man müsste zunächst identische Helligkeiten herstellen, um Details zu beurteilen.
Was aber auffällt ist, dass das 16Bit Bild mehr rauschen aufweist. Das ist eigentlich nicht so normal.
@dienstag
Das hatte ich schon so verstanden ... aber Bandig generierst Du in dem Roundtrip erst, weil bei der Rückführung nach 8 Bit alle Werte unter NULL nicht geshiftet werden.
Antwort von dienstag_01:
@WoWu
Du mit deinen negativen Werten. Ich bin doch keen Ingenieur.
Bei Material von DSLR ist Banding an kritischen Stellen manchmal schon im Originalfootage, aber spätestens nach der Farbkorrektur zu sehen. Bei 8Bit Verarbeitung. Ob da nun negative Werte generiert, weiss ich nicht.
Antwort von WoWu:
In wirklich kritischen Verläufen kann es natürlich sein, dass die 8 Bit den Verlauf abstuft ... aber das muss schon ein sehr feiner Verlauf sein.
Wahrscheinlicher ist, dass das Material aus einem andern Farbmodell übernommen worden ist, also y.B.von RGB nach YCbCr. Genau an der Stelle hapert es dann nämlich.
Check das mal aus.
Antwort von dienstag_01:
Arbeiten die Canons in RGB?
Antwort von WoWu:
Nachdem empfohlen wird, den Content mit 5DtoRGB zu überspielen, gehe ich mal davon aus.
Da musst Du aber einen Canon-Besitzer fragen.
Antwort von dienstag_01:
In Mediainfo steht YUV.
Gibt es da auch Banding beim Wandeln nach YCbCr.
Edit: Man bräuchte ja eigentlich nicht 5DtoRGB wenn es RGB wäre ;)
Antwort von TheBubble:
Arbeiten die Canons in RGB?
Praktisch alle Kameras und Displays mit additivem Farbmodell verwenden RGB-Grundfarben.
YCrCb Repräsentationen sind praktisch immer nachträglich aufgesetzt, um danach durch Unterabtastung (subsampling) die Datenmenge zu reduzieren.
Antwort von WoWu:
Das ist zwar nicht gemacht, um (nur) die Datenmenge zu reduzieren, aber es ist natürlich ein Farbmodell innerhalb von RGB.
Aber YUV ist ja nun völliger Quatsch.
Die Frage hätte also lauten müssen... arbeitet die Kamera in RGB mit den SMPTE240M Spezifikationen ?
Wenn nicht, haben wir genau an der Stelle wieder das angesprochene Problem.
Antwort von dienstag_01:
Aber YUV ist ja nun völliger Quatsch.
Die Frage hätte also lauten müssen... arbeitet die Kamera in RGB mit den SMPTE240M Spezifikationen ?
Stimmt, hatte die Datei verwechselt:
colour_primaries : BT.709
transfer_characteristics : BT.709
matrix_coefficients : BT.601
Ich hatte irgendwo mal gelesen, dass Canon (wie viele andere Hersteller) die Spezifikationen so verwendet, wie sie es für praktikabel halten. Deshalb gibt es scheinbar auch ein Tool wie 5DtoRGB. Ich rede hier nur von DSLR.
Ich habe jetzt zwei Applikationen zur Auswahl: Avid, arbeitet im YCbCr (könnte auch RGB) und Adobe, die arbeiten immer im RGB. Bei beiden kann ich mit einer einfachen Farbkorrektur Banding erzeugen. Du, Wolfgang, hast geschrieben, dass es wie ein Umwandlungsfehler von RGB nach YCbCr aussieht. Wo/wann? In der Cam? Beim Import ins NLE? Was kann ICH tun? Mir scheint, mit der Weiterverarbeitung in 16bit habe ich da bessere Karten. Oder gibt es noch eine andere Stelle, an der ein Eingriff (oder eine *richtige* Einstellung) mehr Sinn machen würde?
Edit: Ich könnte auch die Tests unter dem Eindruck der von deinen Aussagen bei mir ausgelösten Skepsis gegen höheres Bit-Processing einfach nochmal wiederholen ;)
Antwort von WoWu:
Das ist schwer zu sagen, man muss sich das Signal man ansehen (messen), wenn es im NLE angekommen ist. Ich tippe mal auf einen Wandelfehler im NLE, wenn RGB im Spiel ist und kann Dir eigentlich nur den Tipp weitergeben, den wir als Erkenntnis aus unseren, wirklich ausführlichen Versuchen haben.
Meide jegliche unnötige Konvertierung !
Die grossen Zahlen klingen alle toll aber betrachtet man im Detail einmal die Auswirkungen auf das Bild, wird man eine Verbesserung sowieso nie erhalten und eine Verschlechterung bestenfalls nicht sichtbar (oder verdeckt) sein.
Und wenn Adobe schreibt 'wenn sie es trotzdem machen, schauen sie sich über ein Tool rechtzeitig an, was hinterher dabei herauskommt' dann haben sie da völlig Recht.
Wir haben übrigens in den Nachbearbeitungen überall noch einen PAL/NTSC Modulator und ein TV Geräte stehen, weil wir überwiegend für TV Anstalten arbeiten, von denen viele noch terrestrisch arbeiten.
Die Überraschungen, die wir da oft sehen, sind auch nicht von schlechten Eltern.
Ich sag immer, die Post Produktion ist erst beendet, wenn das Bild einwandfrei beim Kunden angekommen ist.
Antwort von dienstag_01:
Das ist schwer zu sagen, man muss sich das Signal man ansehen (messen), wenn es im NLE angekommen ist.
Was misst man denn da? Man weiss ja nicht mal genau, was die DSLR ausgibt. Und es ist filebasiert.
Antwort von WoWu:
Du musst Dir zunächst einem anschauen, wie Dein ORIGINALSIGNAL (also vor jeder Wandlung) im Wertebereich aussieht und wo es nach einer Übernahme ins NLE landet und welchen Werteumfang es jeweils hat.
Daraus erkennst Du, ob die SMPTE240 Regeln eingehalten sind oder ob irgendwo eine Wandlung nicht geklappt hat.
Es sollte die Werte (Bilder sind für 8 und 10 Bit) einhalten.
Weicht es in Umfang oder Lage ab, liegt ein Fehler vor.
Dann muss man schaun, woher der kommt.
Antwort von dienstag_01:
Wie sollte ich mir sowas anschauen? Gerade das Originalsignal. ich habe keine externen Messgeräte, nur meinen Rechner.
Antwort von WoWu:
Steck doch die Karte mal in den Rechner und öffne ein Contentfile mit einem Player, an dem Du auch das Waveform benutzen kannst.
Vielleicht lässt sich ja auch das File im preview mit dem NLE öffnen, ohne dass es erst importiert werden muss.
Jedenfalls nutzt brauchst Du erst die Referenz, was/wie im Originalfile abgelegt ist .... sonst ist jede weitere Messung "floating".
Antwort von dienstag_01:
Hier mal ein Bild aus AE.
Preferences für Colr Finesse sind:
Videosystem ist BT.709.
Video Level ist 16-235.
Mit dem Color Picker liegen die Werte zwischen ca. 1 und 250.
Antwort von WoWu:
Das ist ja eine grauslige Skalierung.
Weisst Du, was die Werte darstellen sollen ?
Aber es sieht ja irgendwie nach rd. 700mV aus. Das wäre ja ok.
Wenn man aber dem Picker glauben will, sind die Werte falsch gemapped (zwischen 1 und 250) und entsprechen nicht der Normierung für Video aus 240M.
Das würde bedeuten, dass der Rechner an all den Stellen, an denen er keine realen Werte von der Kamera bekommen hat, eine Pixelstruktur einfügt (Dither), die Du hinterher als Banding präsentiert bekommst.
Antwort von dienstag_01:
Mit anderer Skalierung:
Antwort von WoWu:
Tja, wenn ich das richtig deute und das Offset mal hochschiebe, sind das bummelige 110% und damit der volle sRGB Wertebereich ... und damit für Canon ein ganz schwaches Bild, dass sie nicht mal Videonormen einhalten können.
(Sofern das das Originalsignal repräsentiert und nicht bei der Übernahme nach AE irgendwie behandelt wurde).
Jedenfalls kann das Deine Ursache für das Banding sein.
Hast Du mal versucht, was das D5toRGB daraus macht ?
Ich glaube, es gibt eine Trial (light) Version davon.
Antwort von dienstag_01:
2. als DNxHD in Full Range mit Decoding Matrix 601.
5DtoRGB
1.Bild ist dasselbe, nur die Matrix ist 709
Antwort von WoWu:
Ich hatte eigentlich angenommen, dass D5toRGB mindestens die Werte im Clipbereich versetzt, aber offenbar nicht.
Ich weiss nun nicht, was diese "Full Range" Einstellung bewirkt. Welche Alternativen gibt es denn da ?
Aber das sind dann ja, so, wie ich das jetzt verstehe, immer bereits nach AE importierte Signale und nicht die Originalsignale der Karte ?
Das würde uns dann wenig nutzen, weil wir erst einmal wissen müssen, wie die Kamera das Metarial codiert hat.
Eigentlich müsste so ein Signal so aussehen ...
Antwort von dienstag_01:
Mit anderer Skala.
Antwort von WoWu:
Das sieht doch vernünftig aus, dann macht die Kamera das doch offenbar alles ordentlich.
Nun lass mal die 16/32 Bit Bearbeitung weg und arbeite mal in 709/8Bit weiter und schau mal, was Dein Banding dann macht.
Antwort von ceveto:
WoWu,
kannst Du Fachliteratur zum Thema empfehlen?
Viele Grüße
Antwort von WoWu:
ja, kann ich.
Aber Werbung machen, darf man hier ja nicht.
Antwort von ceveto:
Hier werden doch auch ständig Kameras empfohlen, da sollte eine Buchempfehlung doch drin sein.
Würde mich freuen.
Viele Grüße
Antwort von WoWu:
Tja, wohl nicht, wenn es sich um ein eigenes Produkt handelt.
Mail mich über meine Webseite mal an.
Ich kann Dir dann das Kapitel, das Dich interessiert zumailen.
Antwort von dienstag_01:
Hier zwei Bilder nach Import in Avid.
Ich bekomme sie leider nicht größer, aber man sieht:
Die Range ist 16-235 (könnte man aber mit einer anderen Methode sicher auch auf 0-255 bekommen).
Die Waveform ist bei YCbCr bei genauerem Hinsehen unten mit einer weissen Linie als unter 16 gekennzeichnet. Bei RGB nicht. Und Oben sieht man bei YCbCr Linien, bei RGB sind das flächige (diffuse) Verteilungen der Werte.
Heisst das, mit diesen Files soll man in RGB arbeiten?
Antwort von WoWu:
Nein, das heisst es nicht.
So wie ich das sehe, ist Dein Signal noch eine Kleinigkeit gespreizt (woher das nun auch immer kommen mag).
Wenn es oben einwenig geclipped ist, korrigier es mit der Luminanz in den Spitzen einwenig. (sofern Dich der leichte Clip oben überhaupt stört).
Aber ansonsten sieht das ganze doch ok aus.
Also in 709/8Bit weiterarbeiten. Im sRGB Farbmodell bist Du sowieso nur eben mit korrekten Werten und ohne dass das gesamte Signal nachher gestaucht werden muss, um wieder zu passen.
Denn dabei treten die Fehler auf.
Antwort von dienstag_01:
WoWu, da hast an anderer Stelle geschrieben, dass das Banding durch die Wandlung von RGB nach YCbCR entstehen könnte. Die beiden, zugegebenermaßen kleinen Bilder, zeigen mir mit der Spreizung (YCbCr) doch auch minimale Abrisse. Warum soll das jetzt nicht als Grund für Banding durchgehen?
Antwort von WoWu:
Weil Banking dadurch entsteht, dass Werte aus einer höheren Auflösung nicht dargestellt werden können.
Wie man aber bei einem sauberen 8 Bit Verlauf sehr gut sehen kann, liegt die Latte da sehr hoch.
Die meisten Bandings entstehen dadurch, dass im Übergang zu einer höheren Auflösung die fehlenden Werte (die es in 8 Bit ja nicht gibt) durch Dither ersetzt werden, also einer Pixelstruktur. Führt man die hohe Auflösung anschliessend zurück, kann diese Pixelstruktur nicht hinreichend aufgelöst werden und teilt sich in jeweils grobe Werte auf.
Schau doch in Deinen Bildern mal nach, ob da Bandingeffekte zu sehen sind denn es gibt keinen Grund, warum an einer Stelle, die in den Bildern den identischen Wert hat, (jedenfalls was man so sehen kann), in einem Bild Banding entstehen soll und im andern Bild nicht denn in RGB belegst Du ja auch nicht mehr Werte (in diesem Fall).
Aber das ist aus 10.000 km Entfernung immer etwas schwierig zu sagen. Schau Dir die Bildinhalte mal genau an. Du bist da viel näher dran.
Antwort von gast5:
http://www.film-tv-video.de/newsdetail+ ... 11547.html
Antwort von Valentino:
Das sind Ja Spaßvögel, schreiben einen Test über Smoke 2013 und testen nur mit einem MacBook Pro von 2009 und einem Raid5 das über FW800 angeschlossen ist.
Als Testsystem kam ein MacBook Pro (15-Zoll-Version mit Intel Core i7 Prozessor (2.2 Ghz)) zum Einsatz. Der Testrechner ist mit 8 GB RAM bestückt und weist eine ATI-Grafik mit 1 GB VRAM auf. Das Material wurde für den Test auf einem Raid-5-Speicher abgelegt, der per Firewire 800 an den Rechner angebunden war.
Glaub nur ein kleiner Teil der Smoke Kunden kauft sich für 3.000 Euro eine Software um diese dann auf einem 2.000 Euro Laptop laufen zu lassen.
So kann man sich auch erklären, das bei den AVCHD ins Ruckeln kommt.
Antwort von gast5:
Dafür ist er aber recht umfangreich..*ggg