Logo Logo
/// 

8 Bit vs 10 Bit bei der GH4 V-LOG: Der Unterschied



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


Das Thema 8 BitBit im Glossar erklärt versus 10 BitBit im Glossar erklärt wird immer wieder kontrovers diskutiert – wir haben uns hier 8 und 10 BitBit im Glossar erklärt 4K LOG-Material bei der gleichen Kamera (GH4) angeschaut und deutliche Unterschiede festgestellt …

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Workshop: 8 BitBit im Glossar erklärt vs 10 BitBit im Glossar erklärt bei der GH4 V-LOG: Der Unterschied




Antwort von mash_gh4:

interessant ist vor allem euer letztes bild.
dort sieht man nämlich, dass zwar die ganz offensichtlichen banding-artigen stufen verschwinden, aber eine art von feinem interferenzmuster als farbarbweichung zurück bleibt, die weiterhin sehr ungut ins auge sticht. glatte flächen von realtiv einheitlicher farbe mit leichten helligkeitsverläufen werden auf dieser weise leider immer wieder 'bunt'.

das technische problem dahinter betrifft leider gar nicht so sehr die v-log-gamma-kurve und den beschränkten bereich der darin genutzten werte, sondern vielmehr die tatsache, dass auch ein viel größerer als nötiger farbraum (v-gamut) mit den wenigen werten als bezugssystem genutzt wird. deshalb erweisen sich die resultierenden sprünge und interfrenzmuster im zusammenhang mit kontinuierlichen farb- und helligkeitsverläufen als derart unbefriedigend.

das ist natürlich sehr schade, weil v-log abgesehen davon natürlich schon eine bessere farbwiedergabe und nachbearbeitung gewährleistet hätte. mit diesen praktischen einschränkungen, ist es allerdings in meinen augen(auch in der 10bit version!) weiterhin kaum sinnvoll nutzbar bzw. nicht wirklich atraktiver als die rec709 profile der kamera, die ja zumindest dieses problem nicht zeigen. o.k. -- es gibt trickreiche filtermöglichkeiten, mit denen man die groben sprünge in den color planes ähnlich behandeln und ausbügeln kann bzw. ihre wirkung auf die farbwiedergabe abzuschwächen vermag, wie man das normalerweise bei ganz grobstufigem material mit debanding-filtern macht, aber das ist ja auch nicht sinn der sache...



Antwort von Gabriel_Natas:

Ich frag mich eher, ob ich mir die Bilder auf meinem günstigen 8-Bittigen Monitor überhaupt anzuschauen brauche :)





Antwort von CameraRick:

Ich frag mich eher, ob ich mir die Bilder auf meinem günstigen 8-Bittigen Monitor überhaupt anzuschauen brauche :)

Wenn Du das immense Banding im Vergleich da nicht siehst sind eher die Settings Deines Monitors verzockt, denn dazu brauchts keinen 10bit Monitor :)



Antwort von Axel:

Verglichen wurde V-Log >rec709 in 8-bit und 10-bit, aber nicht 8-bit rec709 mit 10-bit V-Log >rec709. Ich wette, dass von dem extremen Grading mal abgesehen bei diesem Vergleich die Unterschiede kaum noch zu erkennen gewesen wären.

Was der Test beweist: dass 8-bit (und dann auch noch Interframe!) für Log-Kram einfach zu wenig echtes Gewebe hat. Zischt und schrumpft wie ein deutsches Ödem-Steak in der Pfanne.

Als GH4-Besitzer würde ich es wahrscheinlich bei 8-bit rec709 belassen und nicht auf extreme Postpro setzen, dann ist das Ergebnis auch ansehbar, wie viele Youtube-Clips ja belegen. Und mir das ganze Atomos-Geraffel schenken. Log ist gut bei Canon. Und natürlich bei BM, aber das ist wieder eine andere Geschichte.



Antwort von motiongroup:

http://www.redsharknews.com/production/ ... -bit-video



Antwort von cantsin:

Und mir das ganze Atomos-Geraffel schenken. Log ist gut bei Canon. Und natürlich bei BM, aber das ist wieder eine andere Geschichte.
Wenn man sich die Entwicklung von Panasonics Spiegellosen in ihrer Gesamtheit ansieht, dann könnten beim GH4-Nachfolger 10bit interne Aufzeichnung anstehen (womit die Kamera auch im Consumermarkt kompatibel zu 4K-HDR wäre) + die Sensorstabilisierung der GX80.

Ob dann VLog ebenso gut ist wie CLog oder Blackmagics Log, wäre dann beinahe egal, denn dann hätte man eine richtig brauchbare, kompakte Run-and-Gun-Kamera, deren Material man gut mit Canon- und Blackmagic-Material mischen könnte.



Antwort von cantsin:

http://www.redsharknews.com/production/ ... -bit-video
Ja, das stimmt ja alles in der Theorie, aber in der Praxis nützt es halt nichts, wenn bei Consumer-Kameras wie der GH4 oder Sonys Spiegellosen die 8bit-Signalverarbeitung so zu wünschen übrig lässt, dass man out-of-the-box hinsichtlich der Farbauflösung/-wiedergabe kein hochwertiges Bild erhält (das andere 8bit-Kameras wie die C100 und C300 durchaus liefern).

Ich schätze, dass diese Kameras 8bit auch nicht wirklich ausreizen. Ausserdem geht der Artikel nicht auf den Unterschied von 8bit 4:2:04:2:0 im Glossar erklärt (wie bei den o.g. Kameras) und 8bit 4:2:24:2:2 im Glossar erklärt ein, der nochmal viel ausmacht.



Antwort von mash_gh4:

Ausserdem geht der Artikel nicht auf den Unterschied von 8bit 4:2:04:2:0 im Glossar erklärt (wie bei den o.g. Kameras) und 8bit 4:2:24:2:2 im Glossar erklärt ein, der nochmal viel ausmacht.

das würde ich bestreiten! ich weiß, das sehen viele anders.
aus meiner sicht macht 4:2:24:2:2 im Glossar erklärt nur im interlaced modus wirklich sinn bzw. hat dort seine historischen wurzeln. 4:2:04:2:0 im Glossar erklärt wird dagegen den realen bedingungen heutiger kameras, wo man das material ohnehin ständig verkleinert (so wie man halt strom auch auf beiden seiten transformiert, um ihn möglichst verlustfrei zu transportieren), genauso gut gerecht....



Antwort von klusterdegenerierung:

Hallo Slashcam,
ich hoffe ich habe den Testverlauf richtig verstanden.
Wenn ja, habt ihr auf das v-log Material eine Lut gelegt und habt auf der Basis gegraded, richtig?

Das wenn dem so ist, ihr zu solchen Ergebnissen kommt, wie mash_gh4 es schon beschrieben hat, wundert mich nicht, denn ich behaupte mal das es keine Lut gibt, die einem nicht wieder die Reserven klauen, ja sogar verschlimmbessern.

AUsfresser, banding und komische effekte sin häufig das Phänomen von Lut die schon von Anfang an in den Grenzbereich gehen und wenn man dann darauf korrigiert, kommt es schnell zu komischen effekten.

Meiner Meinung nach kann man einen 8vs10Log Test nur machen, indem ich das Log Material so wie es ist maximal verarbeite.
Ob bei dem VLog oder dem Slog, habe ich es noch nicht erlebt, das ich mit grading auf Luts ein unkritische Ergebnis hatte, wenn ich ins max möchte.

Das VLog hat potential in 10bit, aber mit Lut nehme ich es meistens wieder raus. Viele luts steigern den Kontrast und die Lichter schon so stark, das mir da kaum noch Raum bleibt.

Unabhängig von eurem Test, frage ich mich sowieso, warum Log und Lut immer aufeinander treffen oder einen Workflow bilden?
Wenn ich das in die Fotowelt übertrage, hiese es ja das ich auf ein sauberes Raw immer erst ein Profil packen würde bevor ich mit der individuellen Bearbeitung loslege, passt meiner Meinung nach doch garnicht zusammen.



Antwort von rob:

Hallo Kluster.

nein - nicht richtig verstanden ;-)

Das "Grading" ist nur da, um die Unterschiede, die bereits bei der Standard-LUT auftreten, besser sichtbar zu machen - vor allem bei YouTube komprimiertem Videos erleichtert dies die Herausarbeitung der Unterschiede.

Vom Hersteller entwickelte /empfohlene LUTs gibt es für viele verschiedene Anwendungsbereiche und Monitorsysteme. In diesem Fall nehmen wir die vom Hersteller empfohlene LUT (nach 709), um eine farbliche und dynamische Repräsentanz wie vom Hersteller ursprünglich für sein bestimmtes LOG-Kamera-Profil entwickelt zu erhalten.

Selbstverständlich steht es Dir, dem Colour Artist, etc. frei, einen eigenen Look ohne Rückgriff auf die Hersteller LUT zu entwickeln (z.B. auch deine eigene LUT).

Viele Grüße

Rob



Antwort von Axel:

... denn ich behaupte mal das es keine Lut gibt, die einem nicht wieder die Reserven klauen, ja sogar verschlimmbessern.

Du kannst es behaupten, aber es ist nicht so. Eine Lut verändert zunächst einmal nur die Anzeige, niemals aber greift sie in die tatsächlich vorhanden Werte darunter/dahinter ein.

Meiner Meinung nach kann man einen 8vs10Log Test nur machen, indem ich das Log Material so wie es ist maximal verarbeite.

Das wäre dann ein sehr subjektives Ergebnis. Es gibt natürlich Look-Luts, aber in den Fällen, von denen wir hier sprechen - und von denen der slashCAM-Artikel spricht, geht es bei den Luts nur um technische Anpassung zu rec709. Kann ein Ausgangspunkt sein, kann aber auch "reichen" (bloss, dass es dann i.d.R. witzlos ist, nicht gleich in rec709 zu drehen).

Ob bei dem VLog oder dem Slog, habe ich es noch nicht erlebt, das ich mit grading auf Luts ein unkritische Ergebnis hatte, wenn ich ins max möchte.

Zu V-Log kann ich mangels eigener Erfahrung nichts sagen, aber bei S-Log liegt der Fehler darin, dass das Ergebnis nie wirklich wie "normales Video" (rec709) aussieht, sondern überraschend anders, meist schlechter, nach dem NTSC-Motto (NeverTheSameColors).

Das BM-Log ist extrem flat, sieht ohne Lut fast schwarz-weiß aus und hat "keine" Kontraste. Die entsprechende Lut (denn es gibt immer nur eine offizielle) macht aus Log "normales Video". Das ist der Sinn von dem ganzen Zinnober. Ich kann noch Farben korrigieren, Highlights aus dem für Broadcast illegalen Bereich retten oder natürlich extreme Grading betreiben. Aber ich habe eben einen verbrieft neutralen Ausgangspunkt, was die Kurve betrifft.

C-Log ist per se nicht übertrieben flat oder entsättigt. Es ginge fast als modernes "Lavendel" durch, das ja jetzt chic ist. Man könnte es locker ohne Lut auf Video trimmen. Die offizielle Lut ist nicht so gefällig, zu kontrastreich plötzlich, zu billo. Man wünscht sich was in der Mitte. Und das geht ja. Einige Lut-Plugins haben ja einen "Lut-Mixer".



Antwort von klusterdegenerierung:

Wiedermal liegt hier ein Missverstädnis vor.
Wieder wird für die weiterverarbeitung eines Log Material zu Lut gegriffen.
Ihr unterscheidet sie jetzt in look luts und vom Hersteller creierte oder empfohlene Lut für die weiterverarbeitung von Log Material.

Das ist ja alles klar, aber leider ist es ja so, das wenn ich zb. in Premiere eine, wenn auch halbwegs passende Lut ins Lumetripanel lege, hinter den Reglern ja schon das Material in eine art 709 visual gedreht wird.

Auch wenn sich dabei die eigentlichen Regler nicht verändern, ist das Bild natürlich korrigiert, dies sieht man ja in der WF und Histogramm.

Wenn ich jetzt im Lumetri anfange die Lichter und tiefen zu verdrehen, habe ich hier ganz andere Werte als ohne Lut. Mit Lut brauche und kann ich auch nicht mehr so viel Lichter rein drehen, bis es clipt, weil schon eine ganz bestimmte Einstellung mit der Lut vorgenomen wurde.

An dieser stelle gibt es kaum Lut, bei denen man noch genauso viel DR bzw verstellpotential hat wie ohne Lut.
Ohne Lut komme ich zu den gleichen Ergebnissen wie mit Lut, nur das mir auf dem Wege ohne Lut nicht soviel flöten geht wie mit.

Das hier soviele über Logs meckern und meinen das dies nix taugt, liegt wahrscheinlich genau an der Tatsache, das diese jenes Material immer in Verbindung mit einer empfohlenen Lut bearbeiten.

Genau die Probleme die mash hier aufzeigt, sind meistens ein Problem von Log mit Lut Verarbeitung.
Eine Lut ist doch nichts anderes, wie eine Profildatei, in der lediglich steht wie das Material über anhebung und absenkung bestimmter parameter zu einem "normalen" look kommt. Dies ist nur für die jenigen gedacht, die eine schnelle unkomplizierte weiterverarbeitung wünschen, aber nicht auf Log verzichten möchten, damit sie auch noch die Freiheit für eine richtige Verarbeitung haben.

Natürlich bietet das Log Material genauso wie das Raw mehr verlußtfreieneingriff, aber auch nur, wenn ich mir es nicht vorher mit einer Lut versaue.



Antwort von domain:

..aber in den Fällen, von denen wir hier sprechen - und von denen der slashCAM-Artikel spricht, geht es bei den Luts nur um technische Anpassung zu rec709. Kann ein Ausgangspunkt sein, kann aber auch "reichen" (bloss, dass es dann i.d.R. witzlos ist, nicht gleich in rec709 zu drehen).
Das BM-Log ist extrem flat, sieht ohne Lut fast schwarz-weiß aus und hat "keine" Kontraste. Die entsprechende Lut (denn es gibt immer nur eine offizielle) macht aus Log "normales Video". Das ist der Sinn von dem ganzen Zinnober.

Das ehemals moderate Canon C-LOG in 8-Bit habe ich vor dem danach ausufernden Log-Hype noch verstanden, da ging es wirklich um das Einfangen von überdurchschnittlichen Kontraststufen in den Lichtern im absichtlich abgeflachten Teil der Gammakurve, also um einen Dynamikgewinn mit sanftem Rolloff ohne wirklich sichtbare Verluste in Mitten und Schatten.
Aber was sich seither abgespielt hat, ich kapiers einfach nicht mehr.
Doch völlig sinnlos bei "normalen" Aufnahmen eine derart flache farblose Suppe zu produzieren, die dann mit enormen Aufwand und mit markanten Qualitätsverlusten z.B. auf Rec 709 gehievt werden muss.



Antwort von klusterdegenerierung:

die dann mit enormen Aufwand und mit markanten Qualitätsverlusten z.B. auf Rec 709 gehievt werden muss.

Ist ja auch klar, ist ja genauso wie mit den Farbprofilen, wenn ich ein professionelles erweitertes RGBRGB im Glossar erklärt Profil in ein standart Profil quetsche, bleit mir nicht mehr als das das standartprofil.
Es zwingt Dich aber doch niemand den gewonnenen Zugewinn wieder weg zu werfen, oder gibt es eine Rec709 Polizei die am Schluß imme die Aufnahmen kontroliert, habe ich zumindest noch nichts von gehört.

Drehst Du denn auch in Log, wenn ich mal fragen darf?



Antwort von WoWu:

@Rob
Die Anfangsframes weisen starke Banding-Artefakte auf, die sich erst im Laufe der Zeit stabilisieren. Es steht zu vermuten, dass dem CodecCodec im Glossar erklärt hier einfach die vorausgehenden I-Frames für die Analyse fehlen – ein Hinweis auf die weniger ausgeprägte Eignung von Interframe-Codecs für den Schnitt.
Die Vermutung ist vermutlich falsch weil H.264 nicht, wie MPEG2MPEG2 im Glossar erklärt auf nur ein I-Frame referenzieren kann sondern eine B-Frame Pyramiende nutzt, in der die B-Frames quasi die Funktion der I-Frames übernehmen und auch nicht nur, wie in MPEGMPEG im Glossar erklärt 2 rückwärts prediziert wird, sondern auch vorwärts.
Daher sind solche Fehler (zumindest) ungewöhnlich.
H.264 hat eine deutlich bessere Prädiktionsbasis als beispielsweise MPEGMPEG im Glossar erklärt 2, auch ohne I-Frames.

Um den Fehler zu ermitteln, müsste man den genauen Workflow kennen.
Hast Du irgendwo eine solche fehlerbehaftete Bildsequenz, die man sich anschauen kann ?
Hat das Material zwischendurch eine irgendwie geartete Transcodierungen erfahren ? -auch innerhalb von H.264 ... ist es also die erste, oder eine weitere Generation ?



Antwort von cantsin:


Das wenn dem so ist, ihr zu solchen Ergebnissen kommt, wie mash_gh4 es schon beschrieben hat, wundert mich nicht, denn ich behaupte mal das es keine Lut gibt, die einem nicht wieder die Reserven klauen, ja sogar verschlimmbessern.
Eine LUT ist eine Konvertierungsfunktion, die einen Farbraum in einen anderen übersetzt. Wenn Du Log-Material hast, liegt das im Log-Farbraum vor und braucht eine Farbraum-Übersetzung nach Rec709, wenn Du es als HD-Video z.B. auf einem BluRay-Spieler übersetzen willst.

AUsfresser, banding und komische effekte sin häufig das Phänomen von Lut
Nein, das sind Probleme, wenn das Ausgangsmaterial zuwenig Information bzw. Bittiefe hat, um sich in einen anderen Farbraum übersetzen zu lassen.

Das, was eine LUT mit dem Farbraum macht, ist gut vergleichbar mit dem, was auf der Ebene der räumlichen Auflösung des Bilds die Entzerrung von anamorphotisch/in Cinemascope aufgenommenem Material tut. (Bzw.: Stell Dir Log-Aufzeichnung gewissermassen als das Farbraum-Anamorphoten vor, die mehr Auflösung einfangen, aber auch anschliessend entzerrt werden müssen.) Natürlich braucht man Auflösungsreserven, um diese Entzerrung ohne ArtefakteArtefakte im Glossar erklärt hinzukriegen - also: höhere Farbtiefe für die Log-Aufzeichnung, genau so, wie man in 1080p1080p im Glossar erklärt aufgenommenes anamorphotisches Material nicht ohne Pixelartefakte nach volle 1080p1080p im Glossar erklärt entzerren kann.

Meiner Meinung nach kann man einen 8vs10Log Test nur machen, indem ich das Log Material so wie es ist maximal verarbeite.
Das ist genauso, als wenn man sich anarmophotisches Material verzerrt im Kino ansieht, "weil dann die Auflösung am besten ist".

Das VLog hat potential in 10bit, aber mit Lut nehme ich es meistens wieder raus. Viele luts steigern den Kontrast und die Lichter schon so stark, das mir da kaum noch Raum bleibt.
Nein, Dein Quellmaterial bleibt ja 10bit, und wenn Du mit einer anständigen Software wie Resolve arbeitest, bleibt alle Farbinformation erhalten. Der Unterschied zu Log-Material mit drübergelegter LUT und reinem Rec709-Material ist, dass Du in Programmen wie Resolve bei ersterem noch immer Farbkorrekturen (auch z.B. Anhebung von Schatten oder Absenkung von Spitzlichtern) vornehmen kannst, ohne dass Banding-Artefakte auftreten.

Unabhängig von eurem Test, frage ich mich sowieso, warum Log und Lut immer aufeinander treffen oder einen Workflow bilden?
S.o., Du hast das ganze Prinzip nicht verstanden.

Wenn ich das in die Fotowelt übertrage, hiese es ja das ich auf ein sauberes Raw immer erst ein Profil packen würde bevor ich mit der individuellen Bearbeitung loslege, passt meiner Meinung nach doch garnicht zusammen.
Nein. Raw ist eben nicht Log, sondern hat keinerlei definierte Farbkurve, und lässt sich in Programmen wie Resolve beliebig als Log, Rec709 oder welcher Farbraum auch immer interpretieren.



Antwort von cantsin:


Doch völlig sinnlos bei "normalen" Aufnahmen eine derart flache farblose Suppe zu produzieren, die dann mit enormen Aufwand und mit markanten Qualitätsverlusten z.B. auf Rec 709 gehievt werden muss.
Das ist ein echtes Problem bei Sonys SLog2+Slog3 und seiner Verbauung in 8bit-Kameras wie der A7-Serie und der A6300, und auch - wie der Slashcam-Test halt zeigt - bei der Panasonic GH4 bei 8bit-Aufzeichnung. Es ist aber kein Problem bei Kameras wie der Blackmagic, wo in ProResProRes im Glossar erklärt mit 10bit pro Farbkanal insgesamt die 64fache Farbinformation ggü. 8bit pro Farbkanal aufgezeichnet wird. (Genauer: 1,073 Milliarden ggü. 16 Millionen Farben.)



Antwort von domain:


Drehst Du denn auch in Log, wenn ich mal fragen darf?
Ich drehe in einer historisch etwas älteren Art der quasi Log-Aufzeichnungen, nämlich mit ausgeprägtem KneeKnee im Glossar erklärt, das aber rein theoretisch einen Knick hat, der aber im Video selbst nicht sichtbar wird.
Damit fange ich mehr Lichter ein, Tiefflieger hat meine Aufnahmen seinerzeit mal als "cremig" und gut zum Schneiden bezeichnet.
Aber eines ist bei 8 BitBit im Glossar erklärt auch klar: was du oben spendest geht dir im unteren Bereich verloren.
Und das hat vor vielen Jahren sogar mal ein absoluter Anfänger hier mit seinen Aufnahmen bewiesen und WoWu hat ihm aber sowas von Recht gegeben.



Antwort von klusterdegenerierung:

Ich habe das wohl verstanden, ich rede aber von was ganz anderem.
Alleine schon die Aussage, das ich Log Material in 709 wandeln muß und das mittels Lut machen muß, zeigt mir, das wir aneinander vorbeireden.

Es braucht überhauptnix für eine Rec konvertierung, denn sobald ich das vorliegende Log Material in ein übliches mp4 render ist es ja schon 709 konform, da kann es aber noch immer so flach sein wie es lustig ist.

Ich verstehe selbstverständlich auch, das Du die Lut in Resolve als eine ledigliche Ebene siehst, die das vorhandene Log Material in 709 darstellt.
Nur ist Resolve nicht Premiere.

Ganz einfaches Testzenario wäre also Log Material in Pr auf die TimelineTimeline im Glossar erklärt, im Lumetripanel eine echt krasse Lut auswählen, die von Hause aus schon mal dein Log footage in ein crazy buntes und ausgefressenes Material verwandelt (oder wie Du sagen würdest, anzeigt).
Jetzt drehe doch mal in den Lumetrireglern so lange bis Du wieder die highlights zurück hast, oder die Schatten nicht abgesoffen hast.

Bei so manch einer Lut ist das nicht mehr möglich, obwohl Du vorher noch alles hattest. Dies ist ein extrem, aber das geschieht auch schon bei angeblich passenden Luts.
Wenn man auf dem Wege also zeigen möchte, wie viel Potential in einem Log Material steckt, dann ist das nicht der richtige.



Antwort von klusterdegenerierung:


Drehst Du denn auch in Log, wenn ich mal fragen darf?
Ich drehe in einer historisch etwas älteren Art der quasi Log-Aufzeichnungen, nämlich mit ausgeprägtem KneeKnee im Glossar erklärt, das aber rein theoretisch einen Knick hat, der aber im Video selbst nicht sichtbar wird.
Damit fange ich mehr Lichter ein, Tiefflieger hat meine Aufnahmen seinerzeit mal als "cremig" und gut zum Schneiden bezeichnet.
Aber eines ist bei 8 BitBit im Glossar erklärt auch klar: was du oben spendest geht dir im unteren Bereich verloren.
Und das hat vor vielen Jahren sogar mal ein absoluter Anfänger hier mit seinen Aufnahmen bewiesen und WoWu hat ihm aber sowas von Recht gegeben.

Damit hast Du ja auch Recht, aber der Vergleich ist ja nicht stimmig.
Auch wenn ich mir über knee und Schwarzgamma was reinhole, was ich mir anderswo verschänke, ist das nicht Teil des Lutprozesses, sondern das Phänomen des Log Materials. Aber ich muß doch nicht auf das mir schon verloren gegangene etwas drauf legen, was mir noch mehr nimmt.

Ich vertsehe einfach nicht, warum bei Log immer alle meinen, sie müßten eine Lut verwenden, nur um in ein 709 zu kommen, wenn ich das wollen würden, dann kann ich ja gleich in 709 drehen und schenke mir den ganzen Log mumpitz.



Antwort von dienstag_01:

Ich vertsehe einfach nicht, warum bei Log immer alle meinen, sie müßten eine Lut verwenden, nur um in ein 709 zu kommen, wenn ich das wollen würden, dann kann ich ja gleich in 709 drehen und schenke mir den ganzen Log mumpitz.
Ausgebrannte Lichter?
Du hast so dermaßen keene Ahnung ;)



Antwort von klusterdegenerierung:

Aha, Du denn?
Schon mal eine nicht so sehr passende 709 Lut für ETTR Log Material verwendet?
Da bleibt bei so manch einer Lut nicht mehr viel Reserven.



Antwort von dienstag_01:

Es gibt sowieso nicht übermäßig viele Reserven. Aber bei direktem 709 recording gleich mal so gut wie gar keine ;)



Antwort von cantsin:


Es braucht überhauptnix für eine Rec konvertierung, denn sobald ich das vorliegende Log Material in ein übliches mp4 render ist es ja schon 709 konform, da kann es aber noch immer so flach sein wie es lustig ist.

Nein, ist es nicht. Du verwechselst CodecCodec im Glossar erklärt und Farbraum.

Ich verstehe selbstverständlich auch, das Du die Lut in Resolve als eine ledigliche Ebene siehst, die das vorhandene Log Material in 709 darstellt.
Nur ist Resolve nicht Premiere.
Das kannst Du aber identisch in Premiere nachbauen, indem Du die LUT per Lumetri-Effekt auf einen Adjustment LayerLayer im Glossar erklärt legst.

Ganz einfaches Testzenario wäre also Log Material in Pr auf die TimelineTimeline im Glossar erklärt, im Lumetripanel eine echt krasse Lut auswählen, die von Hause aus schon mal dein Log footage in ein crazy buntes und ausgefressenes Material verwandelt (oder wie Du sagen würdest, anzeigt).
Jetzt drehe doch mal in den Lumetrireglern so lange bis Du wieder die highlights zurück hast, oder die Schatten nicht abgesoffen hast.
Wenn Premiere das nicht sauber kann - also die Farbberechnungen nicht als Gleitkommarechnung ausführt -, musst Du einfach dafür sorgen, dass die LUT am Ende Deiner Bildbearbeitungskette steht, entweder per Adjustment LayerLayer im Glossar erklärt (s.o.) oder indem Du bei den Clip-spezifischen Effekten Lumetri ein zweites Mal ganz am Ende platzierst und darin nichts als die LUT ausführst.



Antwort von klusterdegenerierung:

Ja, das würde Sinn machen, das ist ein guter Hinweis, hätte von mir sein können :-))



Antwort von merlinmage:

Bekomm doch erstmal Resolve aufm 2007er MacBook zum Laufen, dann reden wir weiter ;)



Antwort von WoWu:

@Kluster..

Es braucht überhauptnix für eine Rec konvertierung, denn sobald ich das vorliegende Log Material in ein übliches mp4 render ist es ja schon 709 konform, da kann es aber noch immer so flach sein wie es lustig ist.

Du würfelst da wirklich alles durcheinander.
Das ist wirklich schade, weil Du doch ein ziemlich hohes Interesse an der Sache zeigst.
Zieh Dir doch einfach mal in Ruhe den ACES Workflow rein und schau Dir mal an, was die einzelnen Komponenten machen. Die sind nämlich in dem Worklflow sauber getrennt und haben genau definierte Funktionen.
Danach hast Du dann, übertragen auf Deinen Workflow, wahrscheinlich ein wesentlich klareres Bild, was wann wo passiert.
Und dann schau Dir doch mal an, was ein LUT macht und was eine Funktion macht, einschließlich ihrer Berechnung von A nach B, z.B. von LOG nach 709.
Spätestens dann wirst Du sehen, dass ein LUT nur eine Annäherung ist. Zwar mit unterschiedlich vielen Stützstellen, also auch mit unterschiedlichen Genauigkeiten, aber kein Ersatz für eine Funktion.
Dann wirst Du auch sehen, an welchen Stellen des Workflows eine LUT noch ausreichend ist und wann nicht mehr.
Bei Deinem Interesse würde es sich wirklich lohnen, da mal richtig einzusteigen.



Antwort von klusterdegenerierung:

Dank Dir Wolfgang!
Momentan ist es halt so wie beschrieben, eine Lut führt zu einem ansehnlichen Ergebnis, aber in meinem Workflow ist es so, das sobald ich eine Lut gewählt habe, ich viel meines Spielraums verliere.



Antwort von klusterdegenerierung:

Für alle die nicht wissen wie ich es meine oder denken ich hätte einen an der Mütze und wäre der totale Nullchecker, habe ich mal ein kurzes Beispielszenario durchgespielt.

Ich nehme 10Bit 4:2:24:2:2 im Glossar erklärt SLog3 Footage und packe es in eine passende Pr Sequenz, lege irgendeine Lut drauf, mache einen screenshot der Lut ohne Veränderungen, dann ein Screenshot von Lut mit grading in extreme um zu gucken wie viel Raum ich noch habe oder wo meine Grenzen sind, ich aber ein Bild bekomme, wie mir es vielleicht jetzt gerade gefällt.

Dann noch ein screenshot des Log Materials ohne Lut mit einstellungen, die dem Ergebnis der gegradeten Lut ähnlich sein sollen.

Hier sieht man ganz deutlich, dass das gegradete Lut Material an die Grenzen kommt und in den Tiefen rauscht wie ein Sack Nüße.
Das gegradete Log Material weißt erstens keine Fehler auf und franzt auch nicht so aus.

Das ist das was ich meine!
In meinem Workflow ist es also ganz und garnicht egal, ob da eine Lut auf dem Material liegt.



Antwort von dienstag_01:

Ich kenne mich wirklich nicht aus mit S-Log und Lut, aber dass das eine komplett schwachsinnige Arbeitsweise ist, sieht man sofort.
Neutral ist das Weiss schon auf Anschlag, was hat Überbelichtung mit S-Log zu tun?!
Die Lut schiesst dann das Weiss sonstwohin, perfekter kann man Irrsinn kaum dokumentieren.
Klasse ;)



Antwort von Axel:

Momentan ist es halt so wie beschrieben, eine Lut führt zu einem ansehnlichen Ergebnis, aber in meinem Workflow ist es so, das sobald ich eine Lut gewählt habe, ich viel meines Spielraums verliere.

Ich suche keine Beleg-Quellen raus, weil der gesunde Menschenverstand mir sagt, dass Lumetri, eine ziemlich genau ein Jahr alte Implementierung seitens Adobe und insgeheim das Flagship-Feature sowohl von CC2015 als auch von 2016, alle Berechnungen in Fließkomma ausführt. Das führt dazu, dass es auch bei komplexen Änderungen keine sichtbaren Rundungsfehler gibt. Aber.

In einem Punkt hast du teilweise Recht. Eine Lut ist, wie ColorGradingCentral-Chef Denver Riddle in einem Resolve-Tutorial mal demonstrierte, gewissermaßen ein visuelles Vorurteil. Was meint er damit?

Gradingprogramme arbeiten theoretisch non-destruktiv in Bezug auf das Footage, d.h. wenn ich einen Bearbeitungsschritt zurückgehe, oder sogar alle deaktiviere, sehe ich das unveränderte Original (z.B. auch alle durch 709 verschluckten Höhen und Tiefen).

Aber das hilft nicht viel, da Bearbeitungsschritte aufeinander aufbauen und ich mit jedem weiteren effektiv mit weniger echten Werten arbeite. Sehr schön zu sehen in Resolves Node-Kaskaden. Jeder neue sequentielle Node berechnet auf der Grundlage der Änderungen des vorhergehenden. Und wenn ich ständig Undo oder Bypass klicken würde, um zum Original zurückzukehren, käme ich nie vorwärts.

Dessen muss man sich bewusst sein. Trotzdem sind Luts nützlich.

Macht ACES das alles überflüssig? Weiß ich nicht, habe ich mich noch nicht intensiv mit befasst. Wenn jedoch dort, wie WoWu andeutet, auch die Übertragung vom einen in den anderen Farbraum völlig genau ist, so ändert das nichts am o.e. "visuellen Vorurteil".



Antwort von klusterdegenerierung:

Ich kenne mich wirklich nicht aus mit S-Log und Lut, aber dass das eine komplett schwachsinnige Arbeitsweise ist, sieht man sofort.
Neutral ist das Weiss schon auf Anschlag, was hat Überbelichtung mit S-Log zu tun?!
Die Lut schiesst dann das Weiss sonstwohin, perfekter kann man Irrsinn kaum dokumentieren.
Klasse ;)

***von Admin gelöscht wegen Beleidigung***

Es geht doch nur darum, auf zu zeigen das man Material gekoppelt mit einer Lut nicht so verlußtfrei graden kann.

Und das Du nicht weißt warum beim Log Material die Weß Regler auf Anschlag sind, liegt einfach daran, das Du keine Ahnung von Log Material hast.

Das ist soo flach und mau, das Du da eben so viel reindrehen mußt, aber wesentlicher ist der Begriff "kannst".
Das dokumentiert erstens wieviel Spielraum Log bietet und zweitens ist es in diesem Fall ja auch deswegen so extrem, weil ich mich ja dem Lut Material anpassen wollte.

Ich kann Dir aber gerne noch mal das Log Material in Flat screenen!
Hier, das kannste ja gerne mal ohne Lut so verdrehen bis es entsprechen neutral oder sexy aussieht, das stünden Deine Regler ander gleichen Stelle.

Falls Du kein Slog3 Material hast, ich kann Dir welches schicken!



Antwort von rob:

*** die letzten Beiträge nach Off-Topic von Admin verschoben***



Antwort von klusterdegenerierung:

Sehr schön zu sehen in Resolves Node-Kaskaden. Jeder neue sequentielle Node berechnet auf der Grundlage der Änderungen des vorhergehenden. Und wenn ich ständig Undo oder Bypass klicken würde, um zum Original zurückzukehren, käme ich nie vorwärts.

Axel, das ist doch genau das wovon ich rede, wenn Slashcam nun auf genau dieser Basis am Material dreht, ist es doch schon der ungenauiogkeit und den Verlusten der Lut geschuldet.
Warum denn überhaupt Lut, wenn es darum geht den Unterschied zwischen 8 und 10Bit bei Log zu zeigen.
Ich bin ziemlich sicher das hier viele Probleme mit dem ganzen 10Bit und Log kram entstehen, weil sich so manche eine Lut aufs Material knallt, daran rumdreht bis der Arzt kommt und sich hinterher wundert, warum 10bit und log doch nicht so doll sind.



Antwort von WoWu:

@ Kluster..
Das Graden mit einer LUT führt immer dazu, dass nur zwischen den Stützstellen gerechnet wird.
Das ist der Unterschied zu einer Funktion, die die gesamte Kurve nachrechnet.
Daher führt das auch zu solchen Ausbrenneffekten.
Du willst aber von einer Funktion zu einer andern, müsstest also (ohne Approximation) alle folgenden Stützpunkte manuell nachrechnen, um eine Funktion nachzubilden.



Antwort von klusterdegenerierung:

Sorry dienstag_01, beleidigen wollte ich Dich nun wirklich nicht!
War jetzt nur angepieselt weil ich immer ein auf den Deckel bekomme, wenn ich meine Sicht der Dinge schildere!

WoWu,
ich muß mich da wohl erst noch mal richtig einlesen, dann kann ich mein Material auch bestimmt besser verwerten, was ja mein dauerndes bestreben ist!



Antwort von dienstag_01:

Ich bin nicht beleidigt.
Auch hatte ich dein erstes Bild fälschlicherweise als Neutral, ohne Lut interpretiert. Daher meine Fehlinterpretation.
Fakt ist aber, dass man nicht irgendeine Lut drüberlegen kann, sondern die vom Hersteller. Nur der weiss genau, was seine Log-Funktion macht und kann sie wieder sozusagen *rückgängig* machen. Trotzdem kann man dann immer noch in bestimmten Bereichen, die ansonsten nicht mehr zugänglich wären, das Material bearbeiten. Z.B in den Höhen.
Das ist für mich der Sinn von Log.
So hat das Slashcam ja auch nach eigener Aussage gemacht.
Und nicht eine x-beliebige Lut drauflegen, die selber schon alles verbiegt und dann wild an den Reglern drehen.



Antwort von klusterdegenerierung:

Ich bin nicht beleidigt.
Auch hatte ich dein erstes Bild fälschlicherweise als Neutral, ohne Lut interpretiert. Daher meine Fehlinterpretation.
Fakt ist aber, dass man nicht irgendeine Lut drüberlegen kann, sondern die vom Hersteller. Nur der weiss genau, was seine Log-Funktion macht und kann sie wieder sozusagen *rückgängig* machen. Trotzdem kann man dann immer noch in bestimmten Bereichen, die ansonsten nicht mehr zugänglich wären, das Material bearbeiten. Z.B in den Höhen.
Das ist für mich der Sinn von Log.
So hat das Slashcam ja auch nach eigener Aussage gemacht.
Und nicht eine x-beliebige Lut drauflegen, die selber schon alles verbiegt und dann wild an den Reglern drehen.

Hallo Dienstag,
Danke für Deine Worte.
Was Du geschrieben hast verstehe ich und war auch von mir so gemeint.
Ich habe im übrigen von Anfang all dieses verstanden, was mir aber anscheinend nicht geglückt ist, ist zu dokumentieren, das eine Lut, sonfern sie denn nicht explizit vom Hersteller genau auf diese Cam und dessen Material konzipiert wurde, einbußen im Ausgangsmaterial bzw. für die weitere Weiterverarbeitung bringt.

In meinen Screenshots sieht man sehr deutlich das rechts unten in der Ecke des unbearbeiteten Log Materials mit Lut, ein hohes Farbrauschen entstanden ist, dies habe ich nicht ohne Lut bei gleichwertiger dartstellung.
Das dies natürlich soo stark ausgefallen ist, ist natürlich der looklut geschuldet, da diese garnicht zum Ausgangsmaterial passt bzw vom Hertseller kommt.

An dieser Stelle wollte ich nur sagen, das nicht wenige nicht um diesen Umstand wissen und sich darüber ihr Material kaputt machen und aus unerfahrenheit wohlmöglich garnicht wissen warum.

Wenn man nun die Reinheit eines Materials zeigen möchte, welches aber, weil es log ist, Visuell dem Rec709 angepasst werden muß, um zu dokumentieren, das ich auch in kombination mit 10Bit weniger distursionen habe, dann ist es meiner Meinung nach besser man liese die Lut weg, denn so ist man zumindest sicher, das man sich über diese Instanz keine Fehler einfährt, denn auch eine Hersteller Lut muß nicht frei von Fehlern sein und drückt eben das Material in eine Richtung wie der Hersteller es möchte.

Ich beschäftige mich viel mit Log Material und lese sehr viel dazu und die jenigen die schon länger damit arbeiten, nehme eine Lut nur als PreviewPreview im Glossar erklärt oder für ein schnelles graden, damit der Kunde schon mal was sieht, aber nicht als Basis einer professionellen Worklfow in dem es um Colocorrection und finishing geht, es sei denn ich arbeite genau auf diesen Arbeitsprozess hin, bei dem ich schon vorm dreh weiß, dass das fertige footage in M31 visualisiert werden soll.



Antwort von Peppermintpost:

ob log oder rec709, ob hersteller lut oder creatives grading, spielt bei dem test doch alles keine rolle. worum es geht und was slashcam ja auch sehr schön gezeigt hat, das sowohl farbtiefe als auch datenrate massiv einflüsse auf die bildqualität haben, und in beiden fällen je mehr desto je besser das ergebnis.

weiterhin können wir sehen, das selbst wenn dochmal eine derbe youtube kompression oben drauf gehauen wird, die unterschiede sehr einfach zu sehen sind, die qualität also selbst im ungünstigsten fall immer noch durchschlägt.

wie kann man denn da immer noch seiten weise diskutieren und sich gegenseitig verbal an die gurgel gehen? die ergebnisse sprechen doch für sich, und eindeutig sind sie noch dazu.

komische leute gibts hier....

danke slashcam für den test.



Antwort von wolfgang:

War offenbar mal wieder eine heftige Diskussion und ich muss mir das Testmaterial erst ansehen.

Aber was mir an der Diskussion auffällt ist dass übersehen wird, dass jedes gute LUT plugin zwischen den Stützstellen Dateninterpationen macht. Dass muss also nicht dramatisch falsch sein.

Zweitens ist für die Normalisierung sowohl die Verwendung eines LUTs wie auch das Handanlegen zulässig - warum auch nicht?

Drittens wird man mit dem Kameralut log zu rec709 eines Herstellers doch immer die präzissere Rüchführung der Werte haben als bei der händischen Anpassung. Aber nach dem LUT legt man eh noch Hand für die Feinjustierung an (mit linearen Reglern), was das Nichtig macht. Will man vor dem LUT eingreifen nimmt man halt die log-Regler in Resolve.

Viertens kann sowohl ein LUT wie auch Handanlegen Rauschen aufzeigen. Aber ist es nicht eine Illusion das auf den LUT zu schieben der das rein mechanisch ummappt? Bei der Handarbeit sieht man es halt und steuert dem entgegen. Kann man auch beim LUT wenn man will. Man muss nur die node oder Signalkettenlogik nutzen.

Und zuletzt: es sind massiv auch die Werkzeuge die Murks machen können. Arbeitet man etwa mit dem Looks 3 PluginPlugin im Glossar erklärt in Vegas finde ich den Herstellerlut der GH4 weniger leicht in der nachfolgnden Justierung einstellbar als wenn lman den gleichen LUT in Resolve nutzt. Kann aber auch an den viel bessern Einstellmöhlichkeiten in Resolve liegen dass man dort besser hinkommt, man sollte zumindest verschiedene Tools auch mal probieren um Unterschiede zu sehen und um dann zu wählen womit man da arbeitet.



Antwort von merlinmage:

Ist aber immer wieder schön zu sehen welche Diskussionen man umschifft wenn man einfach seit Jahren auf Arri/Red/Sony dreht und sowieso alles entspannt auf Proxy schneidet. Prost!



Antwort von WoWu:

genau!



Antwort von Peppermintpost:

Ist aber immer wieder schön zu sehen welche Diskussionen man umschifft wenn man einfach seit Jahren auf Arri/Red/Sony dreht und sowieso alles entspannt auf Proxy schneidet. Prost!

nein totaler quatsch, auf proxie schneiden machen ja nur vollidioten, schliesslich muss man ja 1-5 knöpfe drücken um proxie zu generieren. ne lieber alles immer in voller auflösung ruckel kino 15fps "hilfe mein rechner ruckelt" schneiden, oder alle paar wochen neue fetteste hardware kaufen, oder von der software adaptive resolution benutzen, was auch total zäh ist, dazu aber wenigstens noch kompl. zerhackt aussieht.
in proxie umrechnen, das kannste ja abends nach dem dreh machen, oder in der mittagspause, überleg mal den zeitverlust. sich tagelang im schnitt mit einem rechner rum zu ärgern der 4-10 mal langsamer ist als er seien müste, das ist ein cleverer weg.
proxie benutzen nur idioten.



Antwort von CameraRick:


nein totaler quatsch, auf proxie schneiden machen ja nur vollidioten, schliesslich muss man ja 1-5 knöpfe drücken um proxie zu generieren. ne lieber alles immer in voller auflösung ruckel kino 15fps "hilfe mein rechner ruckelt" schneiden, oder alle paar wochen neue fetteste hardware kaufen, oder von der software adaptive resolution benutzen, was auch total zäh ist, dazu aber wenigstens noch kompl. zerhackt aussieht.
in proxie umrechnen, das kannste ja abends nach dem dreh machen, oder in der mittagspause, überleg mal den zeitverlust. sich tagelang im schnitt mit einem rechner rum zu ärgern der 4-10 mal langsamer ist als er seien müste, das ist ein cleverer weg.
proxie benutzen nur idioten.
Das entlockte mir jetzt ein echtes Lachen, ha! :)



Antwort von merlinmage:

;)



Antwort von Frank Glencairn:

Keine Ahnung was ihr da immer macht, aber bei mir läuft raw Material ohne Ruckeln (wenigstens in Resolve). Auf ner halbwegs aktuellen Hardware gibt es IMHO wirklich keinen Grund mehr mit Proxies und Roundtripping rum zu machen, aber jedem das seine.



Antwort von WoWu:

Keine Ahnung was ihr da immer macht, aber bei mir läuft raw Material ohne Ruckeln (wenigstens in Resolve). Auf ner halbwegs aktuellen Hardware gibt es IMHO wirklich keinen Grund mehr mit Proxies und Roundtripping rum zu machen, aber jedem das seine.
Das mag für eine 8Bit Ziel Produktion noch funktionieren, nicht aber, wenn man 12 BitBit im Glossar erklärt Material auch in der Qualität ausbelichten will.
Und wenn man den Workflow einmal hat, warum dann nicht auch auf 8Bit ausspielen ?
Und was RAW Material betrifft, kommt es auch auf das RAW Matrial an und wie ich in das Material eingreifen möchte.
Nicht jedes RAW Material lässt herkömmliche Workflows zu. Mit pseudo RAW Material, das eigentlich LOG ist, geht das natürlich und selbst unterbelichtete Rechner können das.



Antwort von CameraRick:

Keine Ahnung was ihr da immer macht, aber bei mir läuft raw Material ohne Ruckeln (wenigstens in Resolve). Auf ner halbwegs aktuellen Hardware gibt es IMHO wirklich keinen Grund mehr mit Proxies und Roundtripping rum zu machen, aber jedem das seine.
Ich habe noch nie einen Freelancer Editor gesehen, der Resolve macht. Ich kann nicht mit einem Editor die Grading-Suite blockieren. Ich kann nicht immer aktuelle Hardware haben (denn die Definition von "aktuell" ändert sich oft).

Was in einem Kleinbetrieb, wo eh nur einer alles macht und Machinen nie getauscht werden, echt gut funktioniert kann halt leider nicht überall allgemeingültig sein. Gibt darüber hinaus andere Faktoren, wieso ich mein Schnittprojekt vielleicht nicht so gern in einer Datenbank habe.
Und SPeicherplatz ist dann auch irgendwann eine Frage, wenn ich alles an einem Rechner machen muss. Rohmaterial von ein paar Projekten sprengt ja schnell gern mal 50GB.



Antwort von Frank Glencairn:



Die meisten Editoren sind extrem unflexibel und stur - ist bekannt. Das selbe hab ich damals von Schneidetisch Editoren gehört als Avid auf den Markt gekommen ist, von Avid Editoren, als FinalCut auf den Markt gekommen ist, von Final Cuttern, als Premiere erwachsen wurde und jetzt halt wieder.

Immer die selbe Leier.

Na ja - mittelprächtige CPU, ne GTX980, und ein Software RAID0 - wenn das nicht drin ist, dann weiß ich auch ned.

LOL - ja das stimmt. Alleine eine meiner CFast Karten hat mehr als das doppelte



Antwort von wolfgang:

Keine Ahnung was ihr da immer macht, aber bei mir läuft raw Material ohne Ruckeln (wenigstens in Resolve). Auf ner halbwegs aktuellen Hardware gibt es IMHO wirklich keinen Grund mehr mit Proxies und Roundtripping rum zu machen, aber jedem das seine.
Ist wohl wirklich eine Frage der Hardware.

Aber mit meiner aktuellen Maschine (i7 5960X, R9 390X mit 8 GB, Decklink4K Extreme) ist es wie bei Frank: sogar das Ursa mini 4.6 K Testmaterial läuft bei mir in Resolve problemlos ohne Ruckeln, und das ja im 32bit floating point Modus.



Antwort von merlinmage:

Die Performance von Resolve als NLE kann man (noch) knicken - wenn ich sehe wie lange Resolve braucht um vonner Sony FS7 Waveform Caches zu erstellen (bei 4K Material reichen 2-3 Drehtage aus, damit Resolve erstmal 10-12 Stunden cached, ja super) und erst DANACH einigermaßen gute Playback Performance hat - da ist Premiere halt um Welten fixer.



Antwort von Frank Glencairn:

Das ist ja auch kein raw Material.
Cachen geht gar ned, da kann ich ja gleich Proxies rechnen.



Antwort von CameraRick:


Immer die selbe Leier.
Und doch werden (hier) hochfrequentiert hauptsächlich Avid Editoren gesucht, seltenst Premiere oder Final Cut.
Ist ja nicht so, als ob Resolve jetzt so ein wahnsinnig flexibles System wäre... :)

Na ja - mittelprächtige CPU, ne GTX980, und ein Software RAID0 - wenn das nicht drin ist, dann weiß ich auch ned.
Und die Sachen kaufen wir dann alle halbe Jahre neu, weil wir so viel Lust und Zeit haben alles neu zusammen zu bauen?

LOL - ja das stimmt. Alleine eine meiner CFast Karten hat mehr als das doppelte
Tippfehler, aber das hast Du sicher selbst gemerkt.
50 TB sind dann wieder eine andere Hausnummer, wenn man die mega schnell für alles verfügbar haben muss. Wenn man nur zwei kleine Projekte macht, ists natürlich Latte. Aber da hast Du sicher auch eine schnippische Antwort drauf, wieso das blöde von mir ist.

Kommt halt immer drauf an, was man so macht, und für wen. Im Indiependentbereich ist das alles bestimmt immer so einfach gesagt wie getan



Antwort von Frank Glencairn:

Das ist alles eine Frage des Willens.

Wenn eine kleine Independent Klitsche das kann, dann sollte das ein großer Laden auch können, oder es geht was gewaltig schief.

Meine Workstation hab ich vor 4 Jahren gebaut.
Seit Resolve 12 hab ich nur ne bessere GPU und mehr Platten gekauft. Auch in 2 Jahren kann ich damit immer noch 4k schneiden - kein Grund jedes halbe Jahr einen neuen Rechner zu bauen.

Den Plattenplatz brauchst du für das raw Material ja auch, wenn du mit Proxies schneidest (plus den Platz für Proxies) - ist also auch kein Argument.



Antwort von merlinmage:

Cachen geht gar ned, da kann ich ja gleich Proxies rechnen.

Waveform Cachen, kein Video cachen! Wichtiger Unterschied!

Und RAW ist bis auf Red hier recht selten - meist 2K ProResProRes im Glossar erklärt 444 oder bei den Sonys halt AVC Intra 300.



Antwort von CameraRick:

Das ist alles eine Frage des Willens.

Wenn eine kleine Independent Klitsche das kann, dann sollte das ein großer Laden auch können, oder es geht was gewaltig schief.
Wenn Du mal für Marvel gearbeitet hast weißt Du ganz fix, was da so alles schief geht. Da ist die 100.000€ NDA noch ein Witz gegen die Auflagen.
Kleine Klitschen konnten schon immer flexibler sein als große Player, das ist doch kein Geheimnis.

Meine Workstation hab ich vor 4 Jahren gebaut.
Seit Resolve 12 hab ich nur ne bessere GPU und mehr Platten gekauft. Auch in 2 Jahren kann ich damit immer noch 4k schneiden - kein Grund jedes halbe Jahr einen neuen Rechner zu bauen.

Den Plattenplatz brauchst du für das raw Material ja auch, wenn du mit Proxies schneidest (plus den Platz für Proxies) - ist also auch kein Argument.
Die RAW-Daten kann ich aber auch Billo-Platten im Archiv horten und fürs Grading nur das raus kramen, was ich brauche, statt da Petabytes pro Woche zu kopieren. Es geht mir ja nur ums Work-Volume, und muss dann riesig und schnell sein. Im Zweifel wird ja (vom Material her) weit mehr geschnitten als gegradet (auch, weil nicht alles Inhouse gegradet wird, und weil ich beim Graden nicht alle Clips brauche).

Du sagst ja ganz treffend, dass die Cutter nicht flexibel sind. Müssen sie auch nicht unbedingt sein, das Problem für mich ist primär, dass zB Resolve nicht flexibel genug ist, damit ich da keine Bauchschmerzen hätte, überhaupt wen zu suchen, der das machen würde. Falls es hier einen gibt.
Am Ende des Tages kann jetzt doch der findige Cutter, der sich auf DaVinci spezialisiert, all die coolen Jobs machen die den stocksteifen Avid-Editoren entgehen. Ist doch top :)



Antwort von Frank Glencairn:

Außer dem lausigen Phantom3 Material ab und zu, hab ich (gottseidank) eigentlich nur noch mit raw zu tun (Red, Arri, BM).

@Rick wo ist denn Avid "flexibler" als Resolve?



Antwort von leonhard dy kabrio:

Ich arbeite demnächst für Marvel!

Ihr machts mich schwach.. was mußn ich nun beachten? Flohpulver kaufen,
Zähne putzen und meinen etwas dissozierenden Mastercpu ( mein Hirn) auf
Ami-schleim-we-all-abiiig-big-famely umschalten??

Hier wird über ne 1000 Euro Cam gesprochen die mit 700 Euro Rekorder einem gewifften
und hungrigen Filmer ein Basistool in Händen gibt wo der halt so und in 10 bit aus der
Kanne saufen kann.
Bei Marvel, wo du angeseilt über den Butgethauffen kraxelst, wird das sicher ein Thema sein. Bei manchen Argumentationsführungen würde ich zum Schweralkoholiker werden oder Naturhanfkosmetiker was immer...

Und weil die Hersteller das lesen, die lachen sich einen Ast ab..
Lampentran bis 1850..gel :)
Ich hab das Gerücht gehört, das es 2017 Sommerreifen aus Holz gibt, echt!!



Antwort von Peppermintpost:

ich glaub den avid cuttern geht das am arsch vorbei womit sie schneiden. wenn jemand bedarf hat, mich kann man auch buchen und ich schneide dann mit microsoft word wenn es verlangt wird. ist mir doch egal wenn es dann 100x so lange dauert und ich glaube die cutter die von der dienstleistung leben, denen geht das genau so. nur die post häuser die davon leben setzen die cutter lieber an avids, weil die kunden die dafür zahlen am liebsten am avid sitzen, und weil es schlicht und ergreifend am schnellsten geht.



Antwort von CameraRick:

@Rick wo ist denn Avid "flexibler" als Resolve?
Es braucht keine Datenbank.

Ich kann einem Editor die kleine Platte einfach mitgeben, wenn er unterwegs am Laptop was schneiden muss. Oder An eine andere Maschine, etwa daheim übers Wochenende. Oder wenn er generell schon am Set schneiden muss, dann im Zug, dann bei uns.
Dann sind da Sachen wie Geschwindigkeit, das BIN-System, wie ich mir die Software einrichten kann (Stichwort Fenster), etc pp.
Bin ich eigentlich blind, oder kann der Resolve tatsächliche keine OMF/Audio AAFAAF im Glossar erklärt exportieren?

Der Resolve ist ein ganz hervorragendes Tool für ganz viele Sachen. Wirklich, ich genieße es. Speziell fürs Grading, oder die Herstellung von Proxys, da finden viele ihren Meister bei DaVinci



Antwort von Frank Glencairn:

Du bist blind, das mit der Platte kannste bei Resolve genauso machen, und die Bins funktionieren noch besser als bei Avid.

Ist immer schwierig über ein Programm zu urteilen, das man nicht kennt.



Antwort von Jott:

Aber hallo! :-)



Antwort von CameraRick:

Du bist blind, das mit der Platte kannste bei Resolve genauso machen, und die Bins funktionieren noch besser als bei Avid.

Ist immer schwierig über ein Programm zu urteilen, das man nicht kennt.
Ich nutze den Resolve deutlich mehr als den Avid :)

Wo finde ich denn den Export von OMF/Audio AAFAAF im Glossar erklärt im Resolve? Ich kann in der Beidneungsanleitung auch nichts finden.

Das mit der Platte geht natürlich so mittel prächtig,. ich muss eben immer erst mal Projekt exportieren, importieren, und habe nicht einen gemeinsamen Nenner. Geht doch um die Projektdatei.
Und die 20TB Rohdaten geb ich dann auf einem handlichen Studio RAIDRAID im Glossar erklärt mit, wenn der Editor wo anders hin will? :)

Die Bins funktionieren also besser... hm, inwiefern denn? Meinst Du damit die klobigen Fensterlayouts die ich nicht richtig anpassen kann, dass ich ich keine floating Windows öffnen kann, dass ich auf zwei Monitore beschränkt bin, diese Sachen?



Antwort von Peppermintpost:

rick, vergiss es, er wird bei allem was du sagst immer sagen, "wieso kann resolve doch auch".
deswegen ist eine sony a6300 ja auch das gleiche wie eine arri alexa, weil im 9ten unterpunkt vom 6ten submenue die gleiche funktion zu finden ist.
und ein baustrahler ist auch das gleiche wie ein kinoflo weil beide hell machen.

das führt einfach zu nichts.

ich finde resolve zum schneiden total geil, nur die farbkorrektur im avid finde ich besser.



Antwort von CameraRick:

Ich glaub nicht, dass Frank zur Baustrahler=Kinoflo Fraktion gehört, eher im Gegenteil.

Daher wundert mich, dass der Resolve auf einmal der bessere Offline-Editor sein soll (im Sinne von Offline-Phase, coole Jungs schneiden ja jetzt online). Steckt man nicht drin.



Antwort von Peppermintpost:

Ich glaub nicht, dass Frank zur Baustrahler=Kinoflo Fraktion gehört, eher im Gegenteil.

ne glaube ich auch nicht, aber von kamera hat er ahnung, post ist nur hobby, deswegen kommen da so komische dinge zu stande.
deswegen hab ich geschrieben avid ist für farbkorrektur besser. das ist natürlich kompletter schwachsinn, aber bei allem was du sagst kann ich immer sagen, "wieso, kann der avid doch auch."



Antwort von CameraRick:

Haha, ich hatte es als solchen gewertet, keine Bange :)

Wobei Hand aufs Herz, die Kurven im Avid find ich ganz nett, mit den Einfärbungen. Ist das im Vegas nicht auch so? Ich mein wenn man mit Kurven nicht so kann ist das eine starke Hilfe, hätten auch viele Nutzer was von.

Ich bin ja echt der letzte Freund des Avid, ich kriege jedes Mal einen kleinen Breakdown wenn ich davor muss. Aber eben auch Ehre, wem Ehre gebührt.

Was hälst Du eigentlich von der N10? Habe bisher viel Kritik gelesen zur Stabilität so wie Performance, ist mir aber nicht nicht aufgefallen. Im Gegenteil, ich kann jetzt GPU Unterstützung anscheinend benutzen und er rotzt im Studio weniger weg.



Antwort von Peppermintpost:

N10 sitze ich gerade davor. mache gerade mein erstes richtiges projekt, bis jetzt war alles nur spielerei, da fand ich es gut, mal sehen wie es sich jetzt schlägt mit 3k anamorphem material. frag mich in 2 wochen ;-) aber die neuen features finde ich total geil. hab bis gestern noch an der flame gesessen (kotz) jetzt endlich wieder nuke (jippi ;-)



Antwort von dienstag_01:

Wobei Hand aufs Herz, die Kurven im Avid find ich ganz nett, mit den Einfärbungen. Ist das im Vegas nicht auch so? Ich mein wenn man mit Kurven nicht so kann ist das eine starke Hilfe, hätten auch viele Nutzer was von.
Was meinst n du damit?



Antwort von Peppermintpost:

er meint die farben in den kurven die dir zeigen in welche richtung sich dein bild ändert.

edit: die idee ist vom quantel henry geklaut, beim vorgänger harry war das farbkorrektur tool schwarzweiss, da hatte nie einer ne ahnung in welche richtung man drehen muss, dann hat quantel im henry die farben an die kurven gebappt und schon war das klar. (war allerdings ne farbkorrektur in YUVYUV im Glossar erklärt und nicht in RGBRGB im Glossar erklärt, von daher war das auch etwas schwieriger zu durchblicken)



Antwort von dienstag_01:

Ah, verstehe, danke.



Antwort von CameraRick:

@dienstag

genau das hatte ich gemeint! :)

N10 sitze ich gerade davor. mache gerade mein erstes richtiges projekt, bis jetzt war alles nur spielerei, da fand ich es gut, mal sehen wie es sich jetzt schlägt mit 3k anamorphem material. frag mich in 2 wochen ;-) aber die neuen features finde ich total geil. hab bis gestern noch an der flame gesessen (kotz) jetzt endlich wieder nuke (jippi ;-)
Ich habe zwangsläufig ein paar Sachen in N10 machen müssen, weil der 9er manche AAFs nicht gefressen hat (weder aus Avid noch Resolve), das haben sie zum Glück gefixed. Ansonsten habe ich aber noch nichts dran gemacht, im Moment ist etwas Flaute an der FX-Front daher bin ich anderweitig beschäftigt.
Bin mal gespannt, ob und wann mir der SmartVector mal den Arsch rettet... ich erinnere mich an einen Shot vor ein paar Jahren, das war noch N6, da hatten wir ein wehendes Banner wo etwas hinzugefügt werden musste... da wäre das vermutlich der Knaller gewesen.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
8 Bit vs 10 Bit: Panasonic GH5 vs GH4 - der Unterschied in der Praxis
10 Bit 60p (V-Log L) mit der Panasonic GH5 und dem Atomos Inferno (+ Speedbooster)
Nikon Z7 in der Praxis: Vollformat Cinema Überflieger DSLR? 10 Bit N-LOG, Hauttöne, Sony A7III Vergleich, uvm.
Panasonic GH5 - 8 Bit, 10 Bit, 4:2:2, V-Log L - alles OK?
Dynamikumfang: Internes 10 Bit V-Log mit der Panasonic S1 - neue Referenz beim Dynamikumfang?
10 Bit workflow - lohnt sich der Umstieg?
Macht der GH4 Vlog bei der Aufnahme auf Atomos Asassin Sinn?
Dave Dugdale - 8 Bit vs. 10 Bit (vs. 12 Bit)
Der Video Assist von Blackmagic Design: 1080p 10 Bit Monitorrecorder
news:PXW-X200, nachfolger der PMW 200- na endlich!!!10 bit
FCPX und GH5 Material (Long Gop 10 bit) ruckelt in der Bearbeitung
SmallHD gibt Preise der neuen großen 10-Bit HDR Field-Monitore bekann
Sound von 8 Bit Mono in 16 Bit Stereo umwandeln...
Sind 12 Bit ohne Rauschen nur 8 Bit?
Panasonic AG-DVX200 erstes Hands On: 4K 50/60p, 10 Bit extern, V-LOG L u.a.
FUJI X-T30 kann F-log und 10 Bit 4:2:2 über HDMI
8 bit vs 10 bit Cameras - Video Youtube
Video: Erste Impressionen Fujifilm X-H1, F-Log, LUT, Hauttöne, 8 Bit 200 Mbit ua.
Panasonic GH5: 10-Bit 4K V-Log L Workflow, 180 fps Zeitlupe, Focus Transiti
Dynamikumfang: Blackmagic Ursa Mini Pro G2 vs Panasonic S1 - 4K RAW S35 vs 10 Bit V-Log Vollformat
Update für Panasonic Lumix S1 bringt 10 Bit V-Log, LUT und Waveform-Monitor
Fujifilm XT-3: 4K 60p mit 10 Bit LOG intern (!) - die beste APS-C für Video?
GH4 4k zu full hd 422 10 bit workflow
Messevideo: Nikon Z6 und Z7: 4K 10 Bit N-Log, Fullsensor Readout, XQD, Sensorstabi uvm. // Photokina 2018
Canon EOS R im 4K Video Test: 10 Bit LOG, Dual Pixel AF, Hauttöne. Bedienung, inkl. Nikon Z6 Vergleich
Panasonic: Weltweit lichtstärkstes, videoafines Leica DG Vario-Summilux F1.7 / 10-25mm für MFT - 10 Bit V-Log Update ink

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-20. August / Oestrich-Winkel
Kurzfilmfestival Shorts at Moonlight
11-15. September / Eckernförde
Green Screen - Internationales Naturfilmfestival
11-15. September / Oldenburg
Internationales Filmfestival Oldenburg
18-22. September / Münster
Filmfestival Münster
alle Termine und Einreichfristen