Frage von mowbray:mal eine Frage an die Color Space & Postproduktions Experten:
welches Variante ist das qualitativ "höherwertige" Signal ?
10 Bit 420 oder 8Bit 422 ?
Der Unterschied zwischen 4:2:0 und 4:2:2 ist mir klar, aber nicht so recht 8Bit und 10Bit.
Kann mich jemand aufklären? WIe wirken sich die "extra 2Bit" aus?
Besten Dank!
Antwort von cantsin:
mowbray hat geschrieben:
WIe wirken sich die "extra 2Bit" aus?
Ganz einfach: Viermal mehr Farbwerte pro Farbkanal (jedes Bit mehr verdoppelt die Anzahl), was feinere Abstufungen möglich macht.
Antwort von schroedingerskatze:
Du ahnst ja gar nicht, welche Dimensionen die nachfolgende Diskussion hier haben könnte ;-)
Für die meisten meiner Aufgaben sticht Quantisierung das Subsampling. Ergo: 10 Bit vor 4:2:2. Es liegt daran, dass meiner Arbeit (z.B. mit der X-T3 (2160p50 bei 10 Bit 4:2:0 in H.265) der ausgeschöpfte Luminanz-Wertebereich (1023 gegenüber 255) in den einzelnen Farbkanälen zugute kommt. Zum Beispiel um den maximalen Kontrastumfang des Nutzsignals möglichst sauber ausnutzen zu können. Oder das Rohmaterial nochmal aufzuhellen, ohne direkt mit Banding oder Chromarauschen in Berührung zu kommen.
Das kann allerdings für den nächsten Kommentator schon wieder anders aussehen.
Edit: Du kannst den beiden Kommentaren ja entnehmen, wie sich 10 gegenüber 8 Bit bei der Aufzeichnung auswirken. Die Frage, was bei der Wahl zwischen beiden Möglichkeiten (8 Bit 4:2:2 vs. 10 Bit 4:2:0) eher entscheidend ist, hat hier im Forum schon seitenlange Beiträge hervorgebracht. Daher mein Hinweis zu Beginn.
Antwort von mowbray:
aha, aha.
ja, um das Thema DSLR geht es nämlich...X-T3, A7Sii, GH5(s) etc...
also ist 10Bit 422 vorzuziehen
Antwort von roki100:
...X-T3, A7Sii, GH5(s)...
So tolle Kameras und die können nicht 12bit :(
Antwort von Jörg:
Du ahnst ja gar nicht, welche Dimensionen die nachfolgende Diskussion hier haben könnte ;-)
ich möcht mirs gar nicht ausmalen....
Antwort von pillepalle:
roki100 hat geschrieben:
...X-T3, A7Sii, GH5(s)...
So tolle Kameras und die können nicht 12bit :(
Bald kommen mehr kleine Kameras die höhere Datenraten liefern. Ganz interessant was Eric Naso in einem Chat zur Z-Cam E2 erzählt hat und was den Sensor bzw. Chipsatz vom z.B. von dem der Pocket 4k unterscheidet.
https://www.youtube.com/watch?v=AK3DuphAzls&t=43m52s
VG
Antwort von roki100:
Z-Cam E2 verfolge ich schon seit beginn an. Tolle Kamera.
Was auch toll ist, ist der Bildschirm. Der Komuniziert mit Z-Cam E2. Tolle Sache!
Z-Cam E2 wird wahrscheinlich meine zweite Kamera. Momentan bin ich aber noch mit BMPCC, LANC Steuerung + Video Assist.... sehr zufrieden. :)
Hoffentlich hat sich der Z-Cam Support auch verbessert. Zuvor, mit der Z-Cam E1, gab es ja Probleme, viele Beschwerde usw.
Antwort von iasi:
roki100 hat geschrieben:
...X-T3, A7Sii, GH5(s)...
So tolle Kameras und die können nicht 12bit :(
Die GH5 kann immerhin beides: 10bit und 4.2.2
Antwort von Jott:
Wer Banding erzeugt, sollte mal seinen Workflow im NLE überprüfen. Ist natürlich anstrengender als über Bittiefen zu diskutieren! :-)
Antwort von iasi:
Zur ZCam hatte ich mir heute erst einen Vergleichstest angesehen.
120fps 4k 10bit ist schon ne Nummer.
Wobei ich bisher keine Info fand, ob das dann auch 4.2.2 ist.
ProRes mit 60fps kann sie immerhin auch.
Aber:
Wenn die Nikon Z6 mit dem Ninja V dann ProResRaw bietet, muss ZCam nachlegen.
Interessante Entwicklungen.
Die Mogelpackung 10bit 4.2.0 muss man sich nicht mehr antun.
Antwort von iasi:
Jott hat geschrieben:
Wer Banding erzeugt, sollte mal seinen Workflow im NLE überprüfen. Ist natürlich anstrengender als über Bittiefen zu diskutieren! :-)
8bit Workflow = nur Schneiden
Wem das genügt, kann auch mit 8bit glücklich werden. :)
Antwort von pillepalle:
@ iasi
Die Z-Cam konkurriert nicht mit der Nikon. Die hat andere Vorteile, wie z.B. viele verschiedene Aufnahmeformate, gute Profile, Modularität, usw... ist glaube ich eine andere Zielgruppe. An die Nikon knallt man einen Ninja V und kann loslegen, hat einen IBIS, einen AF, einen großen Sensor mit gutem Low-Light Verhalten und bald auch RAW.
VG
Antwort von Jott:
iasi hat geschrieben:
8bit Workflow = nur Schneiden
Verblendeter Unfug. Wird in der Praxis täglich tausendfach widerlegt. Aber mach weiter, der Thread braucht das! :-)
Antwort von roki100:
technisch gesehen, ist 8bit nicht gut für Grading, doch ich habe letztens gesehen, wie 8bit Material von GH5 (Hochzeitsvideo) gegradet wurde und das sah super gut aus, besser als was ich bisher von p4k 10 und 12bit grading gesehen habe.
Man sah zwar etwas bei einigen stellen Farbverlauf (Blauer Himmel), doch nicht übertrieben schlecht. Ich glaube es war 8bit 422.
Antwort von Jott:
Dazu muss man halt etwas mehr können als bis 10 oder 12 zählen.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
8bit Workflow = nur Schneiden
Ist das nur so ein Gerede oder kannst Du uns was aus der Praxis erzählen?
Hast Du schon mal ein jpg aus einer Billigcam in ACR geöffnet und alles gegeben was geht?
Du wirst Dich wundern was selbst ein Kaugummiautomaten jpg noch für Reserven hat, wenn man weiß wie.
Zusätzlich sollte man natürlich auch 8Bit filmen können um hinterher auf bessere Ergebnisse zu kommen.
Wer natürlich nicht zu belichten weiß der kann mit 8Bit nix anfangen.
Zudem gehört auch Erfahrung dazu, wenn ich zb. altes 8Bit Camcorder Material rauskrame bekomme ich da heutzutage mit Resolve Welten mehr herraus als damals mit Kontrastregler & Co in Premiere.
Wer so argumentiert, der hat einfach keine Lust sich damit zu beschäftigen und wer 8Bit nicht einergermaßen gut hinbekommt, der kommt mit 10Bit auch nicht soo viel weiter, ist ja nicht so als wäre 10Bit ein allheilmittel oder gar Raw.
Antwort von mowbray:
8bit Workflow = nur Schneiden
Wem das genügt, kann auch mit 8bit glücklich werden. :)
heißt nur schneiden, nicht großartig graden oder wie ist das zu verstehen ?
die Z-Cam E2 ist sicher interessant, aber ich benötige was handlicheres in der Größe&Preisklasse wie die A7sII, X-T3, GH5(s) etc. Run&Gun, nicht Stativ mit externen Monitor, Akkus usw
Muß man sich quasi zwischen Sensorgröße und Bit Raten/Color Space entscheiden...
Antwort von DeeZiD:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
8bit Workflow = nur Schneiden
Ist das nur so ein Gerede oder kannst Du uns was aus der Praxis erzählen?
Hast Du schon mal ein jpg aus einer Billigcam in ACR geöffnet und alles gegeben was geht?
Du wirst Dich wundern was selbst ein Kaugummiautomaten jpg noch für Reserven hat, wenn man weiß wie.
Zusätzlich sollte man natürlich auch 8Bit filmen können um hinterher auf bessere Ergebnisse zu kommen.
Wer natürlich nicht zu belichten weiß der kann mit 8Bit nix anfangen.
Zudem gehört auch Erfahrung dazu, wenn ich zb. altes 8Bit Camcorder Material rauskrame bekomme ich da heutzutage mit Resolve Welten mehr herraus als damals mit Kontrastregler & Co in Premiere.
Wer so argumentiert, der hat einfach keine Lust sich damit zu beschäftigen und wer 8Bit nicht einergermaßen gut hinbekommt, der kommt mit 10Bit auch nicht soo viel weiter, ist ja nicht so als wäre 10Bit ein allheilmittel oder gar Raw.
Mag fuer hartkontrastige Rec709 Profile stimmen aber S-Log 2 und V-Log sollten nicht unter 10 bit angefasst werden, da es ansonsten fast immer - selbst ohne Grading im Urprungsmaterial - zu Bandingartifakten kommt.
Bei Premiere macht es allerdings keinen wirklichen Unterschied, ob man 8 Bit, 10 Bit oder gar 12 Bit Material arbeitet, da die Engine ausschliesslich in 8 Bit arbeitet und somit gar ProRes 444 Material in die Knie zwingt.
Antwort von roki100:
Jott hat geschrieben:
Dazu muss man halt etwas mehr können als bis 10 oder 12 zählen.
das stimmt. Von 8 bis 12 ist echt super leicht zu zählen, doch die Summe von 256x256x256 und 4096x4096x4096 ist schon ein enorm großer unterschied und man zählt vielleicht stunden lang (bei 8 Bit) und tage lang (bei 12 bit) und vor allem haben manche schwer zu begreifen warum das eine besser ist... ;) Der Typ der 8 Bit gegradet hat, wollte nämlich von seiner Überzeugung nicht ablassen, dass 8 bit völlig ausreicht.... und er wollte mich überzeugen dass 8 Bit sehr gut ist und ich muss zugeben, ich war echt überrascht. :) Ich bleibe dabei, auch der Sensor, spielt eine wichtige Rolle und der von GH5 oder XT-3 ist doch super.
Antwort von iasi:
Jott hat geschrieben:
iasi hat geschrieben:
8bit Workflow = nur Schneiden
Verblendeter Unfug. Wird in der Praxis täglich tausendfach widerlegt. Aber mach weiter, der Thread braucht das! :-)
Unfug ist zu glauben, Farbrädchendrehen sei Grading. ;)
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
8bit Workflow = nur Schneiden
Ist das nur so ein Gerede oder kannst Du uns was aus der Praxis erzählen?
Ich hab für eine Langzeitdoku so ziemlich alles - von PAL bis CDNG - in einem Projekt gehabt.
8bit zerreisst nun mal wirklich schnell und ist eben kein Vergleich z.B. zu den Möglichkeiten die RedRaw bietet.
Was will ich denn auch noch groß verändern, wenn das Aufnahmeformat dem Endformat entspricht.
Antwort von klusterdegenerierung:
DeeZiD hat geschrieben:
Mag fuer hartkontrastige Rec709 Profile stimmen aber S-Log 2 und V-Log sollten nicht unter 10 bit angefasst werden, da es ansonsten fast immer - selbst ohne Grading im Urprungsmaterial - zu Bandingartifakten kommt.
Bei Premiere macht es allerdings keinen wirklichen Unterschied, ob man 8 Bit, 10 Bit oder gar 12 Bit Material arbeitet, da die Engine ausschliesslich in 8 Bit arbeitet und somit gar ProRes 444 Material in die Knie zwingt.
Das ist zb totaler Blödsinn, das Beispiel mit meinem Sohn ist 8Bit Slog2 und sieht wunderbar aus, genauso wie dieses hier!
Schau mal hier genau hin, dann wirst Du den Benefit von Slog2 bei 8Bit sehen, wenn Du Dir die abgeschnittenen Höhen in der Parade und analog dazu die obere Eiskante ansiehst, da wirst Du sehen, das diese weggebrannt ist und in Rec709 wären diese abgeschnittenen Höhen abgeschnitten bzw unwiederbringlich verloren.
Wenn Du auf die Korrektur schaust, siehst Du das durch das simple runter ziehen der Tonwertkurve in den Höhen, die abgeschnittenen Höhen wieder zurück kommen und das Eis retten, das ist ein erheblicher Unterschied, welchen ich hier seit Jahren predige, aber alle filmen nicht in Slog, reden aber so darüber, das ist sehr sinnig.
Antwort von Jott:
iasi hat geschrieben:
Unfug ist zu glauben, Farbrädchendrehen sei Grading. ;)
Ah, Farbrädchen drehen geht plötzlich mit 8Bit? Schau an. Psst, so was wie Gesichter tracken und aufhellen geht auch, macht jeder ständig, auch wenn nur 8Bit zur Hand war. Praxis sticht Theorie, du lebst halt in letzterer. Kein Problem, vielleicht kriegst du ja irgendwann mal deine ersehnte Pocket und kannst dann endlich mal was drehen. Farbtafeln am besten.
Antwort von -paleface-:
klusterdegenerierung hat geschrieben:
DeeZiD hat geschrieben:
Mag fuer hartkontrastige Rec709 Profile stimmen aber S-Log 2 und V-Log sollten nicht unter 10 bit angefasst werden, da es ansonsten fast immer - selbst ohne Grading im Urprungsmaterial - zu Bandingartifakten kommt.
Bei Premiere macht es allerdings keinen wirklichen Unterschied, ob man 8 Bit, 10 Bit oder gar 12 Bit Material arbeitet, da die Engine ausschliesslich in 8 Bit arbeitet und somit gar ProRes 444 Material in die Knie zwingt.
Das ist zb totaler Blödsinn, das Beispiel mit meinem Sohn ist 8Bit Slog2 und sieht wunderbar aus, genauso wie dieses hier!
Schau mal hier genau hin, dann wirst Du den Benefit von Slog2 bei 8Bit sehen, wenn Du Dir die abgeschnittenen Höhen in der Parade und analog dazu die obere Eiskante ansiehst, da wirst Du sehen, das diese weggebrannt ist und in Rec709 wären diese abgeschnittenen Höhen abgeschnitten bzw unwiederbringlich verloren.
Wenn Du auf die Korrektur schaust, siehst Du das durch das simple runter ziehen der Tonwertkurve in den Höhen, die abgeschnittenen Höhen wieder zurück kommen und das Eis retten, das ist ein erheblicher Unterschied, welchen ich hier seit Jahren predige, aber alle filmen nicht in Slog, reden aber so darüber, das ist sehr sinnig.
Ok. Dann haut irgend eine Voreinstellung in deinem Davinci die Höhen raus. Wäre das reines Material (egal ob 8Bit oder 12Bit oder RAW oder wasweißich) wäre das weiß weg.
Dein Footage wird also irgendwo von deiner Software schon als REC709 interpretiert, daher hast du das Gefühl das du was rettest. Was aber eigentlich immer da war.
 |
Antwort von roki100:
8Bit ist nicht alleine das entscheidende, es hängt doch von der Kamera ab, also vom Sensor? Ich habe auch Sony a6300 aufnahmen gesehen, gegradet und es sah super aus, anders als manch andere 8Bit Kameras, wie z.b. die aufnahmen von Nikon D3200 ?
Antwort von iasi:
Jott hat geschrieben:
iasi hat geschrieben:
Unfug ist zu glauben, Farbrädchendrehen sei Grading. ;)
Ah, Farbrädchen drehen geht plötzlich mit 8Bit? Schau an. Psst, so was wie Gesichter tracken und aufhellen geht auch, macht jeder ständig, auch wenn nur 8Bit zur Hand war. Praxis sticht Theorie, du lebst halt in letzterer. Kein Problem, vielleicht kriegst du ja irgendwann mal deine ersehnte Pocket und kannst dann endlich mal was drehen. Farbtafeln am besten.
Dieses Einfärben und Kontrastreduzieren geht mit jedem Ausgangsmaterial.
Gesichter aufhellen?
Und was machst du an den Übergängen?
Ich hab 8bit-, 10bit- und Raw-Kameras.
Psst - das 8bit muss passen, wenn es aus der Kamera kommt, denn in der Post verzeiht dir 8bit nichts.
10bit ist OK.
Raw bietet nun mal die volle Bandbreite an Gestaltungsmöglichkeiten.
Antwort von Jott:
Fehlerfrei drehen, belichten, leuchten ist in der Tat der Trick.
Fatal ist der Umkehrschluss, mit 10Bit oder raw müsse man das nicht und draufhalten reicht, wie du inbrünstig predigst. Nur zu, fix ist in the post ist schwer in Mode. Ran an die Pocket!
Antwort von Jörg:
@ Jott
ich bedanke mich schon mal im Vorfeld für deine Beiträge...
für jeden einzeln wärs kindisch.
es ist unglaublich, was Theoretiker zum Thema beisteuern zu müssen glauben
Antwort von klusterdegenerierung:
-paleface- hat geschrieben:
Ok. Dann haut irgend eine Voreinstellung in deinem Davinci die Höhen raus. Wäre das reines Material (egal ob 8Bit oder 12Bit oder RAW oder wasweißich) wäre das weiß weg.
Dein Footage wird also irgendwo von deiner Software schon als REC709 interpretiert, daher hast du das Gefühl das du was rettest. Was aber eigentlich immer da war.
Ne, das ist das was Slog ausmacht.
Hier ein Screenshot von Premiere, da ist es das selbe.
Antwort von mowbray:
da hab ich wohl in der Tat einen Glaubenskrieg losgetreten...
Wäre aber schön, wenn sich dennoch alle Praktiker und Theoretiker um einen vernünftigen Umgangston bemühen würden....
Antwort von Jott:
Den hast nicht du losgetreten.
Um von Meinungen und Glauben weg zu kommen, bleibt dir nur eines: selber ausprobieren. Kameras kann man ausleihen, bevor man sie kauft.
Antwort von iasi:
Jott hat geschrieben:
Fehlerfrei drehen, belichten, leuchten ist in der Tat der Trick.
Fatal ist der Umkehrschluss, mit 10Bit oder raw müsse man das nicht und draufhalten reicht, wie du inbrünstig predigst. Nur zu, fix ist in the post ist schwer in Mode. Ran an die Pocket!
Ja - nichts anderes fällt den 8bit-Gläubigen ein, wenn ihnen die Argumente ausgehen.
Dann dreht natürlich jeder nur drauflos, der Raw nutzt, und weiß nicht wie man belichtet. ;)
Ich muss nicht auf eine Pocket warten, um Raw zu drehen.
Ach ja.
Ich kann es mir wirklich nicht leisten, alles im Studio zu drehen, oder den Drehort erst mal vollkommen abdunkelt, damit man perfekt - wie im Studio - Licht setzen kann.
Übrigens nervt es Darsteller, wenn sie immer schön im Licht bleiben müssen.
Und Drehzeit ist teuer - jede kleine Figur auf der Kommode im Eck auszuleuchten, kostet Zeit.
Aber ihr 8bit-Filmer seit natürlich sogar besser als die Fotografen von früher, die im Labor noch abgewedelt habe.
Oder dieser Fotograf, der da ewig am Rechner mit seinem Spezialisten rumgedockter hat, bis das Bild dann endlich fertig war - und für einen 6-stelligen Betrag verkauft werden konnte. Ne ne - der hat mit seiner Großformatkamera natürlich nur JPGs gemacht.
Ist schon richtig. Wer belichten und leuchten kann, nutzt natürlich nicht die bestmögliche Technik bzw. das bestmögliche Ausgangsformat.
10bit 420 oder 8bit 422 reicht ja vollkommen. Warum sollte man etwas besseres wollen?
Man hat ja schließlich keine anderen Optionen. ;)
Antwort von klusterdegenerierung:
mowbray hat geschrieben:
da hab ich wohl in der Tat einen Glaubenskrieg losgetreten...
Wäre aber schön, wenn sich dennoch alle Praktiker und Theoretiker um einen vernünftigen Umgangston bemühen würden....
Naja, selbst wenn er Recht hätte und Resolve es falsch importiert und es schon eh die Höhen beinhaltet, so wären diese bei der gleichen Aufnahme in Rec709 eeben nicht da, weil 709 das nicht schafft, Slog aber schon.
Insofern ist es eh latte, wie es rein kommt, es ist da und in 709 nicht.
Aber Du hast Recht, lohnt nicht.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
10bit 420 oder 8bit 422 reicht ja vollkommen. Warum sollte man etwas besseres wollen?
Man hat ja schließlich keine anderen Optionen. ;)
Selbst wenn, kannst Du mir mal erklären was daran erstrebenswert ist alles brav abgetastete so wieder zu geben?
Wer will denn so ein Bild haben, sieht doch unnatürlich und nach HDR aus.
Es geht doch auch um feeling, da können doch Höhen und Tiefen auch mal knallen.
Antwort von iasi:
mowbray hat geschrieben:
da hab ich wohl in der Tat einen Glaubenskrieg losgetreten...
Wäre aber schön, wenn sich dennoch alle Praktiker und Theoretiker um einen vernünftigen Umgangston bemühen würden....
Tja. Und der Praktiker rät dir zum Leihen und Ausprobieren von Kameras.
Da sei mal lieber vorsichtig, denn ohne gründliche Einarbeitung in die Kamera und den folgenden Workflow ist das dann nur rausgeworfenes Geld.
Ich denke da nur an einen guten erfahrenen DP, der von Negativ auf Digital umsteigen musste und wie gewohnt und beim Negativ bewährt, eben um eine Blendenstufe überbelichtet hatte.
Und:
Mal eben ein LUT drüber oder gar den Vorschaumonitor anschauen, wird so ziemlich gar nichts bringen.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
10bit 420 oder 8bit 422 reicht ja vollkommen. Warum sollte man etwas besseres wollen?
Man hat ja schließlich keine anderen Optionen. ;)
Selbst wenn, kannst Du mir mal erklären was daran erstrebenswert ist alles brav abgetastete so wieder zu geben?
Wer will denn so ein Bild haben, sieht doch unnatürlich und nach HDR aus.
Es geht doch auch um feeling, da können doch Höhen und Tiefen auch mal knallen.
Wenn ich eine richtig belichtete Raw-Aufnahme habe, bei der alles schön im DR liegt, kann ich eben in der Post sehr genau und absolut kontrolliert die Tiefen ins tiefe Schwarz abgleiten oder die Lichter mit weichen Übergängen überstrahlen lassen. Ich kann"s dann aber eben auch knallen lassen, wenn ich will. Das ist dann eben die Kontrolle und der Gestaltungsspielraum, den mir Raw bietet.
Auf dem Vorschaumonitor der Kamera muss das nicht natürlich aussehen und darf auch wie HDR wirken. Wichtig ist das Histogramm. Wichtig ist ETTR. Entwickelt wird das Bild dann in der Post.
Worauf ich mich dann während des Drehs voll konzentriere, ist der Bildinhalt.
Antwort von DeeZiD:
-paleface- hat geschrieben:
Ok. Dann haut irgend eine Voreinstellung in deinem Davinci die Höhen raus. Wäre das reines Material (egal ob 8Bit oder 12Bit oder RAW oder wasweißich) wäre das weiß weg.
Dein Footage wird also irgendwo von deiner Software schon als REC709 interpretiert, daher hast du das Gefühl das du was rettest. Was aber eigentlich immer da war.
Richtig.
S-Log 2 geht rauf bis auf 255.
Premiere sowie Resolve interpretieren S-Log2-Material aber als limited range.
Zumindest in Resolve kann man aber mit einem Klick in den Clip Attributes auf Full Range wechseln und alles ist wieder da.
Hat nichts mit graden zutun sondern nur mit der Interpretation der Quelldaten.
Bei starkem Grading bricht 8 bit (100 mbit) S-Log2 und noch schlimmer S-Log3 Material aus einer A73 und A7sII auseinander. HLG ist meistens brauchbar solange nicht allzu viele Details im Bilde sind.
V-Log L auf der GH5 ist in 8 Bit auch unbrauchbar in vielen Situationen.
Antwort von Funless:
iasi hat geschrieben:
Übrigens nervt es Darsteller, wenn sie immer schön im Licht bleiben müssen.
Darsteller werden dafür bezahlt um u.a. schön im Licht zu bleiben, das ist Teil ihres Jobs. Und wenn es die Darsteller nervt, hat man wohl die falschen engagiert. Also wurde bereits beim casting Mist gebaut.
iasi hat geschrieben:
Und Drehzeit ist teuer - jede kleine Figur auf der Kommode im Eck auszuleuchten, kostet Zeit.
Und in der post jedes Detail maskieren und entsprechend zu bearbeiten kostet keine Zeit?
Es wäre hilfreich und für deine Argumentation äußerst zielführend wenn du vielleicht mal Beispiele von Filmen nennen würdest in denen so gearbeitet wurde wie du es als bestmöglichen Einsatz von moderner Technik beschreibst, mir fällt nämlich kein einziger ein.
Antwort von roki100:
ohne gutes licht, bringt 10 oder 12 Bit auch nicht viel, weil dann Noises/Chroma-Aliasing sichtbarer werden und wenn man dann auch noch NR einsetzt, dann sieht das Bild doch zu digital/plastisch aus? Das finde ich schlimmer als 8Bit und sichtbare Farbverlauf/Color-Banding....
Ich glaube ihr missversteht den User iasl. Siehe hier:
viewtopic.php?f=1&t=145261&start=35#p989323
"Wenn ich eine richtig belichtete Raw-Aufnahme habe, bei der alles schön im DR liegt, kann ich eben in der Post sehr genau und absolut kontrolliert die Tiefen ins tiefe Schwarz abgleiten oder die Lichter mit weichen Übergängen überstrahlen lassen. Ich kann"s dann aber eben auch knallen lassen, wenn ich will. Das ist dann eben die Kontrolle und der Gestaltungsspielraum, den mir Raw bietet."
Damit hat er doch schon recht?
Die Frage ist nun: ob das auch mit eine richtig belichtete 8bit-Aufnahme möglich ist... Kreislauf ;))
Wenn also mit 8Bit folgendes gemacht wird: "die Tiefen ins tiefe Schwarz abgleiten oder die Lichter mit weichen Übergängen überstrahlen lassen" wie sieht das dann aus? Hat man dann nicht so ein Verlauf/Schwarz-zu-Weiß-Banding oder Color-Banding?
https://static.digitecgalaxus.ch/Files/ ... ssive-jpeg

Und was ist mit Compositing/VFX? Mit 8Bit wird man doch Probleme haben...
Antwort von Jott:
Selber ausprobieren.
Aber das soll man ja nicht, wie beim Kamerakauf (siehe Postulat weiter oben). Ausprobieren ist zu praxisbezogen und könnte am „Glaube“ kratzen.
Iasi könnte übrigens echt mal ein eigenes Beispiel für „guck mal, mit raw muss gar nicht ausleuchten“ zeigen. Vorher/nachher. Nur draufhalten und nachher „rauskitzeln“ mit dem riesigen Gestaltungsspielraum. Bewegte Szene mit Darstellern natürlich, die es nervt, im Licht zu bleiben. Dürfen auch Katzen sein, wegen Datenschutz.
Antwort von DAF:
mowbray hat geschrieben:
...
welches Variante ist das qualitativ "höherwertige" Signal ?
10 Bit 420 oder 8Bit 422 ?
...
Das Grundproblem in diesem Thread ist, dass sich die Eingangsfrage eigentlich verbietet. Auf KFZs (der Deutschen liebstes Kind) übertragen, würde sie exemplarisch lauteten was besser/hochwertiger ist:
Ein echter Sportwagen oder ein sehr gut ausgestatteter & motorisierter Kombi/Van???
Nur diese Frage stellt sich (fast) niemand, weil der Anwendungszweck vorher klar auf der Hand liegt und die damit verbundenen Vor- und Nachteile einer Ausstattung/eines Konzeptes vorher klar sind.
Ebenso hier. 10-Bit bringt in anderen Bereichen Vorteile wie 4:2:2
Antwort von -paleface-:
klusterdegenerierung hat geschrieben:
-paleface- hat geschrieben:
Ok. Dann haut irgend eine Voreinstellung in deinem Davinci die Höhen raus. Wäre das reines Material (egal ob 8Bit oder 12Bit oder RAW oder wasweißich) wäre das weiß weg.
Dein Footage wird also irgendwo von deiner Software schon als REC709 interpretiert, daher hast du das Gefühl das du was rettest. Was aber eigentlich immer da war.
Ne, das ist das was Slog ausmacht.
Hier ein Screenshot von Premiere, da ist es das selbe.
Ja aber ist es denn in der Aufnahme schon so?
Also wenn du belichtest, sagen wir mal nach einem Historgram, lässt du dort die Highlites clippen? Kann ich mir gerade irgendwie nicht vorstellen.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
Wenn ich eine richtig belichtete Raw-Aufnahme habe, bei der alles schön im DR liegt, kann ich eben in der Post sehr genau und absolut kontrolliert die Tiefen ins tiefe Schwarz abgleiten oder die Lichter mit weichen Übergängen überstrahlen lassen.
Kann es denn wohl sein das Du die Posts garnicht wirklich liest?????
Wir waren bei "8Bit" ist 8Bit=Raw?
Nein Raw ist 12-16Bit, warum machst Du jetzt ein Raw Fass auf wenn Du die Diskussion um Slog bei 8Bit eröffnest?
Das ist genau das was ich mein, nur son bla bla!
Wer erst noch erklären muß das man bei einem sauber belichteten Raw alle Türen offen stehen hat, der hat auch nicht begriffen, das ein sauber belichtetes 8Bit Slog auch schon einen großen Berreich abdeckt, mit dem man im Altag schon das meißte schafft, sonst hätte hier auch jeder ner Raw Cam statt ner DSLR etc.
Antwort von klusterdegenerierung:
roki100 hat geschrieben:
ohne gutes licht, bringt 10 oder 12 Bit auch nicht viel, weil dann Noises/Chroma-Aliasing sichtbarer werden und wenn man dann auch noch NR einsetzt,
Alles hilft nix wenn man zb unbedingt bei einem niedrigen Iso drehen will und dabei 1,5-2,5 Blenden unterbelichtung in kauf nimmt, denn da anschliessend beim Ausgleich der Belichtung eh so viel Rauschen rein kommt, wie man es nicht gehabt hätte,
wenn man mit höherer Iso etwas überbelichtet hätte um es dann in der Post etwas runter zu drehen.
Auch Raw schützt nicht vor Fehlbelichtung oder mangelder Kenntnisse.
Antwort von dienstag_01:
-paleface- hat geschrieben:
klusterdegenerierung hat geschrieben:
Ne, das ist das was Slog ausmacht.
Hier ein Screenshot von Premiere, da ist es das selbe.
Ja aber ist es denn in der Aufnahme schon so?
Also wenn du belichtest, sagen wir mal nach einem Historgram, lässt du dort die Highlites clippen? Kann ich mir gerade irgendwie nicht vorstellen.
Die Vorschau in Premiere ist eigentlich immer 16-235 (in Davinci kann man das, glaube ich, umstellen).
Daher lassen sich auch Werte von *oberhalb* zurückholen. Bei Log natürlich mehr als Standard Rec709.
Antwort von speven stielberg:
klusterdegenerierung hat geschrieben:
Wer erst noch erklären muß das man bei einem sauber belichteten Raw alle Türen offen stehen hat, der hat auch nicht begriffen, das ein sauber belichtetes 8Bit Slog auch schon einen großen Berreich abdeckt, mit dem man im Altag schon das meißte schafft, sonst hätte hier auch jeder ner Raw Cam statt ner DSLR etc.
Hm, als Außenstehender Beoabachter habe ich den Eindruck Ihr zofft Euch beide lieber, statt Euch gegenseitig zuzuhören. :-) Denn eigentlich habt Ihr doch beide Recht: so wie ich das verstanden habe, hat man mit "sauber belichtetem" 8 Bit NOCH Möglichkeiten. Mit > 8 Bit aber deutlich mehr. Oder?
Wieder eine Frage eines Lernwilligen: Wie belichtet man mit einer 8-Bit-Knipse am "saubersten", wenn man kein FalseColor oder Waveform zur Verfügung hat?
Antwort von Framerate25:
"speven stielberg" hat geschrieben:
Wie belichtet man mit einer 8-Bit-Knipse am "saubersten",
Auf vernünftige Einstellungen achten am Set und seine Kamera wie NLE kennen. Notfalls üben.
Licht/ Kameraeinstellung/Szene (Iso/Blende/FR/ND...etcpp)
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Die Vorschau in Premiere ist eigentlich immer 16-235 (in Davinci kann man das, glaube ich, umstellen).
Daher lassen sich auch Werte von *oberhalb* zurückholen. Bei Log natürlich mehr als Standard Rec709.
Ist ein bisschen wie beim ProRes Raw in FCP, wo man aufs Histogramm sieht und bei 1024 fasst alles weg ist und man sich dies komplett wieder zurück drehen kann, klar eben nur ein bisschen, aber immerhin mehr als bei 709. ;-)
Antwort von ksingle:
Ich muss Cluster beipflichten, wenn er sagt, dass man mit der SONY A7III gerne um ein bis zwei Blenden überbelichtet, wenn mit S-LOG gedreht wird. SONY empfiehlt das sogar ausdrücklich.
In den beiden Screenshots von Cluster ist zu erkennen, dass oben in den Lichtern des Rohmaterials deutlich überbelichtet wurde. Das holt er dann in der Korrektur wieder zurück. Die obere Eisschicht im Einzelframe zeigt recht anschaulich, worum es hier geht. Einer der wichtigen Vorteile von S-LOG bei sehr heller Umgebung.
Ein weiterer Vorteil des Runterdrehens der Helligkeit besteht darin, dass das Rauschen in den Tiefen weniger wahrnehmbar wird.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Die Vorschau in Premiere ist eigentlich immer 16-235 (in Davinci kann man das, glaube ich, umstellen).
Daher lassen sich auch Werte von *oberhalb* zurückholen. Bei Log natürlich mehr als Standard Rec709.
Ist ein bisschen wie beim ProRes Raw in FCP, wo man aufs Histogramm sieht und bei 1024 fasst alles weg ist und man sich dies komplett wieder zurück drehen kann, klar eben nur ein bisschen, aber immerhin mehr als bei 709. ;-)
Ich wollte eigentlich nur noch mal deutlich machen, dass die Angaben (Werte) der Scopes nicht nach einem einheitlichen Prinzip Verwendung finden und daher leicht zur Verwirrung beitragen können.
Antwort von iasi:
roki100 hat geschrieben:
Die Frage ist nun: ob das auch mit eine richtig belichtete 8bit-Aufnahme möglich ist... Kreislauf ;))
Wenn also mit 8Bit folgendes gemacht wird: "die Tiefen ins tiefe Schwarz abgleiten oder die Lichter mit weichen Übergängen überstrahlen lassen" wie sieht das dann aus? Hat man dann nicht so ein Verlauf/Schwarz-zu-Weiß-Banding oder Color-Banding?
Dann ziehe ich die 8bit auseinander. Und übrig bleiben dann eben nicht mehr die 8bit, die ich doch eigentlich für das Ausgabeformat benötige.
Mag ja sein, dass ich Bildteile ausschneiden und dann anheben oder absenken kann, aber schon bei weichen Übergängen zieht es mir dann meine Werte auseinander.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Wenn ich eine richtig belichtete Raw-Aufnahme habe, bei der alles schön im DR liegt, kann ich eben in der Post sehr genau und absolut kontrolliert die Tiefen ins tiefe Schwarz abgleiten oder die Lichter mit weichen Übergängen überstrahlen lassen.
Kann es denn wohl sein das Du die Posts garnicht wirklich liest?????
Wir waren bei "8Bit" ist 8Bit=Raw?
Nein Raw ist 12-16Bit, warum machst Du jetzt ein Raw Fass auf wenn Du die Diskussion um Slog bei 8Bit eröffnest?
Das ist genau das was ich mein, nur son bla bla!
Wer erst noch erklären muß das man bei einem sauber belichteten Raw alle Türen offen stehen hat, der hat auch nicht begriffen, das ein sauber belichtetes 8Bit Slog auch schon einen großen Berreich abdeckt, mit dem man im Altag schon das meißte schafft, sonst hätte hier auch jeder ner Raw Cam statt ner DSLR etc.
Es geht hier um die Frage, ob 8bit genügen.
Klar kann man die Augen vor Alternativen und Vergleichen verschießen. Dann kommt dieses Slog-Wundermittelgerede heraus. Und jemand, der in seinem Alltag nur 8bit kennt, arbeitet eben nun mal nur mit 8bit. Das ist doch aber kein Argument für 8bit.
Früher hatte man in PAL 4:3 gedreht - das war der Alltag. Willst du nun wieder PAL?
Jeder hat ne DSLR - auch nur son bla bla.
Deshalb kommt ja auch BMD mit der Auslieferung der Pocket 4k seit Monaten nicht hinterher.
Deshalb haben nun alle neuvorgestellten Systemkameras mindestens 10bit 4.2.0
Deshalb bietet Nikon bald 12bit ProResPro bei seiner Z6 zusammen mit dem Ninja V.
Nur weil du den Bauern spielst, der nur frisst was er kennt, muss man doch heute keine 8bit-Kamera mehr kaufen.
Nimm doch die technischen Entwicklungen auch mal mit.
Sony selbst sagt ja z.B. dass Slog und 8bit nicht das Gelbe vom Ei ist - sie empfehlen 10bit.
Zudem ist Slog schon mal gar nichts bei LowLight.
10 Bit 420 vs 8Bit 422?
Beides unnötige Krücken und Kompromisse.
Also besser weder 10 Bit 420 noch 8Bit 422?
Kauft den Herstellern doch nicht ihre künstlich verkrüppelten Cams ab, wenn es euch hauptsächlich ums Filmen geht.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Kann es denn wohl sein das Du die Posts garnicht wirklich liest?????
Wir waren bei "8Bit" ist 8Bit=Raw?
Nein Raw ist 12-16Bit, warum machst Du jetzt ein Raw Fass auf wenn Du die Diskussion um Slog bei 8Bit eröffnest?
Das ist genau das was ich mein, nur son bla bla!
Wer erst noch erklären muß das man bei einem sauber belichteten Raw alle Türen offen stehen hat, der hat auch nicht begriffen, das ein sauber belichtetes 8Bit Slog auch schon einen großen Berreich abdeckt, mit dem man im Altag schon das meißte schafft, sonst hätte hier auch jeder ner Raw Cam statt ner DSLR etc.
Es geht hier um die Frage, ob 8bit genügen.
Klar kann man die Augen vor Alternativen und Vergleichen verschießen. Dann kommt dieses Slog-Wundermittelgerede heraus. Und jemand, der in seinem Alltag nur 8bit kennt, arbeitet eben nun mal nur mit 8bit. Das ist doch aber kein Argument für 8bit.
Früher hatte man in PAL 4:3 gedreht - das war der Alltag. Willst du nun wieder PAL?
Jeder hat ne DSLR - auch nur son bla bla.
Deshalb kommt ja auch BMD mit der Auslieferung der Pocket 4k seit Monaten nicht hinterher.
Deshalb haben nun alle neuvorgestellten Systemkameras mindestens 10bit 4.2.0
Deshalb bietet Nikon bald 12bit ProResPro bei seiner Z6 zusammen mit dem Ninja V.
Nur weil du den Bauern spielst, der nur frisst was er kennt, muss man doch heute keine 8bit-Kamera mehr kaufen.
Nimm doch die technischen Entwicklungen auch mal mit.
Sony selbst sagt ja z.B. dass Slog und 8bit nicht das Gelbe vom Ei ist - sie empfehlen 10bit.
Zudem ist Slog schon mal gar nichts bei LowLight.
10 Bit 420 vs 8Bit 422?
Beides unnötige Krücken und Kompromisse.
Also besser weder 10 Bit 420 noch 8Bit 422?
Kauft den Herstellern doch nicht ihre künstlich verkrüppelten Cams ab, wenn es euch hauptsächlich ums Filmen geht.
iasi, weißt Du was echt schade ist? Das Du meine posts nicht wirklich liest bzw nicht versteht, oder der Differenzierung nicht mächtig bist!
Auch scheint SW Denken Dein Fall zu sein, denn ansonsten wäre Dir bestimmt Aufgefallen, das wenn man über 8Bit diskutiert, dies nicht impliziert, das man dies entweder bevorzugt, oder nur damit arbeitet, oder nur das gut findet usw usw.
Im Job arbeite ich entweder mit Raw oder ProRes, aber wenn ich meine "Filmchen" mache, dann reichen mir 8Bit Slog2, weil ich damit sehr gute Erfahrungen gemacht habe und es mir Privat nicht daruf ankommt eine 1:1 Abbildung der Realität zu realisieren, sondern meine Freizeit zu genießen, etwas zu lernen und einen tollen Film zu drehen.
Ich kann nicht so ganz nachvollziehen, das Du wirklich so verbissen an letzten paar Bits ran gehst und tatsächlich meinst, nur weil jemand über 8Bit spricht, er nichts anderes kennt.
Mal ehrlich, ich poste hier einen eigenen 8Bit Clip nach dem anderen und Du redest ständig über die zwanghafte Notwendigkeit von 10Bit und mehr, machst Du denn auch was damit, ich meine, bringen Dir die denn was, so im Privaten, denn im Job nutze ich die auch, aber da würde ja ein Profi nie drüber sprechen, ist doch obgligatorisch, das man das max nutzt, oder?
Ist doch klar das der Maler bei der Arbeit eine teure profi Farbe aufträgt, der Kunde bezahlt dies schliesslich,
aber im privaten reicht auch ihm die etwas günstigere, die deckt auch ganz gut.
 |
 |
Antwort von Jott:
Etwas Statistik: es gibt 2.349 Iasi-Posts mit dem Wörtchen „raw“, sagt die Suche. Das ist ganz klar sein Ding. Ist doch okay!
Antwort von Funless:
Jott hat geschrieben:
Es gibt 2.349 Iasi-Posts mit dem Wörtchen „raw“.
Vielleicht ist die Intention dahinter ein Eintrag ins Guiness Buch der Rekorde? Möglich wär‘s.
Antwort von roki100:
RAW ist doch schon eine tolle Sache.
Antwort von Darth Schneider:
Mit der Zeit werden ja immer mehr erschwingliche 10 und 12 Bit Kameras kommen, dafür hat BMD ja mit der neuen Pocket ja gesorgt, klar genügt auch 8Bit für vieles, egal ob für professionelle Arbeiten oder für Hobbyfilme.
Ich finde das steht ausser Diskussion, weil es gibt doch zig Filme im Netz die von Profis in 8Bit gemacht worden sind....auch neue.
Andere Profis schwören halt auf 10 oder sogar auf 12 Bit.
Gerade im Consumer und auch im Prosumer Bereich haben 8Bit Kameras jedoch immer noch die Nase weit vorne...
Die Gh5, Gh5s, Xt3, Pocket 4K....welche andere Prosumer Cameras können denn überhaupt intern mit 10 Bit aufnehmen ? Vieleicht noch einige wenige voll überteuerte Henkelmänner, mit Fixlinse und relativ kleinem Sensor ?
Oder extern, dann mit einem Monitorrecorder für 1800 €....
Sonst können das doch immer noch nur sehr teure Profi Kameras.
Also von dem her ist die ganze 8Bit und 10 Bit Debatte unnötig.
Und klar ist 10 Bit immer besser als 8Bit und 12Bit besser als 10 Bit..
Aber den Zuschauern auf YouTube geht das doch am Arsch vorbei, im Kino sieht’s dann vieleicht anders aus.
Was RAW angeht, jetzt ist mal gerade Nikon mit auf den RAW Prosumer Zug aufgesprungen, aber ja auch nicht intern, sondern nur mit teurem Zubehör.
Was ja dann auch nur eine mehr oder weniger unpraktische Zwischenlösung ist.
Wenn ich mir dann überlege das der externe RAW Rekorder alleine soviel kostet wie eine Pocket 4K, dann bin ich mir sicher das die neue Nikon dann auch nicht der Renner werden wird, jedenfalls nicht für Raw Video.
Lieber ein wenig mehr sparen und gleich ne Ursa Mini Pro, wenn es dann nur ums fimen geht.
Gruss Boris
Antwort von Alf_300:
Auffällig ist dass es Kino bereits 100 Jahre lang gibt.
Antwort von Darth Schneider:
100 Jahre sind überhaupt nicht lange....
Wie lange gibt es das Rad ?
Wie lange gibt es schon Schiffe ?
Die Kamera und Computertechnologie steckt eigentlich noch in Windeln und hat noch nicht mal Zähne...
Was glaubt ihr, womit filmt der Mensch dann in eintausend Jahren ?
Und wie schnell sind dann die Computer ?
Das können sich die meisten Menschen doch gar nicht vorstellen, weil die ganze digitale Technologie eigentlich noch sehr, sehr neu ist, verglichen mit anderen technischen Inovationen, die Zehntausende von Jahren alt sind.
Gruss Boris
Antwort von MrMeeseeks:
"Darth Schneider" hat geschrieben:
100 Jahre sind überhaupt nicht lange....
Wie lange gibt es das Rad ?
Wie lange gibt es schon Schiffe ?
Die Kamera und Computertechnologie steckt eigentlich noch in Windeln und hat noch nicht mal Zähne...
Was glaubt ihr, womit filmt der Mensch dann in eintausend Jahren ?
Und wie schnell sind dann die Computer ?
Das können sich die meisten Menschen doch gar nicht vorstellen, weil die ganze digitale Technologie eigentlich noch sehr, sehr neu ist, verglichen mit anderen technischen Inovationen, die Zehntausende von Jahren alt sind.
Gruss Boris
Da bist du leider auf dem Holzweg. Intel gibt aktuell Milliarden aus um die Fertigungen zu verkleinern. Die aktuelle 10NM Fertigung ist für Intel schon eine finanzielle Katastrophe weil sie große Probleme bereitet. Das Mooresches Gesetz gilt schon lange nicht mehr und wir liegen wesentlich näher am Ende als am Anfang.
Und es ist zu hoffen dass wir in 1000 Jahren nicht mehr den Planeten bevölkern, das würde allen anderen Spezies zugute kommen. So wie es aktuell läuft ist das nicht unwahrscheinlich.
Antwort von Darth Schneider:
Sei nicht so kurzsichtig, nur weil sie jetzt nicht mehr weiterkommen, heisst das mal genau gar nichts.
Es werden ganz neue Computer Technologien kommen, keine Ahnug in welche Richtung es gehen wird, Quantenmechanik ? Verbindung zwischen Technik, Elektronik und Biologie ? Vieleicht wird der nächste Intel Prozessor biologisch ? Und wird später quasi zu einer Kopie des menschlichen Gehirns....
Und in Tausend Jahren können die Menschen dann vieleicht Antimaterie oder die sogenannte dunkle Energie des Alls nutzen, vieleicht werden dann in ein paar tausend Jahren ganze Monde oder Planeten zu riesigen Computern...
So wie Duaglas Adams das in Per Anhalter durch die Galaxis beschrieben hat..
Auch viele Visionen von Jules Vernes wurden schliesslich später zur Realität.
Vorausgesetzt we dont fuck up this Planet to quick...
Da gebe ich dir voll recht.
Gruss Boris
Antwort von MrMeeseeks:
Schön wenn du es besser weist als Konzerne die jährlich Milliarden in die Forschung pumpen. Es werden stets Fortschritte gemacht, das liegt in der Natur der Forschung und auch der Menschen. Die Schritte sind aber inzwischen klein, sehr klein und nicht mehr vergleichbar zu damals.
Mal davon abgesehen ist der Fortschritt kommender Technologie nicht sonderlich relevant wenn andere Probleme stark überwiegen. Und schön wenn du Autoren zitierst, weil die ja so fundiertes Wissen zur aktuellen Lage kennen. Dann sag ich voraus dass wir bald gegen eine Armee von Orks, geführt von einem riesigen Auge, kämpfen werden.
Antwort von iasi:
Funless hat geschrieben:
Jott hat geschrieben:
Es gibt 2.349 Iasi-Posts mit dem Wörtchen „raw“.
Vielleicht ist die Intention dahinter ein Eintrag ins Guiness Buch der Rekorde? Möglich wär‘s.
Es werden mittlerweile 4k-Raw-Kameras angeboten, die weniger kosten, als so manches Schulterrig.
Gehen wir mal 10 Jahre zurück.
Wenn raw heute für manche Filmer noch immer kein Thema ist, sollten sich die Filmer mal fragen, warum dies so ist. Vielleicht liegt es daran, dass Deutschland noch immer ein PAL-Land ist. :)
Die Filmindustrie hat jedenfalls auf raw umgestellt.
8bit 422 - über solche Formate denkt man wohl nur noch in deutschen Foren nach. ;)
Antwort von Alf_300:
... MrMeeseeks
Wenn es um den Fortschritt geht, haben wir nun ein Problem, denm der Fortschritt der vergangenen Jahrre der wird ja gerade abgeschafft
Antwort von Jott:
„8bit 422 - über solche Formate denkt man wohl nur noch in deutschen Foren nach. ;)“
Nö. Wer heute zum Beispiel 1.500 Euro für einen Body ausgeben kann/will, hat die Wahl zwischen einer ergonomisch fast perfekten „normalen“ Kamera mit traumhafter Bildqualität. Und so was wie der Pocket, die zwar intern raw raw raw raw raw kann, aber sonst eine Katastrophe ist, was „normale“ praxisnahe Features angeht und schnell ein Geldgrab wird.
Diese Wahl ist der Punkt. Und welche Variante macht das Rennen?
Im Zweifel die, wo man ein paar Stunden brillantes 4K auf eine 20 Euro-Karte aufnehmen kann zum Beispiel. Die von selber stabilisiert. Hervorragenden Tracking-Autofokus beherrscht. Und vieles mehr. Die allermeisten interessiert so was wie raw verglichen mit anderen Dingen exakt null. Absolut null. Nut aufgeregte Foristen im Hollywoodhimmel (und BM-Promoter) behaupten, ohne raw ginge gar nichts. Und das als Fakt predigen, bis die Finger wund sind. Wozu nur?
10bit vs 8 Bit und 4:2:2 vs. 4:2:0 ist eigentlich das interessantere Thema. Dazu kann der Fragesteller aber gefühlt Tausende von Threads raussuchen, gestritten wird seit 15 Jahren ...
Ich finde: die Kamera kaufen, die man mag, die gut in der Hand liegt, und raus damit ins Leben. Filmen ist toll. Ideal für Amateure wie Profis kann auch so was wie die Osmo Pocket sein. Horses for courses. Eine ganz andere Pocket. Aber wie geil für den Preis einer GoPro! Der Sommer kommt, auch ohne raw. Garantiert.
Antwort von iasi:
Jott hat geschrieben:
„8bit 422 - über solche Formate denkt man wohl nur noch in deutschen Foren nach. ;)“
Nö. Wer heute zum Beispiel 1.500 Euro für einen Body ausgeben kann/will, hat die Wahl zwischen einer ergonomisch fast perfekten „normalen“ Kamera mit traumhafter Bildqualität.
„normale“ Kamera
Du meinst einen Fotoapparat.
Warum wohl bauen Sony, Canon & Co wohl auch Filmkameras?
Warum wohl verkrüppeln sie die Filmfähigkeiten ihrer Fotokameras?
Warum wohl geht nur Nikon auf das Angebot von Atomos ein, per HDMI-out auch Raw bei ihren Fotokameras zu bieten?
Antwort von Darth Schneider:
An Jott
Also ich find ja die ganzen neuen Fujis, Sonys, Canons, Panasonics und Nikons sind wirklich allesamt super Kameras...Aber an der neuen 4K Pocket ist weder irgend etwas katastrophal, noch liegt sie schlecht in der Hand...
Das einzige was ich bemängeln tue, ist im Moment das etwas zu schwache Audio, aber ich habe bisher auch noch kein einziges Kamera Update gemacht.
Gruss Boris
Antwort von Jörg:
Jott kopiert
Die allermeisten interessiert so was wie raw verglichen mit anderen Dingen exakt null. Absolut null. Nut aufgeregte Foristen im Hollywoodhimmel (und BM-Promoter) behaupten, ohne raw ginge gar nichts. Und das als Fakt predigen, bis die Finger wund sind. Wozu nur?
du musst Zugang zu meinen Meinungen haben, glatt kopiert, aber so was von kopiert.
Ernsthaft, jedes mal, wenn ich mit Material aus meinen Fujis an den Rechner gehe, kommt mir der Gedanke
Wer heute zum Beispiel 1.500 Euro für einen Body ausgeben kann/will, hat die Wahl zwischen einer ergonomisch fast perfekten „normalen“ Kamera mit traumhafter Bildqualität. Und so was wie der Pocket, die zwar intern raw raw raw raw raw kann, aber sonst eine Katastrophe ist, was „normale“ praxisnahe Features angeht und schnell ein Geldgrab wird.
wenn ich dann die sagenhaften Ergebnisse der "legendären" BM Pocket hier im Forum sehe,
aufgenommen von Fachleuten, mit Farbtafeln und haste nicht gesehen, wo keine Aufnahme dem entspricht, wie es draußen aussieht, nun ja.
Wobei, ohne Geraffel wird auch aus den Fujis keine Ausnahmecam zum Filmen, die Tonabteilung ist gelinde gesagt eine Katastrophe, das Display ist bei gleißendem Licht unbrauchbar, etc., dafür hat sie dankenswerter Weise einen EVF
Antwort von speven stielberg:
"Darth Schneider" hat geschrieben:
Und klar ist 10 Bit immer besser als 8Bit und 12Bit besser als 10 Bit..
Aber den Zuschauern auf YouTube geht das doch am Arsch vorbei, im Kino sieht’s dann vieleicht anders aus.
Schön, dass Du es noch mal erwähnst. Wir hatten ja hier schon mal einen ganz wunderbaren Fred "Lernen und üben statt immer neues Zeug kaufen" ...
Seit ich hier mitlese, überlege ich mir tatsächlich, ob ich meine brandneue (aber eben poplige 8 Bit-) a6400 doch noch mal gegen eine 10 Bit x-t3 austausche ... So schnell kann's gehen: schwupps ist man im Qualitäts-Wahn und alles ist irgendwie nicht mehr gut genug ...
Antwort von Jörg:
doch noch mal gegen eine 10 Bit x-t3 austausche ...
aber denk dran, eh iasi wieder ausflippt, das reine, heilige 10 bit 4:2:2 gibt es NUR über HDMI!!!!!!!!
nicht intern.
Antwort von Darth Schneider:
Ich würde die A6400 behalten, coole kleine Cam, 8Bit hin oder her, tolle Bilder macht die Sony allemal.
Gruss Boris
Antwort von iasi:
8Bit 422 tut"s.
10 Bit 420 tut"s.
... für Leute, die mal eben etwas filmen, eine LUT drüberlegen und das Material dann irgendwo hochladen.
Wenn ich immer wieder höre, wie toll doch die Aufnahmen einer filmenden Fotokamera sind. Ja - davon werden dann auch überreichlich auf Youtube präsentiert.
Und auch die Telefonaufnahmen sehen toll aus.
Kann man alles ganz fantastisch finden.
Aber es gibt eben auch Leute, die erwarten dann eben doch etwas mehr.
Dass die vielen Videofilmer, die immer von cinematischem Look sprechen, ihre 8bit und seit kurzen nun doch auch 10bit (wobei hier nur 420) feiern und verteidigen, macht die Fotokamera-Hersteller natürlich froh.
Denn sie können auch weiterhin den Videofilmern ihre Fotokameras verkaufen und für den Filmer dann die teureren Filmkameras offerieren.
10 Bit 420 oder 8Bit 422
Wer sich schon beim Ausgangsmaterial derart selbst beschränkt, sollte doch wenigstens nicht nicht auch noch missionieren.
Wer wirklich mal versucht hat, damit in der Post so zu arbeiten und zu gestalten, wie es Raw ermöglicht, der wird sehr schnell verstummen.
Also stemmt euch doch nicht ständig gegen technische Entwicklungen - das ist eine richtig deutsche Krankheit.
Antwort von speven stielberg:
"Darth Schneider" hat geschrieben:
Ich würde die A6400 behalten, coole kleine Cam, 8Bit hin oder her, tolle Bilder macht die Sony allemal.
Gruss Boris
Eben. Ich schrieb ja selbst schon mal, dass meine popligen Entchen-Test-Filmchen - in FullHD! Ich hab noch nie in 4K gefilmt!!! - eigentlich mit meinem Fersehbild locker mithalten können. Ich werde sicher nie (oder zumindest die nächsten zwei Jahre :-) ) Kino-Qualität brauchen. Trotzdem kommt man, wenn man sowas wie diesen Fred hier liest, fast zwangsläufig ins Grübeln ... Ich fürchte das ist der Zeitgeist. Die Leute sollen ja einkaufen, denn das System lebt von einkaufenden Menschen, denen nie was gut genug ist.
An Ostern hab ich (natürlich!) wieder uralte Monumental-Streifen gesehen. Beispiel: "Spartakus". Die Qualität wäre - nach heutigen Maßstäben einiger - wohl mit etwa 3 Bit vergleichbar. Das ist vermutlich die Erklärung des Phänomens: den wenigen Filmern, denen es gelingt, besondere, weil unterhaltsame, spannende, berührende oder was auch immer für Filmchen zu drehen, denen kann die Bit-Tiefe völlig schmurz sein. Die Masse aber, die keine unterhaltsamen, spannenden, berührenden oder was auch immer für Filmchen zu drehen vermag, die muss, um etwas "Besonderes" zu schaffen, dann eben mit der Bild-Qualität klotzen. Ist in "meinem" Bereich, der Fotografie, nicht anders. Die Bildwirkung ist den meisten schnurz. Rasiermesserscharf muss es sein - bis in die Ecken.
Antwort von Alf_300:
So ist es,
man erinnert sich an die Schaupieler und nicht an die Filme
ist nun Jean Gabin oder Rowan Atkinson Kommissar Maigret
oder wie kommt der Gabin in den Rowan Atkinson
Kurz um keiner kennt sich mehraus
;-((
Antwort von Jott:
Ein kleines Beispiel für die „Verkrüppelung“ der BM Pocket.
In „normalen“ Kameras werkelt heute eine sehr gut funktionierende digitale Objektivkorrektur. Das ermöglicht sehr kleine, leichte und auch günstige Systemobjektive, auch Zooms. Gut für den Gimbal, gut für‘s Gepäck, gut für den Geldbeutel, gut für den unauffälligen Auftritt, wenn nötig.
Mit raw geht das aber nicht, sonst wär‘s ja kein raw. Und schon sind kleine, günstige, leichte Objektive in guter Qualität vom Tisch.
Ein klitzekleiner Nachteil von raw in der Praxis. Es gibt noch viele andere. Die verdrängt man halt als „ohne raw geht nichts“-Kreuzritter.
Nachdenken und weise entscheiden, was man eigentlich will. Weise, nicht Iasi-Schwarz-Weiß.
Antwort von iasi:
"speven stielberg" hat geschrieben:
An Ostern hab ich (natürlich!) wieder uralte Monumental-Streifen gesehen. Beispiel: "Spartakus". Die Qualität wäre - nach heutigen Maßstäben einiger - wohl mit etwa 3 Bit vergleichbar. Das ist vermutlich die Erklärung des Phänomens: den wenigen Filmern, denen es gelingt, besondere, weil unterhaltsame, spannende, berührende oder was auch immer für Filmchen zu drehen, denen kann die Bit-Tiefe völlig schmurz sein.
Und ich hab "Spartakus" einen Tag zuvor in der restaurierten BD-Fassung gesehen, dann eher zufällig diesen TV-Brei eingeschalten.
Man kann sich mit dieser schlechten Qualität zufrieden geben - aber muss man das denn wirklich?
Die Macher hatten immerhin keine Kosten gescheut und in
Super Technirama 70 (anamorphic)
gedreht.
Sie werden schon gewußt haben, weshalb.
Und was würden sie wohl über diese TV-Qualität denken?
Antwort von iasi:
Jott hat geschrieben:
In „normalen“ Kameras werkelt heute eine sehr gut funktionierende digitale Objektivkorrektur. Das ermöglicht sehr kleine, leichte und auch günstige Systemobjektive, auch Zooms.
Das ist dann die immer wieder angeführte "Fix it in Post". Nur machen dies dann eben gleich die Kameras intern.
Die Objektive sind teuer und dennoch mies konstruiert - eben auf das Fix-it-in-Kamera hin.
Da wird dann Sensorgröße und Auflösung dafür geopfert, damit die garstigen Verzerrungen wenigstens nicht mehr gar so sehr ins Auge stechen.
Da nimmt man Signalverstärkung und Rauschen in Kauf, um die Randabschattungen aufzuhellen.
Da schärft man dann nach, um die miese Auflösung zu den Rändern hin zu kaschieren.
Und die Leute finden das dann auch noch toll und einen Fortschritt.
Wenn ein Hersteller auf digitale Objektivkorrektur setzt, will er seinen Kunden letztlich nur schlechte Scherben andrehen - und die dann auch noch teuer verkaufen.
Aber das ist dann eben wie mit 10bit 420 oder 8bit 422, es gibt Leute, die kaufen so etwas - und weil sie es gekauft haben, verteidigen sie ihre Entscheidung auch noch.
Antwort von Jott:
Du kapierst du Zusammenhänge nicht - egal, ich hatte dich ja auch nicht angesprochen.
Antwort von speven stielberg:
iasi hat geschrieben:
Und ich hab "Spartakus" einen Tag zuvor in der restaurierten BD-Fassung gesehen, dann eher zufällig diesen TV-Brei eingeschalten.
Man kann sich mit dieser schlechten Qualität zufrieden geben - aber muss man das denn wirklich?
So gesehen hast Du natürlich recht. Hätte ich die Wahl gehabt, hätte ich mir natürlich auch die fürs Auge genehmere Version angeguckt. Was ist eine "BD-Fassung"?
Antwort von Funless:
"speven stielberg" hat geschrieben:
Was ist eine "BD-Fassung"?
BD ist die umgangssprachliche Abkürzung für Blu-ray Disc.
Antwort von speven stielberg:
Ah! Danke! Ich hab allerdings auch Jahre gebraucht, bis ich mich endlich daran gewöhnt habe nicht mehr mit einer Spiegelreflexkamera, sondern mit einer "DSLR" zu fotografieren ...
Antwort von acrossthewire:
iasi hat geschrieben:
Wenn ein Hersteller auf digitale Objektivkorrektur setzt, will er seinen Kunden letztlich nur schlechte Scherben andrehen - und die dann auch noch teuer verkaufen.
Das ist nicht notwendigerweise so wie du es darstellst. Es lediglich die Frage was die Kunden gewichtstechnisch und finanziell schultern können.
Ein auskorrigiertes 8,5 fach Zoom wie z.B. das Oly 12-100 f4 würde vermutlich 2,5kg wiegen und 10.000Euro kosten
Hier mal z.B ein 6fach Zoom von Fuji für S35 ohne elektronische Korrektur.
https://www.teltec.de/fujinon-xk6x20-oh ... SYQAvD_BwE
Auch zu seligen Analog Zeiten gab es schon die 499,-DM Superzooms von Tamron die jenseits der mittleren Brennweiten erst ab f11 zu gebrauchen waren.
Es ist halt immer die Frage was der Kunde will und wie viel er bezahlen kann/will.
Antwort von Onkel Danny:
Bei dem Thema muss man sagen, das es die Hersteller nicht besser wollen.
Denn an deren RAW Fotos sieht man bestens, was der jeweilige Sensor kann.
Das heißt sie können alle RAW und sind völlig ausreichend.
Nur eben nicht bei Bewegtbild.
Warum also RAW in eine DSLM packen, wenn selbst die hauseigene 30k Cinecam,
es nicht ohne Lizenz kann.
Leider ist weder das eine noch das andere ein gute Lösung.
Aber ich würde, wenn ich müsste, die 10 bit vorziehen.
Muss ich aber nicht und nehme gleich 12 bit RAW :)
Und bedenke, was der iasi nicht mag, das akzeptiert er auch nicht.
Es sind wie immer, die gleichen alten Kamellen. Er schaut auch nur Filme,
die mindestens 50 Jahre alt sind, weil früher war alles besser ;)
greetz
Antwort von iasi:
"Onkel Danny" hat geschrieben:
Bei dem Thema muss man sagen, das es die Hersteller nicht besser wollen.
Denn an deren RAW Fotos sieht man bestens, was der jeweilige Sensor kann.
Das heißt sie können alle RAW und sind völlig ausreichend.
Nur eben nicht bei Bewegtbild.
Warum also RAW in eine DSLM packen, wenn selbst die hauseigene 30k Cinecam,
es nicht ohne Lizenz kann.
Leider ist weder das eine noch das andere ein gute Lösung.
Aber ich würde, wenn ich müsste, die 10 bit vorziehen.
Muss ich aber nicht und nehme gleich 12 bit RAW :)
Und bedenke, was der iasi nicht mag, das akzeptiert er auch nicht.
Es sind wie immer, die gleichen alten Kamellen. Er schaut auch nur Filme,
die mindestens 50 Jahre alt sind, weil früher war alles besser ;)
greetz
Atomos hat bei allen Herstellern angeklopft und gefragt, ob sie nicht auch Raw via HDMI bei ihren Knippsen bieten wollen.
Da Leute wie du ihnen die Knippsen trotzdem abkaufen, haben so ziemlich alle abgewunken - Ausnahme: Nikon.
Früher hatte man eben auch schon bessere Qualität zu schätzen gewusst.
Mit 16mm hatte ja selbst R.W.Fassbinder nur zu Anfang gedreht.
Und ich schau mir wirklich gerne 70mm-Filme an. Oder auch VV.
Und 4k ist mir auch lieber als PAL.
Antwort von iasi:
acrossthewire hat geschrieben:
iasi hat geschrieben:
Wenn ein Hersteller auf digitale Objektivkorrektur setzt, will er seinen Kunden letztlich nur schlechte Scherben andrehen - und die dann auch noch teuer verkaufen.
Das ist nicht notwendigerweise so wie du es darstellst. Es lediglich die Frage was die Kunden gewichtstechnisch und finanziell schultern können.
Ein auskorrigiertes 8,5 fach Zoom wie z.B. das Oly 12-100 f4 würde vermutlich 2,5kg wiegen und 10.000Euro kosten
Hier mal z.B ein 6fach Zoom von Fuji für S35 ohne elektronische Korrektur.
https://www.teltec.de/fujinon-xk6x20-oh ... SYQAvD_BwE
Auch zu seligen Analog Zeiten gab es schon die 499,-DM Superzooms von Tamron die jenseits der mittleren Brennweiten erst ab f11 zu gebrauchen waren.
Es ist halt immer die Frage was der Kunde will und wie viel er bezahlen kann/will.
Warum aber sind APS-C- und sogar FF-Objektive trotz größerem Bildkreis schlicht besser konstruiert, als die MFT-Scherben?
Selbst nach Korrektur durch die Kamera ist die Verzeichnung bei vielen MFT-Objektiven noch immer schlechter als bei APS-C-Objektiven ohne solche Korrekturen.
Größe? Also wenn ein Objektiv einen kleineren Bildkreis abdecken muss, sollte man es auch kleiner bauen können.
https://www.lenstip.com/553.6-Lens_revi ... rtion.html
https://www.lenstip.com/554.6-Lens_revi ... rtion.html
Das 17mm MFT entspricht eigentlich einem FF-35mm-Objektiv.
Und das Sigma ist sogar noch billiger.
Antwort von Onkel Danny:
iasi hat geschrieben:
Atomos hat bei allen Herstellern angeklopft und gefragt, ob sie nicht auch Raw via HDMI bei ihren Knippsen bieten wollen.
Und das weißt Du woher? Haben wohl alle nein gesagt, außer Nikon.
iasi hat geschrieben:
Da Leute wie du ihnen die Knippsen trotzdem abkaufen, haben so ziemlich alle abgewunken - Ausnahme: Nikon.
Völlig falsch! Ich garantiert nicht, P4K, danke! Aus filmerischer Sicht, nehme ich garantiert keine DSLM und co.!
iasi hat geschrieben:
Früher hatte man eben auch schon bessere Qualität zu schätzen gewusst.
Mit 16mm hatte ja selbst R.W.Fassbinder nur zu Anfang gedreht.
Ja genau wie Heute auch ;) Und Fassbinder interessiert wohl kaum jemand.
iasi hat geschrieben:
Und ich schau mir wirklich gerne 70mm-Filme an. Oder auch VV.
Und 4k ist mir auch lieber als PAL.
Kein Ding, aber das sind nun einmal fasst nur alte Schinken und das Format macht sie leider auch nicht besser.
Und wer sich Heute noch PAL antut, dem kann ich wirklich nicht helfen. BD ist bei mir Minimum.
Leider sind aber auch APS-C und FF nicht annähernd immer völlig korrigiert.
Der Grund liegt eventuell in der Ersparnis der Hersteller bei MFT in Bezug auf die Größe.
greetz
Antwort von iasi:
"Onkel Danny" hat geschrieben:
iasi hat geschrieben:
Atomos hat bei allen Herstellern angeklopft und gefragt, ob sie nicht auch Raw via HDMI bei ihren Knippsen bieten wollen.
Und das weißt Du woher? Haben wohl alle nein gesagt, außer Nikon.
iasi hat geschrieben:
Da Leute wie du ihnen die Knippsen trotzdem abkaufen, haben so ziemlich alle abgewunken - Ausnahme: Nikon.
Völlig falsch! Ich garantiert nicht, P4K, danke! Aus filmerischer Sicht, nehme ich garantiert keine DSLM und co.!
iasi hat geschrieben:
Früher hatte man eben auch schon bessere Qualität zu schätzen gewusst.
Mit 16mm hatte ja selbst R.W.Fassbinder nur zu Anfang gedreht.
Ja genau wie Heute auch ;) Und Fassbinder interessiert wohl kaum jemand.
iasi hat geschrieben:
Und ich schau mir wirklich gerne 70mm-Filme an. Oder auch VV.
Und 4k ist mir auch lieber als PAL.
Kein Ding, aber das sind nun einmal fasst nur alte Schinken und das Format macht sie leider auch nicht besser.
Und wer sich Heute noch PAL antut, dem kann ich wirklich nicht helfen. BD ist bei mir Minimum.
Leider sind aber auch APS-C und FF nicht annähernd immer völlig korrigiert.
Der Grund liegt eventuell in der Ersparnis der Hersteller bei MFT in Bezug auf die Größe.
greetz
Alles alte Schinken, die in 70mm drehen?
Mach dich mal kundig, was die aktuellen Blockbuster-Filme alle mit diesen Alexa65 machen.
Es gibt doch auf Slashcam diesen Link zum Interview mit dem Atomos-Mann - ich denke das war zum Jahresbeginn.
 |
Antwort von acrossthewire:
iasi hat geschrieben:
Warum aber sind APS-C- und sogar FF-Objektive trotz größerem Bildkreis schlicht besser konstruiert, als die MFT-Scherben?
Selbst nach Korrektur durch die Kamera ist die Verzeichnung bei vielen MFT-Objektiven noch immer schlechter als bei APS-C-Objektiven ohne solche Korrekturen.
Größe? Also wenn ein Objektiv einen kleineren Bildkreis abdecken muss, sollte man es auch kleiner bauen können.
https://www.lenstip.com/553.6-Lens_revi ... rtion.html
https://www.lenstip.com/554.6-Lens_revi ... rtion.html
Das 17mm MFT entspricht eigentlich einem FF-35mm-Objektiv.
Und das Sigma ist sogar noch billiger.
Du kannst nur Objektive ähnlicher Brennweiten vergleichen. Auch wenn Du jetzt behaupten wirst das es doch egal sei da die Bildwirkung doch gleich sei. Je weitwinkliger das Objektiv umso schwieriger die Verzeichnungskorrektur in der Konstruktion. Wenn du dir das zugegeben sehr gute und deutlich preiswertere Sigma 16mm f1.4 für mFT anschaust wirst du sehen das die Verzeichnung im RAW ähnlich der des Olympus 17mm f1.2 ist.
Das Äquivalent zu deinem Sigma 28mm f.1.4 wäre dieses:
https://www.lenstip.com/495.6-Lens_revi ... rtion.html
und wie wir sehen ist es nahezu verzeichnungsfrei.
Antwort von iasi:
acrossthewire hat geschrieben:
iasi hat geschrieben:
Warum aber sind APS-C- und sogar FF-Objektive trotz größerem Bildkreis schlicht besser konstruiert, als die MFT-Scherben?
Selbst nach Korrektur durch die Kamera ist die Verzeichnung bei vielen MFT-Objektiven noch immer schlechter als bei APS-C-Objektiven ohne solche Korrekturen.
Größe? Also wenn ein Objektiv einen kleineren Bildkreis abdecken muss, sollte man es auch kleiner bauen können.
https://www.lenstip.com/553.6-Lens_revi ... rtion.html
https://www.lenstip.com/554.6-Lens_revi ... rtion.html
Das 17mm MFT entspricht eigentlich einem FF-35mm-Objektiv.
Und das Sigma ist sogar noch billiger.
Du kannst nur Objektive ähnlicher Brennweiten vergleichen. Auch wenn Du jetzt behaupten wirst das es doch egal sei da die Bildwirkung doch gleich sei. Je weitwinkliger das Objektiv umso schwieriger die Verzeichnungskorrektur in der Konstruktion. Wenn du dir das zugegeben sehr gute und deutlich preiswertere Sigma 16mm f1.4 für mFT anschaust wirst du sehen das die Verzeichnung im RAW ähnlich der des Olympus 17mm f1.2 ist.
Das Äquivalent zu deinem Sigma 28mm f.1.4 wäre dieses:
https://www.lenstip.com/495.6-Lens_revi ... rtion.html
und wie wir sehen ist es nahezu verzeichnungsfrei.
OK - dann nehme ich das alte Tokina 11-16. Nicht schwer. Und bei 14mm z.B. verzeichnisfrei.
Das Olympus ist eine Normalbrennweite bei MFT. Man kann nicht einfach dieselbe Brennweite ansetzen und dann den Bildkreis völlig unberücksichtigt lassen.
https://www.opticallimits.com/m43/862_oly1240?start=1
a native barrel distortion level of disappointing 8.5% at 12mm
Das ist im Vergleich zu den 2,12% bei 11mm des neuen Tokina 11-16 schon sehr heftig. Zumal das Tokina einen größeren Bildkreis abdeckt.
Ach ja - und viele der MFT-Zoom-Scherben fahren auch noch ewig weit aus und strecken sich derart in die Länge, dass sie jedes Gimbal aus der Balance bringen.
Antwort von acrossthewire:
iasi hat geschrieben:
OK - dann nehme ich das alte Tokina 11-16. Nicht schwer. Und bei 14mm z.B. verzeichnisfrei.
Das Olympus ist eine Normalbrennweite bei MFT. Man kann nicht einfach dieselbe Brennweite ansetzen und dann den Bildkreis völlig unberücksichtigt lassen.
https://www.opticallimits.com/m43/862_oly1240?start=1
a native barrel distortion level of disappointing 8.5% at 12mm
Das ist im Vergleich zu den 2,12% bei 11mm des neuen Tokina 11-16 schon sehr heftig. Zumal das Tokina einen größeren Bildkreis abdeckt.
Ach ja - und viele der MFT-Zoom-Scherben fahren auch noch ewig weit aus und strecken sich derart in die Länge, dass sie jedes Gimbal aus der Balance bringen.
Ein 1,5fach Zoom gegen ein 3,5fach Zoom - du darfst einfach keine Birnen mit Äpfeln vergleichen.
Schau dir die Werte des FT 14-35 f2.0 an (immerhin ein 2,5fach Zoom mit noch höherer Lichtstärke) wenn du bereit bist das Geld zu bezahlen findest du auch ein nahezu verzeichnungsfreies FT Zoom. Und noch einmal: die FT und nochmal mehr die mFT Konventionen sehen die elektronische Korrektur explizit vor und als die Standards verabschiedet wurden hat noch niemand groß über Video nachgedacht und erwartet das jemand (Blackmagic) die Korrekturdaten einfach nicht benutzt.
BTW Ein Zoom welches nicht ausfährt und innenfocussiert ist bringst du erst garnicht auf nen Gimbal.
Im übrigen habe ich das Tokina schon an mFT nativ adaptiert (ohne Speedbooster) - der Mikrokontrast und die Auflösung reichen lange nicht an das 12-40 ran. Was nutzt mir also ein für RAW besser korrigiertes aber flaues, in den Ecken erst ab 5,6 nutzbares Objektiv welches obendrein noch eine deutliche Bildfeldwölbung aufweist.
Antwort von roki100:
ich wollte grade fragen, ob ihr das macht, Zoom Objektiv auf Gimbal. Ich mach das auch, dann fasse ich aber Zoom nicht an.
Antwort von srone:
roki100 hat geschrieben:
ich wollte grade fragen, ob ihr das macht, Zoom Objektiv auf Gimbal. Ich mach das auch, dann fasse ich aber Zoom nicht an.
eine einstellung, gut ausgewogen, mit gaffa fixiert und dann durch...;-)
lg
srone
Antwort von Jott:
Eleganter ist natürlich, nach Zooms zu suchen, die gar nicht erst ausfahren. Diese Eigenschaft nervt nicht nur bei Gimbals, sondern auch mit Matteboxen und in anderen Situationen.
Prima für Gimbals zum Beispiel: Sony A6xxx mit Kitlinse 16-50. Winzig, NICHT ausfahrend und schön weitwinklig.
Antwort von Jott:
Falls der Threadstarter noch da ist, eine Anmerkung zu 10 Bit 4:2:0 vs. 8 Bit 4:2:2, der Ausgangsfrage.
8Bit 4:2:2 ist das, wofür sich fast alle Broadcaster (die Hüter höchster Bildqualität) zur normalen Akquisition entschieden haben. Ganz ohne Banding, auch nach Farbkorrektur, wie man sieht, indem man mal den Fernseher anmacht. Falls dir das etwas weiter hilft.
Antwort von iasi:
acrossthewire hat geschrieben:
iasi hat geschrieben:
OK - dann nehme ich das alte Tokina 11-16. Nicht schwer. Und bei 14mm z.B. verzeichnisfrei.
Das Olympus ist eine Normalbrennweite bei MFT. Man kann nicht einfach dieselbe Brennweite ansetzen und dann den Bildkreis völlig unberücksichtigt lassen.
https://www.opticallimits.com/m43/862_oly1240?start=1
a native barrel distortion level of disappointing 8.5% at 12mm
Das ist im Vergleich zu den 2,12% bei 11mm des neuen Tokina 11-16 schon sehr heftig. Zumal das Tokina einen größeren Bildkreis abdeckt.
Ach ja - und viele der MFT-Zoom-Scherben fahren auch noch ewig weit aus und strecken sich derart in die Länge, dass sie jedes Gimbal aus der Balance bringen.
Ein 1,5fach Zoom gegen ein 3,5fach Zoom - du darfst einfach keine Birnen mit Äpfeln vergleichen.
Schau dir die Werte des FT 14-35 f2.0 an (immerhin ein 2,5fach Zoom mit noch höherer Lichtstärke) wenn du bereit bist das Geld zu bezahlen findest du auch ein nahezu verzeichnungsfreies FT Zoom. Und noch einmal: die FT und nochmal mehr die mFT Konventionen sehen die elektronische Korrektur explizit vor und als die Standards verabschiedet wurden hat noch niemand groß über Video nachgedacht und erwartet das jemand (Blackmagic) die Korrekturdaten einfach nicht benutzt.
BTW Ein Zoom welches nicht ausfährt und innenfocussiert ist bringst du erst garnicht auf nen Gimbal.
Im übrigen habe ich das Tokina schon an mFT nativ adaptiert (ohne Speedbooster) - der Mikrokontrast und die Auflösung reichen lange nicht an das 12-40 ran. Was nutzt mir also ein für RAW besser korrigiertes aber flaues, in den Ecken erst ab 5,6 nutzbares Objektiv welches obendrein noch eine deutliche Bildfeldwölbung aufweist.
Ich kann mich jedenfalls nicht mit diesen MFT-Linsen anfreunden, die auf interne Korrektur ausgelegt sind.
Wenn ein Objektiv nur einen kleinen Sensor andecken muss, so muss es auch möglich sein, dieses kleiner und leichter als ein APS-C oder gar FF-Objektiv zu konstruieren, ohne dass dann wirklich jeder Aspekt von Verzeichnung über CA bis zur Randauflösung so mies ist, dass man korregieren muss.
Es gibt einige wenige MFT-Objektive, die ordentlich gerechnet sind, aber die meisten sind es nicht - und dazu auch noch teuer - somit eigentlich überteuert.
Man muss immer bedenken, dass z.B. die Reduzierung der Vignettierung beim 12-40 nicht mal vollständig gelingt und dann eben an den Rändern mit verstärktem Rauschen erkauft wird.
1300€ für so ein Objektiv würde ich nicht ausgeben - und nutzen würde ich es sowieso nicht:
https://www.opticallimits.com/m43/961_o ... ro?start=1
Antwort von Onkel Danny:
iasi hat geschrieben:
Alles alte Schinken, die in 70mm drehen?
Mach dich mal kundig, was die aktuellen Blockbuster-Filme alle mit diesen Alexa65 machen.
Es gibt doch auf Slashcam diesen Link zum Interview mit dem Atomos-Mann - ich denke das war zum Jahresbeginn.
Genau iasi, deine Beispiele sind oft alte Schinken, siehe Lawrence von...
Der Witz ist, genau ich habe dir in einem anderen Thread gesagt, das es für 65mm deutlich aktuellere Beispiele gibt.
Allein der hier diskutierte Avengers ist auf Arri 65 gedreht worden.
Nein ,netter Versuch, aber ich muss mich sicher nicht erkundigen.
Du solltest deine alten Beispiele mal lieber auf einen aktuellen Stand bringen ;)
greetz
Antwort von iasi:
"Onkel Danny" hat geschrieben:
iasi hat geschrieben:
Alles alte Schinken, die in 70mm drehen?
Mach dich mal kundig, was die aktuellen Blockbuster-Filme alle mit diesen Alexa65 machen.
Es gibt doch auf Slashcam diesen Link zum Interview mit dem Atomos-Mann - ich denke das war zum Jahresbeginn.
Genau iasi, deine Beispiele sind oft alte Schinken, siehe Lawrence von...
Der Witz ist, genau ich habe dir in einem anderen Thread gesagt, das es für 65mm deutlich aktuellere Beispiele gibt.
Allein der hier diskutierte Avengers ist auf Arri 65 gedreht worden.
Nein ,netter Versuch, aber ich muss mich sicher nicht erkundigen.
Du solltest deine alten Beispiele mal lieber auf einen aktuellen Stand bringen ;)
greetz
Ich habe LoA im Vergleich erlebt - ja erlebt. In 35mm und in 70mm im Kino gesehen.
Daher führe ich ihn immer gerne an.
Und die Kameraarbeit war nun einmal eine der Besten - da reicht Avengers nicht heran.
Lawrence ist zudem heutigen Produktionen in vielen Bereichen noch immer weit voraus - wie auch Citizen Kane - oder Kurosawas-Filme ... dagegen wirken viele heutige Filme schlicht altbacken.
The Revenant ist z.B., was die Kameraarbeit betrifft, weit innovativer als Avengers.
Antwort von Onkel Danny:
iasi hat geschrieben:
Ich habe LoA im Vergleich erlebt - ja erlebt. In 35mm und in 70mm im Kino gesehen.
Daher führe ich ihn immer gerne an.
Und die Kameraarbeit war nun einmal eine der Besten - da reicht Avengers nicht heran.
Lawrence ist zudem heutigen Produktionen in vielen Bereichen noch immer weit voraus - wie auch Citizen Kane - oder Kurosawas-Filme ... dagegen wirken viele heutige Filme schlicht altbacken.
The Revenant ist z.B., was die Kameraarbeit betrifft, weit innovativer als Avengers.
Analog erlebt, dann musst Du ja mindesten 78,5 Jahre alt sein ;)
Ob die Kameraarbeit nun besser ist, sei mal dahin gestellt.
Und nein, Wackelkamera ist auch nicht mein Ding.
Aber mit dem Avengers und siehe da, The Revenant, hast Du ja aktuelle Filme, geht doch :)
Wobei für mich, wie gesagt, Citizen Kane und co., schon zu oft als Lehrfilme genommen wurden.
Da kann man auch genug modernere Filme nehmen.
greetz
Antwort von Seba Peh:
DAF hat geschrieben:
mowbray hat geschrieben:
...
welches Variante ist das qualitativ "höherwertige" Signal ?
10 Bit 420 oder 8Bit 422 ?
...
10-Bit bringt in anderen Bereichen Vorteile wie 4:2:2
Ich hab mich jetzt durch dieses -meiner Meinung nach - Off-Topic-Wunderwerk durchgekämpft, weil mich die - von mir so verstandene - Ursprungfrage sehr interessiert hat.
Ich bitte jetzt nur die Leute zu antworten, die nachvollziehen können, dass man bei freiwillig oder unfreiwillig begrenztem Budget halt auf RAW verzichten will/muss.
Wo liegen die Vorteile und Nachteile beim Vergleich von 10bit 4:2:0 und 8bit 4:2:2 ?
Farbauflösung gegen Unterabtastung.. wer liegt wo vorn ???
Antwort von Jott:
Wenn dich das ernsthaft interessiert wegen eines geplanten Kamerakaufs, dann ignoriere aufgeregte YouTuber und Foristen und leihe dir die Kameras, die dich interessieren. Testaufnahmen, Bearbeitung in deinem NLE, Wiedergabe dort. wo es dich interessiert. Ob du einen Unterschied findest, wirst du dann sehen.
Zu mühsam? Dann halt auf YouTuber und Foristen hören, von denen jeder was anderes erzählt. Ist ja dein Geld! :-)
Antwort von Seba Peh:
Jott hat geschrieben:
Testaufnahmen, Bearbeitung in deinem NLE, Wiedergabe dort. wo es dich interessiert. Ob du einen Unterschied findest, wirst du dann sehen.
Hab mir jetzt innerhalb kurzer Zeit drei sehr preiswerte Kameras gekauft und stehe vor diesen Praxistests. Einmal kompakte Miniknipse mit Slog2 und Hypergamma in 8bit 4:2:0, dann semiprofessionelle DSLR für schon existierenden Glaspark (inklusive ND-Scheiben) mit externen 8bit in 4:2:2 und eine eierlegende Wollmilch-Bridge extern mit 10bit 4:2:2 und Vlog.
War jetz erst mal dabei mein NLE so aufzustellen, dass ich einigermassen begreife, was ich tu (10bit Workflow etc.) und bin mittlerweile am ergründen der Kameratechnik (Signalparameter, flache Kurven...).
Wenn ich jetzt anfange in der Praxis zu vergleichen, sollte ich doch vorher sicher stellen, dass ich in diesem hochkomplexen System alles richtig mache und so viel wie möglich über die Vor- und Nachteile der eingesetzten Technik schon vorher wissen.
Darum suche ich nach solchen Informationen, aber wie es aussieht ist da recht wenig zu holen. Vielleicht weil sich die Leute, die in der Praxis angekommen sind, dann weniger in Foren aufhalten ?
Dann werd ich mal rausgehen in die Praxis und schau'n ob ich durch Wahrnehmung oder Einbildung zu tiefgreifenden Erkenntnissen komme ;-)
Meine Vermutung ist, dass ich, wenn ich alles richtig mache, mit jedem System zu guten Ergebnissen kommen kann.
Antwort von Jott:
Am Ende sieht man immer 8 Bit. Ob und wie auf dem Weg dahin 10 Bit etwas bringt, kannst du ja rauskriegen.
Beliebte Behauptungen wie „mit 8 Bit kann man nicht graden“ kannst du bei dieser Gelegenheit auch prima überprüfen.
Es geht nichts über eigene Erkenntnise. Und der letzte Satz stimmt sowieso!
Antwort von Darth Schneider:
10 Bit ist sicher besser, oder einfacher zu bearbeiten für jegliche Art von Keying und Compositing.
Ansonsten ?
Das Publikum sieht keinen Unterschied zwischen 8 und 10 Bit, und der Jury ist es womöglich egal wenn der Film überzeugt.
Die Musik spielt vor der Kamera...( Mein Lieblings Satz des Jahres)
Gruss Boris
Antwort von iasi:
Jott hat geschrieben:
Am Ende sieht man immer 8 Bit.
Ist das so? ;)
Antwort von Darth Schneider:
Blöde Frage ( nicht böse gemeint)
Klar sieht der Film irgendwie ein ganz winzig klein wenig anders aus wenn ich ihn gleichzeitig auf einem 8Bit Monitor und einem 10 Bit Monitor anschaue.
Aber wer macht das schon.
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Blöde Frage ( nicht böse gemeint)
Klar sieht der Film irgendwie ein ganz winzig klein wenig anders aus wenn ich ihn gleichzeitig auf einem 8Bit Monitor und einem 10 Bit Monitor anschaue.
Aber wer macht das schon.
Gruss Boris
Auch wenn wir hier in D noch immer 720p- und gar PAL-TV genießen, bedeutet das ja nicht, dass man ruhigen Gewissens noch in 720p drehen könnte.
Klar kann ich ein Konzert auch mit einem alten Kassettenrekorder aufnehmen und anschließend auf CD und in noch besseren Formaten veröffentlichen - und kaum einer würde es bemerken - aber wäre dies wirklich angemessen?
Die Musiker haben vielleicht wirklich Talent und geprobt ... ;)
Antwort von Alf_300:
... irgendwie ein ganz winzig klein wenig :-)
Leider hat JOTT recht wenn es meint selbee testen macht Schlau
Antwort von Seba Peh:
Also ich hab bei ersten Tests mit der FZ2000 schon gesehen, dass bei 10bit im Vergleich zu 8bit das Grün der Vegetation und das Blau des Himmels einfach besser aussehen. Einfach authentischer.. Wie das bei 8bit 4:2:0 gegen 8bit 4:2:2 ist, hab ich noch nicht so auf'm Schirm.. solche Erfahrungen würde ich hier gerne lesen.. egal, ob sie auf Einbildung oder Fakten beruhen..
Antwort von iasi:
Eigentlich sollte man sich die Frage 10 Bit 420 oder 8Bit 422 gar nicht stellen müssen.
Technische Gründe, nicht zumindest 10bit 422 bieten zu können, gibt es nicht mehr.
Antwort von Seba Peh:
Auch wenn das wieder leicht Off-Topic ist: Ich stell mir die Frage, ob ich mit 8bit 4:2:2 aus ner D7500 mit guten Objektiven nicht u.U. mehr rausholen kann, als mit 10bit aus einer Bridge wie der FZ2000 oder mit Slog bzw. Hypergamma aus ner RX100 Mark 4, die widerum nur 8bit in 4:2:0 rausgibt. Das sind natürlich Fragen für arme Leute, aber mich als bekennenden Schwaben interessiert das und vielleicht andere technikinterressierte Leute auch.
Antwort von Framerate25:
Preise gewinnen kann man mit allem möglichen.
Link: bitegal
Antwort von Seba Peh:
Ich will keine Preise gewinnen, sondern einfach in meinem Hobby schlauer werden. O. K. ich suche nach Möglichkeiten mit möglichst geringem finanziellen Aufwand zu guter Qualität und schönem 'Look' zu kommen. Das ich mir das hauptsächlich selber erarbeiten muss und es dann auch 'komischerweise' um die Inhalte geht ist mir klar. Ist der Wunsch auf Erfahrungsaustausch unter Gleichgesinnten, aber so unverständlich?
Antwort von Jörg:
Ist der Wunsch auf Erfahrungsaustausch unter Gleichgesinnten, aber so unverständlich?
nöö, nur ist das Erfahrungspotential hier derartig groß, dass du viel zuviel Austausch erhalten wirst.
Bestätigst du dann, wenn du länger hier mitmachst.
Jotts tip die Erfahrungen selbst zu machen, dann die Ergebnisse zu diskutieren, ist schon goldrichtig...
Antwort von Jott:
Es erzählt dir doch sowieso jeder was anderes. Du kannst auch alle Posts der letzten zehn Jahre zu dem Thema durchlesen und bist dadurch trotzdem nicht schlauer.
Fakt ist: so viel Qualität für unglaublich wenig Geld wie heute gab es noch nie. Auch wenn manche immer noch jammern, aber die werden es immer tun und nie irgend etwas gebacken kriegen.
Antwort von rush:
"Seba Peh" hat geschrieben:
Meine Vermutung ist, dass ich, wenn ich alles richtig mache, mit jedem System zu guten Ergebnissen kommen kann.
Das ist der springende Punkt. Jedes System hat Vor als auch Nachteile und entsprechend muss bzw sollten man den Workflow anpassen.
Natürlich kann man das Signal einer DSLR per HDMI extern aufzeichnen - in einem wunderbaren 10bit 422 Container. Wenn die Kamera jedoch nur 8bit 420 ausgibt - erhält man im Endeffekt eher einen homöopathischen Mehrwert - und vor allem unnötig große Daten. Auch wenn man über die Sinnhaftigkeit dieser Methode sicher nach wie vor streiten kann. Ich fand das immer schräg
Wer im LOG Bereich unterwegs ist oder gern Mal an den Reglern schraubt sollte daher von vorn herein eher darauf achten eine möglichst hohe native Bit-Tiefe aufzuzeichnen zu können - idealerweise bei vernünftiger Unterabtastung.
Allerdings kann man auch mit 420 8bit i.d.R. sehr gut arbeiten ohne das man jenes Material auf den ersten Blick zwingend von 422 8bit visuell unterscheiden könnte.
Auch mit Mini DV und avchd wurden wunderbare Filmchen / Reportagen und Co gedreht... Macht heute halt kaum noch jemand weil es in der Tat rein technisch gesehen deutlich "Mehr" für das gleiche Geld gibt - sei es bei Panasonic mit der GHx Reihe über die neuen spiegellosen die endlich mehr als 8bit 420 ausgeben bishin zu BMD Kameras die RAW quasi dem Aldi-Prinzip der breiten Masse für wenig Geld ins Haus bringen.
Ob letzteres Deinen Film im Endeffekt besser macht sei Mal dahingestellt... Wenn die Story, Schauspieler und Inszenierung überzeugen und du technisch sauber arbeitest - ja dann kannst du mit allen Systemen gute Ergebnisse erzeugen. Alles andere macht die Erfahrung und gilt es individuell auszuprobieren.
Antwort von cantsin:
Man kann die Diskussion auch so abkürzen: Wenn man Log- oder HDR-Material drehen will, sollte man 10bit (oder mehr) haben.
8bit reicht für SDR, bei Kameras, die "out of the camera" gutes/gefälliges Material mit guten Farben liefern. Das konnten eine Zeitlang nur Semipro-Kameras wie die C100/C300, mittlerweile aber auch die aktuellen Prosumer- und Bridge-Kameras aller großen Hersteller (Canon, Sony, Fuji, Panasonic, Nikon).
Bei älteren Kameras wie z.B. der GH3 und A7s sind die Farben direkt aus der Kamera aus heutiger Sicht schlecht und werden die 8Bit daher zum Problem.
Antwort von Seba Peh:
Jörg hat geschrieben:
Jotts tip die Erfahrungen selbst zu machen, dann die Ergebnisse zu diskutieren, ist schon goldrichtig...
Na dann bis denn.. ;-)
Antwort von Frank Glencairn:
Ich hab's schon mal gesagt - die Kamera, der Codec, die Optik etc. spielen nur eine untergeordnete Rolle.
Entscheidend ist, was ihr VOR der Kamera macht.
Jedes Licht, jeder Butterfly, jeder Scrim, jede Flag, Set Design, Ausstattung, Kostüm etc hat einen viel höheren Einfluss auf euer Bild als Bittiefe oder Unterabtastung ( Story und Schauspiel sowieso, aber die lassen wir hier mal außen vor).
Die alte DP Weisheit: "To get great images, you have to point your camera at something great" ist immer noch gültig.
2019 ist die Kamera das letzte was euch ausbremst.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Ich habs schon ma gesagt - die Kamera, der Codec, die Optik etc. spielen nur eine untergeordnete Rolle.
Ach - nun hör doch auf mit diesen Phrasen.
Dann können wir ja auch unsere alten PAL-Videokameras wieder aus dem Schrank holen.
Und schneiden können wir dann mit 2 Videorekordern.
Es gibt keine untergeordnete Rolle. Jeder Bereich beeinflusst die Gestaltungs- und Ausdrucksmöglichkeiten.
Ein Film wie Birdman wäre ohne Raw und die Postpro nicht möglich gewesen.
Man muss sich die Frage stellen, ob man die Hersteller mit ihren technischen Beschneidungen gewähren lässt oder die Macht ausspielt, die man als Kunde hat:
Wenn ein Codec, der dem Stand der Technik entspricht, nicht geboten wird, dann kommuniziert man seine Erwartung und übt Kaufzurückhaltung.
Solange natürlich die Filmer sich mit 10 Bit 420 und 8Bit 422 abspeisen lassen, haben die Hersteller keinen Grund etwas ordentliches zu bieten.
10 Bit 422 könnten alle implementieren.
10 Bit 420 vs 8Bit 422?
Besser wäre 10 Bit 422 vs 10 Bit 420/8Bit 422!
Antwort von Jott:
Bla blubb ... auch Birdman wurde geleuchtet. Sogar recht aufwendig.
Die Macht ausspielen ist gut: einfach nichts kaufen, nichts filmen, und schon hat man‘s dem Herstellerpack mal so richtig gezeigt! :-)
Antwort von rush:
@ Frank... Grundsätzlich bin ich da ja auch voll bei Dir - allerdings betrachtest Du diesen Bereich aus einem zu engen Blickwinkel, genauer gesagt dem szenischen Blickwinkel wo in der Tat neben der Kamera soviele Bereiche mindestens genauso wichtig sind.
Doch gibt es eben nicht nur das szenische Setting sondern auch andere Bereiche in denen man nicht alles planen/inszenieren/üben kann - einerseits weil nicht alles vorhehbar ist und andererseits weil man aus Authentizitätsgründen je nach Produktionsformat nicht immer alles "stellen" möchte sondern im Dok/Reportage Bereich auch Mal Dinge vor der Kamera einfach passieren lässt. Dabei entstehen natürlich eher Mal kleinere Fehler in Hinblick auf unvorhergesehene Lichtwechsel etc pp... Mit einer Kamera die einen vernünftigen DR einfängt und dies idealerweise bei guter Abtastung und Bit-Tiefe wegschreibt hat man unter Umständen in der Post noch etwas Spielraum um Kleinigkeiten zu "fixen" - da kommt man bei 8bit Kameras dann schon eher Mal ins Straucheln.
Ich glaube auch das die Zeit der 8bit 420 Kameras nun langsam vorüber geht - nicht weil sie unbedingt schlecht sind sondern einfach weil technisch mehr möglich ist - Codecs wie h.255 sind extrem effizient und können mit entsprechender Hardware heute auch in 10bit aufgezeichnet werden.
Canons Raw Lite, Panasonics 10bit GHxen oder auch die RAW fähigen BMD's inkl braw haben den Weg bereitet und die Hersteller wollen und müssen da langsam mitspielen um nicht den Anschluss zu verlieren. Selbst Nikon hat das ja offenbar begriffen.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Ach - nun hör doch auf mit diesen Phrasen.
LOL - und gleich als nächsten Satz haust du ne fette Phrase raus
iasi hat geschrieben:
Dann können wir ja auch unsere alten PAL-Videokameras wieder aus dem Schrank holen.
Back on Topic:
iasi hat geschrieben:
Man muss sich die Frage stellen, ob man die Hersteller mit ihren technischen Beschneidungen gewähren lässt ..
Nichts & Niemand hält dich 2019 davon ab raw zu drehen, wenn du das möchtest.
Kameras dafür gibt's genug und für jedes Budget. Also was ist der Punkt?
Antwort von Frank Glencairn:
rush hat geschrieben:
Doch gibt es eben nicht nur das szenische Setting sondern auch andere Bereiche in denen man nicht alles planen/inszenieren/üben kann - einerseits weil nicht alles vorhehbar ist und andererseits weil man aus Authentizitätsgründen je nach Produktionsformat nicht immer alles "stellen" möchte sondern im Dok/Reportage Bereich auch Mal Dinge vor der Kamera einfach passieren lässt. Dabei entstehen natürlich eher Mal kleinere Fehler in Hinblick auf unvorhergesehene Lichtwechsel etc pp... Mit einer Kamera die einen vernünftigen DR einfängt und dies idealerweise bei guter Abtastung und Bit-Tiefe wegschreibt hat man unter Umständen in der Post noch etwas Spielraum um Kleinigkeiten zu "fixen" - da kommt man bei 8bit Kameras dann schon eher Mal ins Straucheln.
Ja, natürlich kann ein zwei Blenden mehr DR manchmal hilfreich sein, wenn man wenig Kontrolle über das Licht hat - mein Punkt ist, daß man trotzdem soviel Kontrolle wie irgendwie möglich über sein Licht haben sollte, statt einfach auf die Rettung der Lichter in der Post zu hoffen. Und das, obwohl ich seit zig Jahren ausschließlich raw drehe.
Ich hab gerade 3 Wochen in Afrika ne Arte-Doku gedreht, mit allen möglichen widrigen Bedingungen und Problemen die so eine Location mit sich bringt, aber Licht war zu keinem Zeitpunkt eines davon. Aber gut, ich mach natürlich auch keine Reportagen, bei denen ich irgendwelchen Leuten mit der Handkamera hinterher renne, und hoffe daß dabei irgendwas spannendes passiert.
Bei den Dokus die ich mache ist alles extrem gut durchgeplant und vorbereitet, da gibt's nur ganz selten irgendwelche außerplanmäßigen Überraschungen - das geht bei den Kosten die so ne Produktion verursacht auch gar nicht anders. Wir wissen lange vorher schon ganz genau, welche Geschichten wir erzählen wollen und welche Bilder wir dazu machen müssen.
Antwort von rush:
Wie gesagt - bei dieser Art von quasi geplanten Dokus ist die Herangehensweise ja auch eine andere... Du hast Produktioner und Stringer vor Ort, die Geschichten sind oft anrecherchiert oder gar komplett geplant usw.
Wenn man jedoch als Einzelkämpfer oder im 2er Team versucht interessante Themen zu beackern sind die Grundvoraussetzungen oftmals andere und man ist dann häufig wirklich nur "Gast" bzw. kann und will auch gar nicht weiter ins Geschehen eingreifen... Anderer Ansatz - aber nicht unspannend wie ich finde. Wirtschaftlich gesehen wiederum meist pervers unattraktiv.
In solchen Fällen ist aber bspw. komprimiertes RAW dann natürlich schon irgendwie auch ein Segen im Vergleich zu MiniDV oder dvcpro und diesem Gedöns ;-)
Technisch hat man heut die Möglichkeit dazu - on man sie nutzt ist dann eine andere Frage. Gute Tools gibt es ja mittlerweile genügend.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Ja, natürlich kann ein zwei Blenden mehr DR manchmal hilfreich sein, wenn man wenig Kontrolle über das Licht hat - mein Punkt ist, daß man trotzdem soviel Kontrolle wie irgendwie möglich über sein Licht haben sollte, statt einfach auf die Rettung der Lichter in der Post zu hoffen. Und das, obwohl ich seit zig Jahren ausschließlich raw drehe.
Also hier hast du"s ja mit Phrasen:
Rettung der Lichter in der Post
Als ob man Raw nur für Fix-it-in-Post nutzt.
Ich mach Aufnahmen in Hütten, die man nur mit Pferdewagen oder zu Fuß erreichen kann und wo es keinen Strom gibt.
Lichter musste ich aber nie in der Post retten.
Was hat denn eigentlich korrekte Belichtung mit dem Codec zu tun?
Und:
Mittlerweile bietet jede Kamera Histogramm und andere Hilfsmittel.
Hätte ich gar keinen Spielraum, wie bei 8bit, würde ich wahrscheinlich sogar noch mit dem Belichtungsmesser herumrennen, um später nicht im unteren Mittenbereich einen Bereich hochziehen zu müssen, um starken lokalen Kontrast zu vermeiden - und dabei dann etwas langziehe, das sich nicht ziehen lässt.
Raw bietet diesen Gestaltungsspielraum - und den kannst du in der Praxis auch mit aufwendigstem Ausleuchten nicht realisieren.
Antwort von Framerate25:
Hm, ums mal kurz zu machen. Erstens ne Kamera welche egal was, egal wann und egal wie alles einfängt, um nachher immer alle Optionen offen zu haben was mit den Clips passiert.
Oooder einfach sein „Werkzeug“ nach „geplanter“ Anforderung wählen.
Bei haudrauf und Nacht/nebelproduktionen kann ich nicht mitreden.
Allerdings haben Kunden immer den identisch gleichen Gesichtsausdruck, auf die Frage wie das Produkt nachher dastehen soll. (Ausgabe/Übergabe).
Davon haben, abgesehen der Sender, die allerwenigsten Ahnung von und freuen sich ein zweites Loch in den Hintern wenn sie ne 1080p Geschichte für ihre Präsentation bekommen welche ihren gewünscht Inhalten entspricht. (Scharf, farbig und sauber ausgearbeitet - INHALT).
...das wären meine Erfahrungen.
Wenn ich also ein Produkt in was auch immer ausliefere freut sich der Kunde natürlich, er weiß in 99,9% der Fälle nicht ob es 8 oder 10 Bit in der Bearbeitung waren. Und nu?
Sind wir genauso weit wie vorher. ;))
Dennoch ist klar, die Entwicklung geht weiter und ich würde 10bit immer den Vorzug geben, sollte der Anspruch darauf gelegt sein.
Edit: Fast vergessen...meine persönliche Vorliebe geht zu 8bit...wer wissen will warum, darf gerne Fragen. ;)
Antwort von Jörg:
Sind wir genauso weit wie vorher. ;))
nöö, wir wissen aber (fast) alle, dass es entscheidend ist, WAS wir verkaufen,
und nicht womit es gedreht, farbverbogen oder sonst welche Klimmzüge von
exaltierten Foristi als "unbedingt erforderlich" vorab definiert werden.
Antwort von Seba Peh:
iasi hat geschrieben:
10 Bit 420 vs 8Bit 422?
Besser wäre 10 Bit 422 vs 10 Bit 420/8Bit 422!
Das find ich ne gute Aussage.
Ich als Hobbyist hab jetzt halt klassische Nikon-Gläser und kein Geld für GH5-Objektive, so hab ich mir zur D7500 eine FZ2000 gegönnt, um in den Genuss von 10bit 4:2:2 zu kommen. Die hat nur ein festes, nicht ganz hochklassiges Objektiv, aber was da im Videoassist dann ankommt ist schon sehr in Ordnung.
Heute hab ich mir aber mal die Nikon zur Brust genommen und in der Gartenfauna rumprobiert. Erst mal war ich recht enttäuscht über matschigen Lavendel, den mir das Ding in HD intern und extern beschert hat. Als ich dann aber intern auf UHD ging (HDMI-Ausgang auf 1080p), kam in meinem (HD-)Video-Assist ein knackscharfes Bild an. Das ist dann DNxHD in 8bit 4:2:2.
Vielleicht müsste man jetzt titeln '10 Bit 422 vs 10 Bit 420/8Bit 422 mit inter- oder intraframe Kodierung' ;-)
Antwort von Seba Peh:
"Frank Glencairn" hat geschrieben:
Ich hab's schon mal gesagt - die Kamera, der Codec, die Optik etc. spielen nur eine untergeordnete Rolle.
Ich bin aber in der Natur unterwegs und nutze Makro, Tele und vielleicht auch mal Zeitlupe. Da muss man meiner Meinung nach schon schau'n, dass man im Kon-/Prosumerbereich was kriegt, dass auf nem grossen Schirm dann auch schön aussieht.
Antwort von Jott:
Dann nimm mal direkt in der Kamera UHD auf, vergiß deinen Video Assist und wirf DAS in eine HD-Timeline. Gerne mit DNxHD oder ProRes. Und?
Antwort von Frank Glencairn:
"Seba Peh" hat geschrieben:
Ich bin aber in der Natur unterwegs und nutze Makro, Tele und vielleicht auch mal Zeitlupe. Da muss man meiner Meinung nach schon schau'n, dass man im Kon-/Prosumerbereich was kriegt, dass auf nem grossen Schirm dann auch schön aussieht.
Auch in der Natur ist das was vor der Kamera ist, entscheidender als die Kamera.
Und natürlich hast du auch da Kontrolle über dein Bild.
- Motiv (selbstverständlich) - wenn das Motiv nix hergibt, hilft dir auch keine raw Kamera.
- Drehrichtung (Lichtrichtung) - macht einen enormen Unterschied.
- Sonnenstand (Uhrzeit) - ich drehe nach 10 und vor 6 im Sommer nicht grundsätzlich nicht im Freien.
- etc
Antwort von Seba Peh:
Jott hat geschrieben:
Dann nimm mal direkt in der Kamera UHD auf, vergiß deinen Video Assist und wirf DAS in eine HD-Timeline. Gerne mit DNxHD oder ProRes. Und?
In der D7500 wird's dann ja Interframe in 4:2:0 mit der halben Datenrate, aber ich werd's auf jeden Fall mal ausprobieren.
Antwort von Jott:
Datenrate und Bildqualität kann man nicht linear betrachten, eben wegen Inter- und Intraframe. Ängste vor datensparendem Long-Gop (Interframe) wurden vor 15 Jahren im Zuge eines Herstellerkrieges geschürt, aber das ist längs abgeschlossene Vergangenheit.
Du kannst bei der Nikon - glaube ich - gleichzeitig intern und extern aufnehmen. Damit ist der Vergleich einfach für das Ziel HD: intern 4K vs. Downscale-Aufnahme (HD) im Video Assist. Beides in der gleichen HD-Timeline vergleichen. Die gerne auf einen guten 10Bit-Codec stellen.
Es gab/gibt erbitterte Meinungskriege, wie gut sauberes Downscaling von 4K/UHD zu HD ist, wenn die Quelle "nur" 8Bit 4:2:0 und die HD-Timeline 10Bit (wichtig) und mindestens 4:2:2 ist (Beispiel: https://www.hdwarrior.co.uk/2015/10/08/ ... rry-green/). Die Kriege kann man sich sparen und einfach selber evaluieren.
Natürlich spielt bei so einem "Test" auch das technische Verhalten des verwendeten Schnittprogramms mit rein. Aber probier mal. Ist ein interessantes Thema. Und mit realistischem Hintergrund: in 4K+ drehen und das dann in HD/2K schneiden/bearbeiten ist absolut üblich, selbst in Hollywood.
Antwort von Seba Peh:
Jott hat geschrieben:
Natürlich spielt bei so einem „Test“ auch das technische Verhalten des verwendeten Schnittprogramms mit rein.
Mal sehn, wie das mit Premiere funzt.
Antwort von Seba Peh:
Jott hat geschrieben:
Datenrate und Bildqualität kann man nicht linear betrachten, eben wegen Inter- und Intraframe. Ängste vor datensparendem Long-Gop (Interframe) wurden vor 15 Jahren im Zuge eines Herstellerkrieges geschürt, aber das ist längs abgeschlossene Vergangenheit.
Du kannst bei der Nikon - glaube ich - gleichzeitig intern und extern aufnehmen. Damit ist der Vergleich einfach für das Ziel HD: intern 4K vs. Downscale-Aufnahme (HD) im Video Assist. Beides in der gleichen HD-Timeline vergleichen. Die gerne auf einen guten 10Bit-Codec stellen.
Es gab/gibt erbitterte Meinungskriege, wie gut sauberes Downscaling von 4K/UHD zu HD ist, wenn die Quelle "nur" 8Bit 4:2:0 und die HD-Timeline 10Bit (wichtig) und mindestens 4:2:2 ist (Beispiel: https://www.hdwarrior.co.uk/2015/10/08/ ... rry-green/). Die Kriege kann man sich sparen und einfach selber evaluieren.
Natürlich spielt bei so einem "Test" auch das technische Verhalten des verwendeten Schnittprogramms mit rein. Aber probier mal. Ist ein interessantes Thema. Und mit realistischem Hintergrund: in 4K+ drehen und das dann in HD/2K schneiden/bearbeiten ist absolut üblich, selbst in Hollywood.
Also die internen 4k der D7500 sehen über Premiere in HD auch Klasse aus, schenkt sich nichts. Nur mein alter i7 (4te Generation mit GTX970 und 16GB RAM) kommt bei der Bearbeitung ziemlich ins Schwitzen. Wenn ich mich fürs Schwitzen entscheide und den Video Assist mitschleppe, schneidet mein NLE wie Butter und ich hab echte 4:2:2.
Wie und ob das mit dem 10 bit erzeugen aus 4k mit Premiere geht ist mir nicht klar. Ich dachte eigentlich mal von Wowu einen Thread gelesen zu haben, in dem er nachvollziehbar erklärt, dass das prinzipiell keinen Sinn macht. War irgendwas mit Entweder-oder-Entscheidungen beim Downsampling, wo dann die zusätzlich vorhandenen Infos wieder zu Schätzwerten degradiert werden.
 |
Antwort von Jott:
wowu hatte nie so richtig verstanden, dass es um exaktes 4:1-Downsampling von UHD zu HD geht, also aus einem Viererblock an Pixels mach exakt eins. Und dieses eine kann jetzt natürlich viel mehr Farbwerte haben wegen der Durchschnittsbildung. Ich denke, dass Panasonic-Evangelist Barry Green da eher auf dem richtigen Dampfer war.
Aber wie gesagt, das wurde erbittert im Web ausdiskutiert. Soll jeder denken, was er will. Und vielleicht neben den theoretischen Überlegungen auch mal ganz praktisch gucken.
Ansonsten: klemmt der Rechner, ist er halt zu langsam für die verwendete Software. Eigentlich sollte UHD in HD-Timeline flutschen, das ist höchst üblich.
Antwort von iasi:
Jott hat geschrieben:
wowu hatte nie so richtig verstanden, dass es um exaktes 4:1-Downsampling von UHD zu HD geht, also aus einem Viererblock an Pixels mach exakt eins. Und dieses eine kann jetzt natürlich viel mehr Farbwerte haben wegen der Durchschnittsbildung. Ich denke, dass Panasonic-Evangelist Barry Green da eher auf dem richtigen Dampfer war.
Das ist dann wohl echtes Fix-it-in-Post.
Weil"s bei der Aufnahme nicht zu etwas Besserem reicht, muss eben in der Post getrickst und gerechnet werden.
Die Nikon Z6 kann doch via HDMI 10bit 4:2:2 ausgeben. Also warum nicht einen ordentlichen Rekorder dran und das bestmögliche Signal aufzeichnen?
Antwort von srone:
Jott hat geschrieben:
wowu hatte nie so richtig verstanden, dass es um exaktes 4:1-Downsampling von UHD zu HD geht, also aus einem Viererblock an Pixels mach exakt eins. Und dieses eine kann jetzt natürlich viel mehr Farbwerte haben wegen der Durchschnittsbildung.
das kanns es, da gebe ich dir recht, aber es ist eben eine "falschfarbe".
ein beispiel, ein draht vor einem hellblauen himmel, unteres linkes pivel des vierer blocks schwarz die restlichen 3 pixel hellblau. ergebnis ein dunkleres blau, dass es so in der realität nicht gab.
wer damit leben kann ok, wer es lieber genau will, die reale abbildung sucht (eben so wie wowu), der empfindet sowas als einen fehler.
lg
srone
Antwort von Jott:
Für wowu war alles und jedes grundsätzlich ein Fehler oder untauglich. Außer 720p aus einer HPX300, warum auch immer.
Antwort von Jörg:
warum auch immer.
weil er Physiker ist, hohen Anspruch an sein Werk hat, einfach keine larifari Vermutungen, und
Besserwissereien duldet.
Ganz einfach.
Einer der Abgänge hier, die schmerzen.
Antwort von Jott:
iasi hat geschrieben:
Das ist dann wohl echtes Fix-it-in-Post.
Weil"s bei der Aufnahme nicht zu etwas Besserem reicht, muss eben in der Post getrickst und gerechnet werden.
Die Nikon Z6 kann doch via HDMI 10bit 4:2:2 ausgeben. Also warum nicht einen ordentlichen Rekorder dran und das bestmögliche Signal aufzeichnen?
Getrickst und gerechnet wird da gar nichts, man legt nur UHD-Material in eine HD-Timeline. Ein ganz normaler alltäglicher Vorgang ohne jeden Geheimtrick.
Die Frage im Hintergrund: wenn HD das Ziel ist - und eben kein UHD-Master - wozu das Gefummel mit externem Recorder, wenn man keinen Unterschied sieht? Nur darum geht es.
Die Antwort muss und darf sich jeder selber geben.
Ist das Ziel tatsächlich ein 4k/UHD-Master, wozu auch immer, dann ist das natürlich ein völlig anderes Thema. Bitte nicht durcheinander bringen wie so viele Diskutanten.
Antwort von iasi:
Jott hat geschrieben:
iasi hat geschrieben:
Das ist dann wohl echtes Fix-it-in-Post.
Weil"s bei der Aufnahme nicht zu etwas Besserem reicht, muss eben in der Post getrickst und gerechnet werden.
Die Nikon Z6 kann doch via HDMI 10bit 4:2:2 ausgeben. Also warum nicht einen ordentlichen Rekorder dran und das bestmögliche Signal aufzeichnen?
Die Frage im Hintergrund: wenn HD das Ziel ist - und eben kein UHD-Master - wozu das Gefummel mit externem Recorder, wenn man keinen Unterschied sieht?
Ist das so?
Nicht immer einen Bereich ausblenden: Die Gestaltungsmöglichkeiten in der Post.
UHD 10bit 4:2:2 bietet hier eben nun einmal mehr, als beschnittenes UHD 10bit 4:2:0 oder 8bit 4:2:2 - auch wenn HD das Ziel ist.
Alle reden immer von cinematischem Look, dazu gehört dann eben, dass man die Ausdrucksmittel von Film nutzt - eben auch die "Filmentwicklung", heute also die enormen Post-Möglichkeiten.
Antwort von Jott:
Okay, du willst bewusst alles durcheinander bringen. Darfst du.
Kann jeder glauben oder nicht: sauber geleuchter Green Screen mit Personen und feinen Härchen klappt genauso gut ab UHD 10Bit 4:2:2 (FS7) wie ab UHD 8Bit 4:2:0 (FS5) - in einer HD 10Bit 4:2:2-Timeline (fcp x). Also nicht etwa vorher skaliert, sondern „live“ im NLE, wo trotz HD-Timeline immer auf das UHD-Originalmaterial zugegriffen wird. Neulich für ein Projekt ausprobiert, da neugieriger Praktiker statt Theoretiker bzw. Dogmatiker. Wer daran zweifelt, den kann und will ich nicht davon abhalten. Wozu? Alles gut. Vielleicht taugt‘s aber für den einen oder anderen als Denkanstoß.
Antwort von motiongroup:
Jörg hat geschrieben:
warum auch immer.
weil er Physiker ist, hohen Anspruch an sein Werk hat, einfach keine larifari Vermutungen, und
Besserwissereien duldet.
Ganz einfach.
Einer der Abgänge hier, die schmerzen.
warum Abgang?
Antwort von Jörg:
nenn es Zurückhaltung, 5 Beiträge in diesem Jahr sind nicht sein level.
Antwort von motiongroup:
hmm da gehts ihm wie mir... schnauze voll na und irgendwann ist die Luft eben draußen.. ich kann ihn verstehen.. bei manchen wunderts mich och das sie überhaupt noch zeit haben zum filmen oder einer regulären arbeit nachzugehen
Antwort von Seba Peh:
Jott hat geschrieben:
Die Frage im Hintergrund: wenn HD das Ziel ist - und eben kein UHD-Master - wozu das Gefummel mit externem Recorder, wenn man keinen Unterschied sieht? Nur darum geht es.
Die Antwort muss und darf sich jeder selber geben.
Ich war halt vom in der Kamera downgescalten 4K-Signal am HD-Video-Assist echt sehr positiv überrascht. Und dieses DNxHD-Signal mit Intraframes, hoher Datenrate und 4:2:2 lässt sich am Mittelklasse-PC mit Premiere CC richtig gut bearbeiten. Besser als internes 4K-Long-GOP, dass dann nachdem einige Effekte draufliegen wirklich Performance braucht und eigentlich nur auf 4:2:0 fusst.
Wenn mir aber jemand Tipps geben kann, wie ich das interne 4K-Material der D7500 mit Premiere (oder Resolve) zu 10bit 4:2:2/4:4:4 machen kann, würd' ich das auch versuchen. Im Netz habe ich auf die schnelle nur mehrfach die Info gefunden, dass das geht aber sehr komplex ist und man nichts falsch machen darf ;-/
Antwort von Jott:
Im Netz - nämlich hier weiter oben - steht auch: einfach in eine entsprechende Timeline werfen. Würde ich jetzt nicht unbedingt als komplex bezeichnen.
Aber ich denke, der Groschen fällt nicht, daher gerne den DNxHD-Weg gehen mit externem Hardware-Aufwand. Braucht in der Tat weniger Rechenpower.
Antwort von Seba Peh:
Jott hat geschrieben:
Im Netz - nämlich hier weiter oben - steht auch: einfach in eine entsprechende Timeline werfen. Würde ich jetzt nicht unbedingt als komplex bezeichnen.
Aber ich denke, der Groschen fällt nicht, daher gerne den DNxHD-Weg gehen mit externem Hardware-Aufwand. Braucht in der Tat weniger Rechenpower.
So viel zum Thema Groschen:
https://dgarygrady.com/2016/06/04/conve ... uhd-to-hd/
Antwort von Jott:
Er macht einen in dieser Diskussion gängigen Denkfehler. Alles schon gehabt, alles schon rund um die Welt durchexerziert. Bitte nicht noch mal.
Antwort von Seba Peh:
Jott hat geschrieben:
Er macht einen in dieser Diskussion gängigen Denkfehler. Alles schon gehabt, alles schon rund um die Welt durchexerziert. Bitte nicht noch mal.
Kannst Du mir vielleicht trotzdem mit ein paar Links helfen, mit Erklärungen, die diesen Denkfehler aufdecken oder nachvollziehbar beschreiben, wie die zusätzlichen Abstufungen für 10bit sinnvoll gefüllt werden? Kann verstehen, dass diese Geschichte für viele ein alter Hut ist (oder vielleicht auch ein rotes Tuch ;-) Nichts für ungut..
P. S. : Da ich z. Zt. unterwegs bin kann ich das Verfahren grad nicht testen. Vielleicht bringt es ja eine Verbesserung, auch wenn die neuen Werte nicht 'korrekt' sind.
Antwort von Seba Peh:
Hab mir grad mal die Slashcam-Diskussion von 2014 durchgelesen.. Uiuiuiuiuiuiui.. 'bin dann mal weg.. falls mich jemand sucht, ich begebe mich jetzt lieber mal in die Praxis ;-)
@Jott
Bin jetzt wieder näher bei Dir ;-)
Antwort von dienstag_01:
Ich würde das mal so zusammenfassen:
- 4K nach HD von 8 nach 10bit macht für die Weiterverarbeitung Sinn (weil beim Downscaling Werte außerhalb des 8bit Rasters entstehen können, mit 10bit ist man da genauer).
- Dieses beim Downscaling entstandene 10bit Signal hat nichts mit einer Aufnahme in 10bit zu tun. (Srone hat da ein einfach zu verstehendes Beispiel gebracht.)
Mehr ist da gar nicht zu sagen ;)
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
Srone hat da ein einfach zu verstehendes Beispiel gebracht.
Bin doch noch nicht ganz in die Praxis verschwunden.. Was war das für ein Beispiel?
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
dienstag_01 hat geschrieben:
Srone hat da ein einfach zu verstehendes Beispiel gebracht.
Bin doch noch nicht ganz in die Praxis verschwunden.. Was war das für ein Beispiel?
Seite 4, ganz unten.
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
"Seba Peh" hat geschrieben:
Bin doch noch nicht ganz in die Praxis verschwunden.. Was war das für ein Beispiel?
Seite 4, ganz unten.
Danke.. das mit dem Draht vor blauem Himmel.. ist das anschaulichste Beispiel, das ich gelesen habe. Diesen Fehler nimmt man dann wohl aber in Kauf um bessere Verläufe darstellen zu können.
Und solche Ungenauigkeiten würde es bei Downscaling ohne 10bit ja sicher auch geben.. ich glaub der Groschen ist gefallen ;-)
Ist nur krass, was darüber für Kriege geführt wurden..
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
dienstag_01 hat geschrieben:
Seite 4, ganz unten.
Danke.. das mit dem Draht vor blauem Himmel.. ist das anschaulichste Beispiel, das ich gelesen habe. Diesen Fehler nimmt man dann wohl aber in Kauf um bessere Verläufe darstellen zu können.
Und solche Ungenauigkeiten würde es bei Downscaling ohne 10bit ja sicher auch geben.. ich glaub der Groschen ist gefallen ;-)
Ist nur krass, was darüber für Kriege geführt wurden..
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Schon dieser einfachen Erkenntnis ist hier nicht jedermann gewachsen ;)
Antwort von Frank B.:
srone hat geschrieben:
Jott hat geschrieben:
wowu hatte nie so richtig verstanden, dass es um exaktes 4:1-Downsampling von UHD zu HD geht, also aus einem Viererblock an Pixels mach exakt eins. Und dieses eine kann jetzt natürlich viel mehr Farbwerte haben wegen der Durchschnittsbildung.
das kanns es, da gebe ich dir recht, aber es ist eben eine "falschfarbe".
ein beispiel, ein draht vor einem hellblauen himmel, unteres linkes pivel des vierer blocks schwarz die restlichen 3 pixel hellblau. ergebnis ein dunkleres blau, dass es so in der realität nicht gab.
wer damit leben kann ok, wer es lieber genau will, die reale abbildung sucht (eben so wie wowu), der empfindet sowas als einen fehler.
lg
srone
Ich habe hier nicht alles gelesen, trotzdem mal eine Anmerkung zu deiner Aussage, so wie ich es als Laie verstehe:
Wie soll man das sonst machen, dass man die vier Farbwerte von vier Pixeln auf ein Pixel bringt? Für mich ist das keine Frage der Falschfarbe, sondern eine Frage des Detailverlustes, aus dem sich die Reduktion der Farbdetails ergibt. Du kannst das Ganze ja auch solange fortsetzen, bis du nur noch ein Pixel hast und das birgt dann den Durchschnittsfarbwert des gesamten Bildes in 4K in sich. Das ist dann keine Falschfarbe, sondern einfach nur eine Farbfläche, die sich aus allen Farbabstufungen zusammenrechnet und keine Detailstruktur mehr hat. Wenn man davon ausginge, dass man die vier Pixel der ursprünglichen 4K Aufnahme sowieso nur als ein Pixel wahrnehmen könnte (physikalisches Auflösungsvermögen des Auges), dann sieht man auch den einen schwarzen Punkt in drei hellblauen nicht. Das Ganze wird dann eh als Farbgemisch wahrgenommen und zwar auch aus allen anderen den schwarzen Punkt umgebenden Punkten. Von daher wird diese Abgenzung sowieso auch hier als etwas dunkleres Blau wahrgenommen werden. Es ist also für mich nicht die Frage der Falschfarbendarstellung sondern die Frage, bis wohin es sich lohnt, ein Bild in der Luminanzauflösung einzudampfen, dass es noch genauso detailiert wahrgenommen werden kann wie das Origninal.
dienstag_01 hat geschrieben:
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Schon dieser einfachen Erkenntnis ist hier nicht jedermann gewachsen ;)
So würde ich das auch sehen. Eben mit der Ergänzung, dass es eher schädlich ist Luminanzauflösung zu verlieren, also nur noch FHD statt 4K zu haben, weil man damit auch Farbdifferenzierungen verliert. Bis zu dem Punkt aber, bei dem man eh keinen Unterschied beim Luminanzauflösungsverlust sieht, dürfte es aber egal sein.
Antwort von dienstag_01:
"Frank B." hat geschrieben:
srone hat geschrieben:
das kanns es, da gebe ich dir recht, aber es ist eben eine "falschfarbe".
ein beispiel, ein draht vor einem hellblauen himmel, unteres linkes pivel des vierer blocks schwarz die restlichen 3 pixel hellblau. ergebnis ein dunkleres blau, dass es so in der realität nicht gab.
wer damit leben kann ok, wer es lieber genau will, die reale abbildung sucht (eben so wie wowu), der empfindet sowas als einen fehler.
lg
srone
Ich habe hier nicht alles gelesen, trotzdem mal eine Anmerkung zu deiner Aussage, so wie ich es als Laie verstehe:
Wie soll man das sonst machen, dass man die vier Farbwerte von vier Pixeln auf ein Pixel bringt? Für mich ist das keine Frage der Falschfarbe, sondern eine Frage des Detailverlustes, aus dem sich die Reduktion der Farbdetails ergibt. Du kannst das Ganze ja auch solange fortsetzen, bis du nur noch ein Pixel hast und das birgt dann den Durchschnittsfarbwert des gesamten Bildes in 4K in sich. Das ist dann keine Falschfarbe, sondern einfach nur eine Farbfläche, die sich aus allen Farbabstufungen zusammenrechnet und keine Detailstruktur mehr hat. Wenn man davon ausginge, dass man die vier Pixel der ursprünglichen 4K Aufnahme sowieso nur als ein Pixel wahrnehmen könnte (physikalisches Auflösungsvermögen des Auges), dann sieht man auch den einen schwarzen Punkt in drei hellblauen nicht. Das Ganze wird dann eh als Farbgemisch wahrgenommen und zwar auch aus allen anderen den schwarzen Punkt umgebenden Punkten. Von daher wird diese Abgenzung sowieso auch hier als etwas dunkleres Blau wahrgenommen werden. Es ist also für mich nicht die Frage der Falschfarbendarstellung sondern die Frage, bis wohin es sich lohnt, ein Bild in der Luminanzauflösung einzudampfen, dass es noch genauso detailiert wahrgenommen werden kann wie das Origninal.
dienstag_01 hat geschrieben:
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Schon dieser einfachen Erkenntnis ist hier nicht jedermann gewachsen ;)
So würde ich das auch sehen. Eben mit der Ergänzung, dass es eher schädlich ist Luminanzauflösung zu verlieren, also nur noch FHD statt 4K zu haben, weil man damit auch Farbdifferenzierungen verliert. Bis zu dem Punkt aber, bei dem man eh keinen Unterschied beim Luminanzauflösungsverlust sieht, dürfte es aber egal sein.
So ist es. Downscaling ist immer Informationsverlust.
(Bezeichnend hierzu fand ich die Aussagen der User, die sich mit Keying auskennen. Bei der Frage nach original 8bit 4k gegenüber downconverted 10bit HD (für die Ausgabe in HD) würden sie immer zum originalen 8bit greifen.)
 |
Antwort von Jott:
Und genau so muss es auch laufen im NLE, wie oben geschrieben. Der Zugriff auf das Original-4K-Material beim Schneiden in einer HD-Timeline muss natürlich gegeben sein.
Antwort von Cinealta 81:
"Seba Peh" hat geschrieben:
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Genau DAS. Um es noch präziser auszudrücken: "keine ZUSÄTZLICHEN Informationen". 8bit bedeutet halt 256 darstellbare Farben. 4 Pixel --> 1 Pixel bedeutet nicht 10 bit. Woher sollen die Informationen hierfür urplötzlich herkommen? 10bit bedeutet 1024 darstellbare Farben.
8bit 4k in einer FHD Timeline KANN NICHT 10bit werden - weil es die Informationen für 10bit gar nicht gibt. Dass durch das "Von-4-mach-1" der Editiervorgang hinsichtlich Farbartefakte möglicherweise "smoother" verläuft, könnte zutreffen. Das 10bit-Märchen nicht. Auch wenn man hierzu 1.000 Links als "Beweis" aufführt. Wenn 1.000 Mann Unsinn behaupten, dann wird die Behauptung nicht zur Wahrheit.
Oder haben sämtliche (verwirrte) Nostradamus-Verschwörungstheoretiker Wissenschaftler-Status?
Wenn man 4 Wodka-Falschen mit jeweils 40% Alkoholgehalt mischt, wird nur der Geschmack des Endproduktes anders. Es sind und bleiben 40% Alkoholgehalt.
--> ...zwar zum Leidwesen vieler Wodkatrinker, denen eine Summation lieber wäre, aber der Alkohol wird nicht mehr... <--
Bitte zu bedenken, dass - aus eigener Erfahrung - 4k 4.2.0 in einer FHD 10bit Timeline tatsächlich weniger Müll bei der Ausgabe produziert. Aber nicht wegen der 10bit-Legende.
Antwort von mash_gh4:
wie üblich wird hier wieder der umstand ausgeklammert, dass das 8bit ausgangsmaterial in vielen fällen durch 'dithering' in der kamera bereits in einer weise aufbereitet wurde, die detailierte farbabstufungen, wenn auch nur mit geringer spatialer auflösung, ermöglicht. dieser umstand macht sich natürlich auch beim skalieren deutlich bemerkbar.
Antwort von dienstag_01:
"Cinealta 81" hat geschrieben:
"Seba Peh" hat geschrieben:
Man muss sich nur eins immer wieder klarmachen: beim Downscaling werden keine Informationen gewonnen, die vorhandenen werden nur anders aufbereitet.
Genau DAS. Um es noch präziser auszudrücken: "keine ZUSÄTZLICHEN Informationen". 8bit bedeutet halt 256 darstellbare Farben. 4 Pixel --> 1 Pixel bedeutet nicht 10 bit. Woher sollen die Informationen hierfür urplötzlich herkommen? 10bit bedeutet 1024 darstellbare Farben.
8bit 4k in einer FHD Timeline KANN NICHT 10bit werden - weil es die Informationen für 10bit gar nicht gibt. Dass durch das "Von-4-mach-1" der Editiervorgang hinsichtlich Farbartefakte möglicherweise "smoother" verläuft, könnte zutreffen. Das 10bit-Märchen nicht. Auch wenn man hierzu 1.000 Links als "Beweis" aufführt. Wenn 1.000 Mann Unsinn behaupten, dann wird die Behauptung nicht zur Wahrheit.
Oder haben sämtliche (verwirrte) Nostradamus-Verschwörungstheoretiker Wissenschaftler-Status?
Wenn man 4 Wodka-Falschen mit jeweils 40% Alkoholgehalt mischt, wird nur der Geschmack des Endproduktes anders. Es sind und bleiben 40% Alkoholgehalt.
--> ...zwar zum Leidwesen vieler Wodkatrinker, denen eine Summation lieber wäre, aber der Alkohol wird nicht mehr... <--
Bitte zu bedenken, dass - aus eigener Erfahrung - 4k 4.2.0 in einer FHD 10bit Timeline tatsächlich weniger Müll bei der Ausgabe produziert. Aber nicht wegen der 10bit-Legende.
Warum werden Effekte und Farbkorrekturen am besten in 32bit Floating Point berechnet, auch bei 8bit Ausgangsmaterial? Weil natürlich Ergebnisse entstehen können, die außerhalb das 8bit Rasters liegen, vor allem bei mehreren Effekten übereinander (Stichwort Rundungsfehler). Es werden also die einzelnen Zwischenergebnisse pro Node oder nach jedem Effekt in 32bit FP gespeichert. (Zum Schluss wird das wieder in 8bit umgewandelt.)
Nach deinen Ausführungen müsste das die größte Idiotie wo gibt sein. Bleib lieber beim Wodka ;)
 |
Antwort von Cinealta 81:
mash_gh4 hat geschrieben:
wie üblich wird hier wieder der umstand ausgeklammert, dass das 8bit ausgangsmaterial in vielen fällen durch 'dithering' in der kamera bereits in einer weise aufbereitet wurde, die detailierte farbabstufungen, wenn auch nur mit geringer spatialer auflösung, ermöglicht. dieser umstand macht sich natürlich auch beim skalieren deutlich bemerkbar.
Das kommt noch erschwerend hinzu. "Aufbereitet" würde ich aber eher zu kaputtkomprimiert/kaputtinterprätiert umwandeln.
Antwort von Cinealta 81:
mash_gh4 hat geschrieben:
Nach deinen Ausführungen müsste das die größte Idiotie wo gibt sein. Bleib lieber beim Wodka ;)
Immer locker bleiben. Ich wiederhole mich nur ungern, aber Unsinn wird auch durch ständige Wiederholung nicht wahr. ;-)
Es ist schon merkwürdig: Die Menschen glauben zunehmend an Magie - NLE macht aus 256 urplötzlich 1024. Es gibt keine Magier, es gibt Illusionisten. Und deren Masche besteht darin, vom faktisch Wesentlichen abzulenken - um "Magie" anzuwenden.
Antwort von mash_gh4:
"Cinealta 81" hat geschrieben:
mash_gh4 hat geschrieben:
wie üblich wird hier wieder der umstand ausgeklammert, dass das 8bit ausgangsmaterial in vielen fällen durch 'dithering' in der kamera bereits in einer weise aufbereitet wurde, die detailierte farbabstufungen, wenn auch nur mit geringer spatialer auflösung, ermöglicht. dieser umstand macht sich natürlich auch beim skalieren deutlich bemerkbar.
Das kommt noch erschwerend hinzu. "Aufbereitet" würde ich aber eher zu kaputtkomprimiert/kaputtinterprätiert umwandeln.
nein -- dem dithering ist es zu verdanken, dass man bei guten kameras auch im falle von 8bit material praktisch kaum mehr mit banding artifakten konfrontiert ist, während das mit deutlich professionellerem ausgangsmaterial, wenn es ohne entsprechende vorkehrungen abschließend in 8bit ausgeliefert, übertragen oder angezeigt wird, leider sehr oft der fall ist. leider ist fast alle post-produktions-software in dieser hinsicht den entsprechenden lösungen in den kameras deutlich unterlegen.
Antwort von dienstag_01:
"Cinealta 81" hat geschrieben:
mash_gh4 hat geschrieben:
Nach deinen Ausführungen müsste das die größte Idiotie wo gibt sein. Bleib lieber beim Wodka ;)
Immer locker bleiben. Ich wiederhole mich nur ungern, aber Unsinn wird auch durch ständige Wiederholung nicht wahr. ;-)
Es ist schon merkwürdig: Die Menschen glauben zunehmend an Magie - NLE macht aus 256 urplötzlich 1024. Es gibt keine Magier, es gibt Illusionisten. Und deren Masche besteht darin, vom faktisch Wesentlichen abzulenken - um "Magie" anzuwenden.
Wenn du NLEs, die in 32bit FP rechnen als magisch bezeichnen willst, bitte. Für andere ist das simpelste Mathematik ;)
Antwort von Cinealta 81:
dienstag_01 hat geschrieben:
Wenn du NLEs, die in 32bit FP rechnen als magisch bezeichnen willst, bitte. Für andere ist das simpelste Mathematik ;)
Was eine NLE macht ist (bezogen auf diesen Diskussionspunkt) unerheblich. Erheblich ist die Aufnahme in 8bit. Und DIESE enthält Farbinformationen für lediglich 256 Farben. Und da kann sich die NLE "verrenken" wie sie will, die Infos für 10bit (1024) sind einfach nicht da. Wie und Was eine NLE in vorhandenem Material rechnet und interpretiert, ändert NICHTS an der Tatsache, dass eine erhebliche Lücke zw. 8bit- und 10bit-Farbinfos klafft.
Keine Frage, gute Software und/oder AI werden die Lücken (zumindest wahrnehmungstechnisch) zunehmend schließen. Aber nicht vorhandene Information ist einfach...nicht vorhanden. Der Rest ist Interpretation - mehr oder weniger akkurat.
8bit und 10bit sind ganz genau definiert. Da gibt es keinen Raum für Interpretation. Es sind Zahlen.
Antwort von Jott:
Dennoch Denkfehler. Daher „Krieg“. Echt immer noch? So soll es sein.
Antwort von dienstag_01:
"Cinealta 81" hat geschrieben:
dienstag_01 hat geschrieben:
Wenn du NLEs, die in 32bit FP rechnen als magisch bezeichnen willst, bitte. Für andere ist das simpelste Mathematik ;)
Was eine NLE macht ist (bezogen auf diesen Diskussionspunkt) unerheblich. Erheblich ist die Aufnahme in 8bit. Und DIESE enthält Farbinformationen für lediglich 256 Farben. Und da kann sich die NLE "verrenken" wie sie will, die Infos für 10bit (1024) sind einfach nicht da. Wie und Was eine NLE in vorhandenem Material rechnet und interpretiert, ändert NICHTS an der Tatsache, dass eine erhebliche Lücke zw. 8bit- und 10bit-Farbinfos klafft.
Keine Frage, gute Software und/oder AI werden die Lücken (zumindest wahrnehmungstechnisch) zunehmend schließen. Aber nicht vorhandene Information ist einfach...nicht vorhanden. Der Rest ist Interpretation - mehr oder weniger akkurat.
8bit und 10bit sind ganz genau definiert. Da gibt es keinen Raum für Interpretation. Es sind Zahlen.
Dir fehlt augenscheinlich jede Lesekompetenz.
Genau wie ein NLE seine Berechnungsergebnisse in 32bit FP speichert (und nicht in 8bit), macht es Sinn, 4k 8bit beim Downscaling nach HD nicht in 8, sondern in 10bit zu speichern. Das sind nicht die 10bit einer 10bit Aufnahme, da interpoliert, aber genauer, als 8bit.
Das ist einfach so, egal, ob du das verstehst oder nicht ;)
Antwort von Cinealta 81:
Jott hat geschrieben:
Das sind nicht die 10bit einer 10bit Aufnahme, da interpoliert, aber genauer, als 8bit.
Der Magier-Trick. Mit Wortklauberei vom Wesentlichen ablenken: Sie sagen doch selbst "Das sind nicht die 10bit einer 10bit Aufnahme" und mir nachher mangelnde Lesekompetenz vorzuhalten...sauber. ;-)
Es tut allgemein nichts zur Sache, aber ich habe einen nicht schlechten Hochschulabschluss in Elektrotechnik und habe einige Jahre in der Optoelektronik-Branche gearbeitet. Aber damals waren Zahlen noch Zahlen und Axiome Axiome. "Beweise" mittels kaskadierender Verlinkung von einer beliebigen/unreflektierten Behauptung zur anderen (immer abstruser werdend), waren zu meiner aktiven Studienzeit und anschließender Ingenieurtätigkeit nicht das Mittel der Wahl. Dafür wäre man gefeuert worden. Damals...
Ich sage es doch: Fakten und Zahlen sind out, "magical moments" und "creative interpretation" sind in. :-)
Wie heutzutage üblich, eine reine Glaubensfrage - meint man.
Antwort von Jott:
Falsch zitiert - bringt keinen um, aber gerne drauf achten. Besonders, wenn der Ton mal wieder rauer wird!
Antwort von Framerate25:
Ich wäre dafür das der Ton friedlich und sachlich bleibt.
Wenn ich 8bit aufzeichne und nachher bearbeite, bleibt zur Grundlage der Berechnung die 8bit Basis. Alle Prozesse dahinter sind redundant durch die Software.
Also, als nicht ausschlaggebend zu werten.
Antwort von dienstag_01:
"Cinealta 81" hat geschrieben:
Jott hat geschrieben:
Das sind nicht die 10bit einer 10bit Aufnahme, da interpoliert, aber genauer, als 8bit.
Der Magier-Trick. Mit Wortklauberei vom Wesentlichen ablenken: Sie sagen doch selbst "Das sind nicht die 10bit einer 10bit Aufnahme" und mir nachher mangelnde Lesekompetenz vorzuhalten...sauber. ;-)
Es tut allgemein nichts zur Sache, aber ich habe einen nicht schlechten Hochschulabschluss in Elektrotechnik und habe einige Jahre in der Optoelektronik-Branche gearbeitet. Aber damals waren Zahlen noch Zahlen und Axiome Axiome. "Beweise" mittels kaskadierender Verlinkung von einer beliebigen/unreflektierten Behauptung zur anderen (immer abstruser werdend), waren zu meiner aktiven Studienzeit und anschließender Ingenieurtätigkeit nicht das Mittel der Wahl. Dafür wäre man gefeuert worden. Damals...
Ich sage es doch: Fakten und Zahlen sind out, "magical moments" und "creative interpretation" sind in. :-)
Wie heutzutage üblich, eine reine Glaubensfrage - meint man.
Zahlen?
Ich habe Zahlen in 2bit. Kann also genau 4 Werte darstellen: 0, 1, 2, 3. Jetzt rechne ich in 2bit 3 geteilt durch 2. Das Ergebnis bekomme ich in 2bit nur gerundet gespeichert. Wenn ich das Ergebnis in einen größeren Zahlenraum überführe (hier reichen schon 3bit), habe ich das Problem nicht. (In der Praxis wird man trotzdem oft runden müssen, ist dann aber viel näher am eigentlichen Ergebnis.)
Ja, Zahlen und Fakten ;)
 |
Antwort von Jörg:
seht Ihr, und jetzt fehlt mir Wowu....
Antwort von dienstag_01:
Jörg hat geschrieben:
seht Ihr, und jetzt fehlt mir Wowu....
Wowu würde nichts anderes sagen, behaupte ich mal: Wenn ich runterkonvertieren will, ist das 10bit File besser als das 8bit File. Aber auch das 10bit File ist nicht so gut wie das Original.
Antwort von Framerate25:
Hier mal:
Quelle: https://dgarygrady.com/2016/06/04/conve ... uhd-to-hd/
daraus:
The 4:4:4 part is easy. UHD video shot with 4:2:0 chroma subsampling has 1920 by 1080 chroma measurements per image, which is exactly what you get with HD video and 4:4:4 chroma. So this part of the claim is obviously true: Converting UHD with 4:2:0 chroma to HD should indeed lead to 4:4:4, unless the conversion throws away the extra information. Of course, it might well do that, especially when finally exported into a distribution format, but if your editing and effects software and your computer hardware can handle 4:4:4, there's no reason not to use it.
The 8-bit to 10-bit business is a little more complicated. Each HD pixel corresponds to a 4 by 4 array of UHD pixels, so to get each HD luma value we would combine the four 8-bit UHD values. But to record that result without any loss of information, we would need to use a 10-bit number (computed by simply summing the four 8-bit samples, in fact). So at least with respect to luma, there is definitely something to be said for the claim of ending up with 10-bit samples.
On the other hand, suppose the luma is uniform across the four UHD pixels. Then since the UHD pixels we're starting with are 8-bit pixels, they can each register only one of the 256 possible values for an 8-bit image. Adding those four identical luma values together isn't going to get any gradations between those values. You can get a 10-bit number all right, but the last two bits of the sum will be 00. (If it's not obvious why, it's because you're in effect multiplying the 8-bit value by 4, which in binary is 100, and just as when multiplying by 100 in decimal arithmetic, the result ends in 00.)
On the other hand, if there's a gradual gradation in brightness across the area, which there often will be, you would probably end up with 10-bit luma numbers that aren't just padded 8-bit numbers. That means that using 10-bit samples for luma is likely preserving some information, even it's not exactly identical to what you'd get from shooting 10-bit video to start with.
Finally, since with 8-bit 4:2:0 UHD there is only one chroma sample for each four pixels, the chroma samples after conversion are essentially what you'd get from a camera with 8-bit 4:4:4 chroma. So while you do wind up with more spatial chroma resolution, you're not really getting any more in the way of subtle gradations in color as opposed to brightness. Each pixel is still going to be limited to 256 possible values each for "redness" and "blueness," even if you pad them out to 10 bits by appending zeros (which is what should happen for consistency with the luma).
So basically, in terms of bit depth, converting 8-bit UHD to 10-bit HD doesn't really give you the same as you'd get from a camera shooting 10-bit HD video.
 |
Antwort von Seba Peh:
Das ist alles so durchgeknallt ;-)
Ich bin der Meinung, das alle, die sich diese Diskussion und die von 2014 durchgelesen haben, zu dem Schluss kommen müssten, dass wenn man keine 10bit-Option hat, aber 4K mit 8bit das mit der 10bit 4:4:4/4:2:2-Timeline ein begrenztes aber auch teilweise vorteilhaftes Hilfsmittel ist.
Ich stell mir bei meinen begrenzten technischen Möglichkeiten aktuell die Frage, ob ich mit Material, dass ich in der Kamera von 4K zum HDMI-Ausgang auf HD downscale und dann in DNxHD mit 8bit/4:2:2 und 240mbit/s extern aufzeichne nicht besser fahre, als mit 8bit-4K aus der Kamera, das mit 100mbit/s interframecodiert ist und dann in eine 10bit-Timeline gepackt wird. Bei der Kodierung könnten wir vielleicht den nächsten Glaubenskrieg aufnehmen. Ich für meinen Teil werd ausprobieren, was für mich am besten funktioniert, die Unterschiede werden in vielen Fällen so gering sein, dass man ewig drüber diskutieren kann ;-)
Antwort von Jott:
Dann schau mal. Dass einfach gucken das Beste ist, sollte ja klar sein.
Nur dran denken: wenn du auf die UHD-Aufnahme verzichtest, verlierst du die wunderbare Möglichkeit der Nachkadrierung in HD. DAS ist viel wichtiger in der Praxis als jeder Pixelkrieg.
Antwort von Seba Peh:
Jott hat geschrieben:
Nur dran denken: wenn du auf die UHD-Aufnahme verzichtest, verlierst du die wunderbare Möglichkeit der Nachkadrierung in HD. DAS ist viel wichtiger in der Praxis als jeder Pixelkrieg.
Mach ich.. in HD schneiden und dabei auf 4K-Material zugreifen ist sicher ein Vorteil.
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
Das ist alles so durchgeknallt ;-)
Ich bin der Meinung, das alle, die sich diese Diskussion und die von 2014 durchgelesen haben, zu dem Schluss kommen müssten, dass wenn man keine 10bit-Option hat, aber 4K mit 8bit das mit der 10bit 4:4:4/4:2:2-Timeline ein begrenztes aber auch teilweise vorteilhaftes Hilfsmittel ist.
Ich stell mir bei meinen begrenzten technischen Möglichkeiten aktuell die Frage, ob ich mit Material, dass ich in der Kamera von 4K zum HDMI-Ausgang auf HD downscale und dann in DNxHD mit 8bit/4:2:2 und 240mbit/s extern aufzeichne nicht besser fahre, als mit 8bit-4K aus der Kamera, das mit 100mbit/s interframecodiert ist und dann in eine 10bit-Timeline gepackt wird. Bei der Kodierung könnten wir vielleicht den nächsten Glaubenskrieg aufnehmen. Ich für meinen Teil werd ausprobieren, was für mich am besten funktioniert, die Unterschiede werden in vielen Fällen so gering sein, dass man ewig drüber diskutieren kann ;-)
Nur nochmal zur Ergänzung: in Premiere dürfte man eine 10bit Timeline vergeblich suchen. Die macht nur Sinn in NLEs, die ihre interne Verarbeitungstiefe von den Einstellungen der Timeline abhängig machen. Premiere steuert die Verarbeitungstiefe global auf der Ebene von Modulen und Effekten (und natürlich Plugins).
Antwort von Jörg:
Nur nochmal zur Ergänzung: in Premiere dürfte man eine 10bit Timeline vergeblich suchen.
ich habs noch nicht benötigt, daher nur zur Diskussion:
was sollte mich daran hindern, einen entsprechenden clip ( hier FHD 10 bit 4:2:2) in Premiere eine Sequenz erzeugen zu lassen?
Danach dürfte dort das zum Schnitt bestimmte Material die richtigen settings vorfinden.
Ring frei....
Antwort von Cinealta 81:
@Jott
Absolut einverstanden mit all Ihren diesbezüglichen Aussagen. Natürlich hat die Bearbeitung von 4k 8bit 420 enorme Vorteile, gerade wegen Nachkadrierung oder Crop.
Und - ich hatte es hier bereits erwähnt - mit dem Editieren des og Materials in einer FHD 10bit Timeline, erzielt man zuweilen prima Ergebnisse. Aber 8bit hat nun einmal lediglich 256 Abstufungen pro Kanal, 10bit-Aufnahmen hingegen 1024. Ein erheblicher Unterschied.
Und die Behauptung 4k 8bit 420 wird innerhalb einer FHD 10bit Timeline zu 10bit ist genau so unsinnig wie die Behauptung "10 EURO haben oder nicht haben, macht schon 20."
Fazit: Aus persönlicher und praktischer Sicht, kann ich Ihren Ausführungen nahezu uneingeschränkt beipflichten. Faktisch können aus 256 Farbabstufungen pro Kanal in PP keine 1024 werden.
BTW: Nicht minder interessant ist das Upscaling von echtem 1080p 10bit 4.2.2 zu 4K. Beispielsweise Material aus einer Sony z90. Die Experimente damit führen zu manch Überraschung... ;-)
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
Nur nochmal zur Ergänzung: in Premiere dürfte man eine 10bit Timeline vergeblich suchen. Die macht nur Sinn in NLEs, die ihre interne Verarbeitungstiefe von den Einstellungen der Timeline abhängig machen. Premiere steuert die Verarbeitungstiefe global auf der Ebene von Modulen und Effekten (und natürlich Plugins).
Wir haben doch im 'Hilfe! Kein 10bit am Eizo'- Thread rausgefunden, dass man mit einer Decklink an Bord in den Sequenzvorgaben einen Blackmagic-Ordner findet, mit dem man eine 10bit-Sequenz erstellen kann. Ob das dann wirklich funzt weiss ich nicht.
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
dienstag_01 hat geschrieben:
Nur nochmal zur Ergänzung: in Premiere dürfte man eine 10bit Timeline vergeblich suchen. Die macht nur Sinn in NLEs, die ihre interne Verarbeitungstiefe von den Einstellungen der Timeline abhängig machen. Premiere steuert die Verarbeitungstiefe global auf der Ebene von Modulen und Effekten (und natürlich Plugins).
Wir haben doch im 'Hilfe! Kein 10bit am Eizo'- Thread rausgefunden, dass man mit einer Decklink an Bord in den Sequenzvorgaben einen Blackmagic-Ordner findet, mit dem man eine 10bit-Sequenz erstellen kann. Ob das dann wirklich funzt weiss ich nicht.
Ich erinnere mich. Die Bearbeitung von 10bit Material sollte aber auch ohne die BM Karte möglich sein, oder was meinst du ;)
Antwort von Framerate25:
Ich werf ma noch das hier rein: https://helpx.adobe.com/de/premiere-pro ... ences.html
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
"Seba Peh" hat geschrieben:
Wir haben doch im 'Hilfe! Kein 10bit am Eizo'- Thread rausgefunden, dass man mit einer Decklink an Bord in den Sequenzvorgaben einen Blackmagic-Ordner findet, mit dem man eine 10bit-Sequenz erstellen kann. Ob das dann wirklich funzt weiss ich nicht.
Ich erinnere mich. Die Bearbeitung von 10bit Material sollte aber auch ohne die BM Karte möglich sein, oder was meinst du ;)
Da könntest Du durchaus recht haben ;-) aber wenn ich mich recht erinnere geht es hier um die Eröffnung einer HD-10bit-Timeline für UHD-Material mit 8 bit und ob das so einfach geht hattest Du doch selber grade angezweifelt.
Das mit der globalen Verarbeitungstiefe, Modulen und Effekten hab ich nicht verstanden.
Antwort von Framerate25:
Das steht alles ziemlich überschaubar hier: https://helpx.adobe.com/de/premiere-pro ... ences.html
;)
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
dienstag_01 hat geschrieben:
Ich erinnere mich. Die Bearbeitung von 10bit Material sollte aber auch ohne die BM Karte möglich sein, oder was meinst du ;)
Da könntest Du durchaus recht haben ;-) aber wenn ich mich recht erinnere geht es hier um die Eröffnung einer HD-10bit-Timeline für UHD-Material mit 8 bit und ob das so einfach geht hattest Du doch selber angezweifelt.
Ich weiß jetzt nicht genau, was ich angezweifelt haben soll (aber es war sicher sehr viel), ich wollte mit meinem Post eigentlich nur mal darauf hinweisen, dass Premiere anders als z.B. FCPX (wenn ich das richtig verstehe, ich hab das nicht) keinen Unterschied in der Timeline zwischen 8 und 10bit macht. Ein Tipp aus FCPX ist daher von einem Premiere-Nutzer nicht immer so einfach nachzuvollziehen ;)
EDIT
Das mit der globalen Verarbeitungstiefe, Modulen und Effekten hab ich nicht verstanden.
Premiere arbeitet Effekte, die mit dem 32bit Symbol gekennzeichnet sind, in 32bit FP ab. Genauso wie (m.W.) Lumetri etc.
Andere Effekte oder auch Plugins von Drittherstellern (natürlich nur einige) arbeiten wiederum nur in 8bit.
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
"Seba Peh" hat geschrieben:
Da könntest Du durchaus recht haben ;-) aber wenn ich mich recht erinnere geht es hier um die Eröffnung einer HD-10bit-Timeline für UHD-Material mit 8 bit und ob das so einfach geht hattest Du doch selber angezweifelt.
Ich weiß jetzt nicht genau, was ich angezweifelt haben soll (aber es war sicher sehr viel), ich wollte mit meinem Post eigentlich nur mal darauf hinweisen, dass Premiere anders als z.B. FCPX (wenn ich das richtig verstehe, ich hab das nicht) keinen Unterschied in der Timeline zwischen 8 und 10bit macht. Ein Tipp aus FCPX ist daher von einem Premiere-Nutzer nicht immer so einfach nachzuvollziehen ;)
EDIT
Das mit der globalen Verarbeitungstiefe, Modulen und Effekten hab ich nicht verstanden.
Premiere arbeitet Effekte, die mit dem 32bit Symbol gekennzeichnet sind, in 32bit FP ab. Genauso wie (m.W.) Lumetri etc.
Andere Effekte oder auch Plugins von Drittherstellern (natürlich nur einige) arbeiten wiederum nur in 8bit.
Bin jetzt etwas verwirrt.. die einzige Möglichkeit in Premiere eine Sequenz mit der Definition 10bit zu versehen, ist bei mir über den Blackmagic-Preset-Ordner. Bringt das jetzt nichts oder brauch ich das nicht um 4K-8bit in HD-pseudo-10bit zu verwandeln?
 |
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
dienstag_01 hat geschrieben:
Ich weiß jetzt nicht genau, was ich angezweifelt haben soll (aber es war sicher sehr viel), ich wollte mit meinem Post eigentlich nur mal darauf hinweisen, dass Premiere anders als z.B. FCPX (wenn ich das richtig verstehe, ich hab das nicht) keinen Unterschied in der Timeline zwischen 8 und 10bit macht. Ein Tipp aus FCPX ist daher von einem Premiere-Nutzer nicht immer so einfach nachzuvollziehen ;)
EDIT
Premiere arbeitet Effekte, die mit dem 32bit Symbol gekennzeichnet sind, in 32bit FP ab. Genauso wie (m.W.) Lumetri etc.
Andere Effekte oder auch Plugins von Drittherstellern (natürlich nur einige) arbeiten wiederum nur in 8bit.
Bin jetzt etwas verwirrt.. die einzige Möglichkeit in Premiere eine Sequenz mit der Definition 10bit zu versehen, ist bei mir über den Blackmagic-Preset-Ordner. Bringt das jetzt nichts oder brauch ich das nicht um 4K-8bit in HD-pseudo-10bit zu verwandeln?
Ich hatte dich eigentlich so verstanden, dass du dein 4k Material in einer HD-Timeline bearbeiten willst. Ist das noch aktuell?
Antwort von Seba Peh:
@Dienstag
Jott hat geschrieben:
Im Netz - nämlich hier weiter oben - steht auch: einfach in eine entsprechende Timeline werfen. Würde ich jetzt nicht unbedingt als komplex bezeichnen.
Daraufhin war meine Frage, ob und wie das bei Premiere funktioniert.. hab noch keine Antwort.
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
"Seba Peh" hat geschrieben:
Bin jetzt etwas verwirrt.. die einzige Möglichkeit in Premiere eine Sequenz mit der Definition 10bit zu versehen, ist bei mir über den Blackmagic-Preset-Ordner. Bringt das jetzt nichts oder brauch ich das nicht um 4K-8bit in HD-pseudo-10bit zu verwandeln?
Ich hatte dich eigentlich so verstanden, dass du dein 4k Material in einer HD-Timeline bearbeiten willst. Ist das noch aktuell?
Ja und diese soll ich laut Jott als 10bit definieren, um dann zu einer erhöhten Farbtiefe zu kommen. Wie und ob das bei Premiere funzt steht als Frage im Raum.
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
@Dienstag
Jott hat geschrieben:
Im Netz - nämlich hier weiter oben - steht auch: einfach in eine entsprechende Timeline werfen. Würde ich jetzt nicht unbedingt als komplex bezeichnen.
Daraufhin war meine Frage, ob und wie das bei Premiere funktioniert.. hab noch keine Antwort.
Wenn du schreibst, dass du dein *4K-8bit in HD-pseudo-10bit zu verwandeln* willst, dann verstehe ich das so (und sicher nicht nur ich), dass du das Material dahin umcodieren willst.
Das ist etwas grundsätzlich anderes, als mit dem 4k Material in einer HD Timeline zu arbeiten und dann am Schluss (beim Export), das Video in das finale Format auszugeben. Da werden erst am Ende die Berechnungen vorgenommen.
Aber, jetzt kommts, für beides ist es egal, ob du eine 10bit Timeline nimmst oder nicht, weil, die gibt es nicht in Premiere.
(Wenn es aber deinem Seelenfrieden gut tut, nimm deine BM 10bit Sequenz)
EDIT
Ja und diese soll ich laut Jott als 10bit definieren, um dann zu einer erhöhten Farbtiefe zu kommen. Wie und ob das bei Premiere funzt steht als Frage im Raum.
Deshalb hatte ich weiter oben den Hinweis mit der komplett anderen Arbeitsweise von FCPX und Premiere gegeben und noch dazu geschrieben, dass das nicht 1:1 auf Premiere übertragbar ist.
Die Frage, wie man das in Premiere macht, ist inzwischen auch hinlänglich beantwortet.
Antwort von Seba Peh:
dienstag_01 hat geschrieben:
Aber, jetzt kommts, für beides ist es egal, ob du eine 10bit Timeline nimmst oder nicht, weil, die gibt es nicht in Premiere.
Danke.. und sorry für die missverständliche Ausdrucksweise.
Antwort von dienstag_01:
"Seba Peh" hat geschrieben:
dienstag_01 hat geschrieben:
Aber, jetzt kommts, für beides ist es egal, ob du eine 10bit Timeline nimmst oder nicht, weil, die gibt es nicht in Premiere.
Danke.. und sorry für die missverständliche Ausdrucksweise.
Das ist alles nicht so einfach ;)
Antwort von srone:
"Frank B." hat geschrieben:
srone hat geschrieben:
das kanns es, da gebe ich dir recht, aber es ist eben eine "falschfarbe".
ein beispiel, ein draht vor einem hellblauen himmel, unteres linkes pivel des vierer blocks schwarz die restlichen 3 pixel hellblau. ergebnis ein dunkleres blau, dass es so in der realität nicht gab.
wer damit leben kann ok, wer es lieber genau will, die reale abbildung sucht (eben so wie wowu), der empfindet sowas als einen fehler.
lg
srone
Ich habe hier nicht alles gelesen, trotzdem mal eine Anmerkung zu deiner Aussage, so wie ich es als Laie verstehe:
Wie soll man das sonst machen, dass man die vier Farbwerte von vier Pixeln auf ein Pixel bringt? Für mich ist das keine Frage der Falschfarbe, sondern eine Frage des Detailverlustes, aus dem sich die Reduktion der Farbdetails ergibt. Du kannst das Ganze ja auch solange fortsetzen, bis du nur noch ein Pixel hast und das birgt dann den Durchschnittsfarbwert des gesamten Bildes in 4K in sich. Das ist dann keine Falschfarbe, sondern einfach nur eine Farbfläche, die sich aus allen Farbabstufungen zusammenrechnet und keine Detailstruktur mehr hat. Wenn man davon ausginge, dass man die vier Pixel der ursprünglichen 4K Aufnahme sowieso nur als ein Pixel wahrnehmen könnte (physikalisches Auflösungsvermögen des Auges), dann sieht man auch den einen schwarzen Punkt in drei hellblauen nicht. Das Ganze wird dann eh als Farbgemisch wahrgenommen und zwar auch aus allen anderen den schwarzen Punkt umgebenden Punkten. Von daher wird diese Abgenzung sowieso auch hier als etwas dunkleres Blau wahrgenommen werden. Es ist also für mich nicht die Frage der Falschfarbendarstellung sondern die Frage, bis wohin es sich lohnt, ein Bild in der Luminanzauflösung einzudampfen, dass es noch genauso detailiert wahrgenommen werden kann wie das Origninal.
das kannst du natürlich gerne tun, aber das macht die situation nicht besser,, klar kann ich das rechentechnisch in 10bit bis hin zu 64bit floating point auflösen, es liefert aber nicht mehr reale werte, wie wowu so oft sagte die werte werden von unten mit nullen gefüllt, aus 2,5 wird 25, das macht es aber per se nicht genauer...;-)
lg
srone
 |
Antwort von Seba Peh:
srone hat geschrieben:
wie wowu so oft sagte die werte werden von unten mit nullen gefüllt, aus 2,5 wird 25, das macht es aber per se nicht genauer...;-)
lg
srone
Sorry, hab jetzt hier schon viel über '8bit/10bit' gelernt, aber was heisst dieses "mit Nullen aufgefüllt" bzw. "der Rest sind nur Nullen"???
Antwort von Jörg:
8 bit info, 2bit Füllnullen ohne info = 10bit
Antwort von Axel:
Zum "Desktop-Projekt" in Premiere vs. der default 10-bit Timeline in FCP:
Diese Unterschiede sind ohne jeden Belang. Beide NLE greifen bei der finalen Ausgabe wieder auf das Original zu - und *ignorieren* den "Arbeitscodec* der Timeline (mit der kleinen Ausnahme, dass FCP bei ProRes422-Export auf vorhandene Renderdateien zugreift, was aber nur einen kleinen Geschwindigkeitsvorteil bietet, einen ziemlich kleinen, wie Vergleichstest bewiesen haben. Kein irgendwie gearteter Qualitätsunterschied).
Beide NLE arbeiten intern mit 32-bit Fließkommagenauigkeit, was einerseits gut ist, aber andererseits eine Mindestvorraussetzung, um in 8-bit überhaupt mehr als, sagen wir, zwei Änderungen in Farbe und Helligkeit vornehmen zu können.
Zum Downsampeln von UHD 420 zu HD 422:
Da hier nach Wowu gerufen wurde: er hat den Mythos schon vor Jahren debunked. Allerdings ist das Downsampeln im NLE (Input UHD > Output HD) erwiesenermaßen auch für Keying vorteilhaft. Hat wohl eher mit geringeren Aliasing-Artefakten durch höhere ursprüngliche Pixelauflösung zu tun als damit, dass in der HD-Version angeblich nur ein 444 definiertes Pixel übrig bleibt (egal welches Subsampling das "Desktop-Projekt" hat, TV-Dippel Intsch Wowus Lieblingsthema war ja immer die "Sendefähigkeit", und da wird er sich wohl auskennen). In der Praxis ist das hinlänglich belegt, auch auf Youtube sichtbar.
10-bit hat den größten Vorteil gegenüber 8-bit, wenn es um Verläufe geht. Das ist schon eine Binsenweisheit. Ein Bild sagt mehr als 1000 Worte:
zum Bild
Trotzdem sind auch 10-bit zunächst einmal ein Buzzword.
https://www.youtube.com/watch?v=87Y_8SmQkMk&t=390s
(Beachtet das grüne Feld unten rechts)
Auf die jeweilige Implementierung kommt es an. Ich könnte mir zum Beispiel vorstellen, dass ein 12-bit Raw Clip aus einer BMPCC4k sich nicht besser keyen ließe als ein 8-bit 420 Clip aus einer A7iii, schlicht, weil die Auflösung letzterer höher ist.
Antwort von Jörg:
(mit der kleinen Ausnahme, dass FCP bei ProRes422-Export auf vorhandene Renderdateien zugreift, was aber nur einen kleinen Geschwindigkeitsvorteil bietet, einen ziemlich kleinen, wie Vergleichstest bewiesen haben. Kein irgendwie gearteter Qualitätsunterschied).
das ist mit Premiere ebenfalls möglich, wenn im Desktopprojekt ein entsprechend hochwertiger
Vorschaucodec ausgewählt ist, die Auflösungen stimmen, etc,
dann können bei der Ausgabe die vorliegenden Renderdateien genutzt werden.
Der Zeitgewinn kann riesig sein, natürlich muss der Aufwand des "Vorrenderns" dabei berücksichtigt bleiben
Antwort von Axel:
Jörg hat geschrieben:
(mit der kleinen Ausnahme, dass FCP bei ProRes422-Export auf vorhandene Renderdateien zugreift, was aber nur einen kleinen Geschwindigkeitsvorteil bietet, einen ziemlich kleinen, wie Vergleichstest bewiesen haben. Kein irgendwie gearteter Qualitätsunterschied).
das ist mit Premiere ebenfalls möglich, wenn im Desktopprojekt ein entsprechend hochwertiger
Vorschaucodec ausgewählt ist, die Auflösungen stimmen, etc,
dann können bei der Ausgabe die vorliegenden Renderdateien genutzt werden.
Der Zeitgewinn kann riesig sein, natürlich muss der Aufwand des "Vorrenderns" dabei berücksichtigt bleiben
Okay, aber dann hat es nichts mit der letztlich erzielbaren Qualität zu tun. Das meinte ich damit.
Antwort von Seba Peh:
Jörg hat geschrieben:
8 bit info, 2bit Füllnullen ohne info = 10bit
So genau wollt ich es garnicht wissen ;-)
Antwort von Seba Peh:
Axel hat geschrieben:
Zum "Desktop-Projekt" in Premiere vs. der default 10-bit Timeline in FCP:
Diese Unterschiede sind ohne jeden Belang. Beide NLE greifen bei der finalen Ausgabe wieder auf das Original zu - und *ignorieren* den "Arbeitscodec* der Timeline (mit der kleinen Ausnahme, dass FCP bei ProRes422-Export auf vorhandene Renderdateien zugreift, was aber nur einen kleinen Geschwindigkeitsvorteil bietet, einen ziemlich kleinen, wie Vergleichstest bewiesen haben. Kein irgendwie gearteter Qualitätsunterschied).
[/quotes
Endlich für mich 'hinreichend' erklärt. Danke :-)
Antwort von Seba Peh:
Axel hat geschrieben:
Zum "Desktop-Projekt" in Premiere vs. der default 10-bit Timeline in FCP:
Diese Unterschiede sind ohne jeden Belang. Beide NLE greifen bei der finalen Ausgabe wieder auf das Original zu - und *ignorieren* den "Arbeitscodec* der Timeline (mit der kleinen Ausnahme, dass FCP bei ProRes422-Export auf vorhandene Renderdateien zugreift, was aber nur einen kleinen Geschwindigkeitsvorteil bietet, einen ziemlich kleinen, wie Vergleichstest bewiesen haben. Kein irgendwie gearteter Qualitätsunterschied).
Beide NLE arbeiten intern mit 32-bit Fließkommagenauigkeit, was einerseits gut ist, aber andererseits eine Mindestvorraussetzung, um in 8-bit überhaupt mehr als, sagen wir, zwei Änderungen in Farbe und Helligkeit vornehmen zu können.
Zum Downsampeln von UHD 420 zu HD 422:
Da hier nach Wowu gerufen wurde: er hat den Mythos schon vor Jahren debunked. Allerdings ist das Downsampeln im NLE (Input UHD > Output HD) erwiesenermaßen auch für Keying vorteilhaft. Hat wohl eher mit geringeren Aliasing-Artefakten durch höhere ursprüngliche Pixelauflösung zu tun als damit, dass in der HD-Version angeblich nur ein 444 definiertes Pixel übrig bleibt (egal welches Subsampling das "Desktop-Projekt" hat, TV-Dippel Intsch Wowus Lieblingsthema war ja immer die "Sendefähigkeit", und da wird er sich wohl auskennen). In der Praxis ist das hinlänglich belegt, auch auf Youtube sichtbar.
10-bit hat den größten Vorteil gegenüber 8-bit, wenn es um Verläufe geht. Das ist schon eine Binsenweisheit. Ein Bild sagt mehr als 1000 Worte:
zum Bild
Trotzdem sind auch 10-bit zunächst einmal ein Buzzword.
https://www.youtube.com/watch?v=87Y_8SmQkMk&t=390s
(Beachtet das grüne Feld unten rechts)
Auf die jeweilige Implementierung kommt es an. Ich könnte mir zum Beispiel vorstellen, dass ein 12-bit Raw Clip aus einer BMPCC4k sich nicht besser keyen ließe als ein 8-bit 420 Clip aus einer A7iii, schlicht, weil die Auflösung letzterer höher ist.
Endlich für mich 'hinreichend' erklärt. Vielen Dank :-)
(Das 'hinreichend' bezieht sich nicht auf die Sache mit den Nullen, sondern auf einen Themenbeitrag, in dem mir mitgeteilt wurde, die Timeline-Problematik wäre hier schon 'hinlänglich' erklärt.)
 |
Antwort von dienstag_01:
Jörg hat geschrieben:
8 bit info, 2bit Füllnullen ohne info = 10bit
So was gibt es, aber nicht beim Downsampling. Beim Downsampling wird neu berechnet.
Man sollte nicht immer alles in einen Topf schmeißen.