Newsmeldung von slashCAM:Neue
slashCAM Umfrage:In RAW filmen, Deine Meinung?
Hier geht es zum Ergebnis der aktuellen slashCAM-Umfrage In RAW filmen, Deine Meinung?
Antwort von rush:
Ziemlich ausgeglichen das ganze bisher...
Antwort von mash_gh4:
rush hat geschrieben:
Ziemlich ausgeglichen das ganze bisher...
whoow! -- diesen bunten fragenbogen sollte man sich wirklich bookmarken, um ihn als wunderbares extrem-beispiel bei der hand zu haben, falls man irgendwelchen erstsemestrigen erklären muss, was man bei umfragen und ihren skalen nicht ganz außer acht lassen sollte. ;)
Antwort von Darth Schneider:
Also SlashCAM hat um die 40 000 Mitglieder, aber nur 200 Leute haben bei dieser RAW Umfrage mitgemacht. Also ich bin jetzt kein Umfrage Experte, aber RAW Bewegtbilder scheinen mir bei den meisten Filmern nicht besonders beliebt zu sein, oder zumindest einfach uninteressant.
Gruss Boris
Antwort von Jott:
Was wundert dich daran?
Antwort von Darth Schneider:
Stimmt, wir haben ja jetzt dank roki herausgefunden das 10Bit Log auch genügt, also braucht es gar kein RAW..;)
Gruss Boris
Antwort von rdcl:
Wenn man nach der Beteiligung an Umfragen im Vergleich zu angemeldeten Usern geht, ist scheinbar überhaupt kein Thema für die Slashcam Community interessant.
Antwort von rush:
Der Umfrage-Poll ist oft auch gut versteckt - wenn man in der mobilen Ansicht unterwegs ist bekommt man ihn nur zu sehen wenn der passende Beitrag auch hochgedrückt wird und man ihn dort bewusst anklickt.
Aber selbst auf der regulären Website geht der Poll in meinen Augen ziemlich unter am linken Bildrand... Vllt sollte man da nochmal drüber nachdenken ob man eine Umfrage dann nicht für 2 Wochen prominent on top stehen lässt und danach ins Abseits schiebt ;-) die Klickbeteiligung dürfte womöglich gleich oder höher ausfallen
Antwort von pillepalle:
Von den 40.000 dürften aber ein Großteil Kartei-Leichen sein, die sich nie abgemeldet haben. So ähnlich wie Follower bei Youtube. 200 Aktive klingt doch realistisch und vielleicht noch mal ein paar Hundert die nur mitlesen, oder gelegentlich vorbei kommen.
VG
Antwort von Whazabi:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Von daher weiß ich nicht so recht, was ich da auswählen soll.
Grundsätzlich würde ich sagen, wenn man das letzte Quäntchen Qualität haben möchte
und gerade das beste mögliche Ausgangsmaterial für beispielsweise einen HDR-Grade, dann ist RAW schon fast unverzichtbar.
Aber gerade wenn man auf HDR sowieso verzichtet und am Material auch kein extremes Grading durchführen möchte,
ist ein Prores (oder äuqivalent) Arbeitspfad genauso erfolgsträchtig.
Grundsätzlich gilt hier jedoch, dass die Vorteile von RAW (je nach Hersteller) durchaus in einem deutlich größeren Spielraum in der Post münden.
Der wesentliche Nachteil, das erhöhte Datenaufkommen, wurde durch immer stärker komprimierte RAW Formate ebenfalls auf ein erträgliches Maß reduziert.
Bei neuren Blackmagic Kameras verwende ich zB gar nichts anderes mehr als BM-RAW.
Da ich die Kompression meinen Bedürfnissen anpassen kann, sodass das Ergebnis bei gleicher Datenrate trotzdem eine ähnliche Qualität wie ProRes bietet,
ich jedoch weiterhin Belichtung, Weißabgleich etc. noch im Nachhinein anpassen kann, hat das ganze hier quasi keine Nachteile aber durchaus Vorteile.
Von daher: RAW unverzichtbar? Jain das hängt von der Implementierung für die jeweilige Kamera ab.
Antwort von pillepalle:
Whazabi hat geschrieben:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe. Log geht aber schon und macht bei 12bit Formaten durchaus Sinn. Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet. Die Qualitativ nächst bessere Option zu RAW ist eben 10bit Log. Es ging wohl hauptsächlich darum heraus zu finden, welche Rolle der RAW Workflow (im Gegensatz zu anderen) unter den Forumsteilnehmern spielt.
VG
Antwort von roki100:
pillepalle hat geschrieben:
Whazabi hat geschrieben:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann.
Soweit ich weiß Sigma FP kann das?
Antwort von pillepalle:
Das dürfte Catsin wissen ob das geht.
VG
Antwort von roki100:
Internal 8-bit CDNG RAW in UHD 4K at 23.98/24/25p.
Internal 8/10/12-bit CDNG RAW in HD up to 60p.
https://www.cined.com/sigma-fp-update-c ... -and-more/
Antwort von pillepalle:
Ja, tatsächlich :) Aber den Sinn von 8bit RAW muss mir mal jemand erklären. Da bekommt man doch die gleichen Artefakte wie Banding & Co.
VG
Antwort von roki100:
Whazabi hat geschrieben:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Von daher weiß ich nicht so recht, was ich da auswählen soll.
Da wirst Du kaum Visuelle unterschiede erkennen (Gegenbeweise hat bisher noch keiner geliefert, stattdessen habe ich mich mit viel Testen selbst überzeug)...Beim Colorgrading macht sich 2Bit+ in dem Bereich bemerkbar, wo man auch bei 10Bit den Farbregler nicht bewegen würde....Der einzige unterschied bei RAW ist eben, WB, ISO wird nicht in Videofile eingebacken und man kann die Option Highlight Recovery nutzen (HR ist bei manchen RAW Formate per default aktiviert, bei CDNG, BRAW lässt sich HR nachträglich aktivieren). Das sind die einzige sichtbare Unterschiede.
Antwort von roki100:
pillepalle hat geschrieben:
Ja, tatsächlich :) Aber den Sinn von 8bit RAW muss mir mal jemand erklären. Da bekommt man doch die gleichen Artefakte wie Banding & Co.
VG
habe ich letztens gesehen und hab mich da auch gewundert... :) Verstehe den Sinn auch nicht.
Antwort von iasi:
roki100 hat geschrieben:
Whazabi hat geschrieben:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Von daher weiß ich nicht so recht, was ich da auswählen soll.
Da wirst Du kaum Visuelle unterschiede erkennen (Gegenbeweise hat bisher noch keiner geliefert, stattdessen habe ich mich mit viel Testen selbst überzeug)...Beim Colorgrading macht sich 2Bit+ in dem Bereich bemerkbar, wo man auch bei 10Bit den Farbregler nicht bewegen würde....Der einzige unterschied bei RAW ist eben, WB, ISO wird nicht in Videofile eingebacken und man kann die Option Highlight Recovery nutzen (HR ist bei manchen RAW Formate per default aktiviert, bei CDNG, BRAW lässt sich HR nachträglich aktivieren). Das sind die einzige sichtbare Unterschiede.
Das sehe ich nun aber gegenteilig:
Die 2Bit+ sind mir viel wichtiger, als eingebackener WB oder ISO. Es ändert zwar die Arbeit während des Drehs, aber 12bit und bieten eben einen großen Spielraum in der Post.
Es scheint aber nun so, dass Raw-Formate sich effizienter komprimieren lassen, als 12bit Videoformate - daher spricht nichts gegen Raw.
Antwort von roki100:
iasi hat geschrieben:
Die 2Bit+ sind mir viel wichtiger, als eingebackener WB oder ISO. Es ändert zwar die Arbeit während des Drehs, aber 12bit und bieten eben einen großen Spielraum in der Post.
Ja, das liest sich groß, die Wirklichkeit sieht aber anders aus. Ein paar Visuelle Beweise wäre toll! ;) Zeig wenigstens ein Beispiel, wo 12Bit vorausgesetzt war für das tolle Ergebnis? Also etwas wo 10Bit nicht ausgereicht hat? VFX für Kino? Ich habe genau das getan und alles was ich mit 12 Bit graden konnte, lies sich auch mit 10Bit machen.... Nur manche LUT's zeigten minimal Artefakte bei 10Bit, was aber nicht mit 10Bit zu tun hat, sondern die getesteten LUT's sind auf 12Bit Material erstellt worden. Wenn man aber selbst gradet (ohne irgendwelche LUT), dann habe ich da kein visuellen unterschied gesehen. Ich habe natürlich darauf geachtet, beim 10 Bit (ProRes RAW) vor dem Dreh, gleiche WB, ISO usw. zu wählen (wobei bei mir 400ISO in ProRes, ungefähr so ist wie nativ 800ISO für CDNG).... und konnte da gar kein Unterschied erkennen. Wie bereits öfter erwähnt, selbst wenn man einfach nur ColorBoost auf +100 dreht (was man ja sowieso nicht macht) und dann vergleicht, ist der unterschied an manchen stellen minimal sichtbar, oder bei gut ausgeleuchtete Szene, gar nicht...
Wichtigste Vorteil bei RAW (zumindest für mich) habe ich vergessen zu erwähnen: Kamera nehmen und los filmen und nur auf ETTR achten... :) WB/Farbkorrektur kommt später. :)
Antwort von Jott:
roki100 hat geschrieben:
Ein paar Visuelle Beweise wäre toll! ;) Zeig wenigstens ein Beispiel, wo 12Bit vorausgesetzt war für das tolle Ergebnis?
Blasphemie.
Antwort von pillepalle:
Alte Regel... viel hilft viel :)
VG
Antwort von roki100:
Mehr ist besser, doch in diesem Fall ist das was mehr ist (Bit), auch mehr mit Artefakte geschmückt und zwar Artefakte, die man nachträglich kaum sauber entfernen kann (Moiré). Wie z.B.: 6K Sensor, aber 4K ProResRAW oder wie war das...? Dann ist mir 2Bit weniger und clean selbstverständlich viel lieber.
Antwort von iasi:
roki100 hat geschrieben:
iasi hat geschrieben:
Die 2Bit+ sind mir viel wichtiger, als eingebackener WB oder ISO. Es ändert zwar die Arbeit während des Drehs, aber 12bit und bieten eben einen großen Spielraum in der Post.
Ja, das liest sich groß, die Wirklichkeit sieht aber anders aus. Ein paar Visuelle Beweise wäre toll! ;) Zeig wenigstens ein Beispiel, wo 12Bit vorausgesetzt war für das tolle Ergebnis? Also etwas wo 10Bit nicht ausgereicht hat? VFX für Kino? Ich habe genau das getan und alles was ich mit 12 Bit graden konnte, lies sich auch mit 10Bit machen.... Nur manche LUT's zeigten minimal Artefakte bei 10Bit, was aber nicht mit 10Bit zu tun hat, sondern die getesteten LUT's sind auf 12Bit Material erstellt worden. Wenn man aber selbst gradet (ohne irgendwelche LUT), dann habe ich da kein visuellen unterschied gesehen. Ich habe natürlich darauf geachtet, beim 10 Bit (ProRes RAW) vor dem Dreh, gleiche WB, ISO usw. zu wählen (wobei bei mir 400ISO in ProRes, ungefähr so ist wie nativ 800ISO für CDNG).... und konnte da gar kein Unterschied erkennen. Wie bereits öfter erwähnt, selbst wenn man einfach nur ColorBoost auf +100 dreht (was man ja sowieso nicht macht) und dann vergleicht, ist der unterschied an manchen stellen minimal sichtbar, oder bei gut ausgeleuchtete Szene, gar nicht...
Wichtigste Vorteil bei RAW (zumindest für mich) habe ich vergessen zu erwähnen: Kamera nehmen und los filmen und nur auf ETTR achten... :) WB/Farbkorrektur kommt später. :)
Na - also wenn du bei LUT-Drüber Unterschiede sioeht, beim graden ohne LUT aber nicht, dann weiß ich nicht wie das mit ETTR bei dir funktioniert.
Ich muss zudem auch bei einem Videocodec nicht vom Nativen-ISO abweichen, um ordentlich zu belichten. WB muss man dann eben mal machen, aber auch bei 12bit ist da noch Spielraum für Korrekturen.
Bei 10bit ist"s dann eben doch schneller vorbei mit sauberen Verläufen. Zumal in den Lichtern.
Antwort von iasi:
roki100 hat geschrieben:
Mehr ist besser, doch in diesem Fall ist das was mehr ist (Bit), auch mehr mit Artefakte geschmückt und zwar Artefakte, die man nachträglich kaum sauber entfernen kann (Moiré). Wie z.B.: 6K Sensor, aber 4K ProResRAW oder wie war das...? Dann ist mir 2Bit weniger und clean selbstverständlich viel lieber.
Dann schau dir mal das Beispiel mit dem Surfer hier an:
https://www.red.com/power-of-red-redcode
Antwort von roki100:
iasi hat geschrieben:
Na - also wenn du bei LUT-Drüber Unterschiede sioeht, beim graden ohne LUT aber nicht, dann weiß ich nicht wie das mit ETTR bei dir funktioniert.
Gemeint ist eben LUTs, die mit Qualifier gemacht wurden und da z.B. Denoise, Blur Radius usw. exakt auf 12Bit abgestimmt wurde. Verwendet man die LUT auf 10Bit material, flackern manche Farben.... Das alles hat aber wirklich nichts mit mehr Bit zu tun.
Antwort von Darth Schneider:
Das ist für mich nur noch Pixelpeeping auf Steroiden, ausser man ist ein Profi und man braucht für seine Jobs halt das letzte Quäntchen Bildqualität...und hat kein Budget für die Miete einer ARRI oder einer Red...
@roki
Warum überhaupt eine neue Pocket ?
Die Komodo, oder eine gebrauchte ARRI wäre doch dann schon eher etwas für dich, längerfristig..;))
Red RAW, oder ARRI RAW....
Besser gehts wohl jetzt einfach nicht...
Also mir persönlich genügt BRaw, in jeder Hinsicht...
Und ich denke der Wahzabi hat doch irgendwie recht....und HIgh Light Recovery brauchst du überhaupt nicht wenn du richtig belichtest und die Szene von Anfang an, beim drehen ebenso beleuchtest.;)))
Gruss Boris
Antwort von roki100:
Mir persönlich genügt doch sauberes 10Bit. :) RAW alles schön und gut, doch dann bitte mit OLPF vor dem Sensor... dann kann man auch auf 12K verzichten ;)
Antwort von Darth Schneider:
10 Bit Log genügt für was, genau ?
Spielende Kinder und die Familie zu filmen ???
Mir genügt theoretisch 8Bit für sehr vieles, und wenn ich mehr brauche nehme ich doch lieber 12Bit....oder B RAW ,16 Bit in einem 12 Bit Container...
als mich für alles auf 10 Bit festzulegen, für alles,,,,Warum, denn ?
Es gibt nix perfektes, 8, 10, 12, oder 16 Bit.
Das ist alles gut und schön...
Nur das geeignete Format zählt, für das was man gerade im Moment halt macht oder halt für einen Job braucht.
Alles andere ist Geschmacksache und Pixelpeeping auf Steroiden...
Ich filme alles in 4K BRaw 8:1 oder mit BRaw 2.6K 3:1..
Mehr Bild Qualität brauche ich nicht...
Gruss Boris
Antwort von roki100:
10 Bit Log genügt für was, genau ?
Spielende Kinder und die Familie zu filmen ???
Um verschiedene schöne Looks graden zu können.... da reicht mir 10Bit völlig aus. Wer VFX für Kino macht, der wird wahrscheinlich mit 12Bit+ zufriedener sein.
iasi hat geschrieben:
Dann schau dir mal das Beispiel mit dem Surfer hier an:
https://www.red.com/power-of-red-redcode
Eine irreführende Werbung....Nicht mal 8Bit direkt aus der GoPro Kamera sieht so aus, geschweige den 10Bit.... :)
Antwort von rdcl:
roki100 hat geschrieben:
iasi hat geschrieben:
Na - also wenn du bei LUT-Drüber Unterschiede sioeht, beim graden ohne LUT aber nicht, dann weiß ich nicht wie das mit ETTR bei dir funktioniert.
Gemeint ist eben LUTs, die mit Qualifier gemacht wurden und da z.B. Denoise, Blur Radius usw. exakt auf 12Bit abgestimmt wurde. Verwendet man die LUT auf 10Bit material, flackern manche Farben.... Das alles hat aber wirklich nichts mit mehr Bit zu tun.
Qualifier, Blurs und Denoise können in Luts doch garnicht gespeichert werden.
Antwort von iasi:
roki100 hat geschrieben:
10 Bit Log genügt für was, genau ?
Spielende Kinder und die Familie zu filmen ???
Um verschiedene schöne Looks graden zu können.... da reicht mir 10Bit völlig aus. Wer VFX für Kino macht, der wird wahrscheinlich mit 12Bit+ zufriedener sein.
iasi hat geschrieben:
Dann schau dir mal das Beispiel mit dem Surfer hier an:
https://www.red.com/power-of-red-redcode
Eine irreführende Werbung....Nicht mal 8Bit direkt aus der GoPro Kamera sieht so aus, geschweige den 10Bit.... :)
Es geht eben doch um ein wenig mehr, als einen schönen "Look" hinzubiegen.
Ständig sehe ich Video mit "tollem Look", bei denen Augen im Dunkel versinken oder das Bild völlig stukturlos ist, so als würde es da gar nichts geben, was der Filmer für wichtig erachtet.
Aber ich erwarte ja sowieso nicht viel von den Nasen, die denken, sie müssten sich mit einem Weitwinkel filmen, während sie etwas in die Handkamera quatschen.
Ich hab mir mal gestern Standbilder von "Früchte des Zorn" angesehen. Gregg Toland hatte oft ohne viele Leuchtmittel gearbeitet, aber er wußte was er machte und welche Wirkung die Bilder erzeugen sollten.
https://beta.flim.ai/movie/a761a68d-b54 ... 55ee6d5da0
Antwort von roki100:
Ich habe bisher (beim graden, kein LUT usw.) noch nie 10Bit so gehabt wie das von Red auf eigene Homepage präsentiert wird, um für RedRaw zu werben.
Du wirst ähnliches auch mit RAW 12Bit haben und zwar wenn Du ImpulZ LUT drüber legst.. :)
Also das hat mich jetzt tatsächlich überzeugt, dass RED da die Leute aber ganz schön verarscht...
Antwort von Darth Schneider:
Ich schreibe es nochmal
Pures unnötigstes Pixelpeeping..ohne wirkliche Motivation...
und die anderen, die Profis, die wirklich Kinofilme und solche Dinge machen, beleuchten inzwischen ihre Szenen sorgfältig mit zig Lampen, und lassen womöglich die Profi Colorgrader, den DOP, den Production Designer, den Sound Desgner, und natürlich nicht zuletzt die Schauspieler, ganz einfach ihre Jobs machen...
Das führt dann Alles zusammen zu einem erstrebenswerten Ziel,
einem wirklich echt cinematischen Erlebnis.
Gruss Boris
Antwort von rdcl:
"Darth Schneider" hat geschrieben:
Ich schreibe es nochmal
Pures unnötigstes Pixelpeeping..
und die anderen, die wirklich Kinofilme und solche Dinge machen, beleuchten inzwischen ihre Szenen mit zig Lampen, und lassen womöglich die Profi Colorgrader, den DOP, den Production Designer, den Sound Desgner, und natürlich nicht zuletzt die Schauspieler, ganz einfach ihre Jobs machen...
Das führt dann Alles zusammen zu einem erstrebenswerten Ziel,
einem wirklich echt cinematischen Erlebnis.
Gruss Boris
Dass man bei einem perfekt ausgleuchteten Set eher auf Raw verzichten kann ist ja logisch. Es geht ja gerade darum das bestmögliche rauszuholen, auch wenn man keine Lastwagen voller Licht mieten kann.
Antwort von roki100:
rdcl hat geschrieben:
roki100 hat geschrieben:
Gemeint ist eben LUTs, die mit Qualifier gemacht wurden und da z.B. Denoise, Blur Radius usw. exakt auf 12Bit abgestimmt wurde. Verwendet man die LUT auf 10Bit material, flackern manche Farben.... Das alles hat aber wirklich nichts mit mehr Bit zu tun.
Qualifier, Blurs und Denoise können in Luts doch garnicht gespeichert werden.
Sicher?
Gemeint ist das hier:
Bildschirmfoto 2021-03-08 um 20.08.48.png
Antwort von Darth Schneider:
@ rdci
Ja aber die verzichten ja nicht nicht mehr gerne auf RAW , sonst wäre DaVinci Resolve wohl kaum inzwischen in Hollywood ein anerkannter Industrie Standart....
Schneiden kann man auch auf Avid, und Co...
Gruss Boris
Antwort von rdcl:
roki100 hat geschrieben:
rdcl hat geschrieben:
Qualifier, Blurs und Denoise können in Luts doch garnicht gespeichert werden.
Sicher?
Gemeint ist das hier:
Bildschirmfoto 2021-03-08 um 20.08.48.png
Ziemlich sicher, ja.
Antwort von rdcl:
"Darth Schneider" hat geschrieben:
Ja aber die verzichten ja nicht nicht mehr gerne auf RAW , sonst wäre DaVinci Resolve wohl kaum inzwischen in Hollywood ein anerkannter Industrie Standart....
Schneiden kann man auch auf Avid, und Co...
Gruss Boris
Verstehe jetzt nicht was du meinst. Resolve ist für Filmschnitt mit Sicherheit kein Industriestandard in Hollywood, und die wenigsten Serien und Filme werden in Raw gedreht, schon gar nicht komplett.
Antwort von Darth Schneider:
@roki
Arbeiten die Leute in Hollywood einfach mit Luts, so für den endgültigen Look ?
@rdci
Nicht meine Worte verdrehen...
Da Vini Resolve ist selbstverständlich nicht für den Schnitt ein Industrie Standard in Hollywood, das hab ich auch nirgend geschrieben.
Aber aber natürlich für Colorgrading, das sogar schon länger...
Genau darum bietet BMD ja auch Control Panels an die so viel kosten wie ein Auto...;)))
Gruss Boris
Antwort von roki100:
@rdcl
Stimmt! Habe ich nochmal nachgeschaut....verwechselt mit PowerGrade! :)
Antwort von roki100:
@Boris, ich verstehe dich nicht?
Ich schreibe nicht dass 12Bit sein muss, ganz im Gegenteil, sondern das 10Bit eigentlich ausreicht. Die Vorteile für RAW habe ich auch erwähnt und diese unterscheidet sich aber von iasi Vorstellung dass Kino ohne RAW nicht geht usw.
Antwort von Darth Schneider:
Du verstehst mich auch nicht.
Ausreichend für was ?
Zum zweiten Mal ?
10 Bit ist heute ganz sicher nicht mehr ausreichend für Star Wars...
Für dich, na sicher, ich behaupte auch auch 8Bit, wenn du beleuchten würdest...
Aber, egal, das ausreichend, oder RAW oder nicht, bleibt doch einfach relativ, zu je nach dem was man halt machen will...
Gruss Boris
Antwort von rdcl:
"Darth Schneider" hat geschrieben:
@rdci
Nicht meine Worte verdrehen...
Da Vini Resolve ist selbstverständlich nicht für den Schnitt ein Industrie Standard in Hollywood, das hab ich auch nirgend geschrieben.
Aber aber natürlich für Colorgrading, das sogar schon länger...
Genau darum bietet BMD ja auch Control Panels an die so viel kosten wie ein Auto...;)))
Gruss Boris
Ich verdrehe deine Worte nicht. Vielleicht erklärst du mal, wie dein Verweis auf Schneiden mit Avid gemeint war, wenn es doch eigentlich um Grading geht? Was hat das eine mit dem anderen zu tun?
Antwort von roki100:
rdcl hat geschrieben:
"Darth Schneider" hat geschrieben:
Ja aber die verzichten ja nicht nicht mehr gerne auf RAW , sonst wäre DaVinci Resolve wohl kaum inzwischen in Hollywood ein anerkannter Industrie Standart....
Schneiden kann man auch auf Avid, und Co...
Gruss Boris
Verstehe jetzt nicht was du meinst. Resolve ist für Filmschnitt mit Sicherheit kein Industriestandard in Hollywood, und die wenigsten Serien und Filme werden in Raw gedreht, schon gar nicht komplett.
Du machst ja eigentlich colorgrading professionell? Das was ich bisher erfahren habe, dass meistens dann RAW zum Einsatz kommt, wenn VFX gemacht wird, aber auch dann nicht immer....
Antwort von Darth Schneider:
Oh, Mann
Ich wiederhole mich nicht gerne zweimal...
In dem Threat geht es übrigens um das filmen in RAW, gar nicht um Colorgrading, aber egal.
Gute Nacht...pixelpeept mal schön weiter, viel Spass.
Gruss Boris
Antwort von mash_gh4:
pillepalle hat geschrieben:
Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet.
DANKE!
genau so ist es!
und da diesem umstand in den 20 nachfolgenden redebeiträgen nicht die geringste beachtung geschenkt wird, sondern nur weiter dieses unsinnige kindergartentehater rund um völlig vom jeweiligen verwendungskontext losgelöste bittiefen-angaben exzesse feiert, dürfte dieses faktum vermutlich ein aussagekräftigeres indirektes beurteilungskriterum über den zustand dieses forums bzw. den tatsächlichen wissenshorizont der aktiv an diskusionen beteiligten darstellen als es die auszählung der oben angekreuzten fragestellungen jemals erlauben wird.
Antwort von Darth Schneider:
Ich verstehe langsam den Kluster, warum der hier auf SlashCAM nicht mehr mitschreiben will.
Was für ein Kindergarten.
Arme SlashCAM Crew...
Gruss Boris
Antwort von roki100:
@Boris ???
aber wir machen kein pixelpeep ;))) Es geht nur darum, ob 10Bit doch nicht für das meiste ausreicht? RAW ist nicht A und O, sondern nur für bestimmte Fälle sehr nützlich...
Und mit 10Bit meine ich nicht 10Bit 420, sondern 10Bit ab 422 usw.
Antwort von Darth Schneider:
Du machst in letzter Zeit nicht viel anderes hier...
Ich logge mich raus...
Gute Nacht
Gruss Boris
Antwort von roki100:
Nicht aufregen, alles gut, es hat dir keiner wirklich widersprochen (das mit PixelPeep usw.), nur Du hast da etwas missverstanden. Was ich mache ist eben diskutieren, hab da auch meine Meinung und Erfahrung passend zum Thema.
Antwort von rdcl:
"Darth Schneider" hat geschrieben:
Oh, Mann
Ich wiederhole mich nicht gerne zweimal...
In dem Threat geht es übrigens um das filmen in RAW, gar nicht um Colorgrading, aber egal.
Gute Nacht...pixelpeept mal schön weiter, viel Spass.
Gruss Boris
Also ich will ja nichts sagen, aber du warst es doch selbst der hier von DaVinci, Avid und Hollywoodstandards angefangen hat. Kann jeder hier nachlesen.
Und jetzt erzählst du uns, dass es doch ums Filmen geht und nicht um die Post. Wofür dreht man denn Raw wenn nicht für die Post?
Muss man wohl nicht verstehen...
Antwort von roki100:
iasi ist schuld, er hat Boris durcheinander gebracht und Boris beschuldigt mich am Ende... ;))) O Mann...egal, auch wir Männer haben unsere Tage.
Und was ist mit Kluster? Seit er die FX6 hat schreibt er kaum.
Antwort von Darth Schneider:
@rdci
Man dreht doch immer für die Post, egal mit was, um die Postproduktion kommt kein einziges Format herum, wenn es am Schluss sowas wie ein Film sein soll.
Ganz egal ob RAW oder MP4...
Ausser es gibt nicht mal einen einzigen Schnitt.;))
Irgendwie logisch, oder ?
Und ich denke immer noch du hast mich auch nicht verstanden.
Keine Ahnung was du jetzt von mir jetzt lesen willst...?
Sorry das du mich nicht verstanden hast...??
Und da oben steht ganz klar, In RAW filmen, Deine Meinung, und gar nix von Grading, oder Post...
Gruss Boris
Antwort von roki100:
Aber RAW ist doch nur für die Post, Grading usw.
Antwort von Darth Schneider:
@roki
Das sehe ich gar gar nicht so eng...
Klar, und der Toiletten Deckel ist NUR für die Toilette...
Ich wiederhole es nochmal, zum zweiten Mal, kein Film geht ohne PostProduktion, scheiss egal welches Format...
Das hat aber überhaupt nix mit dem ganzen Pixelpeeping hier zu tun....
Abgesehen davon auch mit ProRes kann man Colorgrading machen, und ich kann auch mit RAW filmen und überhaupt kein Colorgrading machen, und das Material sieht trotzdem toll aus...
Das hat absolut nix zur Sache...
RAW ist ein Werkzeug, nix weiter als ein Video Codec, den man auch auf ganz verschiedene Weise nutzen kann.
Genau so wie jedes andere nicht RAW Format auch...
Schmeiss mal das Sasha Engel Lut direkt in der Kamera auf das BRaw, oder auf ProRes, da braucht es kein Colorgrading, überhaupt nicht zwingend..
Gruss Boris
Antwort von roki100:
Abgesehen davon auch mit ProRes kann man Colorgrading machen
Ja aber genau das meinte ich auch...
ah egal, heute ist nicht so dein Tag (hat jeder mal). Morgen bitte nochmal lesen, schau Dir den Thread und die Umfrage an, und dann worüber wir diskutiert haben...und dann ist alles gut.
Antwort von rdcl:
Immer dieses Totschlagargument vom "Pixelpeeping". Sprich mal mit Leuten die den ganzen Tag Retuschen machen oder Keyen oder Compen oder Kunden haben die nachträglich gerne Farben von Klamotten ändern wollen oder oder oder. Da bist du über jedes Pixel und jedes Bit an Farbe froh.
Wenn man mit Produktionen bei denen es eben doch mal auf solche Feinheiten ankommt nix zu tun hat, kann man das auch einfach mal sagen, anstatt Dinge als "vollkommen unnötig" zu bezeichnen von denen man einfach keine Ahnung hat.
Antwort von Darth Schneider:
Als unnötig habe ich nichts grundsätzlich bezeichnet, oder wollte es ganz sicher nicht was dich betrifft.
Ich war halt im anderen Threat dran, und es ging dabei eigentlich viel mehr um roki.;)
Dann habe ich hier versucht ihm einen Wink zu geben, der ging aber scheinbar nur nach hinten los...
Eigentlich ging es mir überhaupt nicht um Raw und Colorgrading wie Profis das nutzen, allgemein, eher wie, oder wozu roki das nutzt.
Aber egal, nix für ungut, nicht mein Tag.
Gruss Boris
Antwort von rdcl:
"Darth Schneider" hat geschrieben:
Ich schreibe es nochmal
Pures unnötigstes Pixelpeeping..ohne wirkliche Motivation...
Aber lassen wir's gut sein, Montag ist so gut wie vorbei und morgen scheint wieder die Sonne!
Antwort von cantsin:
pillepalle hat geschrieben:
Whazabi hat geschrieben:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe.
Ausnahme: Sigma fp. Die kann optional 10bit und sogar 8bit-CinemaDNG RAW aufzeichnen.
Gleiches für Canon-Kameras mit MagicLantern-Hack. Da geht zumindest Reduktion auf 10bit RAW.
Früher gab es auch Foto-Kameras mit 10bit-RAW-Stills, z.B. die Canon Powershot G2.
mash_gh4 hat geschrieben:
pillepalle hat geschrieben:
Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet.
DANKE!
genau so ist es!
Leider nicht mehr - siehe BRAW, Z-Cam "Raw" etc.etc.
Antwort von Darth Schneider:
@rdci
Das war eigentlich eben auf rokis RAW Familien Filme bezogen...
Für das braucht es eigentlich gar kein RAW und auch kein 10 Bit Log...
Darum hab ich’s geschrieben, aber eben, der Schuss ging nach hinten los...;)
Gruss Boris
Antwort von roki100:
Ich hab nicht umsonst 10Bit oder 12Bit RAW Kamera gekauft, ich will eben bestimmte Looks haben und das kann ich mit 8Bit nicht....schon alles versucht und wegen solche aussage wie Deine (8Bit reicht aus), habe ich Geld wie vom Fenster geworfen....es war jetzt nicht viel, aber trotzdem...
Und ich sage nicht RAW muss muss muss, sondern 10Bit reicht (für meine Zwecke) aus. Und da ich RAW auch habe, kann ich vergleiche machen und da habe ich eben festgestellt, dass 10Bit, für Colorgrading/für verschiedene Looks usw. völlig ausreicht.
Bin also der Meinung, wer nur Color-Correction macht, der braucht nicht mehr als 8Bit (und auch da geht einiges)...bei mir hat das aber nicht gut geklappt (hab da also schlechte Erfahrung)... so bin ich zu mehr Bit Kamera gekommen. Wer auch Color-Grading will, der sollte sich lieber eine 10+Bit Kamera holen. So ist man auf die sichere Seite. Ansonsten wird der betroffene mit 8Bit und mit seinem gewünschtem Look, mal hier, mal da, plötzlich Flecken auf Gesicht sehen.... Schatten komisch...Farbverläufe/Banding usw usf. was ich persönlich eben überhaupt nicht schön fand, daher das Ganze.
Antwort von Frank Glencairn:
Was ist denn hier schon wieder los?
Euch kann man echt keinen Tag allein lassen ;-)
pillepalle hat geschrieben:
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe. Log geht aber schon und macht bei 12bit Formaten durchaus Sinn. Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet. Die Qualitativ nächst bessere Option zu RAW ist eben 10bit Log. Es ging wohl hauptsächlich darum heraus zu finden, welche Rolle der RAW Workflow (im Gegensatz zu anderen) unter den Forumsteilnehmern spielt.
RAW (ARRI/BM/RED etc.) nehmen mit 12 Linear auf und das debayert in der Post zu 16 bit LOG(von ein paar Ausnahmen mal abgesehen)
Und ja - mit 16bit kann man für gewöhnlich mehr anfangen als mit 10 bit - das sollte ja eigentlich nicht mal hier ne Frage sein.
Ist das immer nötig?
Nein, natürlich nicht - wenn man genug Ressourcen hat (Licht/Schatten, Setdesign, Crew, Zeit, Manpower etc) dann kann man mehr vom endgültigen Look am Set machen, und weniger in der Post.
Der raw Workflow unterscheidet sich - was die Komplexität betrifft - null vom Workflow mit z.b. ProRes oder sonstwas, deshalb spielt das auch keine Rolle.
Auf was Filme oder Serien gedreht werden, hat alle möglichen Gründe. Meistens geht's beim DP los, der ne bestimmte Kamera will, und dann halt auch der aktuelle Stand der Technik.
Game of Thrones wurde z.B. zuerst auf HDCam SR (Season 1) gedreht, dann auf ARRI raw (Codex) und ProRes 444 (Season 2) und am Ende sogar auf RED raw (Season 5).
Laut Shotonwhat wurden auf
ProRes 183 Filme gedreht, auf ARRI raw 237, auf RED raw 295, auf AVCHD 19,
auf Canon Cinema raw 18, auf Sony raw 10, auf XDCAM 10, Uncompressed 20, auf BM raw 9.
Das betrifft natürlich nur das, was da gelistet ist, und bei nicht jedem Film stehen die Angaben für den Codec - sollte aber als Anhaltspunkt reichen.
Ich denke mal, daß es in den letzten Jahren einen starken Trend gibt, raw zu drehen - schon weil alle anderen Codecs in der Post keinen Vorteil mehr haben. Oder anders herum - wer nicht aus irgendeinem Grund auf was anderes angewiesen ist, dreht heute raw, wenigstens bei einer kommerziellen Produktion, bei Hobbyfilmern mag das anders sein, schon allein wegen der üblichen "gut genug" Mentalität.
Was auf jeden Fall immer ne schlechte Idee ist: die Kombination aus 8bit und LOG/FLAT - da sollten es dann mindestens 10 bit sein.
Antwort von roki100:
Wenn Frank das so schreibt, dann ist das so. Also mindestens 10Bit und gut ist. Jetzt kann ich mich wieder hinlegen. ;)
Antwort von iasi:
mash_gh4 hat geschrieben:
pillepalle hat geschrieben:
Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet.
DANKE!
genau so ist es!
und da diesem umstand in den 20 nachfolgenden redebeiträgen nicht die geringste beachtung geschenkt wird, sondern nur weiter dieses unsinnige kindergartentehater rund um völlig vom jeweiligen verwendungskontext losgelöste bittiefen-angaben exzesse feiert, dürfte dieses faktum vermutlich ein aussagekräftigeres indirektes beurteilungskriterum über den zustand dieses forums bzw. den tatsächlichen wissenshorizont der aktiv an diskusionen beteiligten darstellen als es die auszählung der oben angekreuzten fragestellungen jemals erlauben wird.
Hui. Da wird also das Debayering nicht in der Kamera erledigt, sondern am Rechner. Überraschenderweise geschieht dies gleich als erste Rechenoperation und erzeugt - na schau mal an - Bilder mit einer bittiefe.
Und mit diesen Bildern arbeitet dann die Gradingssoftware.
Es nutzt dann rein gar nichts, wenn das Debayering später stattfindet, wenn es sich um 8bit-Raw handelt.
Warum wohl rümpfen viele Fotografen die Nase, wenn sie "nur" 12bit-Raw bei Serienbildern von einer Kamera bekommen?
Es ist wohl eher Kindergarten-Niveau, wenn man nicht auch mal einen Blick über den Zaun wirft.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Was ist denn hier schon wieder los?
Euch kann man echt keinen Tag allein lassen ;-)
pillepalle hat geschrieben:
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe. Log geht aber schon und macht bei 12bit Formaten durchaus Sinn. Das wesentliche Kriterium, ob es sich um eine RAW Datei handelt ist aber das Demosaicing/Debayering, das erst später stattfindet. Die Qualitativ nächst bessere Option zu RAW ist eben 10bit Log. Es ging wohl hauptsächlich darum heraus zu finden, welche Rolle der RAW Workflow (im Gegensatz zu anderen) unter den Forumsteilnehmern spielt.
RAW (ARRI/BM/RED etc.) nehmen mit 12 Linear auf und das debayert in der Post zu 16 bit LOG(von ein paar Ausnahmen mal abgesehen)
Und ja - mit 16bit kann man für gewöhnlich mehr anfangen als mit 10 bit - das sollte ja eigentlich nicht mal hier ne Frage sein.
Ist das immer nötig?
Nein, natürlich nicht - wenn man genug Ressourcen hat (Licht/Schatten, Setdesign, Crew, Zeit, Manpower etc) dann kann man mehr vom endgültigen Look am Set machen, und weniger in der Post.
Der raw Workflow unterscheidet sich - was die Komplexität betrifft - null vom Workflow mit z.b. ProRes oder sonstwas, deshalb spielt das auch keine Rolle.
Auf was Filme oder Serien gedreht werden, hat alle möglichen Gründe. Meistens geht's beim DP los, der ne bestimmte Kamera will, und dann halt auch der aktuelle Stand der Technik.
Game of Thrones wurde z.B. zuerst auf HDCam SR (Season 1) gedreht, dann auf ARRI raw (Codex) und ProRes 444 (Season 2) und am Ende sogar auf RED raw (Season 5).
Laut Shotonwhat wurden auf
ProRes 183 Filme gedreht, auf ARRI raw 237, auf RED raw 295, auf AVCHD 19,
auf Canon Cinema raw 18, auf Sony raw 10, auf XDCAM 10, Uncompressed 20, auf BM raw 9.
Das betrifft natürlich nur das, was da gelistet ist, und bei nicht jedem Film stehen die Angaben für den Codec - sollte aber als Anhaltspunkt reichen.
Ich denke mal, daß es in den letzten Jahren einen starken Trend gibt, raw zu drehen - schon weil alle anderen Codecs in der Post keinen Vorteil mehr haben. Oder anders herum - wer nicht aus irgendeinem Grund auf was anderes angewiesen ist, dreht heute raw, wenigstens bei einer kommerziellen Produktion, bei Hobbyfilmern mag das anders sein, schon allein wegen der üblichen "gut genug" Mentalität.
Was auf jeden Fall immer ne schlechte Idee ist: die Kombination aus 8bit und LOG/FLAT - da sollten es dann mindestens 10 bit sein.
Ich erinnere mich, dass der damals zweite Mann von Red zu einem großen Studio wechselte, um dort den Umstieg auf 4k-Workflow zu unterstützen. Damals gab es schon die 2.Generation von Red-Cams und auch 4k-Cams von anderen Herstellern wie Sony.
Es bedarf immer etwas mehr Zeit, bis große Produktionen sich umstellen. Raw scheint aber mittlerweile bei allen angekommen zu sein. Wobei man eben immer bedenken muss, dass von der Vorproduktion mit der Wahl der Produktionstechnik, bis zum Ende der Post-Pro geraume Zeit vergeht.
Nur noch wenige Produktionen werden wohl aktuell ein 10bit- oder gar 8bit-Format wählen. Sehr viele Gründe sprechen nicht mehr für diese Beschränkung.
Selbst die lichtempfindliche Sony FX3 gibt 16bit-Raw extern aus.
Ich sehe z.B. nur bei Projekten mit sehr langer Aufnahmedauer und wenig Post-Zeit einen gewichtigen Grund für 10bit.
Wenn die Aufnahmesituation zudem keine großen Anforderungen stellt und/oder keine Post sinnvoll ist, kann es auch 8bit sein.
Wenn Zeit fürs Grading ist und das, was sich vor der Kamera abspielt den Aufwand wert ist, gibt es doch keinen Grund mehr, auf Raw oder zumindest 12bit zu verzichten.
Oder fällt euch einer ein?
|
Antwort von Jost:
iasi hat geschrieben:
Ich erinnere mich, ...
Ist alles überholt. Und eh egal, wenn man mit 13 Blendenstufen filmt. Was nicht da ist, kann man nicht zeigen.
Ob "RAW", ob "Codec" - wie viele Engel passen auf eine Nadelspitze?
Antwort von mash_gh4:
cantsin hat geschrieben:
pillepalle hat geschrieben:
Ich kenne jedenfalls kein RAW Format das in 10 bit aufgezeichnet werden kann. Das sind immer 12bit oder mehr Farbtiefe.
Ausnahme: Sigma fp. Die kann optional 10bit und sogar 8bit-CinemaDNG RAW aufzeichnen.
Gleiches für Canon-Kameras mit MagicLantern-Hack. Da geht zumindest Reduktion auf 10bit RAW.
Früher gab es auch Foto-Kameras mit 10bit-RAW-Stills, z.B. die Canon Powershot G2.
wobei man halt der ehlichkeit habler auch dazu fügen sollten, dass man leider mit diesen sehr stark eingeschränkten RAW-varianten wirklich kaum irgendwelche vorteile gegenüber den fertig gebackenen JPEGs od. h264 videos aus den betreffenden kameras realisieren kann.
ich spiel mich ja mit dem zeug auch seit den ersten CHDK hacks herum, und musste anfangs auch ganz enttäuscht feststellen, dass RAW-kaum etwas bringen, wenn sie nicht deutlich präzisere daten enthalten. mit den RAW-bildern vieler durchschnittlicher handys ist das leider bis heute so gebleiben. da sind oft die JPEG-bilder aus den integrierten bildprozessoren oft deutlich besser als alles, was man aus den RAW daten heraushoilen kann.
mit guten kameras bzw. adäquaten RAW-daten ist das aber natürlich ganz etwas anders.
zumindest in der fotografie arbeite ich längst mit nichts anderem mehr. beim filmen ist das schwieriger, weil es eben wirklich kaum vernünftige und erschwingliche lösungen gibt, die einem das ohne inakzeptable andere kompromisse ermöglichen würden. so gesehen braucht man auch in dieser hinsicht nicht wirklich lange herumdiskutieren, weil uns eine entsprechende option im alltag normalerweise ohnehin nicht zur verfügung steht.
cantsin hat geschrieben:
mash_gh4 hat geschrieben:
DANKE!
genau so ist es!
Leider nicht mehr - siehe BRAW, Z-Cam "Raw" etc.etc.
ja -- aber diesen schummel mit bezeichnungen muss man ja nicht mitmachen.
damit ist ja nicht gesagt, dass man mit guten LOG-formaten nicht auch feine bilder kreieren kann, aber mit RAW-aufzeichnung und deren gezielter späterer aufbereitung hat das denn eben leider nur mehr sehr bedingt zu tun.
allerdings geht's mir persönlich immer sehr stark darum, dass material im ersten arbeitschritt tatsächlich in eine möglichst neutrale form bzw. korrekte farbabbildung zu bringen, also die kameratypischen bzw. sensor-eigenheiten möglichst zu kompensieren, um dann ausgehend davon sinnvolle kreative eingriffe vorzunehmen.
dabei stellt sich problem, dass es im falle fertig aufbereitete bild- oder videodaten -- ganz egal welcher bittiefe -- in der regel mathematisch unmöglich ist, die voragaben der hersteller bzw. die bereits erfolgten eingriffe in die farbaufbereitung wieder befriedigend rückgängig zu machen, und damit wieder eine derartige korrekte ausgangsbasis in scene referred linear light, wie man sie für ACES workflows benötigt, zu realisieren. mit den LOG-formaten ist das dagegen meist einigermaßen sauber umsetzbar.
Antwort von iasi:
Jost hat geschrieben:
iasi hat geschrieben:
Ich erinnere mich, ...
Ist alles überholt. Und eh egal, wenn man mit 13 Blendenstufen filmt. Was nicht da ist, kann man nicht zeigen.
Ob "RAW", ob "Codec" - wie viele Engel passen auf eine Nadelspitze?
Was? Wie?
Willst du etwa damit aussagen, 13 Blendenstufen wären zu wenig?
Wenn ich bedenke, dass man beim Zonensystem mal von 11 Blendenstufen ausgegangen ist. Früher. Zu Negativzeiten.
Aber heute braucht man scheinbar dringend mehr als 13 Blendenstufen, damit es dann auf youtube cinefantastisch aussieht. :)
Antwort von mash_gh4:
iasi hat geschrieben:
mash_gh4 hat geschrieben:
DANKE!
genau so ist es!
und da diesem umstand in den 20 nachfolgenden redebeiträgen nicht die geringste beachtung geschenkt wird, sondern nur weiter dieses unsinnige kindergartentehater rund um völlig vom jeweiligen verwendungskontext losgelöste bittiefen-angaben exzesse feiert, dürfte dieses faktum vermutlich ein aussagekräftigeres indirektes beurteilungskriterum über den zustand dieses forums bzw. den tatsächlichen wissenshorizont der aktiv an diskusionen beteiligten darstellen als es die auszählung der oben angekreuzten fragestellungen jemals erlauben wird.
Hui. Da wird also das Debayering nicht in der Kamera erledigt, sondern am Rechner. Überraschenderweise geschieht dies gleich als erste Rechenoperation und erzeugt - na schau mal an - Bilder mit einer bittiefe.
Und mit diesen Bildern arbeitet dann die Gradingssoftware.
Es nutzt dann rein gar nichts, wenn das Debayering später stattfindet, wenn es sich um 8bit-Raw handelt.
bitte lieber iasi mach dich einmal schlau, wie komplex dieser erste schritt -- also das debayering/demosaicing -- tatsächlich ist bzw. wie viele eingriffs- und verbesserungsmöglichkeiten sich hier im laufe der zeit aufgetan haben und laufend weiterentwickelt werden.
ein beispiel, das ich hier im forum ohnehin bereits mehrfach erwähnt habe, sind diese foschungen rund um ein gemeinsames debayern und denoisen mit hilfe von CNNs, wo man fehler minimieren kann, die ansonsten unvermeidbar sind, wenn man beide aufbereitungschritte hintereinander durchführt, und auch eine mimierung der moire-anfälligkeit bzw. deutlich sauberere rekonstruktion von farbkonturen erlauben (z.t. sind diese geschichten übrigens nur ein paar häuser von mir entfernt entwickelt worden ;)):
https://research.nvidia.com/sites/defau ... lexISP.pdf
https://groups.csail.mit.edu/graphics/d ... mosaic.pdf
https://kunzmi.github.io/NNDemosaicAndDenoise/
das geht sehr weit über das hinaus, was einem von den meisten herstellern momentan als einfach zu realisierende lösung in käuflichen kameras geboten wird, und eben leider in der praxis sehr oft zu allseits bekannten sichtbare störungen in den bildern führt.
ich behaupte ja nicht, dass man mit konventionellen mitteln nicht auch schöne bilder machen kann, die ihren zweck erfüllen, aber zumindest sollte man über einige der damit verbundenen kompromisse und einschränkungen wenigstens bescheid wissen, wenn man ersthaft über die relevanz von RAW-daten bzw. die damit verbundenen eingriffsmöglichkeiten diskutieren will.
Antwort von iasi:
cantsin hat geschrieben:
Leider nicht mehr - siehe BRAW, Z-Cam "Raw" etc.etc.
Warum leider?
Man sollte sich doch nichts vormachen und denken, man könne mit den reinen Sensordaten wirklich etwas brauchbares anfangen - ohne das vom Hersteller auf den Sensor abgestimmte Demosaicing.
Red verwendet sehr viel Zeit auf die Color-Science neuer Modelle.
BM hat BRaw auf die Ursa 12k abgestimmt.
Ich will gar nichts anderes von Red als RedRaw für ihre Kameras.
Ich will BRaw für die BM-Cams.
Viel wichtiger sind die Daten in Form von Helligkeitsabstufungen.
Antwort von iasi:
mash_gh4 hat geschrieben:
iasi hat geschrieben:
Hui. Da wird also das Debayering nicht in der Kamera erledigt, sondern am Rechner. Überraschenderweise geschieht dies gleich als erste Rechenoperation und erzeugt - na schau mal an - Bilder mit einer bittiefe.
Und mit diesen Bildern arbeitet dann die Gradingssoftware.
Es nutzt dann rein gar nichts, wenn das Debayering später stattfindet, wenn es sich um 8bit-Raw handelt.
bitte lieber iasi mach dich einmal schlau, wie komplex dieser erste schritt -- also das debayering/demosaicing -- tatsächlich ist bzw. wie viele eingriffs- und verbesserungsmöglichkeiten sich hier im laufe der zeit aufgetan haben und laufend weiterentwickelt werden.
ein beispiel, dass ich hier im forum ohnehin bereits mehrfach erwähnt habe, sind diese foschungen rund um ein gemeinsames debayern und denoisen mit hilfe von CNNs, wo man fehler minimieren kann, die ansonsten unvermeidbar sind, wenn man beide aufbereitungschritte hintereinander durchführt, und auch eine mimierung der moire-anfälligkeit bzw. deutlich sauberere rekonstruktion von farbkonturen erlaubt (z.t. sind diese geschichten übrigens nur ein paar häuser von mir entfernt entwickelt worden ;)):
https://research.nvidia.com/sites/defau ... lexISP.pdf
https://groups.csail.mit.edu/graphics/d ... mosaic.pdf
https://kunzmi.github.io/NNDemosaicAndDenoise/
das geht sehr weit über das hinaus, was einem von den meisten herstellern momentan als einfach zu realisierende lösung in käuflichen kameras geboten wird, und eben leider in der praxis sehr oft zu allseits bekannten sichtbare störungen in den bildern führt.
ich behaupte ja nicht, dass man mit konventionellen mitteln nicht auch schöne bilder machen kann, die ihren zweck erfüllen, aber zumindest sollte man über einige der damit verbundenen kompromisse und einschränkungen wenigstens bescheid wissen, wenn man ersthaft über die relevanz von RAW-daten bzw. die damit verbundenen eingriffsmöglichkeiten diskutieren will.
Ich habe mich durchaus damit beschäftigt. Auch mit den mathematischen Hintergründen.
Aber du solltest auch bedenken, dass ein Rechner, der auf viele unterschiedliche Anwendungen ausgelegt ist, auch nicht leistungsfähiger sein muss, wie eine für spezielle Aufgaben augelegte Recheneinheit.
Und ein Hersteller kann seine Algorithmen nun einmal weit besser auf seinen Sensor auslegen. Was nutzt mir z.B. ein Kodakchrome oder Illford XP-1 Film, wenn ich nicht die passende Eintwicklung erhalte.
Du hast natürlich recht damit, dass man mit Raw-Material von verbesserten Color-Science des Herstellers profitieren kann - oder auch von höherer Rechnenleistung und damit aufwendigeren Algorithmen. Aber letztlich muss dies dann auch vom Hersteller kommen - und dieser wird dann seine Raw-Formate verbessern - bei Red ist es RedRaw, bei BM dann BRaw.
Von der ganz praktischen Seite ist es mir lieber, dass BM mit BRaw kein reines Raw-Format, aber dafür eben 6k 50fps 12bit bietet - die ich eben auch noch handeln kann.
Oder die spannende Sensorentwicklung von BM. Ohne BRaw wäre sie nicht möglich. Ich halte Bayer-Sensoren mittlerweile für veraltet.
|
|
Antwort von Jost:
iasi hat geschrieben:
Jost hat geschrieben:
Ist alles überholt. Und eh egal, wenn man mit 13 Blendenstufen filmt. Was nicht da ist, kann man nicht zeigen.
Ob "RAW", ob "Codec" - wie viele Engel passen auf eine Nadelspitze?
Was? Wie?
Willst du etwa damit aussagen, 13 Blendenstufen wären zu wenig?
Filme mal Wellenreiten: Brodelndes Weißwasser und stockschwarzer Neopren-Anzug in Bewegung.
13 Blendenstufen ist: Der Schornsteinfeger rutscht das Schnee-Dach runter.
Was hast Du denn gedacht? Dass man rausholen kann, was der Sensor nicht kann?
Antwort von pillepalle:
Ich glaube niemand hat etwas gegen mehr Bildinformationen (Bittiefe/Auflösung), oder das RAW Format, per se. Nur ist der Workflow in vielen Fällen eben nicht so geschmeidig wie z.B. bei Blackmagic mit BRAW und Resolve, die beide vom gleichen Hersteller kommen. Dann hat man eben oft mit unterschiedlicher Software (durch Inkompatibilität), oder großen Dateiformaten zu tun, was umständlicher und kostspieliger sein kann (Speichermedien, Rechenleistung, zusätzliche Softwarekosten, höherer Einarbeitungsaufwand ect.), im Gegensatz zu 10bit Log-Formaten, mit der heutzutage eigentlich jede NLE klar kommt und für die es passende LUTs gibt. Das ist doch der Wesentliche Grund, weshalb viele nicht in RAW arbeiten. Abgesehen von denen die es wirklich nicht brauchen.
Bei großen Produktionen spielt das aber kaum eine Rolle, da ohnehin oft mit unterschiedlichen Kameras gedreht wird und das Material über Intermediates in viele verschiedene Hände und Anwendungen gelangt (VFX, Schnitt, Colorgrading, Ton, Mastering). Es also ohnehin nicht nur bei einer Person und Software landet.
Man sollte die Formatfrage nur nicht so dogmatisch sehen. Gestalten kann man in jedem Format. Zu Filmzeiten hat man auch schon gestaltet. Nur eben im Wesentlichen vorher und nicht erst im Nachhinein ;) Vielleicht also sogar konsequenter, als die Beliebigkeit im Ergebnis die die Einführung der Digitaltechnik zur Folge hatte. Es muss nämlich ein gewisser Aufwand betrieben werden, damit das ursprüngliche Bild, was ein Filmemacher heutzutage im Kopf hatte, tatsächlich auch so auf der Leinwand landet und nicht den kreativen Ergüssen eines Mitarbeiters in der Post zum Opfer fällt. Bei allen Vorteilen/Möglichkeiten die die neue Technik bietet, sollte man das Wesentliche dabei nicht ganz aus den Augen verlieren.
VG
Antwort von Frank Glencairn:
Da muß der Wille zur Gestaltung aber auch vorhanden sein.
Viele "all I want is the perfect camera" Typen haben daran ja gar kein Interesse,
sonder erwarten daß die Kamera nicht nur mit allem klar kommen muß (automatisch gefälligst), was man ihr vor die Linse setzt,
auch denken die nicht im Traum an irgendeine Art von Gestaltung, weil das ja viel zu anstrengend und umständlich wäre.
Am liebsten Dogme95 style shooting, freihändig (Stabi), immer scharf (AF), ohne Licht (ISO 50000000), ohne Schatten (Interner stufenloser auto ND), und natürlich mindestens 5.1 Ton aus den internen Mikros.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Da muß der Wille zur Gestaltung aber auch vorhanden sein.
Viele "all I want is the perfect camera" Typen haben daran ja gar kein Interesse,
sonder erwarten daß die Kamera nicht nur mit allem klar kommen muß (automatisch gefälligst), was man ihr vor die Linse setzt,
auch denken die nicht im Traum an irgendeine Art von Gestaltung, weil das ja viel zu anstrengend und umständlich wäre.
Am liebsten Dogme95 style shooting, freihändig (Stabi), immer scharf (AF), ohne Licht (ISO 50000000), ohne Schatten (Interner stufenloser auto ND), und natürlich mindestens 5.1 Ton aus den internen Mikros.
Das klingt nun aber doch auch etwas abgehoben.
Wer den Willen zur Gestaltung hat, der sieht doch in Stabi, AF, hoher Empfindlichkeit, stufenlosen ND nicht a priori etwas Verwerfliches.
Kramen wir mal das alte Beispiel heraus: Kubrik würde heute wohl so eine Kamera wie die FX3 für eine Kerzenszene nutzen.
Für die Möglichkeit der Veränderung der Schärfentiefe durch den automatischen, stufenlosen ND könnte man sich auch Einstellungen vorstellen - z.B. eine Person in einer Menge, die isoliert wird. Eben als Ausdrucksmittel nutzbar.
Wer die Filmsprache beherrschen will, der muss auch bereit sein, ständig sein Vokabular zu erweitern.
Antwort von iasi:
Jost hat geschrieben:
iasi hat geschrieben:
Was? Wie?
Willst du etwa damit aussagen, 13 Blendenstufen wären zu wenig?
Filme mal Wellenreiten: Brodelndes Weißwasser und stockschwarzer Neopren-Anzug in Bewegung.
13 Blendenstufen ist: Der Schornsteinfeger rutscht das Schnee-Dach runter.
Was hast Du denn gedacht? Dass man rausholen kann, was der Sensor nicht kann?
Ein Hund mit schwarz-weißem Fell in der hohen Mittagssonne?
Ach ja - und natürlich eine Person unter einem Laubbaum im Schatten mit die Sonne oben satt im Gegenlicht.
Nicht zu vergessen, der Mann, der einzig vom Glimmen seiner Zigarette beleuchtet wird, während im Hintergrund das Stadion taghell beleuchtet ist.
Ja - all das muss die richtige Kamera natürlich abkönnen.
Der Schornsteinfeger rutscht das Schnee-Dach runter. sind nicht zwangsläufig 13 Blendenstufen.
Antwort von Whazabi:
roki100 hat geschrieben:
Whazabi hat geschrieben:
Ich glaub hier werden mehrere Sachen einfach in einen Topf geschmissen.
Wo ist denn der große Unterschied zwischen 10bit Log und RAW recording?
Oder andersrum gefragt. Kann RAW nicht auch in 10bit Log aufgezeichnet werden?
Von daher weiß ich nicht so recht, was ich da auswählen soll.
Da wirst Du kaum Visuelle unterschiede erkennen (Gegenbeweise hat bisher noch keiner geliefert, stattdessen habe ich mich mit viel Testen selbst überzeug)...Beim Colorgrading macht sich 2Bit+ in dem Bereich bemerkbar, wo man auch bei 10Bit den Farbregler nicht bewegen würde....Der einzige unterschied bei RAW ist eben, WB, ISO wird nicht in Videofile eingebacken und man kann die Option Highlight Recovery nutzen (HR ist bei manchen RAW Formate per default aktiviert, bei CDNG, BRAW lässt sich HR nachträglich aktivieren). Das sind die einzige sichtbare Unterschiede.
Das ist ja eben genau das worauf ich hinaus will. Wenn du ProRes Material perfekt belichtest so wie du es haben willst, dann brauchst du RAW definitiv nicht.
Der Vorteil von RAW ist, dass du dir bei der Aufnahme weniger Gedanken machen musst, weil du in der Post viel mehr Spielraum hast.
10Bit Log ist hingegen ein anderer Schuh. Das beschreibt eher wie viel Dynamik ich in meinem digitalen Signal unterbringen kann.
Beides direkt miteinander zu vergleichen ist in etwa so sinnvoll, wie die PS-Zahl des einen Autos mit dem Kofferraum-Volumen des anderen zu vergleichen.
Es sind halt unterschiedliche Ansätze.
Und wie viele Bits denn nun ausreichen, naja das hängt von der Kamera ab bzw. vor allem vom Dynamik-Umfang.
Wenn ich mit meiner Kamera 16stops Dynamik aufzeichnen möchte, dann brauch ich erst mal ein digitales 16bit Signal.
Warum kann meine Kamera mit 12bit dann trotzdem einen so großen Dynamikbereich abdecken? Naja das liegt eben genau am Log-Format.
Log komprimiert die HIghlights, sodass letztlich mehr vom 16stop Bild in den 12bit Container passt.
Bestes Beispiel A7s3 ProRes RAW die Kamera gibt 16bit linear aus, aber der Atomos Recorder kann nur 12 bit aufzeichnen. Lösung: 12bit Log.
So bekomm ich die Dynamik von meinem 16bit linear Signal in meinem 12bit Signal unter.
Nachteil: Ich muss die Highlights etwas komprimieren, aber solang ich kein extremes Grading mache und richtig belichtet habe, merkt das kein Mensch.
Wenn ich jetzt keine Kamera hab, die so viel Dynamik aufzeichnen kann, oder ich ein kontrastarmes Motiv habe, dann brauch ich natürlich nicht so viele Bits und auch kein Log.
Aber naja wofür schafft man sich denn teure Kameras an? Doch nicht zuletzt auch deswegen, weil sie ein besseres Bild mit mehr Dynamik bieten.
Edit: Ahja und so nebenbei. Für normales SDR Signal braucht man die 13+stops heutiger Kameras nicht. Wenn wir uns aber Richtung HDR (HDR10, Dolby Vision) bewegen, dann macht es schon Sinn möglichst viel von dem was die Kamera kann auch zu nutzen. Denn genaugenommen sind 13stops eigentlich noch viel zu wenig um die Möglichkeiten des HDR-Signals auch nur ansatzweise auszuschöpfen.
Antwort von iasi:
pillepalle hat geschrieben:
Man sollte die Formatfrage nur nicht so dogmatisch sehen. Gestalten kann man in jedem Format. Zu Filmzeiten hat man auch schon gestaltet. Nur eben im Wesentlichen vorher und nicht erst im Nachhinein ;) Vielleicht also sogar konsequenter, als die Beliebigkeit im Ergebnis die die Einführung der Digitaltechnik zur Folge hatte. Es muss nämlich ein gewisser Aufwand betrieben werden, damit das ursprüngliche Bild, was ein Filmemacher heutzutage im Kopf hatte, tatsächlich auch so auf der Leinwand landet und nicht den kreativen Ergüssen eines Mitarbeiters in der Post zum Opfer fällt. Bei allen Vorteilen/Möglichkeiten die die neue Technik bietet, sollte man das Wesentliche dabei nicht ganz aus den Augen verlieren.
VG
Zu Negativzeiten war da kein Vorschaumonitor auf den man starrte um Farben und Lichter zu beurteilen. Und die Entwicklung der Negative fand in der Post statt, wobei man dann einen sehr genau geplanten und kontrollierten Entwicklungsprozess hatte. Und dann hatte man zunächst auch erst einmal nur das entwickelte Negativ.
Heute denkt man, man müsse das fertige Bild schon während der Aufnahme sehen, das ein Filmemacher heutzutage im Kopf hat.
Mir kommt dann immer die Anekdote über Freddy Young in den Sinn, der gleich bei Sonnenaufgang mit einem Belichtungsmesser durch den Sand robbt, um die Schatten von Fußabdrücken für den Dreh am folgenden Tag auszumessen.
Heute will man die Kamera aufstellen, auf den Vorschaubildschirm starren und dabei fleißig im Kameramenü herumwerkeln, bis das fertige Bild entsteht, das sofort auf die Leinwand kann. :)
Antwort von Funless:
Auch wenn das für den einen oder anderen provokant klingt, doch solange es Leute gibt die denken, dass RAW Video das einzig notwendige wäre um das fertige Bild "perfekt zu gestalten" so lange wird diese leidige Diskussion auch kein Ende nehmen.
Man sollte IMHO schon vorher wissen wie das fertige Bild aussehen soll und die Aufnahme dementsprechend mithilfe des gezielten Einsatzes von Licht vorbereiten. Und da muss es nicht mal immer zwangsläufig eine LKW-Ladung voller Leuchtmittel sein (was hier gerne als "Totschlagargument" hergenommen wird), denn schon mit einem Reflektor oder practicals kann man so einiges an Bildwirkung realisieren.
Wer sich allerdings im Vorfeld keine Gedanken darüber machen möchte wie das Ergebnis am Ende aussehen soll, der sieht natürlich RAW-Video als Allheilmittel. Erstmal filmen, das wird in der post dann schon so wie gewünscht hingebogen. Improvisationstheater kann ab und zu sehenswert sein. Aber als Workflow Standard? Ich denke eher nicht.
Antwort von iasi:
Funless hat geschrieben:
Auch wenn das für den einen oder anderen provokant klingt, doch solange es Leute gibt die denken, dass RAW Video das einzig notwendige wäre um das fertige Bild "perfekt zu gestalten" so lange wird diese leidige Diskussion auch kein Ende nehmen.
Man sollte IMHO schon vorher wissen wie das fertige Bild aussehen soll und die Aufnahme dementsprechend mithilfe des gezielten Einsatzes von Licht vorbereiten. Und da muss es nicht mal immer zwangsläufig eine LKW-Ladung voller Leuchtmittel sein (was hier gerne als "Totschlagargument" hergenommen wird), denn schon mit einem Reflektor oder practicals kann man so einiges an Bildwirkung realisieren.
Wer sich allerdings im Vorfeld keine Gedanken darüber machen möchte wie das Ergebnis am Ende aussehen soll, der sieht natürlich RAW-Video als Allheilmittel. Erstmal filmen, das wird in der post dann schon so wie gewünscht hingebogen. Improvisationstheater kann ab und zu sehenswert sein. Aber als Workflow Standard? Ich denke eher nicht.
Ja - heute denkt man eben, man müsse den fertigen Film möglichst schon während des Drehs sehen.
Und dann kommt dieses Argument, dass ja das Bild am Drehort entstehen müsse.
Dieses Improvisationstheater dieser Negativ-Filmer kann man natürlich heute nicht mehr nachvollziehen. Dabei schauten die Leute doch früher auch in eine Sucheröffnung.
Und dann Leute wie dieser Gregg Toland, von dem sagt, er habe oft nur ein einziges Leuchtmittel beim Dreh von "Früchte des Zorns" genutzt.
Na ja, das war schließlich nur ein SW-Film. ;)
Heute können wir auf unseren Vorschaumonitor schauen und sofort sehen, wie schön unsere Ausleuchtung gelingt. Wir sehen schon am Set auf unserem 7"ler, was die Zuschauer auf der Leinwand und auf ihren großen Fernsehern in kurzer Zeit präsentiert bekommen. :)
Antwort von Jörg:
iasi schreibt
Zu Negativzeiten war da kein Vorschaumonitor auf den man starrte um Farben und Lichter zu beurteilen. Und die Entwicklung der Negative fand in der Post statt, wobei man dann einen sehr genau geplanten und kontrollierten Entwicklungsprozess hatte. Und dann hatte man zunächst auch erst einmal nur das entwickelte Negativ.
ich denke, das werden heute nur wenige noch so sehen, wie denn auch, wenn man fast kostenlos hunderterbilderserien schießen kann, eins wird schon passen...allein die Kosten der analogen
Fotografie/Filmerei hat uns ja dazu gezwungen, zumindest einige Gedanken ans Vorhaben v o r a b zu
verschwenden.
dafür murren heute die Leute über Speichermedienpreise ;-))
funless hat Recht
Erstmal filmen, das wird in der post dann schon so wie gewünscht hingebogen.
Hauptsache, man kann die hilites recovern...
Antwort von cantsin:
Kling vielleicht paradox, aber IMHO ist Video-RAW bei Prosumer-Kameras viel relevanter als bei professionellen Kameras; also in der Preisklasse von 150 EUR (gebrauchte EOS-M) bis 4000 EUR (A7sIII & Co). Und zwar dann, wenn man eine andere Bildästhetik will als die SOOC-Prozessierung, die bei allen Consumer-/Prosumer-Kameras auf 'knackig' getunt ist, mit starker Rauschfilterung, Nachschärfung, angehobenem Bildkontrast und wenig Differenzierung von Sättigungsgraden.
Kameras ab der 6000-EUR-Klasse (C200 & Co.) haben diese aufgebrezelte, aggressive Bildprozessierung nicht, so dass man besser mit dem SOOC-Material arbeiten kann, auch wenn man den 'knackig'-Look nicht will. Unterhalb dieser Preisklasse muss dann halt zu Blackmagic, ZCam oder der Panasonic S1H greifen.
Antwort von Mediamind:
Für mich bringt RAW keine Vorteile, sondern nur mehr Arbeit. Für mein Zeugs war 10 Bit ein Sprung nach Vorne. Der RAW-Workflow nimmt mir die Leistigkeit, die ich so sehr zu schätzen gelernt habe. Meine Cages stauben vor sich hin, den Ninja hole ich kaum mehr raus. Das aufriggen zu einem Workflow zu erheben, bringt mir rein gar nichts. Ich mache bessere Aufnahmen, wenn ich flexibel aufnehmen kann und nicht mit zu viel Balast unterwegs bin. Solange RAW nicht bei meinen Kameras intern aufgenommen werden kann, spare ich mir das für ganz besondere Anlässe auf.
Antwort von Funless:
iasi hat geschrieben:
Funless hat geschrieben:
Auch wenn das für den einen oder anderen provokant klingt, doch solange es Leute gibt die denken, dass RAW Video das einzig notwendige wäre um das fertige Bild "perfekt zu gestalten" so lange wird diese leidige Diskussion auch kein Ende nehmen.
Man sollte IMHO schon vorher wissen wie das fertige Bild aussehen soll und die Aufnahme dementsprechend mithilfe des gezielten Einsatzes von Licht vorbereiten. Und da muss es nicht mal immer zwangsläufig eine LKW-Ladung voller Leuchtmittel sein (was hier gerne als "Totschlagargument" hergenommen wird), denn schon mit einem Reflektor oder practicals kann man so einiges an Bildwirkung realisieren.
Wer sich allerdings im Vorfeld keine Gedanken darüber machen möchte wie das Ergebnis am Ende aussehen soll, der sieht natürlich RAW-Video als Allheilmittel. Erstmal filmen, das wird in der post dann schon so wie gewünscht hingebogen. Improvisationstheater kann ab und zu sehenswert sein. Aber als Workflow Standard? Ich denke eher nicht.
Ja - heute denkt man eben, man müsse den fertigen Film möglichst schon während des Drehs sehen.
Und dann kommt dieses Argument, dass ja das Bild am Drehort entstehen müsse.
Dieses Improvisationstheater dieser Negativ-Filmer kann man natürlich heute nicht mehr nachvollziehen. Dabei schauten die Leute doch früher auch in eine Sucheröffnung.
Und dann Leute wie dieser Gregg Toland, von dem sagt, er habe oft nur ein einziges Leuchtmittel beim Dreh von "Früchte des Zorns" genutzt.
Na ja, das war schließlich nur ein SW-Film. ;)
Heute können wir auf unseren Vorschaumonitor schauen und sofort sehen, wie schön unsere Ausleuchtung gelingt. Wir sehen schon am Set auf unserem 7"ler, was die Zuschauer auf der Leinwand und auf ihren großen Fernsehern in kurzer Zeit präsentiert bekommen. :)
Entweder kannst du nicht verstehen was ich geschrieben habe oder du willst es nicht verstehen, dabei ist beides äußerst bedenklich.
Es geht darum, dass man im Vorfeld wissen sollte wie das fertige Bild aussehen soll und nicht darum das fertige Bild während der Aufnahme auch schon zu sehen.
Alles was du hier und auch in anderen Threads zu diesem Thema anführst impliziert, dass du dir bei deinen Projekten im Vorfeld überhaupt keine Gedanken darüber machen möchtest, wie das fertige Ergebnis aussehen soll, nicht mal als eine grobe "Vision" welche Bildwirkung du überhaupt am Ende erzielen willst. Hauptsache die Kamera(s) bieten dir genügend RAW Potenzial in der post damit du (offenbar nach try & error Prinzip) so lange "gestalten" kannst bis sich dir dein Heureka Erlebnis offenbart. Und das eigentlich paradoxe an deiner Argumentation ist, dass du Filmmacher Beispiele angibst von denen allesamt nicht so an ihre Projekte herangegangen sind, sondern im Vorfeld ganz genau wussten welche Bildwirkung sie am Ende erzielen wollten.
Wie gesagt, das was du allerdings anführst ist nichts anderes als Improvisationsfilmen. Kann man ab und zu als Experiment machen, aber als paradigmenwechselnde Revolution des kommerziellen Filmemachens sehe ich das eher nicht.
Ich wäre wirklich gerne dabei wie bei dir ein Investorenpitch für deine Projekte aussehen würde nur um die Gesichter der potenziellen Geldgeber zu sehen.
Antwort von Whazabi:
Mediamind hat geschrieben:
Für mich bringt RAW keine Vorteile, sondern nur mehr Arbeit. Für mein Zeugs war 10 Bit ein Sprung nach Vorne. Der RAW-Workflow nimmt mir die Leistigkeit, die ich so sehr zu schätzen gelernt habe. Meine Cages stauben vor sich hin, den Ninja hole ich kaum mehr raus. Das aufriggen zu einem Workflow zu erheben, bringt mir rein gar nichts. Ich mache bessere Aufnahmen, wenn ich flexibel aufnehmen kann und nicht mit zu viel Balast unterwegs bin. Solange RAW nicht bei meinen Kameras intern aufgenommen werden kann, spare ich mir das für ganz besondere Anlässe auf.
100% Zustimmung. So mach ich das auch.
Bei meiner BMPCC verwende und schätze ich den RAW-Workflow sehr, weil er doch einige Vorteile bietet.
Aber BRAW is halt auch sehr komfortabel, weil es keinen (für mich) relevanten Mehraufwand bedeutet, vor allem da ich sowieso permanent mit Resolve arbeite.
Bei meiner A7S3 sieht das ganze anders aus, vor allem da Resolve ProRes RAW sowieso bislang nicht direkt unterstützt, aber auch weil ich keine Lust habe jedes mal immer einen externen Recorder inklusive SSDs mitschleppen zu müssen. Da is mir RAW den Mehraufwand nicht wert. Verwende ich lieber die interne Kamera-Aufzeichnung. Die liefert Dank 10bit S-Log auch ein wunderbares Ergebnis und dank ACES lassen sich Sachen auch wunderbar einfach in beliebige Farb-/Gamma-Räume konvertieren. Auch das Colormatching mit verschiedenen Kameras klappt damit echt hervorragend.
@Funless: Naja so wie du das ganze formulierst könnte man den Eindruck gewinnen, du stellst RAW-Befürworter unter Generalverdacht keine richtige Aufnahme-Planung mehr zu machen.
Zumindest aus eigener Erfahrung kann ich dir sagen, du kannst jeden Take noch zig mal vorm inneren Auge ablaufen lassen und durchplanen, am Ende kommt selten exakt das dabei raus was man wollte. Oder man stellt fest, dass die eigene Vorstellung nicht ganz so passend ist, wie man sich das gedacht hat. Was also tun? Alles nochmal neu machen? Noch 5 Wochen mehr in die Planung stecken, um wirklich selbst die letzte Eventualität abzudecken?
Genau in solchen Situationen ist es schön, dass man mit RAW eine Möglichkeit hat, noch relativ große Eingriffe in der Post durchzuführen. Entweder um näher an das gewünschte Ergebnis zu kommen, manchmal entdeckt man aber auch eine Alternative, die einem sogar noch besser taugt als das, was man eigentlich im Kopf hatte.
Und naja ich mein gerade wenn du das best Mögliche aus einer Kamera holen willst, du wirst selten eine echte Alternative zu einem guten RAW Workflow haben.
Ja es ersetzt natürlich keine vernünftige Planung und Umsetzung, aber es kann eine sehr sinvolle Ergänzung sein.
Antwort von Funless:
Whazabi hat geschrieben:
@Funless: Naja so wie du das ganze formulierst könnte man den Eindruck gewinnen, du stellst RAW-Befürworter unter Generalverdacht keine richtige Aufnahme-Planung mehr zu machen.
Zumindest aus eigener Erfahrung kann ich dir sagen, du kannst jeden Take noch zig mal vorm inneren Auge ablaufen lassen und durchplanen, am Ende kommt selten exakt das dabei raus was man wollte. Oder man stellt fest, dass die eigene Vorstellung nicht ganz so passend ist, wie man sich das gedacht hat. Was also tun? Alles nochmal neu machen? Noch 5 Wochen mehr in die Planung stecken, um wirklich selbst die letzte Eventualität abzudecken?
Genau in solchen Situationen ist es schön, dass man mit RAW eine Möglichkeit hat, noch relativ große Eingriffe in der Post durchzuführen. Entweder um näher an das gewünschte Ergebnis zu kommen, manchmal entdeckt man aber auch eine Alternative, die einem sogar noch besser taugt als das, was man eigentlich im Kopf hatte.
Und naja ich mein gerade wenn du das best Mögliche aus einer Kamera holen willst, du wirst selten eine echte Alternative zu einem guten RAW Workflow haben.
Ja es ersetzt natürlich keine vernünftige Planung und Umsetzung, aber es kann eine sehr sinvolle Ergänzung sein.
Ich stelle RAW Befürworter nicht unter Generalverdacht, ebensowenig ich die Sinnhaftigkeit von RAW Video in Frage stelle.
Mein Posting war direkt an iasi gerichtet, der nicht müde wird RAW Video als das revolutionäre Allheilmittel der Bildgestaltung zu benennen welches zudem alle anderen gestalterischen Mittel der Lichtsetzung obsolet machen würde. Ich wäre ja ein Stückweit bei ihm wenn er von Dokus sprechen würde in denen man (meistens jedenfalls) keine Möglichkeiten hat kontrollierte Lichtbedingungen zu schaffen.
Aber er bezieht sich bei seiner RAW Argumenation ausschließlich auf Feature Film Produktionen und bringt auch noch Beispiele angefangen von Lawrence of Arabia üder Birdman bis hin zu 1917.
Antwort von Frank Glencairn:
Mediamind hat geschrieben:
Für mich bringt RAW keine Vorteile, sondern nur mehr Arbeit... Der RAW-Workflow nimmt mir die Leistigkeit,...
wenn ich flexibel aufnehmen kann und nicht mit zu viel Balast unterwegs bin....
Wie ich schon sagte, "gut Genug" und "mir ist alles zu viel" Haltung halt.
Antwort von Darth Schneider:
Mehr Arbeit mit RAW Video ?
Als was ?
Mehr Arbeit als früher zu chemischen Zeiten garantiert nicht...
Mehr Arbeit als mit ProRes und Co. ? Doch auch nicht wirklich.
Früher haben wir uns gesehnt danach mit den Farben in Post zu spielen, heute, wo das jeder machen könnte, sind viele ganz einfach halt zu faul.
Gruss Boris
Antwort von iasi:
Funless hat geschrieben:
Mein Posting war direkt an iasi gerichtet, der nicht müde wird RAW Video als das revolutionäre Allheilmittel der Bildgestaltung zu benennen welches zudem alle anderen gestalterischen Mittel der Lichtsetzung obsolet machen würde. Ich wäre ja ein Stückweit bei ihm wenn er von Dokus sprechen würde in denen man (meistens jedenfalls) keine Möglichkeiten hat kontrollierte Lichtbedingungen zu schaffen.
Aber er bezieht sich bei seiner RAW Argumenation ausschließlich auf Feature Film Produktionen und bringt auch noch Beispiele angefangen von Lawrence of Arabia üder Birdman bis hin zu 1917.
Dir ist aber schon klar, dass 1917 in vielen Einstellungen ohne Lichtsetzung auskommen musste.
Vor allem aber verknüpft du ständig Raw mit Verzicht auf Lichtsetzung.
Raw bietet jedoch nun einmal ein Ausgangsmaterial mit größerem Spielraum. Und die technische Entwicklung hat uns mittlerweile so weit gebracht, dass mal die Sensordaten in Raw-Format in hohen Auflösung von 8k und mehr, sowie HFR in 6k von Kameras im unteren Preissgment geboten bekommt. Ich finde es jedenfalls sehr beeindruckend, was sich in den letzten 15 Jahren getan hat.
Nur weil du keinen Nutzen daraus ziehen kannst oder willst, bedeutet dies doch nicht, dass Raw unbedeutend ist, wenn man nur schön Licht setzt.
Kaum mehr eine Filmproduktion, die heute kein Raw nutzt - trotz unbegrenzter Lichttechnik. Aber dennoch sollen 10bit ausreichen?
Ich hab oben schon geschrieben:
Wenn die Masse an Material ein Grading nur oberflächlich zulässt oder gar kein Grading gewünscht oder notwendig ist, sind 10bit oder auch 8bit die richtige Wahl.
Aber mehr Gestaltungspotential steckt nun einmal in Raw.
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Mehr Arbeit mit RAW Video ?
Als was ?
Mehr Arbeit als früher zu chemischen Zeiten garantiert nicht...
Mehr Arbeit als mit ProRes und Co. ? Doch auch nicht wirklich.
Früher haben wir uns gesehnt danach mit den Farben in Post zu spielen, heute, wo das jeder machen könnte, sind viele ganz einfach halt zu faul.
Gruss Boris
Mehr Arbeit in der Post hat man mit Raw natürlich schon, wenn man es mit Formaten vergleicht, die fertig gestaltet aus der Kamera kommen oder nur "gerade gebogen" und in ein Sendeformat verpackt werden müssen.
Für jeden Einsatzzweck ist Raw nicht die beste Wahl.
Antwort von Mediamind:
"Frank Glencairn" hat geschrieben:
Mediamind hat geschrieben:
Für mich bringt RAW keine Vorteile, sondern nur mehr Arbeit... Der RAW-Workflow nimmt mir die Leistigkeit,...
wenn ich flexibel aufnehmen kann und nicht mit zu viel Balast unterwegs bin....
Wie ich schon sagte, "gut Genug" und "mir ist alles zu viel" Haltung halt.
Mein Aufwand muss auch für den Kunden bezahlbar bleiben. Gleichzeitig soll das Ergebnis nicht durch den Workflow behindert werden. Raw ist nicht das Problem. Da ich Raw nicht intern aufzeichnen kann, brauche ich eben den Ninja, einen Cage, Kabel,...
Damit stehe ich einem guten Ergebnis eben schnell im Weg. Ich kann eine S1 mit Batteriegriff, Ninja und ausreichend großem NP-F Akku nicht lange halten. Wie Du ja weisst, mache ich Hochzeiten, da ist eine andere Vorgehensweise. Raw wäre einfach drüber. Im übrigen ist Deine abfällige Bemerkung zu meiner vermuteten Haltung auch drüber, ich denke, so etwas muss hier nicht sein.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Mehr Arbeit in der Post hat man mit Raw natürlich schon, wenn man es mit Formaten vergleicht, die fertig gestaltet aus der Kamera kommen oder nur "gerade gebogen" und in ein Sendeformat verpackt werden müssen.
Und welche angebliche Mehrarbeit soll das sein?
Antwort von Frank Glencairn:
Mediamind hat geschrieben:
Da ich Raw nicht intern aufzeichnen kann, brauche ich eben den Ninja, einen Cage, Kabel,...
Damit stehe ich einem guten Ergebnis eben schnell im Weg.
Ich glaub du stehst dir hauptsächlich selbst im Weg.
Antwort von Darth Schneider:
Also die nackte Pocket mit dem 12-100 und einem Rode Mic, kann ich sehr lange halten, und filmen ohne Probleme, und voll gepackt mit Smallrig Zeugs, Cage, Sdd, Mic, womöglich noch ein Licht, zwei Handgriffen, ein kleiner Monitor mit Batterie ginge sicher auch noch, locker genug für eine Hochzeit...
( hab leider noch keinen Monitor )...
Und ich bin jetzt nicht der Muskelprotz...
Gruss Boris
Antwort von mash_gh4:
"Frank Glencairn" hat geschrieben:
Mediamind hat geschrieben:
Da ich Raw nicht intern aufzeichnen kann, brauche ich eben den Ninja, einen Cage, Kabel,...
Damit stehe ich einem guten Ergebnis eben schnell im Weg.
Ich glaub du stehst dir hauptsächlich selbst im Weg.
ich denke, dass Mediamind hier im grunde recht hat, weil es ja tatsächlich kaum eine erschwingliche kamera gibt, die tatsächlich "echtes" RAW intern aufnehmen würde.
BRaw klammer ich hier ganz ausdrücklich aus, weil es zwar vermutlich eine ganz praktische LOG-lösung darstellt, aber eben kein vollwertiges RAW im sinne der dafür charakteristischen eingriffsmöglichkeiten (=debayering etc.).
auch im hinblick auf software für die aufbereitung von RAW video-daten, schaut's in wahrheit nicht besonders rosig aus. praktisch alles, was auch nur ein bisserl näher an eine adäquate RAW-aufbreitung heran kommt bzw. über den rahmen der RAW-eingriffsmöglichkeiten/-vorgaben im resolve hinaus geht, muss mit externen herstellerspezifischen zusatzwerkzeugen bewerkstelligt werden, die meist mit ärgerlicher umständlichkeit und langen rechenzeiten verbunden sind.
Antwort von pillepalle:
Jeder so wie er mag. Wie ich schon mal schrieb, man muss das nicht so dogmatisch sehen und den eigenen Weg für den Königsweg halten. Aber Frank hat schon recht... für die meisten muss alles möglichst einfach gehen. Da wird jede Kleinigkeit gleich zu einem 'Problem'. Aber wirklich gute Sachen entstehen nicht, weil sie besonders einfach sind, sondern meist, weil jemand sich etwas mehr Mühe gegeben hat als der Durchschnitt und die berühmte 'extra Meile' gegangen ist. Mit Bequemlichkeit alleine gelingt das selten.
VG
Antwort von rdcl:
mash_gh4 hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ich glaub du stehst dir hauptsächlich selbst im Weg.
ich denke, dass Mediamind hier im grunde recht hat, weil es ja tatsächlich kaum eine erschwingliche kamera gibt, die tatsächlich "echtes" RAW intern aufnehmen würde.
BRaw klammer ich hier ganz ausdrücklich aus, weil es zwar vermutlich eine ganz praktische LOG-lösung darstellt, aber eben kein vollwertiges RAW im sinne der dafür charakteristischen eingriffsmöglichkeiten (=debayering etc.).
auch im hinblick auf software für die aufbereitung von RAW video-daten, schaut's in wahrheit nicht besonders rosig aus. praktisch alles, was auch nur ein bisserl näher an eine adäquate RAW-aufbreitung heran kommt bzw. über den rahmen der RAW-eingriffsmöglichkeiten/-vorgaben im resolve hinaus geht, muss mit externen herstellerspezifischen zusatzwerkzeugen bewerkstelligt werden, die meist mit ärgerlicher umständlichkeit und langen rechenzeiten verbunden sind.
Und weil man kein "echtes Raw" haben kann ist 12Bit bzw. 16Bit Log nicht gut genug und deswegen... nimmt man 10 oder 8Bit?
Die Logik erschließt sich mir nicht.
Antwort von roki100:
mash_gh4 hat geschrieben:
auch im hinblick auf software für die aufbereitung von RAW video-daten, schaut's in wahrheit nicht besonders rosig aus. praktisch alles, was auch nur ein bisserl näher an eine adäquate RAW-aufbreitung heran kommt bzw. über den rahmen der RAW-eingriffsmöglichkeiten/-vorgaben im resolve hinaus geht, muss mit externen herstellerspezifischen zusatzwerkzeugen bewerkstelligt werden, die meist mit ärgerlicher umständlichkeit und langen rechenzeiten verbunden sind.
Meinst Du damit NeatVideo? Also mehr Arbeitsaufwand mit RAW ist es nicht wirklich, nur mit WB unter CameraRAW in Resolve versucht man es präziser... ;))
Antwort von mash_gh4:
rdcl hat geschrieben:
Und weil man kein "echtes Raw" haben kann ist 12Bit bzw. 16Bit Log nicht gut genug und deswegen... nimmt man 10 oder 8Bit?
Die Logik erschließt sich mir nicht.
für vieles ist vernünftiges LOG ganz bestimmt ausreichend, nur ist es eben einfach etwas anderes als RAW. man sollte nur den unterschied zwischen diesen beiden klassen von daten-material nicht zu selbstverständlich vermischen.
Antwort von rdcl:
mash_gh4 hat geschrieben:
rdcl hat geschrieben:
Und weil man kein "echtes Raw" haben kann ist 12Bit bzw. 16Bit Log nicht gut genug und deswegen... nimmt man 10 oder 8Bit?
Die Logik erschließt sich mir nicht.
für vieles ist vernünftiges LOG ganz bestimmt ausreichend, nur ist es eben einfach etwas anderes als RAW. man sollte nur den unterschied zwischen diesen beiden klassen von daten-material nicht zu selbstverständlich vermischen.
Kann ich jetzt so aus meiner persönlichen Erfahrung nicht bestätigen. Ich habe noch kein Projekt gehabt, bei dem RedRaw zu einem geführt hat als BRaw. Beide Formate lassen sich so extrem fein und punktuell bearbeiten, da sehe ich eigentlich keinen Unterschied.
Antwort von mash_gh4:
roki100 hat geschrieben:
mash_gh4 hat geschrieben:
auch im hinblick auf software für die aufbereitung von RAW video-daten, schaut's in wahrheit nicht besonders rosig aus. praktisch alles, was auch nur ein bisserl näher an eine adäquate RAW-aufbreitung heran kommt bzw. über den rahmen der RAW-eingriffsmöglichkeiten/-vorgaben im resolve hinaus geht, muss mit externen herstellerspezifischen zusatzwerkzeugen bewerkstelligt werden, die meist mit ärgerlicher umständlichkeit und langen rechenzeiten verbunden sind.
Meinst Du damit NeatVideo? Also mehr Arbeitsaufwand mit RAW ist es nicht wirklich, nur mit WB unter CameraRAW in Resolve versucht man es präziser... ;))
nein -- ich mein damit bspw. natron, mit dem ja bekanntlich cDNGs aus der alten pocket in klar ersichtlich höherer qualität debayern kann als das im resolve jemals möglich war -- nur dauert es halt derart ewig, dass in der praxis kaum nutzbar ist.
über die professionelleren lösungen der einzelnen high-end hersteller von kameras mit RAW-aufnahmemöglichkeiten, kann ich leider kaum mitreden, aber die tatsächlichen unterschiede bzw. reölevanz diesbezüglicher eingriffsmöglichkeiten ist mir zumindest aus der fotografie trotzdem vertraut.
Antwort von Whazabi:
"Darth Schneider" hat geschrieben:
Mehr Arbeit mit RAW Video ?
Als was ?
Mehr Arbeit als früher zu chemischen Zeiten garantiert nicht...
Mehr Arbeit als mit ProRes und Co. ? Doch auch nicht wirklich.
Früher haben wir uns gesehnt danach mit den Farben in Post zu spielen, heute, wo das jeder machen könnte, sind viele ganz einfach halt zu faul.
Gruss Boris
Naja abhängig von der Kamera und Software, die man verwendet, ist das schon so.
Wenn ich jetzt mit Resolve BRaw machen möchte, dann macht das natürlich nix aus. Kommt ja auch beides aus dem selben Stall, da erwarte ich auch dass das geschmeidig funktioniert.
Aber wenn ich mir jetzt vorstelle ... für meine Sony um ProRes RAW zu verwenden, was müsste ich da tun, damit das mit Resolve klappt?
1. Recorder anschaffen (Ninja V = 650€)
2. Jedes mal die Einrichtung vom ProRes RAW Recording, da ich nicht immer Prores RAW über HDMI ausgegeben bekommen möchte + mehr Zeugs mitschleppen (Recorder, Halterung, Kabel)
3. Zusätzliches Tool mit Prores RAW Unterstützung anschaffen (wenn ich Weißabgleich und ISO verändern möchte geht das meines Wissens nur mit Assimilate Scratch = 1200$, wenn ich iso und wb nicht ändern möchte geht auch FCP = 330€)
4. Im neuen Tool lernen wie man Prores RAW entwickelt und in einem Resolve kompatiblen Format exportiert.
(5. Angenommen ich hab noch kein RAW Workflow brauch ich evtl auch noch ne stärkere Hardware für Debayering -> evtl stärkere GPU)
Man sieht schon, neben der Tatsache dass ich viel Zeit in den zusätzlichen Workflow stecken darf, kostet mich das ganze noch locker 1000€, wenn ich volle Funktionalität haben will sogar über 1800€.
Also ja ich würde sagen es ist schon ein signifikanter Mehraufwand zeitlich und monetär, der sich halt auch irgendwo wieder rechnen muss. Nur welchen Mehrwert bekomm ich denn dann? N Ticken mehr Auflösung und wenn ich mehr Geld hinblätter sogar die Möglichkeit meinen ISO und WB im Nachhinein zu ändern .... hmm da bemüh ich mich doch lieber gleich um eine gute Belichtung und verzichte erst mal auf RAW ;)
Angenommen Resolve unterstützt irgendwann in Zukunft Prores RAW (was ich momentan allerdings bezweifle), dann fallen natürlich einige meiner Punkte weg.
Aber ich denke mal da viele, die sich gerade mit Colorgrading außeinandersetzen, Resolve als Tool der Wahl verwenden, stehen bestimmt nicht wenige andere vor dem selben Problem mit ihren Prores RAW Kameras.
@Funless: Aso ich dachte das meintest du mehr so generell. Ja gut ein Allheilmittel is RAW natürlich nicht, aber es kann Sachen schon erheblich vereinfachen. Die Welt is halt nicht schwarz und weiß. Es gibt viele Graustufen ... gottseidank ;)
Antwort von roki100:
mash_gh4 hat geschrieben:
roki100 hat geschrieben:
Meinst Du damit NeatVideo? Also mehr Arbeitsaufwand mit RAW ist es nicht wirklich, nur mit WB unter CameraRAW in Resolve versucht man es präziser... ;))
nein -- ich mein damit bspw. natron, mit dem ja bekanntlich cDNGs aus der alten pocket in klar ersichtlich höherer qualität debayern kann als das im resolve jemals möglich war
Das wusste ich nicht. Danke! Werde ich mal ausprobieren.
Antwort von mash_gh4:
rdcl hat geschrieben:
mash_gh4 hat geschrieben:
für vieles ist vernünftiges LOG ganz bestimmt ausreichend, nur ist es eben einfach etwas anderes als RAW. man sollte nur den unterschied zwischen diesen beiden klassen von daten-material nicht zu selbstverständlich vermischen.
Kann ich jetzt so aus meiner persönlichen Erfahrung nicht bestätigen. Ich habe noch kein Projekt gehabt, bei dem RedRaw zu einem geführt hat als BRaw. Beide Formate lassen sich so extrem fein und punktuell bearbeiten, da sehe ich eigentlich keinen Unterschied.
naja -- z.b. dieses parellelthread mit den feinen störungen in der kameratasche, auf die uns rokki kürzlich aufmerksam gemacht hat, ist ein wunderbares beispiel für artefakte, die sich tatsächlich nur mit eingriffen in die RAW-aufbereitung bzw. das debayering bessere in den griff bekommen lassen. da uns diese möglichkeit aber bei fast allen kameras bzw. post-processing-lösungen verschlossen ist, hat es ohnehin nicht viel sinn, darüber viele worte zu verlieren. das ändert allerdings nichts daran, dass man dem gegebenen durchaus auch weiterhin kritisch bzw. mit wacher urteilskraft begegnen sollte.
Antwort von rdcl:
Kannst du mal das Video verlinken?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Mehr Arbeit in der Post hat man mit Raw natürlich schon, wenn man es mit Formaten vergleicht, die fertig gestaltet aus der Kamera kommen oder nur "gerade gebogen" und in ein Sendeformat verpackt werden müssen.
Und welche angebliche Mehrarbeit soll das sein?
Mediamind hat ein Beispiel gebracht.
Auch wenn die Raw-Variante mittlerweile die Datenmengen überschaubar halten, bekommt man mit 8 oder 10bit-Codecs kleinere Dateien, die sich leichter und schneller herumschaufeln lassen.
Vor allem aber kann man sich das ganze Grading sparen, wenn man die Kamera ein Format ausgeben lässt, das dem Endergebnis entsprechen soll.
Wenn da jemand in seinem kleinen Studio mit immer gleichen Ausleuchtung sitzt, muss man doch kein Grading mehr machen und kann das Video direkt hochladen.
Oder du stellst eine Kamera aufs Stativ, die die Bühne abfilmen soll, während ein 2 Stunden langes Stück geboten wird. Und diese Kamera ist eine von vielen.
Antwort von mash_gh4:
roki100 hat geschrieben:
mash_gh4 hat geschrieben:
nein -- ich mein damit bspw. natron, mit dem ja bekanntlich cDNGs aus der alten pocket in klar ersichtlich höherer qualität debayern kann als das im resolve jemals möglich war
Das wusste ich nicht. Danke! Werde ich mal ausprobieren.
in diesem uralt-thread findest einige praktische bsp. dazu:
viewtopic.php?t=142796&start=735#p962760
das ganze geht übrigens nur mit unkomprimierten DNGs, weil BMD selbt bei in der alten pocket bereits propriätere kompressionsvarianten genutzt hat, die von der DNG-spezifizierung abweichen.
trotzdem waren diese DNGs wesentlich besser bzw. deutlich verlustärmer als das gegenwärtige BRaw und eben auch noch "echtes" RAW im engeren sinne, weshalb ich BRaw ganz eindeutig als rückschritt in puncto qualität und eingriffsmöglichkeiten ansehen würde.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Mediamind hat ein Beispiel gebracht.
Er hat ein Beispiel von einem Codec und einer Software gebracht, die beide inkompatibel sind.
Das selbe Problem hättest du, wenn du mit H265 in einer NLE arbeiten willst, die das nicht unterstützt.
iasi hat geschrieben:
Auch wenn die Raw-Variante mittlerweile die Datenmengen überschaubar halten, bekommt man mit 8 oder 10bit-Codecs kleinere Dateien, die sich leichter und schneller herumschaufeln lassen.
Sorry, aber Datenmengen sollten im Jahre 2021, wo Speicher so billig ist wie nie, und Rechner so schnell wie noch nie,
wirklich kein ernsthaftes Thema mehr sein. Für nen schlappen 100er bekom ich heute eine 6TB Platte. Für die selbe Menge/Länge Material hättest du früher über 1000,- für Digibeta Bänder ausgeben müssen - und dann das ganze nur in lächerlicher Auflösung.
iasi hat geschrieben:
Vor allem aber kann man sich das ganze Grading sparen, wenn man die Kamera ein Format ausgeben lässt, das dem Endergebnis entsprechen soll.
Wenn du ARRI/RED/BM raw in ein entsprechendes Resolve Projekt wirfst, zwingt dich keiner ein Grading zu machen - sieht dann halt nach 709 Video aus, wie aus jeder 08/15 Kamera.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Wenn du ARRI/RED/BM raw in ein entsprechendes Resolve Projekt wirfst, zwingt dich keiner ein Grading zu machen - sieht dann halt nach 709 Video aus, wie aus jeder 08/15 Kamera.
Nur muss ich dann bei ArriRaw Dateien in Resolve werfen, die mit Datenraten von 5904 Mbit/s daherkommen. Und selbst die komprimierte Variante hat noch 60% dieser Datenmengen. Und dies bei 6560 x 3100 24fps.
Und ab einer bestimmten Komprimierungsrate stellt sich bei RedRaw und BRaw dann doch die Frage, ob ein effizienterer Codec nicht besser ist, wenn man eh nicht graden will.
Selbst bei vergleichsweise mikrigen 4448 x 1856 sind bei einer Mini LF bei 48fps in nicht mal einer halben Stunde 1 TB gefüllt. Das dann zu "echtem Raw".
Antwort von Mediamind:
"Frank Glencairn" hat geschrieben:
Mediamind hat geschrieben:
Da ich Raw nicht intern aufzeichnen kann, brauche ich eben den Ninja, einen Cage, Kabel,...
Damit stehe ich einem guten Ergebnis eben schnell im Weg.
Ich glaub du stehst dir hauptsächlich selbst im Weg.
Mag sein, wie Du allerdings Deinen Weg gehst, ist mir ein Rätsel. Du teilst gerne aus? Jeder eben wie er mag.
Der Beitrag lief unter dem Titel "In Raw Filmen, Deine Meinung?" Du hast das scheinbar mit "Rohe Filmer: Ihre Meinung!" verwechselt.
Für den Weddingbereich kann ich feststellen, Raw macht keinen Sinn.
Antwort von roki100:
@mash_gh4
meinst Du das?
So sieht es auch unter Davinci Resolve aus:
Bildschirmfoto 2021-03-09 um 19.59.29.png
Unter Davinci Resolve lässt sich das mit Pan / Tilt auf 0.500 und SuperScale etc. korrigieren. Siehe auch: viewtopic.php?f=3&t=143064&p=1016126&hi ... t#p1015996
Und so müsste es eigentlich korrekt aussehen (z.B. Linear):
Bildschirmfoto 2021-03-09 um 19.59.46.png
Antwort von roki100:
mash_gh4 hat geschrieben:
roki100 hat geschrieben:
Das wusste ich nicht. Danke! Werde ich mal ausprobieren.
in diesem uralt-thread findest einige praktische bsp. dazu:
viewtopic.php?t=142796&start=735#p962760
das ganze geht übrigens nur mit unkomprimierten DNGs, weil BMD selbt bei in der alten pocket bereits propriätere kompressionsvarianten genutzt hat, die von der DNG-spezifizierung abweichen.
trotzdem waren diese DNGs wesentlich besser bzw. deutlich verlustärmer als das gegenwärtige BRaw und eben auch noch "echtes" RAW im engeren sinne, weshalb ich BRaw ganz eindeutig als rückschritt in puncto qualität und eingriffsmöglichkeiten ansehen würde.
Ja, habe ich eben gerade selber festgestellt und bis jetzt wusste ich gar nicht dass es sich um demosaic Problem handelt... Ich werde das im Kopf behalten und sobald ich diese Artefakte wieder sehe, weiß ich was zu tun ist. Danke nochmal.
RAW wäre in diesem Fall tatsächlich mit mehr Arbeitsaufwand verbunden.
Antwort von Frank Glencairn:
Mediamind hat geschrieben:
Du teilst gerne aus?
Das ist einfach nur ne Diskussion, wo unterschiedliche Ansichten ausgetauscht werden.
Wenn ich der Ansicht bin, daß du dir selbst im Weg stehst, warum soll ich das nicht sagen?
Weil's dir womöglich nicht gefällt? Das ist hier nicht der LaLaLand Ponyhof - mit sowas mußt du in einem Diskussionsforum schon klar kommen.
Mediamind hat geschrieben:
Für den Weddingbereich kann ich feststellen, Raw macht keinen Sinn.
Für jemand dem schon ein Recorder und ein Stativ zuviel ist, macht das womöglich keinen Sinn.
Aber es gibt halt auch Leute, denen "gut genug" nicht gut genug ist, und stattdessen die Latte jedesmal noch höher legen wollen und dabei das bestmögliche Ergebnis anstreben.
So gibt es weltweit eine riesige Wedding Film Industrie, die neben raw standardmäßig noch ganz andere Geschütze auffährt, gilt aber für alle Bereiche.
Jedesmal noch mehr anstrengen, mehr machen, mehr rausholen, jedesmal besser werden wollen, oder so einfach und bequem wie möglich die selbe 08/15 Nummer durchziehen - deine Entscheidung.
Antwort von mash_gh4:
roki100 hat geschrieben:
Ja, habe ich eben gerade selber festgestellt und bis jetzt wusste ich gar nicht dass es sich um demosaic Problem handelt... Ich werde das im Kopf behalten und sobald ich diese Artefakte wieder sehe, weiß ich was zu tun ist. Danke nochmal.
das problem dabei ist vor allen dingen, dass die eine ideale lösung für dieses problem nicht gibt. manche algorithmen liefern zwar in den meisten fällen befriedigende resultate, versagen dann aber wieder in anderen situationen -- bspw. wenn die verursachenden interferenzen in einem ganz bestimmten winkel auftreten. deshalb muss man hier hier immer manuell auf andere varianten ausweichen, die ansonsten weniger gute resulate liefern würden -- also z.b. die auflösung geringfügig beeinträchtigen.
natron nutzt hier einfach nur gängigen techniken aus raw-aufbereitungs-libraries der div. RAW-foto-entwickler. das ist natürlich für das video-processing, wo man doch mit deutlich höheren datenmengen konfrontiert ist, nicht wirklich optimal. trotzdem ist nicht gesagt, dass man das nicht erheblich optimieren könnte.
so weit ich weiß, sind bisher auch nur klassische methoden des demosaicings auswählbar, obwohl mittlerweile durchaus auch bereits einige deutlich überlegene ML-basierende ansätze als open source zur verfügung stehen. derartiges könnte man gewiss auch mit überschaubarem aufwand ins natron einbinden.
auch wenn diese herangehensweise auf den ersten blick viele zu umständlich und träge wirkt, ermöglicht sie letzlich doch eingriffe bzw. korrekturen, wie sie auf grund der relativ beschränkten rechenleistung und des unflexiblen processings im falle von kameraseitigem debayering gar nicht erst denkbar wären.
Antwort von roki100:
@mash_gh4
Also das ist bester Tipp von Dir! :)
Übrigens demosaic LMMSE wäre in meinem Fall das beste für BMPCC CDNG :)
CDNG demosaic in Davinci:
Zoom 305%:
Bildschirmfoto 2021-03-09 um 21.40.28.png
CDNG aus Natron exportiert nach 16Bit tiff und dann in Davinci Timeline gepackt:
Zoom 305%
Bildschirmfoto 2021-03-09 um 21.40.52.png
Beide Bilder im neuen Tab öffnen und hin und her switchen. :)
Also so ein sauberes CDNG exportiert aus Natron in 16Bit, habe ich bisher in Davinci noch nicht gesehen :D
Antwort von mash_gh4:
roki100 hat geschrieben:
@mash_gh4
Also das ist bester Tipp von Dir! :)
Übrigens demosaic LMMSE wäre in meinem Fall das beste für BMPCC CDNG :)
...
Also so ein sauberes CDNG exportiert aus Natron in 16Bit, habe ich bisher in Davinci noch nicht gesehen :D
super! -- freut mich natürlich sehr, dass du dir die mühe antust, das so eindrücklich zu demonstrieren!
ein kleiner tipp noch:
da man im natron fertige compositing worflows auch recht einfach von der kommandozeile aus nutzen kann, kann man diese vorbereitende aufbereitung auch weitestgehend automatisiert als batch job über nacht diverses ausgangsmaterial abarbeiten lassen:
https://natron.readthedocs.io/en/rb-2.3 ... ution.html
Antwort von roki100:
Moiré
CDNG in Davinci:
Bildschirmfoto 2021-03-10 um 00.32.46.png
CDNG in Natron + LMMES, Export...:
Bildschirmfoto 2021-03-10 um 00.32.17.png
:)
Antwort von srone:
@roki
warum wohl benutzen wir fd-altglas, damit moieriert nichts und wir haben auch nicht die probleme der überschärfe - wie im nachbarthread, aber ein schönes bild...;-)
anders gefragt: machst du standbild 300% oder film - ereignisse im laufe der zeit?
lg
srone
Antwort von roki100:
mash_gh4 hat geschrieben:
da man im natron fertige compositing worflows auch recht einfach von der kommandozeile aus nutzen kann, kann man diese vorbereitende aufbereitung auch weitestgehend automatisiert als batch job über nacht diverses ausgangsmaterial abarbeiten lassen:
https://natron.readthedocs.io/en/rb-2.3 ... ution.html
Oo Mann :) und ich wollte in Natron Codes rumstöbern und den LMMSE Zeug rauskopieren und mir selber da was basteln ;))
Danke dir!
Antwort von mash_gh4:
roki100 hat geschrieben:
Moiré
naja -- die entsprechende verbesserung des einen problemes geht halt leider sehr auf kosten einer andere unerfreulichen begleiterscheinung -- konkret: der detailabbildung...
roki100 hat geschrieben:
Ich verstehe nur nicht wie wie man aus Natron nicht in sRGB/Rec.709 exportieren kann?
mit den verschiedenen OCIO-(=OpenColorIO)-nodes kannst du ganz perfekt alle ACES austauschkonventionen u.ä. nutzen.
in der hinsicht ist natron wirklich ein 1:1 nuke-klon bzw. oft die dortige menge an guten dokumentation nützlicher als das eher spärlichere angebot an natron-spezifischen anleitungen.
Antwort von roki100:
srone hat geschrieben:
@roki
warum wohl benutzen wir fd-altglas, damit moieriert nichts und wir haben auch nicht die probleme der überschärfe - wie im nachbarthread, aber ein schönes bild...;-)
lg
srone
ein bisschen Canon FD ein bisschen Natron und alles ist clean :)
Übrigens, diese moiré oben im Bild sind mit sehr scharfe Linse entstanden.... Dennoch nur als Beispiel wie Artefakte auf feine Struktur durch Natron + LMMSE sauberer korrigiert/demosaicet wird... :)
Antwort von roki100:
mash_gh4 hat geschrieben:
roki100 hat geschrieben:
Moiré
naja -- die entsprechende verbesserung des einen problemes geht halt leider sehr auf kosten einer andere unerfreulichen begleiterscheinung -- konkret: der detailabbildung...
Nicht wirklich oder so minimal und damit besser, als wenn man diese Artefakte einfach so lässt... :)
Antwort von mash_gh4:
roki100 hat geschrieben:
mash_gh4 hat geschrieben:
naja -- die entsprechende verbesserung des einen problemes geht halt leider sehr auf kosten einer andere unerfreulichen begleiterscheinung -- konkret: der detailabbildung...
Nicht wirklich oder so minimal und damit besser, als wenn man diese Artefakte einfach so lässt.... Schau dir das genauer an... :)
ja -- die verbesserung ist natürlich unübersehbar!
roki100 hat geschrieben:
Dazu noch ein bisschen MoireFix
diesen schritt könnte man prinzipiell auch extrem einfach im natron mit ein paar nodes nachbilden bzw. in eine diesbezügliche aufbereitungs-variante einbeziehen.
solche sachen gehen auch dort meist erträglich flott, weil die rechenintensiven operationen dazu natürlich auf der GPU ausgeführt werden. man kann aber für noch effizentere od. komplexere eingriffe in die bilddaten auch eigene shader programmieren -- bspw. mit hilfe der shadertoy-nodes.
das aber nur ganz am rande, weil es dir möglicherweise gefallen könnte. ;)
Antwort von roki100:
mash_gh4 hat geschrieben:
diesen schritt könnte man prinzipiell auch extrem einfach im natron mit ein paar nodes nachbilden bzw. in eine diesbezügliche aufbereitungs-variante einbeziehen.
"ChromaBlur" Node zu finden im Natron unter "Filter". Funktioniert auch gut. :)
Antwort von Mediamind:
"Frank Glencairn" hat geschrieben:
Mediamind hat geschrieben:
Für jemand dem schon ein Recorder und ein Stativ zuviel ist, macht das womöglich keinen Sinn.
Aber es gibt halt auch Leute, denen "gut genug" nicht gut genug ist, und stattdessen die Latte jedesmal noch höher legen wollen und dabei das bestmögliche Ergebnis anstreben.
So gibt es weltweit eine riesige Wedding Film Industrie, die neben raw standardmäßig noch ganz andere Geschütze auffährt, gilt aber für alle Bereiche.
Jedesmal noch mehr anstrengen, mehr machen, mehr rausholen, jedesmal besser werden wollen, oder so einfach und bequem wie möglich die selbe 08/15 Nummer durchziehen - deine Entscheidung.
Ein Stativ ist mir keinesfalls zu viel. Es ist nur nicht der Weg, bei solchen Events zu agieren. In der Kirche ok, auf dem Standesamt, kein Problem, bei Reden, gerne doch. Beim ganzen Rest läuft man mit den Ereignissen und spielt mit den Dingen, die teils spontan laufen. Unhandliches Equipment hindert mich bei einem spontanen Workflow.
Beeindruckende Hiochzeitsfilme sind mit Arri und Co aber auch mit einer GH5 gedreht worden. Raw hin oder her, ein guter Hochzeitsfilm wird mit aktueller Ausstattung nicht durch die Technik erst ermöglicht. Klar kann ich eine Hochzeit um mein Equipment herum aufbauen und mit Script ablaufen lassen. Das wäre für alle Beteiligten bestimmt eine prägende Erfahrung. Hauptsache, es wurde in Raw gedreht, was man dann beim Pixelpeeping am kalibrierten Monitor auch mit Kennerblick sehen kann (oder auch nicht).
Was mich stört, sind pauschale Einschätzungen zur Motivation. Nutzt kein Raw => will nicht besser werden => 08/15 Nummer for ever
Ich bin noch lange nicht da, wo ich qualitativ hin will. Raw hilft mir aber ehrlich nicht bei meinem Weg. Ich sehe z.B. mehr Sinn in besser Einbindung hochwertigen Tons. Da werde ich eher für 2021 Akzente setzten, als bei der leidigen Raw-Frage.
Antwort von iasi:
roki100 hat geschrieben:
@mash_gh4
Also das ist bester Tipp von Dir! :)
Übrigens demosaic LMMSE wäre in meinem Fall das beste für BMPCC CDNG :)
CDNG demosaic in Davinci:
Zoom 305%:
Bildschirmfoto 2021-03-09 um 21.40.28.png
CDNG aus Natron exportiert nach 16Bit tiff und dann in Davinci Timeline gepackt:
Zoom 305%
Bildschirmfoto 2021-03-09 um 21.40.52.png
Beide Bilder im neuen Tab öffnen und hin und her switchen. :)
Also so ein sauberes CDNG exportiert aus Natron in 16Bit, habe ich bisher in Davinci noch nicht gesehen :D
Versuch mal die GPU beim Export abzuschalten.
Bei Premiere bringt dies z.B. eindeutig etwas.
Antwort von iasi:
Wie bei den Kameras:
Manche sehen es immer als Wettbewerb, bei dem es einen Sieger geben muss.
Dabei ist es doch wunderbar, dass man für die jeweiligen Anforderungen die geeigneste Kamera und das geeigneste Aufnahmeformat wählen kann.
Es muss doch schließlich nicht immer unbedingt das unkomprimierte reine Raw sein.
Und Kompromisse sind eben auch immer nötig - auch wenn sie immer geringer ausfallen.
Antwort von Frank Glencairn:
Mediamind hat geschrieben:
Beim ganzen Rest läuft man mit den Ereignissen und spielt mit den Dingen, die teils spontan laufen. Unhandliches Equipment hindert mich bei einem spontanen Workflow.
Dich vielleicht, andere haben damit kein Problem.
Dieser Schwerpunkt auf "spontan" und "spielen", ist doch am Ende nur Schönsprech für die Hoffnung es würde auf ner langweiligen Hochzeit irgendwas tolles passieren, auf das man drauf halten kann. In Wirklichkeit bist du damit der Spielball der Geschehnisse, der auf Wunder hofft, statt derjenige mit Plan, der das Geschehen beherrscht und kontrolliert.
Klar kann man so nach dem Prinzip Hoffnung & Zufall agieren, aber die Latte jedesmal gezielt höher legen wird man damit nicht.
Das ist wie diese Regisseure die selbst nicht wissen was sie wollen, und nach 20 Takes als letzten Strohalm, die Schauspieler improvisieren lassen - da kommt so gut wie nie was besseres dabei heraus - im Gegenteil.
Antwort von Funless:
Oha, das klingt ja fast schon wie ...
Become more better or die trying!
😉
Antwort von Mediamind:
"Frank Glencairn" hat geschrieben:
Mediamind hat geschrieben:
Beim ganzen Rest läuft man mit den Ereignissen und spielt mit den Dingen, die teils spontan laufen. Unhandliches Equipment hindert mich bei einem spontanen Workflow.
Dich vielleicht, andere haben damit kein Problem.
Dieser Schwerpunkt auf "spontan" und "spielen", ist doch am Ende nur Schönsprech für die Hoffnung es würde auf ner langweiligen Hochzeit irgendwas tolles passieren, auf das man drauf halten kann. In Wirklichkeit bist du damit der Spielball der Geschehnisse, der auf Wunder hofft, statt derjenige mit Plan, der das Geschehen beherrscht und kontrolliert.
Klar kann man so nach dem Prinzip Hoffnung & Zufall agieren, aber die Latte jedesmal gezielt höher legen wird man damit nicht.
Das ist wie diese Regisseure die selbst nicht wissen was sie wollen, und nach 20 Takes als letzten Strohalm, die Schauspieler improvisieren lassen - da kommt so gut wie nie was besseres dabei heraus - im Gegenteil.
Eine Hochzeit mit einer Produktion mit Regie und Schauspielern in einen Zusammenhang zu setzen geht an der Realität vorbei. Natürlich bin ich nicht "derjenige mit Plan, der das Geschehen beherrscht". Das wäre unangemessen. Einen Plan zu haben bedeutet bei einem Event mit Gästen nicht, dass man die Szene beherrscht. Bei einer Hochzeit steht nicht der Film im Zentrum aller handelden Personen, sondern ein einzigartiger Tag der Brautleute, der Familie und Freunde. Die besondere Magie für die Brautleute einzufangen und die Veranstaltung dabei nicht an sich zu reißen, das ist die Herausforderung. Ich mache übrigens aus einer langweiligen, öden Feier kein Event, bei dem alle abgehen. Es ist eben keine Regiearbeit mit Profis. Meine Vorstellungen, wie so etwas aussehen kann und wie man es hinbekommt, spreche ich vorher ab. Ich habe noch eine Hochzeit vor Augen, bei der die Fotografien wie ein Eichhörnchen auf Speed die Gäste und das Paar statte 2 Stunden durch die Gegend dirigierte, bis die Braut am Ende war. Tolle Bilder, die Feier war leider gestört. Mein Motto ist es echte Emotionen festzuhalten. Das kann man vergessen, wenn man anfängt, Regie führen zu müssen. Als Filmer in diesem Umfeld ist man nicht im Vordergrund. Und ja, es hat etwas mit Warten auf den richtigen Moment zu tun. Das beinhaltet auch die Chance, vergeblich zu warten. Um dabei zu bleiben, dann hilft auch kein Raw.
Der Wunsch der meisten Brautleute ist für mich bindend, die wollen keine zu großen Einflüsse durch den Filmbetrieb. Deswegen fahre ich auch nicht mit einem Hummer Jeep bis in die Kirche und lade mein Equipment in Munitionskisten der US-Armee polternd aus. Da Du aber von Deiner Ausgangsthese sowieso nicht abweichen kannst, ende ich jetzt auch mit den Argumenten für ein leichtes Setup und gegen Raw mit Recorder im Hochzeitsbereich.
Antwort von Funless:
Mediamind hat geschrieben:
fahre ich auch nicht mit einem Hummer Jeep bis in die Kirche und lade mein Equipment in Munitionskisten der US-Armee polternd aus.
Wie geil ist das denn? 😂 You made my day!
Antwort von roki100:
iasi hat geschrieben:
roki100 hat geschrieben:
@mash_gh4
Also das ist bester Tipp von Dir! :)
Übrigens demosaic LMMSE wäre in meinem Fall das beste für BMPCC CDNG :)
CDNG demosaic in Davinci:
Zoom 305%:
Bildschirmfoto 2021-03-09 um 21.40.28.png
CDNG aus Natron exportiert nach 16Bit tiff und dann in Davinci Timeline gepackt:
Zoom 305%
Bildschirmfoto 2021-03-09 um 21.40.52.png
Beide Bilder im neuen Tab öffnen und hin und her switchen. :)
Also so ein sauberes CDNG exportiert aus Natron in 16Bit, habe ich bisher in Davinci noch nicht gesehen :D
Versuch mal die GPU beim Export abzuschalten.
Bei Premiere bringt dies z.B. eindeutig etwas.
wieso GPU? Wahrscheinlich meinst Du eher RedRaw und NVIDIA usw. das kann schon sein. Unter Natron und ein besseres demosaic Möglichkeiten, hat denke ich nichts damit zu tun.
Übrigens, ich habe heute das Ganze etwas intensiver getestet und neben LMMSE, ist "AFD" für manche moire Artefakte sogar besser....
Komisch, konnte mir bis vor kurzem unter "AFD" nichts positives vorstellen... ;))
Also nochmal klarer:
Demosaic normal (also so wie auch in Davinci)
Bildschirmfoto 2021-03-10 um 17.38.52.png
LMMSE
Bildschirmfoto 2021-03-10 um 17.40.45.png
AFD
Bildschirmfoto 2021-03-10 um 17.41.30.png
Antwort von Frank Glencairn:
Kannst du mal so ein Moire DNG zum Download hier rein stellen?
Antwort von roki100:
Das oben nicht, aber andere.. ist mit Anamorphic 1.33x gemacht.... Es handelt sich aber wirklich um sehr starke moires. :)
Antwort von roki100:
So sieht das mit LMMSE aus :)
Bildschirmfoto 2021-03-10 um 18.22.14.png
Antwort von Darth Schneider:
Sieht für mein ungeschultes Auge so aus, als könnte es auch am Licht liegen ?
Macht es das auch mit einer anderen Lichtquelle ?
Die Bilder weiter oben mit der Hand und dem Pulli, das sieht heftig aus, meine Kamera macht sowas nicht, bei einem einfarbigen Pulli, sicher nicht.
Gruss Boris
Antwort von roki100:
Licht, Strukturen/Textur, von Linse zu Linse anders, von Blende usw. abhängig...
Moire ist sehr kompliziert und es ist schon erstaunlich dass auch demosaic Verfahren da eine Rolle spielt.
Antwort von Darth Schneider:
Womöglich, sogar noch Bewegung, (auch die Bewegungs Richtung) im Bild, im Bezug auf verschiedene Strukturen, in den Kleidern, zusammen mit dem Licht, und der Kamera Position u.s.w. im Frame spielt dabei wahrscheinlich auch noch eine Rolle...
Gruss Boris
Antwort von dienstag_01:
Moire... es ist schon erstaunlich dass auch demosaic Verfahren da eine Rolle spielt.
Hä?
Nochmal zurück auf Anfang ;)
|
Antwort von mash_gh4:
naja -- die sache ist ja wirklich nicht unbedingt ganz trival nachvollziehbar, aber mit der zeit empfindet man entsprechende einblicke und erfahrungen halt trotzdem als völlig selbstverständlich... ;)
ein paar ganz interessante zugänge zur moire+demosacing-frage finden sich u.a. auch hier:
https://discuss.pixls.us/t/about-rcd-an ... hods/22126
https://discuss.pixls.us/t/demosaicing- ... ments/2223
wo u.a. damit experimentiert wird, zwei verschiedene rohaufbereitunges-varianten mit unterschiedlicher betonung der abtastrichtung zu generieren, und aus vergleichen der beiden eine befriedigendere lösung zu errechnen:
zum Bild
trotzdem darf man halt nicht ganz außer acht lassen, dass moires nur ein sonderfall darstellen, aber eben auch noch einige andere gesichtspunkte eine rolle spielen, wenn man die vor-und nachteile der verschieden RAW-aufbereitungsvarianten vergleichen will.
festhalten kann man trotzdem, dass es hier um bildstörungen und eingriffsmöglichkeiten geht, die sich tatsächlich ohne zugriff auf diese ursprünglichen undebayerten RAW-ausgangsdaten -- also eben auch mit all diesen halb-rohen LOG-varianten -- im normalfall nicht mehr befriedigend korrigieren lassen.
Antwort von roki100:
dienstag_01 hat geschrieben:
Hä?
Nochmal zurück auf Anfang ;)
;)))
wo soll ich genau hin? Ich meinte, dass sowas wie LMMSE, AFD usw. eine rolle spielt.
Antwort von iasi:
Mit entsprechendem Algorithmen bekommt man alles gelöst. Nur braucht es eben auch die entsprechende Rechenpower und -genauigkeit.
Eine möglichst breite Datenbasis ist eben dazu dann auch wichtig.
Der aktuelle Slashcam-Vergleich von R5 und FX3 zeigt z.B. sehr praktisch, dass 8k-Raw gegenüber 4k-Raw im Vorteil ist, wenn es darum geht, ein 4k-Resultat zu erzeugen.
Antwort von Darth Schneider:
Natürlich, für ein 2K Film ist doch eine Kamera die 4Kk aufnimmt, grundsätzlich auch im Vorteil, als eine die 2K aufnimmt, nach meiner Logik zumindest.
Darum gibts ja auch die Ursa Mini Pro mit 12K.
Um was die Auflösung des Endprodukt betrifft, möglichst flexibel zu sein.
Gruss Boris
Antwort von roki100:
Übrigens, im Natron gibt es auch "Highlight Recovery" so lässt sich vor dem export, clipping Highlights, auf "Unclip" (= Highlight Recovery) setzen :)
Antwort von Darth Schneider:
Es müsste ja wieder mal kommen...
Könnte es sein das Black Magic Design diese Highlight Recovery Funktion extra für roki in Resolve mit integriert hat ? ;)))
Gruss Boris
Antwort von roki100:
was denn... :D Wollte ich nur mal erwähnt haben, bevor ich wieder vergesse :D
Antwort von roki100:
Frank versucht wahrscheinlich die Ganze Zeit, Artefakte aus der hochgeladene CDNG File in DaVinci besser als LMMSE zu reduzieren, ohne dass die Farben dabei verwischen...und muss dabei feststellen, dass das doch nicht so einfach ist bzw. RAW bedeutet doch ein bisschen mehr Arbeitsaufwand? :D
Antwort von iasi:
roki100 hat geschrieben:
Übrigens, im Natron gibt es auch "Highlight Recovery" so lässt sich vor dem export, clipping Highlights, auf "Unclip" (= Highlight Recovery) setzen :)
Außerdem hat Natron scheinbar ein sehr guten "Auto WB" ? :)
Highlight Recovery kannst du mit fast allen Programm erhalten, die die Farbkanäle getrennen bearbeiten können.
Letztlich nutzt man doch das unterschiedliche Clippen der Farbkanäle, um Zeichnung zu erhalten.
Wenn du bei einer 5000 Kelvin-Kamera ein 5000 Kelvin-Licht hast, dann wirst du nichts mehr erreichen, mit "Highlight Recovery".
Bevor es das "Highlight Recovery"-Kästchen zum Anklicken in Resolve gab, hatten Leute dies schon in youtube-Tutorials demonstriert.
Das klappt aber eben nur mit Raw, denn wenn die Kamera die Kanäle verrechnet hat, kann man"s nicht mehr rückgängig machen.
Antwort von Darth Schneider:
@roki
Womöglich hat der Frank wichtigeres, oder sinnvolleres zu tun, und schaut das beim Dreh solche Probleme möglichst gar nicht erst entstehen können...
Z.B indem das er dafür sorgt, das solche problematischen Strukturen in Kleidern und um Hintergrund gar nicht erst im Film mit drin sind.
Dann entfällt auch solche ganze in Post eigentlich unsinnige, ( weil nicht nötig, mit der richtigen Planung) fummelige Korrigiererei ;)))
Schon klar das solche Planung bei der spontanen Filmerei eher nicht möglich ist.
Dann muss man halt mit den ganzen karierten Stoffen und anderen problematischen Strukturen, die vor sich hin flimmern halt leben...oder am Computer weiter herum basteln, was ja das aber auch nicht zu wirklich befriedigenden Ergebnissen führt.
Gruss Boris
Antwort von Frank Glencairn:
roki100 hat geschrieben:
Frank versucht wahrscheinlich die Ganze Zeit, Artefakte aus der hochgeladene CDNG File in DaVinci besser als LMMSE zu reduzieren, ohne dass die Farben dabei verwischen...und muss dabei feststellen, dass das doch nicht so einfach ist bzw. RAW bedeutet doch ein bisschen mehr Arbeitsaufwand? :D
Der Frank hat das DNG in die Timeline geschmissen, nach H264 raus gerendert, das Ergebnis wieder importiert, und gesagt: hab ich mir gedacht.
So lange man nicht Standbilder bei 800% Zoom betrachtet - nothing to write home about.
Untitled_2.1.1.jpg
Antwort von Jörg:
So lange man nicht Standbilder bei 800% Zoom betrachtet - nothing to write home about.
ohne Worte
Antwort von Frank Glencairn:
Mich würde mal interessieren, was für ein Leuchtmittel in der Lampe ist.
Ich hab seit längerem die Theorie, daß manche LED in Verbindung mit manchen Stoffen (Poly Anteil),
eher zu Moire neigen als Tungsten und Baumwolle.
Antwort von pillepalle:
Am einfachsten lässt sich das natürlich mit einem guten Monitoring vor Ort verhindern. Einfach den Maßstab geringfügig verändern und man ist in der Regel auch das Moire los. Aber wer macht das schon beim Film, wo alle mit winzigen Monitoren arbeiten. Da merkt man es meist erst in der Post.
VG
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Mich würde mal interessieren, was für ein Leuchtmittel in der Lampe ist.
Ich hab seit längerem die Theorie, daß manche LED in Verbindung mit manchen Stoffen (Poly Anteil),
eher zu Moire neigen als Tungsten und Baumwolle.
Ja. Möglich, dass die Farbtemperatur und Farbzusammensetzung der Lichtquelle den debayer-Algorithmus aus dem Tritt bringen.
Einen 5000Kelvin-Sensor mit "verschmutztem" 2700Kelvin-Licht zu belichten und dann einen sauberen WB zu wollen, provoziert Probleme.
Antwort von dienstag_01:
iasi hat geschrieben:
"Frank Glencairn" hat geschrieben:
Mich würde mal interessieren, was für ein Leuchtmittel in der Lampe ist.
Ich hab seit längerem die Theorie, daß manche LED in Verbindung mit manchen Stoffen (Poly Anteil),
eher zu Moire neigen als Tungsten und Baumwolle.
Ja. Möglich, dass die Farbtemperatur und Farbzusammensetzung der Lichtquelle den debayer-Algorithmus aus dem Tritt bringen.
Einen 5000Kelvin-Sensor mit "verschmutztem" 2700Kelvin-Licht zu belichten und dann einen sauberen WB zu wollen, provoziert Probleme.
Und wenn der Debayer-Algorithmus *aus dem Tritt* kommt, entsteht Moire? Interessante Herangehensweise ;)
Antwort von roki100:
"Frank Glencairn" hat geschrieben:
roki100 hat geschrieben:
Frank versucht wahrscheinlich die Ganze Zeit, Artefakte aus der hochgeladene CDNG File in DaVinci besser als LMMSE zu reduzieren, ohne dass die Farben dabei verwischen...und muss dabei feststellen, dass das doch nicht so einfach ist bzw. RAW bedeutet doch ein bisschen mehr Arbeitsaufwand? :D
Der Frank hat das DNG in die Timeline geschmissen, nach H264 raus gerendert, das Ergebnis wieder importiert, und gesagt: hab ich mir gedacht.
So lange man nicht Standbilder bei 800% Zoom betrachtet - nothing to write home about.
Untitled_2.1.1.jpg
ja aber da ist kaum Farbe und farbige moiré daher weniger... ? Übrigens, in der Regel habe ich solche moiré nicht. Das ist nur diese eine stelle da (Gardine), wenn Licht davor eingeschaltet ist...und Sirui Linse.
Mit Sigma Linse (EF MFT Speedbooster) habe ich da komischerweise solche moiré nicht, obwohl scharf genug usw. Siehe:
Bildschirmfoto 2021-03-11 um 16.45.11.png
Es handelt sich um diese LEDs:
Bildschirmfoto 2021-03-11 um 16.32.06.png
Antwort von mash_gh4:
mit den farben od. zumindest der farbzusammensetzung der verschiedenen lichtquellen hat das recht wenig zu tun. natürlich müssen dabei zumindest zwei sensel von unterschiedlicher farbsenibilität mitspielen, aber das ist ohnehin praktisch immer der fall.
entscheidend für das entstehen derartiger artifakte sind vielmehr ganz extreme fab- und helligkeitsänderungen zwischen benachbarten pixeln im bild. das betrifft sehr oft nur die mehr oder weniger saubere zeichnung einer einzelnen kontur, oder eben, wenn sich die wechsel im motiv in ungünstiger weise wiederholen, eben auch größere flächen.
im falle von textilien bzw. räumlichen gitterstrukturen, deren abbildung dafür sehr anfällig ist, wird man derartiges besonders oft unter hartem licht aus punktförmigen quellen antreffen, während es mit diffuser ausleuchtung od. mehreren lichtquellen natürlich eine besserung erfahren wird (so gesehen ist das konkrete lampe-vorhang-bsp. vom rokki ohnehein eher harmlos und entgegenkommend). allerdings betrifft das ja auch wieder nur einen spezialfall, weil man derartige engräumige wechsel der farbe und helligkeit ja durchaus auch in ebener gestallt antrifft (stichwort: schachbrett), wo dann das licht keinen sonderlichen unterschied mehr ausmacht bzw. keinen unmittelbaren eingriff erlaubt.
Antwort von roki100:
Ich meinte das von Frank angehängte Bild, da sind moiré (im vergleich zu orig) daher weniger, da die Farben vorher (oder beim Export zu H264?), entsättigt wurden.
Antwort von iasi:
mash_gh4 hat geschrieben:
mit den farben od. zumindest der farbzusammensetzung der verschiedenen lichtquellen hat das recht wenig zu tun. natürlich müssen dabei zumindest zwei sensel von unterschiedlicher farbsenibilität mitspielen, aber das ist ohnehin praktisch immer der fall.
Natürlich hat es etwas mit der Farbzusammensetzung der Lihtquelle zu tun.
Bei 2700 Kelvin hat man es mit einer Unterbelichtung von B zu tun, wenn man Grau bei einem 5000 Kelvin-Sensor auch als Grau erhalten will.
Wenn dann auch noch dunkle Bereiche mit im Spiel sind, erhält man ein Rauschen in B, während bei hohem Kontrast R vielleicht schon clippt - im Extremfall.
Jedenfalls tut sich der debayer-Algorithmus schon mal schwerer.
Antwort von Frank Glencairn:
roki100 hat geschrieben:
Es handelt sich um diese LEDs:
Würde zu meiner Überlegung passen, direkt über der Lampe ist es am stärksten ausgeprägt,
und in etwa auch so breit wie die Lampe.
Antwort von mash_gh4:
roki100 hat geschrieben:
Ich meinte das von Frank angehängte Bild, da sind moiré (im vergleich zu orig) daher weniger, da die Farben vorher (oder beim Export zu H264?), entsättigt wurden.
auch in seiner variante sind die störungen noch immer ganz klar erkennbar und würden einem vermutlich sofort ins auge springen, wenn man die kamera od. den vorhang bewegt.
in wirklich gavierenden fällen wird man halt einfach eine entsprechende einstellung notfalls verwerfen, neu drehen od. was auch immer, viel schlimmer finde ich aber die viel subtilere beeinträchtigungen der bildqualität im alltag, die mit derartigen problemen oft einhergeht. in den meisten fällen kannst du kann man kaum präzise angeben, was einem da bspw. an der zeichung der konturen wirklich stört od. mit der einen od. anderen kamera/software befriedigender dargestellt wird, dabei sind es oft dinge, die man nur an hand solcher extrembeispiele besser studieren und verstehen lernen kann.
so kann man z.b. dieses fürchterlich artifiziellen porcupine test-targets und deren moire-muster nach dem entwickeln in unterschiedlicher RAW-aufbereitungssoftware heranziehen, um im falle von closed source software herauszufinden, welche algorithmen im betreffenden produkt mit größter wahrscheinlichkeit zur anwendung kommen...
https://www.libraw.org/articles/bayer-moire.html
Antwort von roki100:
wenn man sich das genauer anschaut, dann ist AHD das, was auch in Davinci verwendet wird. Schade das man da kein Auswahl Möglichkeiten hat.
EDIT
AHD Demosaicing:
Adaptive Homogeneity-Directed demosaicing algorithm by H. Keigo and T. Park in Cornell University. This routine is often considered to be the industry de facto standard. It appears this is the same routine used in Adobe Camera RawTM (at least version 3.2) and a number of others.
http://www.my-spot.com/RHC/RHC_Demosiac.htm
Antwort von iasi:
Es gab da mal eine Diskussion auf Reduser zu Moire-Problemen:
https://www.reduser.net/forum/showthrea ... -R3D-files
Am Ende stellte sich heraus, dass es ein Problem mit dem Transkodieren in ProRes war.
Und die Erfahrungen mit Moire sahen ansonsten so aus - wobei Red-Cams üblicherweise mit OLPF genutzt werden:
When I've encountered moire issues with feature projects, it usually happened because of a specific combination of vertical detail, lenses, and contrast, during a 1080 HD delivery.
One time I did see a shimmer of moire on set once when our set was made from corrugated cardboard. We checked with DIT and they couldn't see it on their end, and it is not present in the final output:
Ansonsten ist hohe Auflösung hilfreich, denn wenn das Objektiv voll ausgereizt wird, dann wird es auch zum Weichzeichner. :)
Wer findet hier Moire:
https://www.dpreview.com/reviews/canon-eos-r5-review/4
Antwort von roki100:
geht auch ohne mehr K, eben mit OLPF vor dem Sensor. Dieser muss aber auch gut sein, wie z.B. RAWLITE für BMD Ursulas. ;) Wäre dieser genau so gut für BMPCC/BMMCC hätte ich mir das Ding schon längst geholt.
Antwort von Darth Schneider:
Und wer sagt das du dann mit der Ursula kein Moiré hättest ?
Ich denke auch eher bestimmtes LED Licht und bestimmte Materialien und Muster in Kleidern das auslöst. Oder eben wie oben beschrieben, durch irgendwelche Computer Software Fehler...
Also wenn man solche Dinge versucht zu vermeiden, braucht man doch eigentlich kein besseren OLPF...;)
Ich denke auch nicht das BMD in so günstige Kameras wie die Micro und die Pockets jemals so hochwertige Komponenten wie in eine Ursa Mini Pro drin sind einbauen werden. Sonst wären die doch viel teurer.
Das war ja auch nie der Sinn einer BMD Pocket Cinema Camera.
Und eben, bei meiner gibt es nicht viel moiré, nicht mal annähernd so viel das ich mir darüber überhaupt Gedanken machen muss...
Gruss Boris
Antwort von Jott:
Schön, wie die Umfrage zerlegt wird.
The winner is: "raw ist für manche Aufgaben super".
Was gibt es daran zu deuteln? Ist doch so. Für andere Aufgaben - wohl die meisten - ist es unsinnig. Macht doch sowieso jeder wie er will - und die filmenden (in der Branche arbeitenden) Erwachsenen können selbst beurteilen, womit sie am besten drehen, ohne sich von Forenhelden beeinflussen oder gar beleidigen zu lassen.
Antwort von Frank Glencairn:
Jott hat geschrieben:
Erwachsenen können selbst beurteilen, womit sie am besten drehen, ohne sich von Forenhelden beeinflussen oder gar beleidigen zu lassen.
...und noch im selben Post:
Jott hat geschrieben:
Für andere Aufgaben - wohl die meisten - ist es unsinnig.
schwingt sich der Forenheld auf genau das zu tun, was er gerade an anderen kritisiert hat.
Antwort von Jott:
Du weißt genauso wie ich, für welche Jobs raw unsinnig ist. Dass deine geliebten BM-Kameras keine H.264-Formate können, gibt dir nicht das Recht, solche zu verdammen. Wieso auch? Das wäre ja wirklich Verblendung oder Religion.
Antwort von Frank Glencairn:
Meine "geliebten BM Kameras" - erstens pflege ich zu meinem Werkzeug ebensowenig eine emotionale Beziehung wie ein Schreiner zu seinem Hammer, und zweitens dreh ich jede Menge auf RED und Arri (wenn überhaupt bevorzuge ich letztere) - und wo hab ich irgendwelche Kameras "verdammt"?
Und ja - H.264 ist IMHO kein professionelles Aquisitsionsformat - und selbst die Hobbyfilmer posten deswegen hier täglich "Hilfe meine XYZ NLE ruckelt".
Natürlich kann man trotzdem damit aufnehmen, man darf dann halt nicht über Ruckeln, Banding, Artefakte, mangelnde Bittiefe etc. rum heulen.
Wenn man denkt, daß die Leute vor ein paar Jahren noch auf den Knien vor den Herstellern rumgerutscht sind um endlich raw zu bekommen, oder sogar schwindlige DIY raw Projekte gebastelt haben.
Anstatt happy zu sein, daß es endlich günstige raw Möglichkeiten gibt....
Meh! - das ist mir alles zu viel, zu kompliziert, zu anstrengend - ich brauch das nicht/für mich reicht das/ist gut genug.
Ich hab seit dem erscheinen der ersten RED so gut wie nix mehr außer raw gedreht (außer ich mußte), und sehe auch keinen Grund, warum ich für irgendeinen Job, nicht das Beste nehmen soll was meine Kamera hergibt.
Für mich sind alle meine Klienten gleichwertig, da gibt es keine zweite Klasse die nicht die bestmöglichste Qualität verdient,
zumal es mich ja nix kostet raw statt irgendwas anderes zu nehmen.
Is halt eine Sache der Einstellung zur eigenen Arbeit.
Antwort von Jott:
„ Und ja - H.264 ist IMHO kein professionelles Aquisitsionsformat - und selbst die Hobbyfilmer posten deswegen hier täglich "Hilfe meine XYZ NLE ruckelt".
Natürlich kann man trotzdem damit aufnehmen, man darf dann halt nicht über Ruckeln, Banding, Artefakte, mangelnde Bittiefe etc. rum heulen.“
Traurig, also doch Religion. Das strenge Netflix zum Beispiel approved viele Kameras, die „nur“ in H.264 aufnehmen. Was klar zeigt, dass es damit weder Ruckeln, Banding, Artefakte noch mangelnde Bittiefe gibt. Zumindest was die Ansprüche von Netflix angeht, diesen Amateuren.
Ach Jungs ...
Antwort von cantsin:
Jott hat geschrieben:
„ Und ja - H.264 ist IMHO kein professionelles Aquisitsionsformat - und selbst die Hobbyfilmer posten deswegen hier täglich "Hilfe meine XYZ NLE ruckelt".
Natürlich kann man trotzdem damit aufnehmen, man darf dann halt nicht über Ruckeln, Banding, Artefakte, mangelnde Bittiefe etc. rum heulen.“
Traurig, also doch Religion. Das strenge Netflix zum Beispiel approved viele Kameras, die „nur“ in H.264 aufnehmen.
Naja, dann aber nur die professionelleren 10bit-h264-Implementierungen der Kameraklasse S1H, C300 & Co.
Die Wahrheit liegt irgendwo zwischen Dir und Frank. Zwar gibt es h264 als professionelles Aquisitionsformat, aber nur in klarumrissenen Profilen bzw. einer sehr kleinen, streng gefilterten Untermenge dessen, was innerhalb der h264-Spezifikation möglich ist. Was unterhalb der professionellen, Netflix-abgesegneten Kameraklasse als h264 (oder h265) aufgenommen wird, macht sehr häufig Probleme.
Und dann stimmt eben auch, dass z.B. der Kauf einer relativ preiswerten Hybridkamera ungeahnte Folgekosten für CPU- und GPU-Aufrüstungen nach sich ziehen kann, wenn das Material flüssig geschnitten werden soll, und dagegen eine Kamera wie die BM Pocket mit ihren ProRes- und Braw-Codecs in der Kostensumme des Gesamtsystems von Kamera + Schnitt günstiger sein kann, als es auf den ersten Blick scheint.
Antwort von Darth Schneider:
BMD find ich super, so das Gesamtkonzept.
Aber was die günstigen Kameras betrifft ? Das ist relativ.
Wenn es dann wirklich sehr gut aussehen soll, und der Kunde höhere Ansprüche hat, ist der BMD Kamerapreis dann immer, plus, die Stabilisierung, die Arbeitszeit des Fokus Pullers und plus dem Colorgrading Profi...;))
Dann ist die Pocket oder die Ursa Mini auf ein Mal nicht mehr so günstig.
Das ist bei Red und Co. auch nicht anders.
Aber bei einer stabilisierten Kamera mit modernem Autofokus, die schönes h264 aufnimmt eben unter Umständen eben schon...
Gruss Boris
Antwort von Bluboy:
Mal schaun ob man mit Blackmagic gute Filme machen kann ;-))
https://www.blackmagicdesign.com/de/med ... 0190816-01
Antwort von Darth Schneider:
Ich denke wenn nicht laufend genug sehr gute Filme mit BMD Produkten entstehen würden, hätten die wohl kaum Grading Control Panels für 30 000€ im Verkaufs Angebot.
Gruss Boris
Antwort von Jott:
„ Was unterhalb der professionellen, Netflix-abgesegneten Kameraklasse als h264 (oder h265) aufgenommen wird, macht sehr häufig Probleme.“
Probleme? Wirklich? Ach bitte ... wenn ich darauf antworte, rutschen wir gleich in die nächste Verbalschlägerei! :-)
Jeder soll weiterhin glauben, was er glauben will. Zum Beispiel, dass man ohne raw nichts produzieren kann. Spaß muss sein.
Antwort von iasi:
cantsin hat geschrieben:
Jott hat geschrieben:
„ Und ja - H.264 ist IMHO kein professionelles Aquisitsionsformat - und selbst die Hobbyfilmer posten deswegen hier täglich "Hilfe meine XYZ NLE ruckelt".
Natürlich kann man trotzdem damit aufnehmen, man darf dann halt nicht über Ruckeln, Banding, Artefakte, mangelnde Bittiefe etc. rum heulen.“
Traurig, also doch Religion. Das strenge Netflix zum Beispiel approved viele Kameras, die „nur“ in H.264 aufnehmen.
Naja, dann aber nur die professionelleren 10bit-h264-Implementierungen der Kameraklasse S1H, C300 & Co.
Die Wahrheit liegt irgendwo zwischen Dir und Frank. Zwar gibt es h264 als professionelles Aquisitionsformat, aber nur in klarumrissenen Profilen bzw. einer sehr kleinen, streng gefilterten Untermenge dessen, was innerhalb der h264-Spezifikation möglich ist. Was unterhalb der professionellen, Netflix-abgesegneten Kameraklasse als h264 (oder h265) aufgenommen wird, macht sehr häufig Probleme.
Und dann stimmt eben auch, dass z.B. der Kauf einer relativ preiswerten Hybridkamera ungeahnte Folgekosten für CPU- und GPU-Aufrüstungen nach sich ziehen kann, wenn das Material flüssig geschnitten werden soll, und dagegen eine Kamera wie die BM Pocket mit ihren ProRes- und Braw-Codecs in der Kostensumme des Gesamtsystems von Kamera + Schnitt günstiger sein kann, als es auf den ersten Blick scheint.
Dass wir Raw von Kameras in der Preisklasse unter 10.000€ bekommen, ist ja auch erst seit kurzer Zeit der Fall - zumal in einer Auflösung, die dann auch für 4k am Ende ausreicht.
Schließlich ist es auch noch nicht so lange her, dass Panasonic-Atomos externes Raw in (annähernd) voller Sensorauflösung bieten.
Und die Sony 7S3/FX3 bieten ja nun auch 16bit-Raw am HDMI.
Wir sind also mittlerweile ganz oben angekommen, was die Ausgabeformate betrifft.
Stabi und AF halten auch längst Einzug.
Was nun wohl kommen wird, sind neue Sensortechniken. Die BM 12k ist ein erster Schritt - eben weg vom reinen Bayer-Design.
Global Shutter, Dual ISO, Dual Gain - ebenso nette Entwicklungen.
Ich bin wirklich sehr gespannt auf die Alexa S35/4k, denn Arri muss die Führungsrolle verteidigen.
Und Red muss bei DSMC3 eben auch mehr bieten, als nur aufgebohrte Komodos.
|
Antwort von Jott:
Nur noch kurz, eine schnöde „Videokamera“ (nach Iasi-Definition) darf auch mitspielen für Netflix Originals:
https://www.google.de/amp/s/www.dprevie ... ginals.amp
So viel zu „H.264 ist kein professionelles Akquisitionsformat“. Den Spruch wird man trotzdem noch ein Jahrzehnt lang hören! :-)
Antwort von cantsin:
Jott hat geschrieben:
„ Was unterhalb der professionellen, Netflix-abgesegneten Kameraklasse als h264 (oder h265) aufgenommen wird, macht sehr häufig Probleme.“
Probleme? Wirklich? Ach bitte ... wenn ich darauf antworte, rutschen wir gleich in die nächste Verbalschlägerei! :-)
Siehe hier: viewtopic.php?f=4&t=152124
Solche Postings haben wir hier doch jeden Tag. Kann es auch selbst bestätigen mit dem h265-Material aus meiner X-T4, dass mit einer GTX1080Ti, einem 12-Kern-Ryzen und 64GB RAM gerade so flüssig in der Timeline läuft. Oder eben auch so schönen Dingen wie variable Framerates in Smartphone-h264/h265-Material.
Ja, ich weiss, Deine Antwort lautet: Proxy- bzw. Intermediate Codec-Workflow. Doch die Consumer-/Prosumerkameras, die dieses problematische Material aufzeichnen, setzt man normalerweise für schnelle Turnarounds ein.
Aktuell schneide ich hier für eine politische Partei Wahlkampfvideos, die als persönliche Supporter-Statements mit Smartphones aufgezeichnet werden, diese Woche mehr als 20 Stück. Da kommt man den tollsten h264/h265-Eigenheiten entgegen. Wenn ich aber für jedes dieser Videos vor dem Schnitt eine Proxy- bzw. ProRes-Umrechnung gemacht hätte, hätte ich einen guten Teil meiner Arbeitszeit verloren.
Antwort von dienstag_01:
cantsin hat geschrieben:
Jott hat geschrieben:
„ Was unterhalb der professionellen, Netflix-abgesegneten Kameraklasse als h264 (oder h265) aufgenommen wird, macht sehr häufig Probleme.“
Probleme? Wirklich? Ach bitte ... wenn ich darauf antworte, rutschen wir gleich in die nächste Verbalschlägerei! :-)
Siehe hier: viewtopic.php?f=4&t=152124
Solche Postings haben wir hier doch jeden Tag. Kann es auch selbst bestätigen mit dem h265-Material aus meiner X-T4, dass mit einer GTX1080Ti, einem 12-Kern-Ryzen und 64GB RAM gerade so flüssig in der Timeline läuft. Oder eben auch so schönen Dingen wie variable Framerates in Smartphone-h264/h265-Material.
Ja, ich weiss, Deine Antwort lautet: Proxy- bzw. Intermediate Codec-Workflow. Doch die Consumer-/Prosumerkameras, die dieses problematische Material aufzeichnen, setzt man normalerweise für schnelle Turnarounds ein.
Aktuell schneide ich hier für eine politische Partei Wahlkampfvideos, die als persönliche Supporter-Statements mit Smartphones aufgezeichnet werden, diese Woche mehr als 20 Stück. Da kommt man den tollsten h264/h265-Eigenheiten entgegen. Wenn ich aber für jedes dieser Videos vor dem Schnitt eine Proxy- bzw. ProRes-Umrechnung gemacht hätte, hätte ich einen guten Teil meiner Arbeitszeit verloren.
Wurde dir damals in deinem Thread kein Intel Prozessor vorgeschlagen? Oder lag dein Hauptaugenmerk auf RAW Workflow? Müsste man nochmal nachschauen. #ungeahnte Folgekosten ;)
|
Antwort von Frank Glencairn:
Jott hat geschrieben:
Nur noch kurz, eine schnöde „Videokamera“ (nach Iasi-Definition) darf auch mitspielen für Netflix Originals:
Allerdings nur wenn man mit dem Intraframe Codec aufnimmt, hast du vergessen zu erwähnen - XAVC L oder S sind aus gutem Grund nicht erlaubt.
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Und wer sagt das du dann mit der Ursula kein Moiré hättest ?
RAWLITE OLPF kombiniert mit Ursula besser als mit BMPCC/BMMCC. Es gibt irgendwo im BMD Forum ein vergleich.
Ich denke auch eher bestimmtes LED Licht und bestimmte Materialien und Muster in Kleidern das auslöst.
Nicht nur. Siehe hier, alles gleich (LED Lampe, Entfernung, Brennweite usw.) nur andere Linse (Sigma) und keine moiré.
Also wenn man solche Dinge versucht zu vermeiden, braucht man doch eigentlich kein besseren OLPF...;)
Es gibt schon Lösungen, wie Beispiel Chroma Blur usw. nur darf man da nicht zu hoch bluren, dann sehen die Farben verwischt aus...
Wie man sieht, spielt ein gutes RAW demosaic auch eine wichtige rolle.
Ich denke auch nicht das BMD in so günstige Kameras wie die Micro und die Pockets jemals so hochwertige Komponenten wie in eine Ursa Mini Pro drin sind einbauen werden. Sonst wären die doch viel teurer.
Das hat damit nichts zu tun. CMOS Sensoren ohne OLPF und dazu noch große Sensel usw. sowas ist eben von moire/aliasing betroffen.... BMD Kameras sind da keine besondere Ausnahme (außer die 12K, wie iasi schon geschrieben hat).
Das Bild mit moiré auf der Gardine ist wirklich etwas was man so selten sieht. Einmal habe ich im Einkaufszentrum gefilmt und da war Rolltreppe im Bild, das sah viel schlimmer aus :) Ich kannte Natron LMMSE damals noch nicht, damit könnte man die Artefakte sicherlich entfernen. Leider habe ich die original RAW Files nicht mehr.
Antwort von roki100:
Jott hat geschrieben:
„ Und ja - H.264 ist IMHO kein professionelles Aquisitsionsformat - und selbst die Hobbyfilmer posten deswegen hier täglich "Hilfe meine XYZ NLE ruckelt".
Natürlich kann man trotzdem damit aufnehmen, man darf dann halt nicht über Ruckeln, Banding, Artefakte, mangelnde Bittiefe etc. rum heulen.“
Traurig, also doch Religion. Das strenge Netflix zum Beispiel approved viele Kameras, die „nur“ in H.264 aufnehmen. Was klar zeigt, dass es damit weder Ruckeln, Banding, Artefakte noch mangelnde Bittiefe gibt. Zumindest was die Ansprüche von Netflix angeht, diesen Amateuren.
Ach Jungs ...
Das ist so eine Sache. Ich bin zwar kein Profi, dennoch war ich gegenüber H.264 (10Bit) ehrlich gesagt sehr skeptisch, bis ich es selber getestet und mit ProRes HQ verglichen habe.
Antwort von Darth Schneider:
Ich denke als Kamera Aufnahme Format ist BRaw ( oder etwas vergleichbares) und ProRes immer noch besser, (oder im Vorteil was die Nachbearbeitung betrifft), gegenüber h264 Formaten. Dabei geht es nicht zwangsläufig nur um die Bildqualität.
Nicht das h264 schlecht ist, aber man sollte schon realistisch bleiben...
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Ich denke als Kamera Aufnahme Format ist BRaw ( oder etwas vergleichbares) und ProRes ganz bestimmt ganz einfach besser, (oder im Vorteil was die Nachbearbeitung betrifft), gegenüber h264 Formaten. Nicht das h264 schlecht ist, aber man sollte schon realistisch bleiben...
Gruss Boris
hast Du getestet? Ich schon.
Aufgenommen einmal mit BM VA in ProRes HQ und dann in H264 10Bit VLOG... und zwar alles mögliche, Fluss, schnelle Bewegungen usw. usf. und konnte leider kein unterschied erkennen. Selbst der unterschied zwischen all intra und long gop ist nur in Theorie etwas, in Wirklichkeit aber, wirst Du auch da keinen unterschied beim Colorgrading...sehen. Ähnlich so auch mit ProRes HQ und ProRes LT, wo ist da genau der unterschied? ich sehe keins. :) Wer Profi genug ist das zu Wiederlegen, sollte das bitte mal tun... damit ich auch sehe wo da eigentlich der visuelle unterschied ist.
Die unterschiede sind scheinbar irgendwo anders zu suchen, aber nicht in 10Bit 422 vs. 10Bit 422.
Antwort von Jott:
"Frank Glencairn" hat geschrieben:
Jott hat geschrieben:
Nur noch kurz, eine schnöde „Videokamera“ (nach Iasi-Definition) darf auch mitspielen für Netflix Originals:
Allerdings nur wenn man mit dem Intraframe Codec aufnimmt, hast du vergessen zu erwähnen
Was soll ich denn noch alles erwähnen? Natürlich XAVC-I, was Netflix angeht. Steht ja bei denen. Habe ich was anderes impliziert?
Und außerhalb des Beispiels Netflix gibt es genug Szenarien, wo auch Interframe aus diversen Gründen Sinn macht. Aber das wissen ja alle. Auch Sony, sonst würden sie es ja nicht anbieten.
Antwort von Jott:
cantsin hat geschrieben:
Ja, ich weiss, Deine Antwort lautet: Proxy- bzw. Intermediate Codec-Workflow.
Nein, du weißt nicht. Weder Proxy noch Intermediate, alles läuft bestens nativ in fcp x. Nur 8K braucht bei uns Proxies. Dieses offensichtlich extrem optimierte Programm, zusammen mit aktueller Apple-Hardware, ist für MICH der Maßstab. Hier wird an drei Schnittplätzen auf Tempo gearbeitet. Daher weiß ich, was Sache ist. H.264 bremst nicht die Bohne. Das war vor vielen Jahren noch der Fall. Aber wir haben nun mal 2021.
Mit dem Umfrage-Ergebnis "raw für manche Aufgaben super" gehe ich völlig konform. Zu erzählen, raw MÜSSE sein für professionelle Produktionen, ist aber Wichtigtuerei. Sorry.
Antwort von Frank Glencairn:
Jott hat geschrieben:
Und außerhalb des Beispiels Netflix gibt es genug Szenarien, wo auch Interframe aus diversen Gründen Sinn macht.
Dann nenne mir doch mal drei deiner "genug Szenarien", wo H264 einer raw Aufnahme überlegen ist.
Antwort von Jott:
Deine Verdreh-Rhetorik lässt zu wünschen übrig. Wo sage ich denn, dass H.264 raw überlegen sei?
Antwort von Frank Glencairn:
Aha.
Also meinetwegen: Wo macht es denn Sinn?
Antwort von Jott:
Das weißt du selbst. Du ziehst nur eine Show ab.
Antwort von Darth Schneider:
@roki
Es geht doch nicht immer nur um die Bildqualität, also mir nicht.
Die Bildqualität von meinem iPhone SE ist auch gut, das iPhone 12 von meiner Frau noch besser...;)
Aber ich filme trotzdem eigentlich überhaupt nicht gerne mit den Dingern...
Ich würde jetzt in jedem Fall, egal für was für Content, viel, viel lieber mit BRaw und auch mit ProRes filmen und das Material auch bearbeiten, als mit h264.
Alleine schon wegen dem Workflow, macht mir viel mehr Spass.
Aber das ist jetzt nur für meine Ansprüche und meine Meinung.
Und warum man jetzt da Netflix als Referenz für irgendwas für Standards sieht verstehe ich auch nicht wirklich ?
Sicher die haben einige sehr, sehr gute Serien und Dokus produziert, einige !
Aber auch eben noch viel, viel mehr teuren Schrott.
Was nicht bei wenigen Serien so aussieht und herüberkommt wie, möchte gern cinematische, aber schlussendlich todlangweilige Video Produktionen mit miesen Drehbüchern...;)))
Gruss Boris
Antwort von Frank Glencairn:
Jott hat geschrieben:
Das weißt du selbst. Du ziehst nur eine Show ab.
Du hast also nix vorzuweisen.
Antwort von roki100:
Boris,
Du meinst BMD LOG/Flat und ColorScience ... H264 10Bit bedeutet aber nicht gleich Rec709 wie bei Smartphone 8Bit etc. ;)
Antwort von Darth Schneider:
@roki
Also ich filme nur so..Du ja wahrscheinlich auch...
Weiss jetzt nicht was du meinst ?
Jetzt weiss ich was du meinst.;))
Aber eben, wie schon geschrieben.
Mir geht es überhaupt nicht um die Bildqualität, ich mag kein h264 wegen dem Workflow, der ist bei BRaw und auch bei ProRes einfach für mich besser.
Ich hatte auch 10Bit Log Material von einer XT4 bei mir auf dem Rechner, und damit herumgespielt, geht schon und sieht super aus.
Aber ich war war danach einfach froh eine Kamera mit BRaw zu haben.;))
Das ist nicht mein Ding..
Gruss Boris
Antwort von roki100:
Die frage ist eher, was Du genau damit meinst:
Ich würde jetzt in jedem Fall, egal für was für Content, viel, viel lieber mit BRaw und auch mit ProRes filmen und das Material auch bearbeiten, als mit h264.
Alleine schon wegen dem Workflow, macht mir viel mehr Spass.
wegen welchen Workflow? Denn der unterscheidet sich kaum. Beispiel default: Node mit CST und das passende ColorSpace, Gamma auswählen... Wo ist da der Unterschied außer die unterschiedliche Hersteller angepasste ColorScience...?
Unter "Workflow" verstehe ich die Schritte in DR bzw. ist eine Sache der Softwarebedienung.....
Antwort von Darth Schneider:
Lies noch mal oben, habe mehr geschrieben..
Gruss Boris
Antwort von roki100:
ja aber deine Erfahrung mit XT4 hat wiederum nichts mit h264 Workflow zu tun, sondern mit (XT4) F-LOG... Auch einer der Gründe warum ich stattdessen Panasonic ausgewählt habe bzw. lieber VLOG wollte ...
Antwort von Darth Schneider:
Mir gefällt BRaw jetzt einfach, und ich denke nicht mal daran etwas anderes überhaupt in Betracht zu ziehen.
Warum auch ?
Ich will lieber weiter lernen mit BRaw meiner Kamera und Resolve, als unnötig Zeit zu verschwenden um andere Codecs und Kameras auszuprobieren, wegen ein paar Quäntchen Bildqualität, oder was auch immer....
Gruss Boris
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Jott hat geschrieben:
Und außerhalb des Beispiels Netflix gibt es genug Szenarien, wo auch Interframe aus diversen Gründen Sinn macht.
Dann nenne mir doch mal drei deiner "genug Szenarien", wo H264 einer raw Aufnahme überlegen ist.
Ich bin ja ein großer Raw-Verfechter, aber drei Szenarien bei denen H264 die bessere Wahl ist, fallen mir dennoch ein:
1. Grading ist nicht vorgesehen oder notwendig. Bei einer standartisierten Ausleuchtung, bei der man aus der Kamera direkt auf die Timeline und dann in den Export gehen kann.
2. Sehr lange Einstellungen, bei denen die Raw-Datenmengen problematisch werden - da genügt eben auch die Raw-Komprimierung oft nicht.
3. Zeit ist Geld. Da, wo das Datenhandling und das Grading von Raw-Aufnahmen sich schlicht nicht lohnen.
Wenn das "Grading" in der Kamera erfolgt und ein effizienter Codec (auch GOP) genutzt wird, hat man nun einmal schneller ein Resultat.
Auch ziehen Raw-Kameras in der Praxis die Akkus sehr viel schneller leer, als "Videokameras".
Antwort von Jott:
"Frank Glencairn" hat geschrieben:
Jott hat geschrieben:
Das weißt du selbst. Du ziehst nur eine Show ab.
Du hast also nix vorzuweisen.
Wieso sollte ich dir etwas vorweisen? Du weißt genau, um was es geht. Welche Duftmarke willst du eigentlich zwanghaft setzen? Sogar dem Hohepriester Iasi fallen ein paar Sachen ein. Neben dem alten Märchen natürlich, dass man nur mit raw graden könne, aber das wissen ja alle Mitlesenden sowieso besser. Bedarf also bestimmt keiner endlosen Diskussion zwischen - sagen wir mal - Praktiker und Theoretiker.
Antwort von iasi:
Jott hat geschrieben:
"Frank Glencairn" hat geschrieben:
Du hast also nix vorzuweisen.
Wieso sollte ich dir etwas vorweisen? Du weißt genau, um was es geht. Welche Duftmarke willst du eigentlich zwanghaft setzen? Sogar dem Hohepriester Iasi fallen ein paar Sachen ein. Neben dem alten Märchen natürlich, dass man nur mit raw graden könne, aber das wissen ja alle Mitlesenden sowieso besser. Bedarf also bestimmt keiner endlosen Diskussion zwischen - sagen wir mal - Praktiker und Theoretiker.
Nun. Also wenn man schon graden will, sollte man wohl auch das bestmögliche Ausgangsmaterial nutzen.
Wer heute immer noch davon redet, man könne tolle cinematische Resultate auch mit 10bit-Videoaufnahmen erzielen, weil er eben noch mit seiner alten Kamera unterwegs ist, der hat noch nicht mitbekommen, dass es mittlerweile Kameras für wenig Geld gibt, die in komprimiertem Raw aufzeichnen können.
Das erinnert immer an die HD-Filmer, die einem erklären wollten, dass niemand 4k benötigt und Hollywood doch auch nur in 2k drehen würde.
Erklär doch mal, warum man 10bit beim Graden mißhandeln soll, wenn man auch in Raw filmen kann?
Oder ist es das, was sich vor der Kamera abspielt, einfach nicht wert, die bestmögliche Option zu nutzen?
Aber die 10bit-Verfechter drehen eine Kreuzschlitzschraube wahrscheinlich auch mit einem Schlitzschraubenzieher rein - geht ja auch irgendwie. ;)
Wer heute noch auf einem Filmset mit einer 10bit-Kamera auftaucht, riskiert zu recht, dass man ihn heimschickt.
Antwort von cantsin:
Jott hat geschrieben:
cantsin hat geschrieben:
Ja, ich weiss, Deine Antwort lautet: Proxy- bzw. Intermediate Codec-Workflow.
Nein, du weißt nicht. Weder Proxy noch Intermediate, alles läuft bestens nativ in fcp x. Nur 8K braucht bei uns Proxies. Dieses offensichtlich extrem optimierte Programm, zusammen mit aktueller Apple-Hardware, ist für MICH der Maßstab. Hier wird an drei Schnittplätzen auf Tempo gearbeitet. Daher weiß ich, was Sache ist. H.264 bremst nicht die Bohne. Das war vor vielen Jahren noch der Fall. Aber wir haben nun mal 2021.
Mit dem Umfrage-Ergebnis "raw für manche Aufgaben super" gehe ich völlig konform. Zu erzählen, raw MÜSSE sein für professionelle Produktionen, ist aber Wichtigtuerei. Sorry.
Das hatte ich auch nirgendwo geschrieben.
Antwort von dienstag_01:
Sagt man das heute so: Ich geh ans Set?! Als Hochzeitsfilmer z.B. ;)
*Morgen hab ich n 12bit LOG Set.* Auch cool ;)
Antwort von Darth Schneider:
Er trifft die Vorteile, zumindest für mich von BRaw genau auf den Punkt.
Gruss Boris
Antwort von Frank Glencairn:
iasi hat geschrieben:
1. Grading ist nicht vorgesehen oder notwendig. Bei einer standartisierten Ausleuchtung, bei der man aus der Kamera direkt auf die Timeline und dann in den Export gehen kann.
2. Sehr lange Einstellungen, bei denen die Raw-Datenmengen problematisch werden - da genügt eben auch die Raw-Komprimierung oft nicht.
3. Zeit ist Geld. Da, wo das Datenhandling und das Grading von Raw-Aufnahmen sich schlicht nicht lohnen.
Wenn das "Grading" in der Kamera erfolgt und ein effizienter Codec (auch GOP) genutzt wird, hat man nun einmal schneller ein Resultat.
1. Einmal die richtigen Einstellungen (wie roki oben schon sagte) gesetzt und das läuft mit raw ganz genau so. Rein in die Timeline, schneiden und raus damit. Die Color Page brauchst du dabei nicht mal anzufassen.
2. Einstellungen, welche die Kapazität einer T5 überschreiten sind eine Randerscheinung - kommt so gut wie nie vor, außer du filmst ne Baustelle über mehrere Monate am Stück, aber das ist ne ganz andere Anwendung.
3. Im Jahre 2021 mit TB 3/USB4 und SSD & Co ist das Datenhandling eigentlich kein Thema mehr - Grading hatten wir schon.
iasi hat geschrieben:
Wenn das "Grading" in der Kamera erfolgt und ein effizienter Codec (auch GOP) genutzt wird, hat man nun einmal schneller ein Resultat.
Nö, das ist ein Mythos, zumal es bei den allerwenigsten Produktionen auf ein paar Minuten ankommt.
Antwort von Jott:
Ihr seid echt köstlich. Und einer zumindest so realitätsfremd, dass es schon weh tut.
Aber deshalb mag ich dieses Forum. Der Blick in die verschiedensten Köpfe, auf die verschiedensten Charaktere. Großartig!
Was machen wir jetzt mit den Leuten in der Umfrage, die verrückter Weise auch mal ohne raw lebensfähig zu sein scheinen? Mit tiefster Verachtung strafen? Die Armen.
Antwort von roki100:
iasi hat geschrieben:
"Frank Glencairn" hat geschrieben:
Dann nenne mir doch mal drei deiner "genug Szenarien", wo H264 einer raw Aufnahme überlegen ist.
Ich bin ja ein großer Raw-Verfechter, aber drei Szenarien bei denen H264 die bessere Wahl ist, fallen mir dennoch ein:
1. Grading ist nicht vorgesehen oder notwendig.
Genau! Was haben sich die Kamerahersteller und H264/5, ProRes & Co. Codec-Entwickler mit verschiedene LOGs (VLOG, F-LOG, HLG....) und 10Bits da nur gedacht... Haben die einfach nur so Sinnlos entwickelt. ;)
Wenn das "Grading" in der Kamera erfolgt und ein effizienter Codec (auch GOP) genutzt wird, hat man nun einmal schneller ein Resultat.
Du verwechselt Color-Grading mit Color "Correction"... ;) 10Bit (LOG) ist doch nicht für kamerainterne Sepia, B&W, Eterna etc. entstanden, oder einfach nur so da...
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Mir gefällt BRaw jetzt einfach, und ich denke nicht mal daran etwas anderes überhaupt in Betracht zu ziehen.
Warum auch ?
Ich will lieber weiter lernen mit BRaw meiner Kamera und Resolve, als unnötig Zeit zu verschwenden um andere Codecs und Kameras auszuprobieren, wegen ein paar Quäntchen Bildqualität, oder was auch immer....
Gruss Boris
Ja mehr Bit usw. ist doch besser, warum also das wenige nehmen (so wie iasi das auch meint). Das bedeutet aber nicht, dass der Workflow (von Kamera starten und filmen...bis nachträglich in Davinci bearbeiten) komplizierter oder zeitaufwendiger ist... oder, dass man mit 12Bit ein Ergebnis hat, was mit 10Bit so gar nicht gegangen wäre.
Antwort von roki100:
RawTherapee kann auch LMMSE.
Antwort von Bluboy:
Ein neues Plugin muß her, weil man mit den bisherigen Arbeiten nicht zufrieden ist
;-((
Antwort von Darth Schneider:
Ich bin wirklich sehr zufrieden mit BRaw.
Manche Leute drehen sich beim diskutieren immer im Kreis.
Manche sind unglaublich stur und wollen einfach nicht akzeptieren das es halt Leute gibt die froh sind nichts mehr mit h264 am Hut haben zu müssen, seit sie BRaw haben.
Manche sind auch vor lauter Dynamik Range und Highlight Recovery im Kopf, schlicht weg einfach zu blind sind um zu verstehen das andere Leute doch gar keine Kamera haben oder gar keine haben wollen, die h264 mit Log aufnimmt.
Andere Leute drehen auf Hochzeiten und wollen für mich, auch verständlicherweise mit RAW vielleicht nix am Hut haben, das ist doch alles voll o.k. Und nur Geschmacksache...;))
Übrigens...Guten Morgen roki...Frank....
Ich bin mir ganz sicher, roki, wenn du jetzt irgendeine neue Pocket zuhause hättest die mit 12Bit BRaw aufnimmt, würde die G9 mit samt seinem h264 LOG Codec, wahrscheinlich bei dir Zuhause vor sich hin rosten...;)
Aber das ist nur meine Meinung, nicht falsch verstehen, ich will keinesfalls 10 Bit h264 mit Log schlecht reden.
Nur, du vergleichst das 10Bit h264Log mit ProRes und CDng aus einer 10 Jahre alten Kamera...Du hast gar keine Kamera die mit BRaw überhaupt aufnehmen kann...Das ist für mich dann schon fast lächerlich theoretisch...
Aber ist doch auch völlig egal, wenn das dir so gefällt, mach’s doch weiter mit 10Bit, Log h264 mit deiner G9 oder mit Cdng mit deiner Pocket.
Aber warum soll ich etwas anderes ausprobieren, oder deine Meinung annehmen wenn mir BRaw und alles darum herum so gut gefällt ?
Das werde ich ganz sicher nicht, weil es dazu keinen Grund gibt...
Und ein viertes Mal wiederhole ich mich jetzt hier nicht, wegen dir, weil du dich weiter im Kreis drehen willst, sonst wird es also peinlich...
Den wahrscheinlich frustrierten nedag da unten der seine Pocket jetzt verkauft, haben wir Beide auch sehr erfolgreich missioniert, gell roki ?
Ironie off !
Also wann hören wir endlich hier auf damit anderen unsere persönliche Meinung versuchen anzudrehen, indem wir aufzeigen was an dem was wir haben jetzt besser sein soll ????
Das ist doch eigentlich Stumpfsinn...
Gruss Boris
Antwort von Jott:
Das Blackmagic-Biotop (BRAW und Resolve) ist wirklich sehr gelungen. Nur kann ich leider mit deren Kameras nichts anfangen. Externe Recorder kommen nicht in die Tüte, aus diversen Gründen, keinesfalls im Alltag. Der Canon-Heizer? No way. ZCam? Echt nicht. Dann RED? Nervtötender Laden, sorry Jarred! :-)
Im Gegensatz zu Iasi müssen wir täglich arbeiten, jahrelanges Warten auf die perfekte (und perfekt nutzbare) Kamera ist keine Option.
Und schon landet man heimlich und völlig verängstigt (Foren-Mobbing!) gerne mal bei non-raw.
Hervorragend fand ich übrigens die Idee, die im Forum neulich mal aufkam: ein kleiner raw-Recorder in Form eines Batteriegriffs o.ä. zum direkten kabellosen Ansetzen bei Bedarf. Mit eigenen Kartenschächten. Und gerne Lüfter für uneingeschränkten Dauerbetrieb. Sonst eine unmerkliche Erweiterung, nur im Kameramenü taucht bei den Codecoptionen zusätzlich raw auf. Am liebsten ProRes RAW (kreisch!). Wenn sich die RED-Patente so umgehen ließen, fände ich das perfekt.
Aber wahrscheinlich wäre der Bedarf so minimal, dass die geringen Stückzahlen den Preis in irreale Höhen treiben würden. Deswegen gibt‘s so was wohl nicht.
Antwort von Darth Schneider:
Nun ja, für meine Pocket gibts ja für 80€ schon einen Griff wo man ganz eine Ssd rein stecken kann. Hab ich, funktioniert Tipp top.
Und Batteriegriffe gibt es auch.
Auf beiden Seiten einen Griff ist doch eh besser als nur einer..;)
Also die Idee mit dem RAW Handgriff, ist dann auch nicht wirklich so besonders, wenn dort ein Lüfter drin sitzt hilft das dem Kamera Sensor genau auch mal nix....Ich denke welches RAW oder LOG Format auch immer, ob komprimiert oder nicht ist nur mehr zweitrangig. Aber wichtig ist, der Codec gehört intern in die Kamera, sonst sehe ich keine längerfristige Zukunft...Nur provisorisches Gebastel.
Gruss Boris
Antwort von cantsin:
IMHO wäre es das beste, wenn Blackmagic BRAW als internen Codec an Dritthersteller lizenzieren würde, und wenn BRAW auf dieses Weise in mehr Mainstream-taugliche Kameras à la A7s, S1H, FS5, C200 etc. einziehen würde. Meinetwegen dürfte man dann auch als Kamerakäufer ein paar hundert Euro Zuschlag zahlen für eine entsprechende Firmware-Freischaltung.
(Das ginge allerdings nicht von heute auf morgen, da BRAW dann in ASICs implementiert werden müsste.)
Antwort von TomStg:
Wenn es denn RAW sein muss, kommt letzlich nur BRAW tatsächlich im praktischen Gebrauch in Frage. Denn ProRes RAW gibt es bei Resolve nicht - und wird es auch nicht geben, genauso wenig wie BRAW bei FCP X.
Fasst man alle Vor- und Nachteile von BRAW vs ProRes RAW zusammen, wird deutlich, dass ProRes RAW ein todgeborenes Kind ist. Nur die schwache Kooperation mit Atomos reicht nicht aus.
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Ich bin mir ganz sicher, roki, wenn du jetzt irgendeine neue Pocket zuhause hättest die mit 12Bit BRaw aufnimmt, würde die G9 mit samt seinem h264 LOG Codec, wahrscheinlich bei dir Zuhause vor sich hin rosten...;)
Glaubst Du tatsächlich, ich kann sie mir nicht leisten und daher habe ich keine Pocket mit BRAW? Ich will die P4K/P6K einfach nicht, weil mir das nicht gefällt... und für meinen Zweck die GH5 oder G9 doch besser geeignet ist... BRAW fehlt mir nicht. Ich finde z.B. manche Linsen viel interessanter und wichtiger, als irgendwelche 12Bit Codecs.
Ich betreibe doch keine Wettbewerbe mit BRAW vs H264 und wiederhole mich daher, weil Du dich wiederholst... :)
Keiner will Dir doch BRAW nehmen und h264 10Bit (und es geht nur um 10Bit) aufzwingen ;) sondern nur den Lesern verdeutlicht, dass BRAW nicht A und O ist, um schöne Bilder Graden zu können... und das wird jeder der sich damit auseinander setzt, auch ohne uns feststellen.
Für manche Aufgaben ist RAW unverzichtbar. Doch das sind Aufgaben, womit die meisten kaum zu tun haben und wenn die damit zu tun haben, dann die wenigsten davon mit BRAW... ;) Die restlichen mit BRAW nutzen BRAW nur weil sie es haben und besser ist als weniger Bit.
Antwort von Darth Schneider:
Ich habe mit keinem Wort geschrieben das du dir irgend etwas nicht leisten kannst.
Und doch, ich denke schon. Wenn man immer wieder gegen was anderes schreibt als das was man selber hat, ist das schon irgendwie missionieren...oder kann für manche Menschen so herüber kommen.
Ich habe auch nirgends geschrieben, das h262 mit 10 Bit schlechter als BRaw sein soll. Nur das ich halt viel lieber mit BRaw weiter arbeite
( logischerweise, kamerabedingt )...
Aber immer kommt, ein, aber man kann...von deiner Seite...
Natürlich kann man immer auch anders, logisch...!
Gruss Boris
Antwort von roki100:
Ich schreibe doch nicht gegen BRAW... ? K.A wie Du darauf kommst... Wenn Du das so schreibst und gleichzeitig oben noch "persönliche Meinung versuchen anzudrehen" dann solltest Du vll. nochmal genauer lesen und dich fragen, wer derjenige ist, der hier jemanden etwas unterstellt und alles verdreht?
Freundlicher Umgang mit dem Nächsten Mitmenschen (egal ob digital Anonym unterwegs oder im RL) ist doch Wertvoller als alle Codecs oder Kameras. Wenn es aber um BRAW geht, dann plötzlich nicht Boris? ;) Ich habe das noch nie verstanden, auch mit den Jugendlichen Bauer und derer Autos in Dörfer ist es ähnlich, der eine fährt Golf, meint aber im Ferrari zu sitzen....shrauben den ganzen Tag an Autos...betreiben Wettbewerbe... haben sogar "VW Golf Klub" gegründet usw. usf. habe ich nie verstanden...muss ich aber auch nicht ;)))
Ich habe auch nirgends geschrieben, das h262 mit 10 Bit schlechter als BRaw sein soll. Nur das ich halt viel lieber mit BRaw weiter arbeite
( logischerweise, kamerabedingt )...
Ja, das meinte ich mit: Die restlichen mit BRAW nutzen BRAW nur weil sie es haben und besser ist als weniger Bit. Das fertige Ergebnis aber, würde bei den meisten vll. auch mit 8Bit funktionieren.
Antwort von Darth Schneider:
Das weiss ich alles überhaupt nicht, was für wen funktionieren würde,
8/10/12 oder 16 Bit, ARRI RAW oder h624 ?
Gute Bilder, das geht mit ganz vielen Codecs.
Ich kenne die Leute nicht, und du auch nicht, somit wissen wir nur was wir in unseren eigenen Köpfen denken...;)
Ich habe weder eine moderne Sony, noch eine Panasonic, noch eine neue Canon....
Ich weiss nur das die 12 Bit BRaw die aus der Pocket herauskommt ist einfach flexibler, wunderschön und für mich einfach besser zu bearbeiten als das auch schon sehr, sehr gute ProRes Format.;))). Für mich !
Also über h264 oder irgendwelche andere 10Bit LOG Formate denke ich gar nicht nach wenn ich nicht muss, warum denn auch...
Das ist eigentlich alles was ich dir hier in diesem Threat schon mit unzähligen Zeilen zu sagen versuche...
Und jetzt schreib ich wirklich nix mehr dazu...
Ausser, wenn ich unfreundlich war, tut es mir leid, war mir nicht bewusst, ich bin eher genervt...wenn jemand immer mit...aber, BRaw kommt, wenn er ja nicht mal eine Kiste BRaw hat....
Das sollte auch nicht unfreundlich sein, einfach eine Tatsache.
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Das weiss ich alles überhaupt nicht. Ich habe weder eine moderne Sony, noch eine Panasonic, noch eine neue Canon....
Ich weiss nur das die 12 Bit BRaw die aus der Pocket herauskommen sind einfach flexibler, wunderschön und für mich einfach besser zu bearbeiten als das auch schon sehr, sehr gute ProRes Format.;)))
Also über h264 oder irgendwelche andere 10Bit LOG Formate denke ich gar nicht nach wenn ich nicht muss, warum denn auch...
Gruss Boris
Ja, warum auch? Weil dieser Thread eine Diskussion ist, basierend auf die die Umfrage. "Für manche Aufgaben super" passt m.M. ganz genau. Für die meisten Aufgaben ist RAW eben nicht vorausgesetzt.
Wunderschön, besser usw. : ist zum teil nur etwas geschriebenes, doch der praktische Umgang in DR..bis zum export Ergebnis, unterscheidet sich kaum... Und das weißt Du. ;)
Antwort von Darth Schneider:
Warum filmt dann Frank nicht mit h624 ?
Warum filmt der Hochzeiten Filmer nicht mit RAW ?
Warum filme ich lieber mit BRaw ?
Und du lieber mit CDng, und mit 10 Bit h624 Log ?
Vor ALLEM.... wegen dem ganzen Workflow, also dem praktischem Umgang, und nebenbei, weil wir alle verschiedene Geschmäcker haben behaupte wahrscheinlich nicht nur ich...
Und dann zu behaupten, für die meisten würde 8Bit genügen, das kannst du noch lange, es bleibt doch irgendwie sinnlos. Vor allem weil du ja gleichzeitig behauptest hast, BRaw seie zu komprimiert, zu wenig RAW, für deinen Geschmack....Heute genügt dir ein noch mehr komprimiertes h624 Format, wirklich ?
Du bist wie ein Tennisball, schmettert sich selber, von einer Seite zur anderen...
Das kann ich dann alles zusammen dann nicht mehr wirklich ernst nehmen.
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Warum filmt dann Frank nicht mit h624 ?
Weil die Kameras die er benutzt, das nicht haben... ;))
Warum filmt der Hochzeiten Filmer nicht mit RAW ?
Doch die gibt es auch... (habe ich letztens davon gelesen). Die meisten davon finden denke ich andere Dinge wichtiger, wie interne Stabi, Zuverlässigkeit usw. und wissen eben, dass 10Bit für die meisten Looks völlig ausreicht. Oder wählen eine 8Bit Kamera, die kameraintern schöne Farben, Looks onboard hat (Canon Cxxx).
Warum filme ich lieber mit BRaw ?
Weil Du das hast und glaubst damit schönere Bilder schaffen zu können. ;)
Und du lieber mit CDng, und mit 10 Bit h624 Log ?
CDNG daher, weil kamerainterne Parameter wie WB, ISO usw. keine rolle spielt und ich nachträglich in der Tat einiges besser korrigieren kann...
H264 10 Bit VLOG daher, weil für den Look denn ich nachher haben will, das völlig ausreicht...
Der nachträgliche Workflow ist unterschiedlich... Ansonsten aber so:
CDNG: in CameraRAW wechseln, ISO drehe ich ein bisschen runter, schatten ein bisschen höher, aktiviere HR, drehe HR ein bisschen runter falls nötig...WB Anpassung...und gespeichertes PowerGrade aus dem Archiv drüber legen und dann einzelne Clips anpassen
VLOG: gespeichertes PowerGrade aus dem Archiv drüber legen und ein wenig (Clips) anpassen
Also, was ist daraus zu verstehen? Mit dem Workflow musst Du dich nicht zig male wiederholen....PowerGrade abspeichern.
Antwort von Darth Schneider:
Du weisst schon das man mit BRaw in der Post sehr viele Bild Einstellungen speichern kann und überhaupt nicht wiederholen muss...
Schon vor dem importieren geht vieles...;)
Der wirkliche Vorteil von BRaw ist doch, zumindest für mich, das es halt perfekt zusammen mit den hauseigenen Kameras und mit Resolve zusammen harmoniert, ganz ohne zusätzliche Software...
Gruss Boris
Antwort von roki100:
Ja, wie kommst Du darauf dass ich das nicht weiß?
Antwort von Darth Schneider:
Weil du ja noch andere Software brauchst als Resolve um dein Material so zu bearbeiten wie du es haben willst ?
Ich brauch das nicht...
Darum komme ich darauf, und weil du gar keine BRaw Kamera hast ?
Und somit den gesamten auf Resolve abgestimmten Workflow mit BRaw gar nicht voll ausnützen kannst.
Das ist nichts negatives, aber, dir fehlt damit schon mal ein ziemlich wichtiger Teil des aktuellen BMD Puzzles ;))
Mann oh Mann, du bist mir ein sturer Brocken...
Bestell dir doch endlich die 6K Pro.....
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Weil du ja noch andere Software brauchst als Resolve um dein Material so zu bearbeiten wie du es haben willst ?
Nein. Das mit CDNG und LMMSE ist für mich seit neustem etwas spezielles bzw. BMPCC ist Artefakte/moiré empfindlicher. Die tauchen aber nicht immer auf (bei mir, abhängig von der Linse die ich gerne mit der BMPCC nutze). Aber kein muss.
Für ColorGrading, Schnitt usw. benutze ich nur DR.
Also dir fehlt damit schon mal ein ziemlich wichtiger Teil des Puzzles ;))
Mann oh Mann, du bist mir ein sturer Brocken...
Verarschst Du mich? ;)
Antwort von Darth Schneider:
Nein, ich will dich nicht verarschen. Aber du weisst ohne BRaw Kamera mit einigem selbst gedrehtem Material doch nicht wirklich wie BRaw, wirklich in Resolve für dich im Zusammenhang mit dem gesamten Workflow von Kamera bis zum rendern, dann auch wirklich flutscht.
Das kannst du drehen und biegen wie du willst.
Genau so habe ich keine Ahnung von einer G9, oder von deiner Pocket, auch wenn ich mir noch so viel Material im Netzt herunterlade und bearbeite, das ist für mich halt wirklich nicht dasselbe..
Und die G9/Pocket Mark 1, wäre dabei mein fehlendes Puzzle Teil...
Gruss Boris
Antwort von roki100:
O Mann Boris, die 4K flutschen sicherlich nicht besser (vll. ein bisschen schneller) als sonst irgendein 4K RAW Material in DR Timeline.... Du bildest Dir da etwas ein. ;)
Davinci Resolve geht auch ohne BRAW sehr gut.
Genau so habe ich keine Ahnung von einer G9, oder von deiner Pocket, auch wenn ich mir noch so viel Material im Netzt herunterlade und bearbeite, das ist für mich halt wirklich nicht dasselbe..
Ja daran liegt es scheinbar bei Dir, du weißt nicht dass das auch mit VLOG oder CDNG wirklich gut funktioniert. ;)
Antwort von Darth Schneider:
Ich kämpfe jedenfalls nicht mit Artefakten..Egal mit welcher von den drei Linsen...egal mit welchem von den zwei Codecs, auch nicht mit BRaw 8:1...
Und bei meinem lahmen Rechner, ist 4K BRaw 8:1 immer noch schneller als wenn ich was von der Rx10, mit 2K und mit der höchsten Bitrate rendere.
Das BRaw sieht aber natürlich sichtbar viel, viel besser aus, logisch, die Pocket ist eine viel neuere Cam...;)
Verschiedene Leute, verschiedene Ansprüche.
Du hast einen schellen Rechner, ich halt nicht...
Gruss Boris
Antwort von roki100:
Artefakte hat fast jede RAW Kamera (manche weniger andere mehr). BRAW wird kameraintern ein bisschen korrigiert, was ich nicht schlecht finde, weil man das mit 4K machen kann und dadurch auch die Artefakte wie geblurt sind.
Das BRaw sieht aber natürlich sichtbar viel, viel besser aus, logisch, die Pocket ist eine viel neuere Cam...;)
Ich sehe das anders. So z.B. LowLight Kamera, das bedeutet nicht gleich bessere Kamera für mich. Für mich ist ColorScience, Sensor Specs (DualGain usw.) und auch CDNG besser, denn, ob ich das Bild nachher blure, LMMSE anwende, oder sonst was... das liegt in meinen Händen.
Antwort von Darth Schneider:
Wenn meine Pocket heute immer noch nur mit CDng mit nur den drei Komprimierungen filmen würde, dann hätte ich sie höchst wahrscheinlich längst wieder verkauft und hätte eine Sony oder eine Gh5s oder so.
Jetzt aber voll Ernst gemeint !
Der Workflow mit CDng, war gar nicht meins, BRaw aber eben schon...
So verschiedene Leute gibt es.
Gruss Boris
Antwort von roki100:
Ich dachte deine P4K wurde damals mit BRAW ausgeliefert?
Boris, BRAW Workflow unterscheidet sich nicht so groß von CDNG... Frag mal Frank.
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Manche sind auch vor lauter Dynamik Range und Highlight Recovery im Kopf, schlicht weg einfach zu blind sind um zu verstehen....
Oh, ich sehe das jetzt erst, dass Du mich damit meinst...aber gut, ich finde eben Highlight Recovery nützlich und wer den unterschied nicht sieht, der ist eben wie ich blind und versteht nicht.... ;)
Highlight Recovery (HR)
Bildschirmfoto 2021-03-13 um 19.06.32.png
Bildschirmfoto 2021-03-13 um 19.06.44.png
Ohne HR, also so wie z.B. mit ProRes oder H264/5 10 Bit:
Bildschirmfoto 2021-03-13 um 19.08.12.png
Bildschirmfoto 2021-03-13 um 19.08.55.png
Antwort von Darth Schneider:
Erinnert mich irgendwie ans Corona Virus...und solche Details beschäftigen mich irgendwie überhaupt nicht...
Meine Pocket wurde mit mit CDng ausgeliefert.
Gruss Boris
Antwort von Mantas:
"Frank Glencairn" hat geschrieben:
3. Im Jahre 2021 mit TB 3/USB4 und SSD & Co ist das Datenhandling eigentlich kein Thema mehr - Grading hatten wir schon.
Erlebe ich gefühlt jeden Tag, dass es ein großes Thema ist.
Unnötig große Archive, Dokufilme, Zeit...
Wenn es kein Thema wäre, würde Alexas auch mehr als 30%(aller Projekte) auf Raw drehen.
Antwort von Syndikat:
...vielleicht verlagert ihr eueren Streit in einen Chat....
Ich habe mir übrigens die Zcam E2M4 zugelegt. Weil ich für mache Projekte eine Kamera brauche, bei der es nicht auf des letzte Quäntchen Qualität ankommt, dafür an platzsparende Dateien in h264 oder h265 und manchmal brauche ich für High-End Projekte RAW, (momentan ZRAW, geht auch, demnächst mit Ninja V ProRes RAW). Gäbe es diese eierlegende Wollmilchsau nicht hätte ich wahrscheinlich auf die BM Pocket gesezt und würde die Daten für Lowend Projekte runter rendern zum Archivieren.
So, jetzt könnt ihr auf mir rumprügeln ;-) Wie kann man nur... ZCam, also nein... Und ZRAW, das funktioniert doch nicht mit... ...die üblichen Argumente halt.
Antwort von Frank Glencairn:
Mantas hat geschrieben:
Wenn es kein Thema wäre, würde Alexas auch mehr als 30%(aller Projekte) auf Raw drehen.
Willst du uns allen Ernstes erzählen, daß es bei millionenschweren Projekten an ein paar Euro für Festplatten scheitert?
Antwort von roki100:
Syndikat hat geschrieben:
...vielleicht verlagert ihr eueren Streit in einen Chat....
Ich habe mir übrigens die Zcam E2M4 zugelegt. Weil ich für mache Projekte eine Kamera brauche, bei der es nicht auf des letzte Quäntchen Qualität ankommt, dafür an platzsparende Dateien in h264 oder h265 und manchmal brauche ich für High-End Projekte RAW, (momentan ZRAW, geht auch, demnächst mit Ninja V ProRes RAW). Gäbe es diese eierlegende Wollmilchsau nicht hätte ich wahrscheinlich auf die BM Pocket gesezt und würde die Daten für Lowend Projekte runter rendern zum Archivieren.
So, jetzt könnt ihr auf mir rumprügeln ;-) Wie kann man nur... ZCam, also nein... Und ZRAW, das funktioniert doch nicht mit... ...die üblichen Argumente halt.
ZRAW ist doch gut. Die Umwandlung dauert lange....na und? Dann wartet man eben länger. Die ZCAM E2M4 aber auch die 6K...alles tolle Kameras.
Antwort von Darth Schneider:
Das ja und dann wartet man halt länger, kann aber ganz schön mühsam werden...
Also ich finde wenn man gefilmtes Material zuerst wandeln und dann noch lange warten muss bevor man es am Computer bearbeiten kann, heute alles andere als zeitgemäss, unnötig und somit einfach grundsätzlich nur mal doof...
Auch die Lösung mit einem Externen Rekorder finde ich zu fummelig und irgendwie zu einschränkend, was spontane Aufnahme Szenarien betrifft...
Das ist für mich eine Zwischenlösung.
Die Z Cams sind sicher sehr gut keine Frage, aber dann zumindest intern nicht wirklich für RAW..
Wer RAW möchte, hat mittlerweile genug andere Optionen wo man halt gar nix wandeln und warten muss.
Wer das Budget für eine 6K ZCam hat, und RAW möchte, der hat auch das Budget für eine Komodo, oder eine Ursa Mini Pro ( halt zum ähnlichen Preis nur mit schönem 4.6K,)
oder zwei 6K Pocket Pros...;)
Wer RAW nur selten braucht, wird sicher glücklich mit einer ZCam.
Aber das ist nur meine Meinung.
Gruss Boris
Antwort von roki100:
Hallo Boris,
es gibt mittlerweile ZRAW Plugin für Adobe Premiere.....
Ansonsten: das man da umwandeln muss, liegt eben an NLE Hersteller. Ich finde es schade, dass da eine gewisse Politik betrieben wird und auf wünsche der User nicht eingegangen wird. So wie aussieht hat BMD "die Brücke" oder den Port für die Entwicklung Kompatible Codec oder RAW von Dritthersteller, nicht geöffnet - quasi bewusst gesperrt, um wahrscheinlich so BRAW durchzusetzen (die wünsche der Nutzer wird somit völlig ignoriert). Anders Adobe Premiere oder andere NLE Hersteller wie Assimilate usw.
Ich finde diese RAW Barbareien zwischen BMD, Atomos mit PPRAW, ZRAW usw. einfach nur doof gegenüber Nutzer.
Jeder wie es mag. Ich persönlich würde z.B. die Panasonic oder die Z-Cam+Ninja(PRAW) wählen. ;)
VG
Antwort von iasi:
Nach euren Überlegungen wird mir mal wieder bewußt, wie vorteilhaft RedRaw ist.
Noch überschaubare Dateigrößen und eine sehr breite und gute Hard- und Softwareunterstützung.
Antwort von roki100:
Red ist doch an allem schuld. Sonst hätten wir bessere Kamera Auswahlmöglichkeiten mit intern real RAW (z.B. CDNG) usw. und das Problem zwischen BMD und Atomos etc. wäre unbedeutend.... aber so ist das nun mal so, wie es ist. ;)
Antwort von Darth Schneider:
Ich verstehe das ganze Theater nicht, was Red da veranstaltet.
So eine 20 oder 30 000 € Red wird doch eh niemals eine Konkurrenz sein für eine 4000€ Hybrid Fotoknipse...und auch nicht für irgend eine eine Pocket ...
Höchstens noch für eine Ursa Mini Pro...Und BMD würde jetzt mit echtem RAW Red auch nicht alle Kunden wegschnappen.
Die beiden Kamerahersteller haben doch zu verschiedene Firmen Philosophen...Und im Grunde genommen somit auch ein ganz anderes Zielpublikum.
Gruss Boris
Antwort von roki100:
eines ist klar (zumindest für mich), um schöne Bilder machen zu können, ist RAW nicht zwingend erforderlich. Und das ist m.M. das entscheidende.
Antwort von Darth Schneider:
Natürlich gibt es sich schöne Bilder ohne RAW, das gab es für die längste Zeit ja nur, aber ohne RAW hat man halt auch viel weniger Spielraum zum spielen..;)
Und ganz sicher nicht wenige filmende Leute die sich jetzt eine Low Budget Cinema Camera kaufen wollen, die wollen auch viel lieber eine Kamera mit wenigstens einem Hauch von internem RAW, (mit möglichst wenig Zubehör Gedöns inklusive Kabelsalat), wenn sie ja schliesslich schon die Auswahl haben.
Und bei BRaw genügt mir meistens mittlerweile 8:1, oder 12:1. Ich sehe keinen Nachteil verglichen mit BRaw 3:1.
Das heisst ich drehe immer öfter einfach nur noch mit der nackten Pocket mit dem Olympus, ohne Cage, ohne irgendwas, (höchstens ein Mik, draussen noch ein Smallrig Sonnenschutz) einfach auf billigste SD Karten...RAW....
Dann hält sogar der 25€ Pantona Fake Canon Akku wirklich lange genug....
Ich fang jetzt nicht an mit dir zu diskutieren, lassen wir’s, die Geschmäcker der Leute sind ja bekanntlich verschieden ;)
Gruss Boris
Antwort von roki100:
Boris, iasi hat dein Account geknackt! ;)
Die Geschmeckler verwandelt sich selbst mit der Kamera, Raw & Co. wahrlich zu einer Art religiösen mit der Bibel, Korane...Interpretationen und Co. ;) Und jeder glaubt zu wissen, der Besitzer der wahre Wahrheiten zu sein. Es entsteht Uneinigkeiten und köpfe werden eingeschlagen, ob mit Schwerter oder mit Texte digital in Foren unterwegs... ;) Übersetzt seit ihr beiden, dein Bruder iasi und Du, eine Art digitale zeugen Rawovas... ;)
Nicht jeder glaubt, dass 2Bit+ vorausgesetzt sei, um auf dem graden Weg zu sein...;) Und man ist mit 2Bit weniger sicherlich nicht gleich ein Minimalist. ;)
Antwort von Darth Schneider:
4Bit+
BRaw, ist 16Bit Raw in einem 12 Bit LOG Container, nix 2 Bit !
Zum dritten Mal...
Und ich versuche nichts schlecht zu schreiben oder zu reden, oder irgendwie BRAW zu vergöttern, überhaupt nicht.
Schmeiss mich und auch iasi nicht in irgend eine Schublade.
Ich will nur aufzeigen was mir gefällt, und für mich meinen Workflow und mein Budget einen Sinn ergibt.
Und ja, ich denke einfach eine moderne Cinema Camera sollte heute intern mindestens irgend eine Form von 12 Bit RAW aufnehmen können, BRaw, ProRes RAW, oder was auch immer.
Sonst finde ich persönlich, ist das einfach heute irgendwie nicht mehr Zeitgemäss.
Das heisst überhaupt nicht das 10 Bit nicht auch für 99% der Ansprüche genügen würden....ja ich denke sogar 8Bit genügt schon für sehr, sehr vieles, eigentlich fast ALLES was reine Hobby Filme betrifft.;)
Gruss Boris
Antwort von roki100:
Ich meinte nichts schlechtes, heute ist doch Dienstag und Dienstag ist ein freundliches Miteinander angesagt.
Was Du mit 12Bit machst ist 12Bit niemals vorausgesetzt. Das heißt, die 2Bit sind irgendwo als NULL Daten liegend in Nirvana.... ;)
Antwort von Darth Schneider:
Ich denke das Bit im Nirwana Synonym, macht ev. genau den massgebenden Unterschied vielleicht bei den tollen schon praktisch out of Camera, BMD BRaw Skintones...und überhaupt dem ganzen homogenen Look, vor allem, was mein Workflow betrifft, mit so was wirklich sehr tollem wie,
Franks und frezzers Luts...
Also wenn jetzt die 4K Pocket nur mit diesem einen Lut aufnehmen könnte, ich würde die Kamera trotzdem wieder kaufen...;)
Kein Witz...
Gruss Boris
Antwort von roki100:
Frank und Freezer LUT funktioniert genau so gut auf 10Bit Material.
Antwort von Darth Schneider:
Woher weisst du das ?
Du hast keine BRaw Kamera....
Also für mich funktioniert BRaw sogar auch wenn man gar keine Zeit oder gross Lust hat sich mit dem Thema Color Grading auseinander zu setzen..
Ich hab trotzdem die Wahl, alles Wichtige ganz schnell zu verändern.
Zudem online gibt es auch massenhaft BRaw/ Resolve Tipps und sehr viele, gute und unkomplizierte YouTube Lern Videos...
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Und wie lange und wie viel Zeit für private Online Schulung und wie viel Colorgrading Recherche und Übung hast du dafür gebraucht das Lut für die G9 nachzubauen ??
ich habe nur ein bisschen angepasst u.a. einfach VLOG zu GHAlex-LogC und dann die LUT drauf....und davon neue LUT erstellt. ;) Das ist daher einfach gewesen, weil BMD Filmlog + OG Blackmagic Cameras sowieso sehr nah an Arri LogC ist... wofür die LUT von Frank damals erstellt wurde.
Perfekt ist es aber nicht bzw. in Verbindung mit der BMPCC gefällt mir die LUT besser. Und egal ob ich die LUT auf ProRes 10Bit oder RAW 12 Material benutze, sieht es gleich gut aus. Dafür ist also kein 12Bit vorausgesetzt und es gibt kein Nachteil im Workflow (außer das man Kamerainterne einstellungen WB/ISO etc. vorher beachtet). Darum geht es ja, für manche Sachen ist RAW unverzichtbar, doch um verschiedene Looks machen zu können, finde ich 10Bit völlig ausreichend. Wenn es um 10Bit vs. 8Bit gehen würde, dann ist das etwas anderes, da ist der unterschied deutlich sichtbar. So meine Erfahrung (darunter viele Testvergleiche) bisher.
Antwort von Darth Schneider:
Ich hab meinen Text nachträglich geändert, hatte deinen nur überflogen, blöderweise...und falsch interpretiert, sorry.
Ich würde schon gerne mal deine G9 ausprobieren, auch zum spontan filmen, aber auch, nicht zuletzt zum fotografieren, um die ( immer noch gute Sony Rx10) langsam zu ersetzen....
Ich hoffe wirklich Panasonic bringt noch eine ähnliche MFT, G10, mit nur ein wenig mehr MP und 2021 zeitgemässem heissem Technik Zubehör Pfeffer...
Sonst hol ich mir dann am Schluss doch noch eine Olympus zum fotografieren.;)
Gruss Boris
Antwort von roki100:
Die frage ist, was ist bei den jetzigen Panasonic Kameras nicht zeitgemäss? Man kann jetzt schon im voraus sehen, dass nur mehr K und mehr FPS kommt und vll. bessere LowLight (was niemals echtes Licht ersetzen kann)...viel mehr wird sich da aber nicht ändern. Siehe z.B. Sigma FP, da haben einige gehofft, dass da ein Foveon Sensor verbaut wird... ist es aber nicht. Das wäre auf jeden Fall etwas tolles. Aber alles andere?
Auch wenn die G9 sogar 5K+ 10Bit kann, betrachte ich diese mehr K nicht als etwas, was man unbedingt braucht oder zeitgemäss da mehr K... Sondern einfach nur die 10Bit, den internen Stabi, die Akkulaufzeit, den Sucher usw. ist etwas, was für meine Zwecke viel nützlicher ist als z.B. das gesamte BRAW Paket...
Und die 4K 60P 10Bit extern (SloMo) ist für ab und zu gut. Weit aufnahmen letztens auf dem See...da hat es mir genutzt, weil das was ganz weit war, besser zu sehen ist, als wenn ich das ganze mit 1080p 60P 10Bit aufgenommen hätte...
Alles in einem sind die Panasonic Kameras sehr gut wie ich finde (mich hat es auf jeden Fall überzeugt und bevorzuge nun Panasonic mehr als BMD neue Kameras). Schau dir z.B. die S1(h), S5 mal genauer an. Nachteil ist eben, dass man als ex MFT Nutzer neue Linse dazu kaufen muss. Die G9 ist aber eigentlich eine S5 MFT ;) bzw. mit kleinerem Sensor und kann zwar kein extern RAW, der Rest ist aber fast 1zu1 gleich.
Antwort von Darth Schneider:
Nicht zeitgemäss finde ich halt eher das Gesamt Paket, der G9 auch mehr mit dem Fokus auf das Fotografieren.
Da ist die G9 überhaupt nicht mehr zeitgemäss, das war sie auch nie wirklich, in ihrem Segment und damaligen Umfeld als sie auf den Markt gekommen ist...
Ich will jetzt dann aber lieber zusätzlich eine Kamera die fotografieren kann wie eine Canon oder eine Nikon, oder eine Sony....Egal.
Schliesslich wurde aber die G9 mal ursprünglich eher mal für Fotografen entwickelt ?!
Speziell für Filmer hatte ja Panasonic praktisch gleichzeitig, die Gh5 und dann die Gh5s heraus gebracht.
Bis jetzt gibt es nur den Nachfolger der Gh5s, die ( schon auch sehr tolle) Boxkamera, ohne Bildschirm...
Aber überhaupt keine MFT Gh6, Gh6s und keine MFT G10 in Aussicht, so far...;(
Ich denke wenn bald nicht etwas kommt, ist MFT bald, zumindest für Filmer nur noch Kamera Geschichte.
Gruss Boris
Antwort von roki100:
Wir haben darüber doch schonmal diskutiert? Aber gut, dann halt nochmal...
"Darth Schneider" hat geschrieben:
Nicht zeitgemäss finde ich halt eher das Gesamt Paket, der G9 auch mehr mit dem Fokus auf das Fotografieren.
Da ist die G9 überhaupt nicht mehr zeitgemäss, das war sie auch nie wirklich, in ihrem Segment und damaligen Umfeld als sie auf den Markt gekommen ist...
G9 hat zumindest den besten (DFD) AF den Panasonic aktuell entwickelt hat. ;) Es ist auch nicht so dass der AF für Video unbrauchbar ist (es ist abhängig von der Linse). Und die 10Bit (gegen Aufpreis auch VLOG) ist auch bei S1 oder S5 nicht für Fotografie da.
Man kann andersrum eher die Fotofunktionen als zusätzliche tolle Option betrachten (also so wie ich es auch nutze) und genau das macht die G9 im vergleich zu GH5 als geeigneter für Leute, die auch bessere Fotofunktionen haben wollen.
Schliesslich wurde aber die G9 mal ursprünglich eher mal für Fotografen entwickelt ?!
Ja und hat sich scheinbar nicht gut verkauft? Daher hat denke ich Panasonic die G9 zu halbe GH5 gemacht...
Bis jetzt gibt es nur den Nachfolger der Gh5s, die ( schon auch sehr tolle) Boxkamera, ohne Bildschirm...
Aber überhaupt keine MFT Gh6, Gh6s und keine MFT G10 in Aussicht, so far...;(
GH6 kommt bald. Das mit MFT bald Tot usw. hatten wir doch schon... als das noch behauptet wurde kam die P4K, GH5s, Z-CAM, BGH1...und die G9 wurde mit Firmware update umso interessanter.... ;)
Antwort von Mantas:
"Frank Glencairn" hat geschrieben:
Mantas hat geschrieben:
Wenn es kein Thema wäre, würde Alexas auch mehr als 30%(aller Projekte) auf Raw drehen.
Willst du uns allen Ernstes erzählen, daß es bei millionenschweren Projekten an ein paar Euro für Festplatten scheitert?
nein, aber du willst es scheinbar allen Ernstes so verstehen.
Antwort von Darth Schneider:
roki100 hat geschrieben:
Die frage ist, was ist bei den jetzigen Panasonic Kameras nicht zeitgemäss? Man kann jetzt schon im voraus sehen, dass nur mehr K und mehr FPS kommt und vll. bessere LowLight (was niemals echtes Licht ersetzen kann)...viel mehr wird sich da aber nicht ändern. Siehe z.B. Sigma FP, da haben einige gehofft, dass da ein Foveon Sensor verbaut wird... ist es aber nicht. Das wäre auf jeden Fall etwas tolles. Aber alles andere?
Auch wenn die G9 sogar 5K+ 10Bit kann, betrachte ich diese mehr K nicht als etwas, was man unbedingt braucht oder zeitgemäss da mehr K... Sondern einfach nur die 10Bit, den internen Stabi, die Akkulaufzeit, den Sucher usw. ist etwas, was für meine Zwecke viel nützlicher ist als z.B. das gesamte BRAW Paket...
Und die 4K 60P 10Bit extern (SloMo) ist für ab und zu gut. Weit aufnahmen letztens auf dem See...da hat es mir genutzt, weil das was ganz weit war, besser zu sehen ist, als wenn ich das ganze mit 1080p 60P 10Bit aufgenommen hätte...
Alles in einem sind die Panasonic Kameras sehr gut wie ich finde (mich hat es auf jeden Fall überzeugt und bevorzuge nun Panasonic mehr als BMD neue Kameras). Schau dir z.B. die S1(h), S5 mal genauer an. Nachteil ist eben, dass man als ex MFT Nutzer neue Linse dazu kaufen muss. Die G9 ist aber eigentlich eine S5 MFT ;) bzw. mit kleinerem Sensor und kann zwar kein extern RAW, der Rest ist aber fast 1zu1 gleich.
Ich sehe das Meiste so wie du aber den Schluss gar nicht so, und da hast du mich irgendwo schon wieder falsch verstanden.;)
Ich habe geschrieben was das fotografieren betrifft, war die G9 nie Zeitgemäss, gar nix über die Film Funktionen !
Abgesehen davon,
genau wegen der Aussage in deinem letzten Satz denke ich eben ganz klar, das eher keine Gh6 kommen wird.
Die CEos von Panasonic wollen doch Geld verdienen, nicht auf Kameras wie der G10 und GH6 sitzen bleiben.
Die GH6 wäre erstens mal, eine direkte Konkurrenz zur hauseigenen Panasonic S5...
Zweitens, ist jetzt wirklich Full Frame und grössere Sensoren als MFT, bei den Kunden und bei allen Kamera Herstellern angesagt.
Der Rest an Consumer Video und Foto Technik mit kleineren Bild Sensoren als APSC bewegt sich in sehr naher Zukunft sehr schnell in Richtung Samartphones. Die ja heute schon Kameras mit 1 Zoll Sensoren die Stirn bieten, und sogar jetzt schon 10 Bit Video können.
(Also die G9 brauchst du nicht mehr in einem Jahr, die Smartphones werden das alles was sie kann, auch können, ausser dein Siuri daran hängen )
Und dem Kamera Markt geht es jetzt heute, mit den immer besser werdenden Smartphones und sicher nicht zuletzt auch wegen Corona viel zu mies, um nicht so erfolgreiche Kamera Serien wie die GH und die G Linie, für ein paar Kunden künstlich am Leben zu erhalten.
Darum denke ich, es kommt bestimmt keine Gh6, oder, wenn doch ?
Dann endet das MFT System eben ein, zwei Jahre später.
Es ist nicht die Frage ob, sondern wie bald ?
Du wirst es schon sehen...;)
Gruss Boris
|
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Es ist nicht die Frage ob, sondern wie bald ?
liest sich wie Sci-Fi... ;)
Auf jeden Fall hat Panasonic MFT nicht aufgegeben (BGH1 bekommt bald eine neue Firmware mit ext. RAW) und haben auch schon gesagt, dass sie MFT nicht aufgeben (GH6 kommt).
Antwort von Jott:
Huuuah, ein raw-Antichrist:
https://www.youtube.com/watch?v=iKonW2Y-o1g&t=344s
Antwort von markusG:
roki100 hat geschrieben:
Red ist doch an allem schuld.
Andererseits: warum ist RED schuld daran, dass z.B. in Assimilate Scratch (und mit Plugins in Adobe Premiere) sämtliche RAW Formate unterstützt werden, in Davinci Resolve oder Final Cut nicht? Klar, ein universelles Format auf Hardwareseite wäre schön, aber wenn so eine Softwarepolitik gefahren wird hat das wenig mit RED zu tun -_-
Btw...
https://www.youtube.com/watch?v=3b3rNsbWA8w
@Jott: ärger iasi nicht dass er wegen nem Youtuber keine Komodo bekommen hat :P
Antwort von roki100:
sehe ich genau so wie Du. Und ehrlich gesagt ärgert mich das sehr dass man PRAW nicht in Resolve benutzen kann. Dann wechsele ich eben zu FCPX...
Antwort von Jott:
markusG hat geschrieben:
@Jott: ärger iasi nicht dass er wegen nem Youtuber keine Komodo bekommen hat :P
Wenn es jetzt schon gebrauchte Komodos gibt (schau an ...), dann ist das doch prima für Iasi. Zuschlagen ohne Wartezeit, zack und los geht's mit der Mutter aller rohen Gestaltungsspielräume. Lieferzeit ist keine Ausrede mehr.
Antwort von Axel:
roki100 hat geschrieben:
sehe ich genau so wie Du. Und ehrlich gesagt ärgert mich das sehr dass man PRAW nicht in Resolve benutzen kann. Dann wechsele ich eben zu FCPX...
Schon auf'm Mac?
Also ich selbst finde für Farbbearbeitung hat man mehr Optionen mit Feld,- Wald,- und Wiesencodecs in Resolve als mit dem rohesten Raw in FCP, aber anscheinend bin ich da der Geisterfahrer.
Jüngstes Beispiel: Jaques Crafford, bei dem ich das Raw sehen möchte, das toppt, was er IQ-mäßig in Resolve mit SLog3 anstellt:
Falls du auf dem Mac bist: allem Anschein nach hat Crafford den neuen Mini.
zum Bild
Antwort von roki100:
Axel hat geschrieben:
roki100 hat geschrieben:
sehe ich genau so wie Du. Und ehrlich gesagt ärgert mich das sehr dass man PRAW nicht in Resolve benutzen kann. Dann wechsele ich eben zu FCPX...
Schon auf'm Mac?
schon immer...
Also ich selbst finde für Farbbearbeitung hat man mehr Optionen mit Feld,- Wald,- und Wiesencodecs in Resolve als mit dem rohesten Raw in FCP, aber anscheinend bin ich da der Geisterfahrer.
wenn es um Colorgrading geht dann ist Resolve schon besser (ich finde das arbeiten mit Nodes kapiere ich besser / logischer)...deswegen finde ich ärgerlich das PRAW nicht in Resolve unterstützt wird. Mir reichen eigentlich 10 Bit völlig aus. Für manches bevorzuge ich aber RAW... und ich habe vor zukünftig auf PRAW umzusteigen.
Antwort von markusG:
roki100 hat geschrieben:
wenn es um Colorgrading geht dann ist Resolve schon besser
Ich stelle mal die These in den Raum dass wenn man auf die Möglichkeiten von DaVinci verzichten kann, dann ist auch RAW verzichtbar.
Antwort von roki100:
ich meinte nicht komplett verzichten :) allein schon wegen (DR) Fusion kann ich das nicht... Ich nutze alles, Blender, Resolve/Fusion, FCPX, Motion usw.
Ich finde, da es sich um ein tolles professionelles Colorgrading Tool handelt, dann sollte der Nutzer schon die Möglichkeit bekommen auch andere RAW Formate nutzen zu können/dürfen. Ich glaube BMD unterstützt/verbessert keine andere RAW Formate mehr in DR, sondern nur noch BRAW.
Antwort von Syndikat:
"Darth Schneider" hat geschrieben:
Wer RAW nur selten braucht, wird sicher glücklich mit einer ZCam.
Absolut! Tatsächlich nutze ich für maches RAW, meistens aber eben nicht. Daher ist das für mich der beste Kompromiß. Sonst würde ich mir wahrscheinlich eher auf BM setzen. Wenn ich es gar nicht bräuchte hätte ich mir eher sowas wie die GH5 zugelegt.
Und übrigens, Premiere Import mit dem Plugin funzt bestens. Was mir aber wirklich Sorgen macht ist, dass ich weg will von Premiere, dem Abo wegen. Da sieht"s dann düster aus mit ZRAW.
Antwort von Axel:
roki100 hat geschrieben:
Ich finde, da es sich um ein tolles professionelles Colorgrading Tool handelt, dann sollte der Nutzer schon die Möglichkeit bekommen auch andere RAW Formate nutzen zu können/dürfen. Ich glaube BMD unterstützt/verbessert keine andere RAW Formate mehr in DR, sondern nur noch BRAW.
Es kann sein, ich verwechsle das jetzt, aber warst du nicht der Pempelforter mit der Nikon Z Dingenskirchen, und kann die nicht neuerdings auch BRAW?
BRAW wäre mir schon ganz lieb. Auch, wenn FCP es nicht unterstützt und auch wohl nie unterstützen wird.
Für PRAW könnte man ja Feedback an Blackmagic senden. Wie könnten wir Resolve verbessern? Pi-Rohr, Alda! Da fällt es Grant Petty wie Schuppen von den Augen. PRAW? Das wollen die Leute? Na gut, sollen sie eben Kuchen essen!
Könnten sie kostenpflichtig machen, um die Kosten für die Lizenz wieder reinzukriegen. Oder direkt den Kunden an Apple verweisen, wie bei easy DCP an das Fraunhofer Institut (ob sich das wohl jetzt erledigt hat? Werden wir Cinema Cameras bald Streaming Cameras nennen?).
Aber, wenn ich es recht bedenke, Raw extern ist mir eigentlich zu blöd.
Antwort von roki100:
...aber warst du nicht der Pempelforter mit der Nikon Z Dingenskirchen...
Nein.
Für PRAW könnte man ja Feedback an Blackmagic senden. Wie könnten wir Resolve verbessern? Pi-Rohr, Alda! Da fällt es Grant Petty wie Schuppen von den Augen. PRAW?
Es gibt irgendwo auch Petition im Netz... passiert ist bisher aber nichts.
Syndikat hat geschrieben:
"Darth Schneider" hat geschrieben:
Wer RAW nur selten braucht, wird sicher glücklich mit einer ZCam.
Absolut! Tatsächlich nutze ich für maches RAW, meistens aber eben nicht. Daher ist das für mich der beste Kompromiß. Sonst würde ich mir wahrscheinlich eher auf BM setzen. Wenn ich es gar nicht bräuchte hätte ich mir eher sowas wie die GH5 zugelegt.
Mal ehrlich, der organische Look der GH5 (G9 auch, da selbe sensor, selbe Eigenschaften usw.) ist einfach immer noch der Hammer (wenn man weiß was man tut, oder was Vorausgesetzt ist...). Auch die interne 10Bit in Verbindung mit VLOG ist etwas besser als z.B. ProRes 10Bit von manch andere cinema Kameras (egal ob intern oder extern). Das liest sich jetzt zwar blöd an, doch sobald man das selber intensiver testet, wird man mir zustimmen. Irgendetwas macht Panasonic da anders mit VLOG und ich denke, dass das auch bei andere Panasonic Kameras mit VLOG Unterstützung der Fall ist. Ich frage mich, warum das bisher noch keiner erwähnt hat? :/ Panasonic hat zwar irgendwo in einem PDF Dokument das erwähnt, aber so richtig klar wurde mir das auch nicht. Erst nach mehrere Tests habe ich das gesehen...
Der unterschied ist zwar nicht groß, doch wenn man genauer hinschaut und die Dateigröße von H264 10Bit und ProRes HQ bedenkt, dann wählt man eben allein schon wegen der Datenmenge doch lieber h264 10Bit....
Hier ein Beispiel (bin mir nicht sicher ob man das so sieht, siehe Bildverlauf von oben nach unten), Curves verbogen...ran gezoomt:
Zuerst 8Bit (sieht natürlich grausam aus / Banding)
Bildschirmfoto 2021-03-24 um 16.19.56.png
ProRes 10Bit HQ
Bildschirmfoto 2021-03-24 um 16.11.26.png
H264+VLOG 10Bit
Bildschirmfoto 2021-03-24 um 16.11.59.png
Ich sehe bei VLOG ein besseres Depth/10 Bit... beides ist 10Bit (ProRes HQ und H264 10Bit 422 VLOG) nur die Codecs unterscheiden sich. Wie kann das sein? Kapiere ich nicht...
Antwort von Darth Schneider:
Alles was ich sehe ist Pixelpeeping.;))
Ich kann die Bilder nicht mal länger als zwei Sekunden anschauen.
Gruss Boris
Antwort von roki100:
und hier noch ein vergleich, Curves diesmal anders verbogen...
ProRes HQ...
Bildschirmfoto 2021-03-24 um 16.56.43.png
H264+VLOG...
Bildschirmfoto 2021-03-24 um 16.56.57.png
Man sieht deutlich da ist mehr Depth...
Es handelt sich um ein Bildverlauf auf dem iPad (Retina Bildschirm) und mit Kamera drauf gefilmt...sieht (ohne Curves zu verbiegen) so aus:
Bildschirmfoto 2021-03-24 um 16.59.10.png
@Boris, man kann ja darüber diskutieren... ;) Schließlich hat man da mehr Depth für Colorgrading... :) Leider habe ich keine Möglichkeit BRAW da auch mit zu vergleichen. Man braucht eine Kamera die unterschiedliche Formate (intern und extern mit Ninja und VA) kann... Bald kann die S1H auch ext. BRAW (mit Video Assist) da könnte man das ganze (auch im vergleich zu Ninja+PRAW) testen. Würde mich echt mal interessieren wie das ganze dann aussieht.
Antwort von cantsin:
Was ich da sehe, ist vor allem krasses Color Banding.
Irgendwo in Deiner Verarbeitungskette musst Du Dein Material auf 8bit reduziert haben...
Antwort von roki100:
cantsin hat geschrieben:
Was ich da sehe, ist vor allem krasses Color Banding.
Irgendwo in Deiner Verarbeitungskette musst Du Dein Material auf 8bit reduziert haben...
Nein, es handelt sich bei beiden Bilder um 10Bit. ich habe genau deswegen oben 8bit Bild mit dazu eingefügt... So sieht 8Bit aus:
Bildschirmfoto 2021-03-24 um 16.19.56.png
Curve habe ich extra so verbogen dass man den unterschied sieht...
Bildschirmfoto 2021-03-24 um 17.22.27.png
Das eine oder das andere ist auch nicht heller oder dunkler...
Antwort von Jott:
„ Es handelt sich um ein Bildverlauf auf dem iPad (Retina Bildschirm) und mit Kamera drauf gefilmt“
Cooles Hobby.
Antwort von roki100:
Ja das finde ich auch. :))
Nein. Ich wollte einfach nur einen Vergleich zeigen.... Mir sind die unterschiede eben nicht ganz klar.
Antwort von freezer:
Nun, zumindest wissen wir seit heute, dass es nicht an Blackmagic liegt, dass es in FCPX keine BRAW Unterstützung gibt:
If you want BRAW support then you will have point your finger in the direction of Blackmagic.
We have tried a couple of times to get permission to do the work ourselves and develop a plugin to support Blackmagic RAW in FCPX like we do for Premiere/Avid. If users really want to see it then it may help to send more requests to Apple.
Quelle
Antwort von Jott:
Was wird das denn Nettes?
Mit Arriraw dürfte hier niemand zu tun haben, mit den anderen raws aber schon.
Antwort von mash_gh4:
freezer hat geschrieben:
Nun, zumindest wissen wir seit heute, dass es nicht an Blackmagic liegt, dass es in FCPX keine BRAW Unterstützung gibt:
We have tried a couple of times to get permission to do the work ourselves and develop a plugin to support Blackmagic RAW in FCPX like we do for Premiere/Avid. If users really want to see it then it may help to send more requests to Apple.
Quelle
leider dürfte es sich ja in die andere richtung ganz ähnlich darstellen!
die beiden firmen verfolgen ja ausgesprochen ähnliche strategien zur durchsetzung ihrer propritären lösungen und abschottung der damit verbundenen herrschaftsbereiche, was ich persönlich ohnehin schon länger als extrem unbefriedigend empfinde und auch dementsprechend häufig kritisiere.
Antwort von rdcl:
mash_gh4 hat geschrieben:
freezer hat geschrieben:
Nun, zumindest wissen wir seit heute, dass es nicht an Blackmagic liegt, dass es in FCPX keine BRAW Unterstützung gibt:
Quelle
leider dürfte es sich ja in die andere richtung ganz ähnlich darstellen!
die beiden firmen verfolgen ja ausgesprochen ähnliche strategien zur durchsetzung ihrer propritären lösungen und abschottung der damit verbundenen herrschaftsbereiche, was ich persönlich ohnehin schon länger als extrem unbefriedigend empfinde und auch dementsprechend häufig kritisiere.
Sehe ich nicht so. Blackmagic hätte unzählige Möglichkeiten ihr Ökosystem noch viel mehr abzuschotten, stattdessen bieten sie oft Lösungen an, die für den Consumer am Besten sind. Standard USB-C SSDs an den Pockets zum Beispiel. Es hätte ja auch BMD-Mags für 500$ geben können.
Apple hingegen nutzt immer so ziemlich jede Möglichkeit um sich abzuschotten. Stichwort iPod und iTunes.
Antwort von iasi:
Jott hat geschrieben:
Was wird das denn Nettes?
Mit Arriraw dürfte hier niemand zu tun haben, mit den anderen raws aber schon.
Auf youtube stellt einer (CinesterFilms) dazu die passende Frage:
So it transcodes the footage? That's what I'm doing now via Resolve to FCPX. I'm looking to be able to just import the files and work with BRAW natively and adjust raw settings in FCPX? Would love to know more about the workflow with this.
Antwort von freezer:
mash_gh4 hat geschrieben:
freezer hat geschrieben:
Nun, zumindest wissen wir seit heute, dass es nicht an Blackmagic liegt, dass es in FCPX keine BRAW Unterstützung gibt:
Quelle
leider dürfte es sich ja in die andere richtung ganz ähnlich darstellen!
die beiden firmen verfolgen ja ausgesprochen ähnliche strategien zur durchsetzung ihrer propritären lösungen und abschottung der damit verbundenen herrschaftsbereiche, was ich persönlich ohnehin schon länger als extrem unbefriedigend empfinde und auch dementsprechend häufig kritisiere.
Das denke ich nicht. Hook konnte dazu zwar nichts sagen, da er nicht direkt Einblick beim Resolve Team hat, aber um ProRes RAW in Resolve zu unterstützen, benötigen sie das OK von Apple. Da aber Atomos hierbei sicher ein Wörtchen mitzureden hat, ist es durchaus denkbar, dass die ein Veto einlegen.
Sie unterstützen ja zB auch Canon RAW in Resolve.
Antwort von roki100:
die beschuldigen sich doch gegenseitig und am Ende ist doch nur der Kunde betroffen.
Antwort von pillepalle:
Ich bin mir auch nicht sicher ob sich Blackmagic damit einen gefallen tut. Klar wollen die lieber BRAW pushen, aber darauf zu hoffen das ProRes RAW als Format stirbt, ist eher unwahrscheinlich. Dazu hängen zu viele Firmen da mit drin. Und eine Software die nicht alle Formate unterstützt ist nun mal nicht ideal. Das kann man drehen und wenden wie man möchte. Der Grund warum sich bisher nichts ändert, ist vermutlich die geringe Nachfrage nach ProRes RAW. Es gibt ja noch nicht so viele Leute die das nutzen.
VG
Antwort von Frank Glencairn:
pillepalle hat geschrieben:
Ich bin mir auch nicht sicher ob sich Blackmagic damit einen gefallen tut.
Wie bei FCP auch, denke ich nicht, daß es an BM liegt - im Gegenteil, die würden ja davon profitieren, wenn Resolve möglichst viel Formate unterstützt. Wenn andere Kameras und NLEs hingegen BRAW unterstützen, hat BM eher nix davon, außer daß Alleinstellungsmerkmale der eigenen Produkte wegfallen. Deshalb halte ich diesen "BM will ja nur BRAW pushen" Mythos für nicht zu Ende gedacht.
mash_gh4 hat geschrieben:
die beiden firmen verfolgen ja ausgesprochen ähnliche strategien zur durchsetzung ihrer propritären lösungen und abschottung der damit verbundenen herrschaftsbereiche
Ach mash - für dich - in deiner open source Bubble - betreibt doch jeder, der seinen Quellcode nicht frei veröffentlicht "proprietäre Abschottung".
Mir ist auch nicht wirklich klar was du eigentlich willst.
Freies open source für alles, aber wenn BM das fertig kompilierte Programm gratis anbietet ist es der Untergang des Abendlandes weil es sich für andere dann angeblich nicht mehr lohnt was eigenes zu entwickeln.
BM stellt offene Schnittstellen zur Verfügung, um irgendwelche Ausgabe Codecs einzubauen - findest du auch wieder scheiße.
Du kannst dir als Entwickler die entsprechenden Tools ziehen, um BRAW in dein Produkt einzubauen - passt dir auch wieder nicht, weil du nicht in dem Code rumpfuschen kannst.
Aus irgendeinem bizarren Grund befindest du dich auf einem Privatkreuzzug gegen BM - haben wir längst verstanden, aber mußt du das wirklich in jedem Post derart Kato mäßig raushängen?
Antwort von TomStg:
pillepalle hat geschrieben:
Und eine Software die nicht alle Formate unterstützt ist nun mal nicht ideal.
Dies gilt natürlich für Resolve genauso wie für FCP - aus Sicht des Benutzers. Dagegen ist die Sicht der Hersteller eine andere. In der aktuellen Etablierungsphase von BRAW und ProRes RAW wird keiner der beiden Konkurrenten sich für den anderen öffnen, so lange nicht klar ist, wie der Wettbewerb letztlich ausgeht.
Die Wahrscheinlichkeit, dass Apple mit ProRes RAW verliert, ist deutlich höher als bei Blackmagic. Es wird Apple nicht gelingen, ProRes RAW als Quasi-Industriestandard zu platzieren, wie es seinerzeit mit ProRes klappte. Denn es gibt inzwischen rechtzeitig zu viele andere mindestens gleichwertige RAW-Varianten. Außerdem stellt Apple keine eigenen Kameras her. Dass verschiedene andere Hersteller bei ProRes RAW mitmachen, wird nicht ausreichen, weil die Verarbeitung die Benutzung von Resolve ausschließt. Blackmagic hat den Vorteil, ein exzellentes BRAW-Gesamtsystem von der Produktion bis zur Postproduction anbieten zu können.
Grassvalley und Adobe freuen sich, weil diese als „neutrale“ Anbieter von Schnittprogrammen vorübergehend weitere Benutzer aus den Lagern von FCP und Resolve erhalten.
Antwort von pillepalle:
"Frank Glencairn" hat geschrieben:
Wie bei FCP auch, denke ich nicht, daß es an BM liegt - im Gegenteil, die würden ja davon profitieren, wenn Resolve möglichst viel Formate unterstützt. Wenn andere Kameras und NLEs hingegen BRAW unterstützen, hat BM eher nix davon, außer daß Alleinstellungsmerkmale der eigenen Produkte wegfallen. Deshalb halte ich diesen "BM will ja nur BRAW pushen" Mythos für nicht zu Ende gedacht.
Klar würde Resolve als Software profitieren, aber das eigene Format nicht. PRR nicht in Resolve (oder andere Software) zu implementieren hat nur Nachteile für Apple/Atomos. Deshalb macht es eigentlich keinen Sinn, dass sie es nicht auch überall implementieren. Vermutlich ist das wirklich so ein 'wie Du mir, so ich Dir' Ding und die sind einfach nur stur :)
VG
Antwort von Axel:
Von all den Stimmen abgesehen, die Unterstützung des einen oder anderen Raws in dieser oder jener Software „begrüßen“ würden: wieso eigentlich nicht die Unterstützung von Braw als interner Codec in anderen als BM Kameras?
Was oder wer stünde dem entgegen? Das RED-Patent nicht. Aber was geschähe mit all den Pockets, wenn Braw in einer C70 oder FX3 liefe?
Antwort von Frank Glencairn:
Axel hat geschrieben:
Von all den Stimmen abgesehen, die Unterstützung des einen oder anderen Raws in dieser oder jener Software „begrüßen“ würden: wieso eigentlich nicht die Unterstützung von Braw als interner Codec in anderen als BM Kameras?
Was oder wer stünde dem entgegen? Das RED-Patent nicht. Aber was geschähe mit all den Pockets, wenn Braw in einer C70 oder FX3 liefe?
Sag ich ja. Wenn BRAW in den Kameras anderer Hersteller laufen würde, wären diese anderen Kameras dann mehr oder weniger attraktiv für geneigte Käufer? Natürlich wären sie das. Würde BM dann eher mehr oder weniger Kameras verkaufen? Trotzdem bietet BM das an.
Wenn Resolve mehr Codecs unterstützen würde - würde das Resolve mehr oder weniger attraktiv machen? Eher mehr.
Warum sollte BM dann also nicht gewillt sein mehr Codecs zu unterstützen?
Antwort von cantsin:
Axel hat geschrieben:
wieso eigentlich nicht die Unterstützung von Braw als interner Codec in anderen als BM Kameras?
Was oder wer stünde dem entgegen?
Die ASICs der Kameras, und die Patente/Lizenzgebühren von Blackmagic. Nicht nur müssten die ASICs aller o.g. Kamerahersteller neu entwickelt werden, um Braw zu unterstützen. Sie könnten wahrscheinlich auch keine Updates des Formats mitmachen. Wahrscheinlich kann man das Format daher nur in FPGAs gut unterstützen.
Aus demselben Gründen gibt's ja auch kein internes (konventionelles) ProRes bei diesen Kameras.
Antwort von Frank Glencairn:
pillepalle hat geschrieben:
Klar würde Resolve als Software profitieren, aber das eigene Format nicht.
Von dem eigenen Format haben sie allerdings nix, weil das sowieso Gratis ist.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Wenn Resolve mehr Codecs unterstützen würde - würde das Resolve mehr oder weniger attraktiv machen? Eher mehr.
Warum sollte BM dann also nicht gewillt sein mehr Codecs zu unterstützen?
Es gibt bei BM eine Resolve-Abteilung und eine Kamera-Abteilung.
Man kann wohl annehmen, dass die Geschäftleitung die Rendite beider Bereiche im Blick hat und entsprechende Vorgaben macht, um die Investitionen auch wieder reinzuspielen.
Antwort von Frank Glencairn:
Und welche Vorgaben wären das deiner Meinung nach?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Und welche Vorgaben wären das deiner Meinung nach?
Renditevorgaben.
Am Ende müssen sich die Investitionen eben auch rechnen.
Antwort von mash_gh4:
iasi hat geschrieben:
"Frank Glencairn" hat geschrieben:
Und welche Vorgaben wären das deiner Meinung nach?
Renditevorgaben.
Am Ende müssen sich die Investitionen eben auch rechnen.
ich glaube, dass dieses spiel gar nicht so sehr auf einer rationalen od. wirtschaftlich aussichtsreichen basis ausgetragen wird, sondern -- wie so viele anderes im BMD-umfeld -- eher nur als spiel mit der öffentlichkeit bzw. einflusssphären verstanden werden muss.
wenn man sich ansieht, welchen firmen es bisher tatsächlich gelungen ist, propritäre videoformate zu etablieren bzw. als firmenübergreifende und lizenzverwertugsrechtlich relevantes geschäftsfeld zu koltivieren, bleiben in wahrheit nur ganz wenige kandidaten im rennen. und selbst unter denen fällt auf, dass apple vermutlich mit ProRes nur einen wirtschaftlich fast vernachlässigbar kleinen anteil gegenüber ihren einnahmen im zuge der MPEG-verwertung einnehmen dürfte. es geht also auch dort vorwiegend um ganz andere interessen und machtansprüche.
natürlich hat BMD momentan den vorteil, dass es jenseits von resolve augenblicklich zumindest in der billig-software-liga kaum eine ernsthafte alternative zu resolve bzw. dessen RAW-unterstützung gibt, und alle deshalb kuschen müssen. aber das gilt natürlich nicht für die div. high-end-lösungen, wo derartige eingriffsmöglichkeiten tatsächlich eine entscheidende rolle spielen. praktisch alle diesbezüglichen alternativen unterstützen praktisch alle relevanten RAW-formate, sofern sie von den herstellern zu diesem zweck einigermaßen offengelegt wurden.
natürlich ist das in vielen fällen mit NDAs, lizenzzahlungen, patentnutzungsaustauschlösungen u.ä. verbunden, so wie das halt im übelsten sumpf der firmengefechte üblich ist. in wahrheit hat das aber ohnehin kaum mehr etwas mit irgendeinem "austauschformat" zu tun, sondern vielmehr mit dem zusammenwachsen von soft- und hardware bzw. verarbeitungstechniken verschiedener hersteller.
eine offenlegung und standardisierung der technischen kommunikationsprotokolle, versucht ja genau dieser art von vorgaben und zwängen entgegen zu wirken.
ich denke nicht, dass sich die größeren kamera- und software-hersteller dazu herablassen werden, sich in dieser hinsicht vom einem vergleichsweise lächerlichen spielzeughersteller abhängig zu machen. so gesehen braucht man darüber ohnehin nicht viele worte zu verlieren.
mich erinnert die ganze geschichte immer ein wenig an jene überlegungen aus den philosophischen untersuchungen vom ludwig wittgenstein, die man gemeinhin unter dem stichwort: "privatsprachenargument" kennt, wo er zu zeigen versucht hat, dass "sprache", aber auch "wissen", ohne diese prinzipielle "öffnung" den anderen gegenüber gar nicht erst einen solchen namen verdient. ungefähr so denke ich auch über diese zweifelhaften propritären pseudo-RAW-formate, die eben vorrangig auch nicht dem tatsächlichen "austausch", sondern vielmehr dem gegenteil dienen.
Antwort von rdcl:
Und während die einen bis in alle Ewigkeit nachdenken, arbeiten die anderen sehr erfolgreich mit Billigsoftware und drehen tolle Filme in Pseudo-Raw mit Spielzeugkameras. So wie es eben schon immer war. Manche reden, manche machen.
Antwort von Jott:
mash_gh4 hat geschrieben:
natürlich ist das in vielen fällen mit NDAs
Sind Großbuchstaben eigentlich auch proprietäres Zeug, das es zu bekämpfen gilt? Und wenn, wieso nicht auch "nda"?
Im Ernst, deine Einlassungen sind extrem schwer zu lesen.
Antwort von AndySeeon:
mash_gh4 hat geschrieben:
so gesehen braucht man darüber ohnehin nicht viele worte zu verlieren.
Ganz schön viele Worte für "nicht viele Worte verlieren" XP
SNCR
Gruß, Andreas
Antwort von hexeric:
iasi hat geschrieben:
Jott hat geschrieben:
Was wird das denn Nettes?
Mit Arriraw dürfte hier niemand zu tun haben, mit den anderen raws aber schon.
Auf youtube stellt einer (CinesterFilms) dazu die passende Frage:
So it transcodes the footage? That's what I'm doing now via Resolve to FCPX. I'm looking to be able to just import the files and work with BRAW natively and adjust raw settings in FCPX? Would love to know more about the workflow with this.
wer EDITREADY hat, kann auch BRAW transcodieren seit einiger zeit...beste investition seit langem, hat jedes jahr neue features, die es hilfreich machen. FCP-compressor-editready...alles was man braucht
Antwort von Frank Glencairn:
mash_gh4 hat geschrieben:
diese zweifelhaften propritären pseudo-RAW-formate, die eben vorrangig auch nicht dem tatsächlichen "austausch", sondern vielmehr dem gegenteil dienen.
Und ich dachte du bist so ein Prores-RAW Fan :D
Was den Rest betrifft, begibst du dich immer mehr in den Sumpf deiner selbst gestrickten Verschwörungstheorien, die auch noch immer bizarrer werden.
BM ist demnach also nicht an ganz normalem Business interessiert,
sondern an einem geheimnisvollen "spiel mit der öffentlichkeit bzw. einflusssphären, und alle müssen deshalb kuschen.
Seriously?
Was kommt als nächstes? Daß der Boss einen Pakt mit dem Teufel hat (kein Wunder bei dem Firmennamen) oder einen Ring sie alle zu knechten?
Ich versteh's nicht mash, ich weiß das du ziemlich intelligent bist, und ganz schön was auf dem Kasten hast.
Aber wie in aller Welt kann dann jemand wie du, ständig so Zeug daherschwurbeln?
Antwort von rudi:
mash_gh4 hat geschrieben:
mich erinnert die ganze geschichte immer ein wenig an jene überlegungen aus den philosophischen untersuchungen vom ludwig wittgenstein, die man gemeinhin unter dem stichwort: "privatsprachenargument" kennt, wo er zu zeigen versucht hat, dass "sprache", aber auch "wissen", ohne diese prinzipielle "öffnung" den anderen gegenüber gar nicht erst einen solchen namen verdient. ungefähr so denke ich auch über diese zweifelhaften propritären pseudo-RAW-formate, die eben vorrangig auch nicht dem tatsächlichen "austausch", sondern vielmehr dem gegenteil dienen.
Wow, Wittgensteins Privatensprachenargument. Da sollte man noch Chalmers Hard Problem Qualia Betrachtungen hinzuziehen und überlegen was Qualia unter dem Aspekt der RAW-Entwicklung bedeuten könnten. Kein Mensch kann wissen, wie ich rot empfinde. Vielleicht mal was für die noch nicht gegründete Philosophie Ecke bei slashCAM ;) Aber ich schätze das interessiert dann maximal 3 Leser...
Antwort von Jörg:
Vielleicht mal was für die noch nicht gegründete Philosophie Ecke bei slashCAM ;) Aber ich schätze das interessiert dann maximal 3 Leser...
gründet mal, aus der Altglas/Antialtglasecke kommen da sicher noch ein paar
verwegene Gestalten dazu...;-))
Antwort von iasi:
hexeric hat geschrieben:
iasi hat geschrieben:
Auf youtube stellt einer (CinesterFilms) dazu die passende Frage:
So it transcodes the footage? That's what I'm doing now via Resolve to FCPX. I'm looking to be able to just import the files and work with BRAW natively and adjust raw settings in FCPX? Would love to know more about the workflow with this.
wer EDITREADY hat, kann auch BRAW transcodieren seit einiger zeit...beste investition seit langem, hat jedes jahr neue features, die es hilfreich machen. FCP-compressor-editready...alles was man braucht
Leider versteh ich das jetzt nicht.
Antwort von iasi:
rudi hat geschrieben:
Kein Mensch kann wissen, wie ich rot empfinde.
Ist das so?
Antwort von rudi:
iasi hat geschrieben:
rudi hat geschrieben:
Kein Mensch kann wissen, wie ich rot empfinde.
Ist das so?
Kannst du wissen, wie es ist eine Fledermaus zu sein?
Darum dreht sich ein berühmter Aufsatz von Thomas Nagel
hier bitte: https://www.reclam.de/data/media/978-3-15-019324-2.pdf
Der führt unter anderem zum philosophischen Konzept der Qualia, über die die Wikipedia sogar auf Deutsch recht gut informiert:
https://de.wikipedia.org/wiki/Qualia
Du kannst rot empfinden, aber nicht mit Worten beschreiben wie du es empfindest. Und du kannst nicht wissen, wie ich es empfinde. Du kannst nur von deiner Empfindung auf meine schließen. Aber wissen kannst du es nie.
Antwort von iasi:
rudi hat geschrieben:
iasi hat geschrieben:
Ist das so?
Kannst du wissen, wie es ist eine Fledermaus zu sein?
Darum dreht sich ein berühmter Aufsatz von Thomas Nagel
hier bitte: https://www.reclam.de/data/media/978-3-15-019324-2.pdf
Der führt unter anderem zum philosophischen Konzept der Qualia, über die die Wikipedia sogar auf Deutsch recht gut informiert:
https://de.wikipedia.org/wiki/Qualia
Du kannst rot empfinden, aber nicht mit Worten beschreiben wie du es empfindest. Und du kannst nicht wissen, wie ich es empfinde. Du kannst nur von deiner Empfindung auf meine schließen. Aber wissen kannst du es nie.
Rot hat eine Wirkung - eben auch evolutionär bedingt - und diese Wirkung kann man durchaus voraussagen.
Hinzu kommt die sozialisierte Wirkung. Beispielsweise Schwarz in Deutschland und Weiß in Japan.
Farben werden in der Kunst schon immer dazu genutzt, Emotionen hervorzurufen.
Wenn aus einem Haus rotes Licht flakert, ruft dies beim Betrachter etwas anderes hervor, als grünes Licht.
Warum Menschen eine Rotwahrnehmung haben bzw. überhaupt in einem bestimmten Farbspektrum sehen, resultiert aus dem Licht unserer Sonne. Pflanzen sind nicht ohne Grund grün.
https://de.wikipedia.org/wiki/Sonnenstr ... sitaet.svg
Auch unser Denken ist evolutionär beschränkt und auf unsere Umwelt ausgerichtet. Es dient dazu, den Apfel vom Baum pflücken zu können.
Soziobiologie ist ein eher junger Wissenschaftszweig.
Aber er beschreibt sehr wohl, "Wie es ist, eine Fledermaus zu sein".
Ein Geschmacksempfinden nicht eindeutig beschreiben zu können, bedeutet nicht, dass es nicht dieselbe Reaktion bei Menschen hervorruft. Meerwasser spucken wohl alle Menschen aus. Eine süße Frucht hingegen nicht.
Man kann also sehr wohl beschreiben, welche emotionale Wirkung Rot auf dich haben wird.
Es ist immer auch eine Frage der Begriffsdefinition:
Emotion: psychische Erregung, Gemütsbewegung; Gefühl, Gefühlsregung
Emotionen lassen sich also durch Regung, Bewegung, Erregung beschreiben, die sie hervorrufen.
Antwort von Axel:
iasi hat geschrieben:
Soziobiologie ist ein eher junger Wissenschaftszweig.
Aber er beschreibt sehr wohl, "Wie es ist, eine Fledermaus zu sein".
Da die Empfindung beim Sehen der Farbe Rot etwas mit Wahrnehmung zu tun hat, kann ich etwas beisteuern. Ich lass Fachbegriffe mal weg. Wir können uns über grundsätzliche Tatsachen in der Umwelt einigen, weil wir identisch verdrahtet sind. Nicht ähnlich oder vergleichbar: identisch. Wir identifizieren dieselben Muster und Strukturen, unabhängig davon, ob wir in Papua von Palmblättern essen und unter "Blackmagic" spontan etwas anderes verstehen oder sonstwas. Dass jemand aus einer anderen Kultur oder mit einer anderen persönlichen Geschichte etwas anderes mit Rot assoziiert als ich, ist dagegen zu 100% sicher.
Von physiologischen Unterschieden, Fehlsichtigkeit jeglicher Art, abgesehen, erkennen alle Menschen die Farbe Rot. Für alle Menschen ist es eine nicht-beruhigende, eher aktivierende Farbe. Aus dem Kontext kann Wärme(energie), Schutz (Mutterleib), Schock, Abschreckung, Aggression damit verbunden werden. Deswegen ist es mMn klar, dass man nicht, nie, sagen kann, was ein anderer bei Rot wirklich empfindet.
Antwort von Funless:
ja aber genau da hat rudi doch vollkommen recht. Es liegt in der Natur des Menschen, dass wir von uns auf andere Menschen schließen. Und nicht nur auf Menschen, sondern sogar auf Tiere. Liegt daran, dass wir als einzige Spezies auf diesem Planeten in der Lage sind in komplexer Form abstrakt zu denken. Und das steuert, bzw. beeinflusst auch unsere Wahrnehmung. Sehr gerne hier desöfteren hergenommen, dass wir Menschen eine absurd hohe Zahl an DR "sehen" könnten. Nein, können wir nicht, wir sehen i.d.R. irgendwas zwischen fünf und sechs Blenden DR, den restlichen Dynamik Bereich übernimmt unser Gehirn und erstellt daraus das "fertige Bild".
Antwort von iasi:
Axel hat geschrieben:
iasi hat geschrieben:
Soziobiologie ist ein eher junger Wissenschaftszweig.
Aber er beschreibt sehr wohl, "Wie es ist, eine Fledermaus zu sein".
Da die Empfindung beim Sehen der Farbe Rot etwas mit Wahrnehmung zu tun hat, kann ich etwas beisteuern. Ich lass Fachbegriffe mal weg. Wir können uns über grundsätzliche Tatsachen in der Umwelt einigen, weil wir identisch verdrahtet sind. Nicht ähnlich oder vergleichbar: identisch. Wir identifizieren dieselben Muster und Strukturen, unabhängig davon, ob wir in Papua von Palmblättern essen und unter "Blackmagic" spontan etwas anderes verstehen oder sonstwas. Dass jemand aus einer anderen Kultur oder mit einer anderen persönlichen Geschichte etwas anderes mit Rot assoziiert als ich, ist dagegen zu 100% sicher.
Von physiologischen Unterschieden, Fehlsichtigkeit jeglicher Art, abgesehen, erkennen alle Menschen die Farbe Rot. Für alle Menschen ist es eine nicht-beruhigende, eher aktivierende Farbe. Aus dem Kontext kann Wärme(energie), Schutz (Mutterleib), Schock, Abschreckung, Aggression damit verbunden werden. Deswegen ist es mMn klar, dass man nicht, nie, sagen kann, was ein anderer bei Rot wirklich empfindet.
Nicht umsonst wird schließlich von warmem und kalten Licht gesprochen.
Lernen und Sozialisation spielt jedoch ebenfalls eine Rolle, denn Farben werden auch kulturell mit Emotionen verknüpft.
Schwarz ist ein Ausdruck von Trauer, da mit Tod verknüpft. In Japan war es Weiß, bis sich unter dem westliche Einfluß auch Schwarz durchsetzte.
|
Antwort von mash_gh4:
auf diese komplexen fragen rund um die menschliche wahrnehmung, wollte ich mich eigentlich mit meinem philosophischen exkurs gar nicht flüchten, sondern eben wirklich nur auf jene ganz elementaren kriterien bezug nehmen, die quasi per definition mit manchen begriffen verknüpft sind.
wenn also von RAW-austauschformten die rede ist, sollte man einfach erwarten können, dass sie tatsächlich einen direkten zugang zu entsprechenden unverfälschten ursprünglichen sensorausgangsdaten bieten.
mit jenem "rot", das man in diesen daten entdecken mag od. besser herausrechnen kann, verhält es sich dabei wesentlich einfacher als mit der menschlichen wahrnehmung. hier sind's allerdings auch wirklich nur mess- bzw. zahlenwerte, die alleine mit der lichtensität in bestimmten spektralbereichen zu tun haben, sich aber nichteinmal in ihrer trennung der farbkanäle so recht mit der physiologischen sensibilität der entsprechenden rezeptoren im menschlichen auge decken.
ähnlich wie in benachbarten fällen -- also bspw. bewegungseindrücken, die ja auch nur von einer folge von einzelbildern erweckt werden --, basiert auch die vermittlung von farbeindrücken in unseren technischen abbildungsapparaturen über weite strecken sehr stark auf ausnutzung von visuellen täuschungen und illusionen.
die gerätschaften, mit denen man das bewerkstelligt, sind aber vergleichsweise geistlos und dumm -- d.h. um bei wittgensteins bild zu bleiben: in der unzugänglichen "schwarzen schachtel" (back box) wird man zwar sicher nichts der menschlichen wahrnehmung ähnliches finden oder einen schillernd bunten käfer, aber mit größter wahrscheinlichkeit wird man dort auf umwegen zumindest doch den einen oder anderen enthaltenen "bug" unzweifelhaft aufspüren können --, aber im wesentlichen folgt das alles trotzdem nur ganz einfachen physikalischen und logischen gesetzmäßigkeiten.
ich finde es trotzdem recht erfreulich, dass hier zur abwechslung einmal auch diese viel grundlegendere fragen gestreift wurden, die weit schwieriger zu beantworten und in unser gestalterisches streben einzubeziehen sind.
da ich seit wochen damit beschäftigt bin, meine farb- und spektralsensoren für die bildschirm, licht- und kamerakalibrierung zu bändigen, komm ich dabei natürlich auch immer wieder ins zweifeln, wie weit es überhaupt sinn macht, sich an derartigen objektiven messungen und naturwissenschaftlich greifbaren gesichtspunkten zu orientieren, die eben nur einen ganz geringen teil dieser größeren zusammenhänge erfassen?
wenn ich mich trotzdem darum bemühe, wenigstens diesem vergleichsweise einfachen zugang zur farbproblematik näher zu kommen, hat das vor allen dingen damit zu tun, dass ich es als ausgesprochen problematisch erlebe, wenn die begleiterscheinungen verschiedener techniken der farbwiedergabe bzw. entsprechender eingriffmöglichkeiten oft als prägender und vorbildhafter für das gestalterische arbeiten empfunden werden, als die auseinandersetzung mit einer möglichst korrekten natürlichen abbildung. in der praxis ist das immer auch sehr stark an das vorgehen einzelne hersteller und die von ihnen favorisierten techniken geknüpft.
während man also ursprüngliche eher darum bemüht war, tatsächlich eine einigermaßen befriedigende übereinstimmung zwischen abbild und wirklichkeit zu erzielen -- was gerade dort, wo man die dinge tatsächlich unmittelbar nebeneinander legen und vergleichen konnte, wie bspw. im druck, eben auch diese gebräuchlichen messgeräte und color management lösungen hervorgebracht hat --, geht's ja mittlerweile den meisten kollegen eher darum, im besten fall noch die charakteristiken irgeines alten analogen filmmaterials nachzuahmen oder eben gleich mit jenen verfremdungstechniken zu spielen, wie man sie vom großen kino her kennt.
gerade der relativ einfache anspruch, eine möglichst "korrekte" farbwiedergabe zu erzielen, tritt also immer mehr in den hintergrund bzw. bleibt weitestgehend unerfüllt. ein umstand, den sich natürlich mittlerweile auch viele hersteller zunutze machen, um mit hilfe abweichender farbaufbereitung markenspezifische eigenheiten und erwartungshaltungen auf seiten ihrer kunden zu kultivieren.
über derartige auswüchse kann ich mich leider wirklich nur ärgeren. ich empfinde das kaum weniger unbefriedigend als jene kunstvoll gewählten beleuchtungseingriffe in manchen supermärkten, wo man auch erst zuhause beim einräumen des kühschranks im nüchtern licht des alltags plötzlich wieder entdeckt, dass das gemüse in wahrheit ganz andere deutlich unattraktivere farben zeigt.
so kann es zwar von vielen als fürchterlich primitiv und kunstlos angesehen werden, wenn man in diesen dingen nur nach ein klein wenig mehr "realismus" und überwindung der bevormundung durch hersteller strebt, aber man kann es eben auch als teil einer ernsthafteren auseinandersetzung mit dem von uns gewählten medium verstehen.
Antwort von roki100:
Also mir sind RAW Formate mittlerweile egal, solange sich BRAW oder PRAW und ZRAW nachträglich so bearbeiten lässt wie echtes RAW (WB, ISO und Schärfe darf nicht eingebacken sein), dann ist doch alles gut. Was ich aber merkwürdig finde (oder ich persönlich das so wahrnehme), dass fast die meisten Kameras (u.a. Smartphones) mit Sony Sensoren geschmückt sind, dementsprechend sehen alle irgendwie gleich aus (nur vom Hersteller zu Hersteller sind andere Kamerainterne Parameter gewählt), ob H264/5, PRAW, ZRAW oder BRAW ist irrelevant, der "Sony-Look" ist irgendwie eingebacken. Das merkt man gerade dann, wenn man nach längere Zeit eine andere Kamera mit anderem Sensor benutzt und meine persönliche Wahrnehmung empfindet das dann plötzlich als etwas besonderes/so einzigartig. Ich bin mit meiner Wahrnehmung auch nicht einzigartig. Scheinbar ist das auch der Grund, dass viele den Look von DGO Sensoren, wie das von Canon C70 / C300 M3, Arri...aber auch die ältere Blackmagic Kameras, als einzigartige Look wahrnehmen...oder Looks, die sich untereinander sehr ähneln, aber nicht mit Sony die von anderen Kamerahersteller verbaut werden.... Egal ob die Gemüse mit der Beleuchtung in Supermärkte und in Kühlschränke gefilmt wird, man sieht immer wieder den unterschied, und man nimmt das als etwas besonderes wahr, was m.M. tatsächlich auch so ist. Die super scharfe Auflösung/mehr K, super gesättigt usw. usf. ist da völlig irrelevant.
Wer meint, Sensor spielt da keine Rolle, da RAW etc. dem kann ich nicht zustimmen, meine Erfahrung ist eben eine andere...
Auch bei Sony Sensoren gibt es da unterschiede. Die älteren finde ich besser, aber auch die, die in A7SIII, FX3, FX6...verbaut sind. Diese ganze neue Features wie DualISO etc. ist nicht das was ich meine. Wenn ich es wüsste, würde ich direkt ansprechen.... Ich weiß es aber nicht, ich nehme es aber eben anders wahr, die Farben, Licht usw. Es könnte auch an Senselgröße liegen, die das ganze Bild eben so beeinflussen, dass es mir persönlich mehr gefällt k.A.
Antwort von iasi:
Raw zeichnet sich doch dadurch aus, dass die Sensordaten (möglichst wenig) vorbehandelt abgespeichert werden.
Man kann dann ja eine Abstufung vornehmen:
Reines Raw
Verlustfrei komprimiertes Raw
Optisch verlustfrei komprimiertes Raw
vordebayert
debayert
geschärft und entrauscht
...
Dann spielt noch eine Rolle wie die Daten digitalisiert und abgespeichert werden:
16bit bis 8bit
...
Einzelbild oder Gruppen
...
Letztlich stellt sich die Frage: Wie stark bearbeitet die Kamera die Sensordaten?
Und somit: Wieviel Spielraum bleibt in der Postpro?
Puristen, die wirklich reines, unkomprimiertes Raw wollen, müssen dann eben mit großen Datenmengen arbeiten. Bei hohen Frameraten und hoher Auflösung stoßen sie dann zudem an technische Grenzen.
Ergo: Man muss Kompromisse eingehen und abwägen.
Antwort von mash_gh4:
das was der roki hier anspricht, geht über die auflösung und kompressionsverluste der einzelen RAW-formate hinaus und bezieht sich vielmehr auf die tatsächliche spektralsensibilität und kanaltrennung der verwendeten sensoren.
in der hinsicht verhalten sich tatsächlich alle sensoren ein klein wenig anders. in der praxis werden erst im zuge der RAW-aufbereitung daraus die resultierenden gebräuchlichen RGB-farben.
eine tolle software, die genau diesen aspekt der farbaufbereitung wirklich wunderbar transparent handhabbar bzw. besser nachvollziehbar macht, ist:
https://torger.se/anders/dcamprof.html#whatis
https://torger.se/anders/photography/ca ... iling.html
Antwort von roki100:
mash_gh4 hat geschrieben:
eine tolle software, die genau diesen aspekt der farbaufbereitung wirklich wunderbar transparent handhabbar bzw. besser nachvollziehbar macht, ist:
https://torger.se/anders/dcamprof.html#whatis
https://torger.se/anders/photography/ca ... iling.html
nach mehrere male lesen, habe ich trotzdem nicht verstanden^^
Antwort von mash_gh4:
roki100 hat geschrieben:
mash_gh4 hat geschrieben:
eine tolle software, die genau diesen aspekt der farbaufbereitung wirklich wunderbar transparent handhabbar bzw. besser nachvollziehbar macht, ist:
https://torger.se/anders/dcamprof.html#whatis
https://torger.se/anders/photography/ca ... iling.html
nach mehrere male lesen, habe ich trotzdem nicht verstanden^^
meinst damit meinen etwas schrägen satz, oder die verlinkten dcamproof dokus? :)
was ersteres betrifft, kann ich dir dcamprof wirklich nur ans herz legen, um ganz praktisch zu erproben, wie viel spielraum es in wahrheit gibt, farben sauberer aufzubereiten als es die meisten kameras und video-RAW-entwickler von haus aus bieten.
es gibt sehr wenig andere software die in ähnlicher weise die spectral sensitivity functions (SSFs) der sensoren nutzt bzw. zu rekonstruieren versucht, um hier konequentere eingriffe bzw. farbwiedergabeverbesserungen zu bewirken.
damit wird der unterschied zwischen den verschiedenen sensoren bzw. diesbezügliche unzufriedenheit schon ein wenig gemildert, auch wenn es natürlich weiterhin einschränkungen und probleme gibt, die sich auch auf diesem weg nicht lösen lassen.
und sollten dir infos auf der dcamprof seite nicht reichen od. als zu oberflächlich erscheinen, gibt's auch noch diese relativ umfangreichen thread auf luminous-landscape der quasi die entwicklung des programmes über zwei-drei jahre hinweg mitbegleitet hat und jede menge nützliche verweise zu weiterführender literatur etc. enthält. ;)
Antwort von roki100:
ich meine die verlinkten dcamproof Seite. An deine Sätze habe ich mich schon gewöhnt.... ;))
Antwort von iasi:
mash_gh4 hat geschrieben:
das was der roki hier anspricht, geht über die auflösung und kompressionsverluste der einzelen RAW-formate hinaus und bezieht sich vielmehr auf die tatsächliche spektralsensibilität und kanaltrennung der verwendeten sensoren.
in der hinsicht verhalten sich tatsächlich alle sensoren ein klein wenig anders. in der praxis werden erst im zuge der RAW-aufbereitung daraus die resultierenden gebräuchlichen RGB-farben.
eine tolle software, die genau diesen aspekt der farbaufbereitung wirklich wunderbar transparent handhabbar bzw. besser nachvollziehbar macht, ist:
https://torger.se/anders/dcamprof.html#whatis
https://torger.se/anders/photography/ca ... iling.html
Das grenzt dann natürlich auch ein wenig an Selbstüberschätzung, denn jeder Kamerahersteller beschäftigt Leute, deren Job es ist, das Maximale aus dem jeweiligen Sensor herauszukitzeln.