Logo Logo
/// 

VariCam LT 5.0 Firmware und erste VariCam Pure Raw Footage



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Wir hatten die Panasonic VariCam Pure hier bereits kurz vorgestellt. Die RAW-fähige Variante der Panasonic VariCam zeichnet Dank andockbarem Codex Recorder 4K uncompres...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
VariCam LT 5.0 Firmware und erste VariCam Pure Raw Footage




Antwort von iasi:

beeindruckend

nicht nur die ISO5000 Aufnahmen



Antwort von Frank Glencairn:

Wow!





Antwort von Drushba:

Das Ende der GH5!



Antwort von iasi:

Das Ende der GH5!

ne - die ist doch die ideale Ergänzung



Antwort von Drushba:

Das Ende der GH5!

ne - die ist doch die ideale Ergänzung

Stimmt. Man sollte die GH5 damit ergänzen ;-)



Antwort von Paralkar:

Is das Prores 4444 XQ etc. auch für mehr als 2k?



Antwort von Rick SSon:

Hm, wirkt das ursa 4,6k bild auf mich deutlich organischer. Sieht aus ie mit nem iphone 11 gefilmt :D



Antwort von iasi:

Das Ende der GH5!

ne - die ist doch die ideale Ergänzung

Stimmt. Man sollte die GH5 damit ergänzen ;-)

na jetzt ist dir ein Licht aufgegangen.



Antwort von iasi:

Hm, wirkt das ursa 4,6k bild auf mich deutlich organischer. Sieht aus ie mit nem iphone 11 gefilmt :D

wow - so gut ist ein iphone11 ?! ;) das sieht sehr gut aus ...

Wo gibt"s denn die 4,6k Vergleichsaufnahmen?



Antwort von iasi:

Jedenfalls sind die Lichter bei keiner Einstellung hässlich ausgebrannt und die Schatten gehen recht sauber ins Schwarz über - da ist kein irritierendes Rauschen zu sehen.
Die Farben - vor allem auch die Hauttöne - hält die Kamera selbst bei extremem Low Light recht gut.

Da gibt"s nichts daran auszusetzen.

Ob die 4k-Kamera für 4k-Produktionen ausreichende Auflösung liefert, ist eine andere Frage.

Raw wird aber leider recht aufwändig: Andockrekorder und Datenmengen von unkomprimiertem RAW

Tolle Kamera - muss man im Gedächtnis behalten - vor allem für Produktionen mit reichlich Low Light.



Antwort von Jott:

Da gibt"s nichts daran auszusetzen.

Echt jetzt?

Ob die 4k-Kamera für 4k-Produktionen ausreichende Auflösung liefert, ist eine andere Frage.

Also doch. Uff.



Antwort von iasi:

Da gibt"s nichts daran auszusetzen.

Echt jetzt?

Ob die 4k-Kamera für 4k-Produktionen ausreichende Auflösung liefert, ist eine andere Frage.

Also doch. Uff.

Ist eben keine GH5 ... ;)



Antwort von nic:

Also ich kann der Varicam 35-Reihe nichts abgewinnen. Und das, obwohl ich Panasonic seit jeher wirklich mag. Die original Varicam war mir immer sympathisch. Aber bei S35 kommen sie einfach gut 5 Jahre zu spät angetrippelt. Der Markt ist aufgeteilt. Und die Lowlightmonsternische hat doch längst Canon mit seiner C-Reihe eingenommen. Tolle Farbwiedergabe, wunderbar nuanciert - von mir aus. Aber der Workflow ist unnötig kompliziert. Ich kann mir gerade kein Projekt ausmalen, bei dem ich eine Varicam 35 als erste Wahl sehen würde...



Antwort von iasi:

Ein Projekt, bei dem ich mit vorhandem Licht auskommen muss/will ... Also dafür würde ich die VariCam ins Auge fassen.

Die C700 ist auch nicht gerade billig ... Für low light ist die Pana-Lösung eleganter



Antwort von Frank Glencairn:

Aber der Workflow ist unnötig kompliziert. Ich kann mir gerade kein Projekt ausmalen, bei dem ich eine Varicam 35 als erste Wahl sehen würde...

Was soll denn da "kompliziert" sein?



Antwort von iasi:

Was soll denn da "kompliziert" sein?

Unkomprimiertes Raw



Antwort von nic:

Aber der Workflow ist unnötig kompliziert. Ich kann mir gerade kein Projekt ausmalen, bei dem ich eine Varicam 35 als erste Wahl sehen würde...

Was soll denn da "kompliziert" sein?

Ich rede vom RAW-Workflow.



Antwort von Frank Glencairn:

In die TimelineTimeline im Glossar erklärt schmeißen, und loslegen.
Erfordert natürlich einen entsprechenden Rechner und Software.
Du hast also kein "Workflow" Problem, sondern ein Hard- und Software Problem.



Antwort von nic:

In die TimelineTimeline im Glossar erklärt schmeißen, und loslegen.
Erfordert natürlich einen entsprechenden Rechner und Software.
Du hast also kein "Workflow" Problem, sondern ein Hard- und Software Problem.

Das Problem fängt doch schon beim klobigen RAW-Rekorder an, geht dann mit der fehlenden Komprimierung schön weiter. Proxies kannst du dir dann erst im Nachgang erstellen... es ist 2017, verdammt noch mal...

Du hast also einen Rechner, der unkomprimiertes 4K RAW in Echtzeit schneiden kann? Das machst du über deine USB 3 Platten, nicht?



Antwort von iasi:

In die TimelineTimeline im Glossar erklärt schmeißen, und loslegen.
Erfordert natürlich einen entsprechenden Rechner und Software.
Du hast also kein "Workflow" Problem, sondern ein Hard- und Software Problem.

Das Problem fängt doch schon beim klobigen RAW-Rekorder an, geht dann mit der fehlenden Komprimierung schön weiter. Proxies kannst du dir dann erst im Nachgang erstellen... es ist 2017, verdammt noch mal...

Du hast also einen Rechner, der unkomprimiertes 4K RAW in Echtzeit schneiden kann? Das machst du über deine USB 3 Platten, nicht?

na ja - also so manches komprimiertes Material zwingt einen Rechner noch schneller in die Knie, als Raw - die Datenmengen muss man bewältigen, ansonsten geht das schon.



Antwort von Frank Glencairn:



Du hast also einen Rechner, der unkomprimiertes 4K RAW in Echtzeit schneiden kann? Das machst du über deine USB 3 Platten, nicht?

Ja, natürlich - ist quasi mein tägliches Brot (technisch gesehen sind es meistens sogar 4.6k), und Proxies sind soooo 2005, das hab ich schon ewig nicht mehr gemacht.

Wie kommst du auf den Dummfug mit USB3 Platten? Selbstverständlich macht man sowas über ein RAID.



Antwort von nic:



Du hast also einen Rechner, der unkomprimiertes 4K RAW in Echtzeit schneiden kann? Das machst du über deine USB 3 Platten, nicht?

Ja, natürlich - ist quasi mein tägliches Brot (technisch gesehen sind es meistens sogar 4.6k), und Proxies sind soooo 2005, das hab ich schon ewig nicht mehr gemacht.

Wie kommst du auf den Dummfug mit USB3 Platten? Selbstverständlich macht man sowas über ein RAID.

Und du nutzt nicht zufällig die 3:1 KompressionKompression im Glossar erklärt oder 4:1 KompressionKompression im Glossar erklärt, sondern du arbeitest da mit 500MB/s, richtig?

Natürlich sind 300MB/s für 4K RAW kein technisches Problem heutzutage... aber was soll all der Datenmüll, den du speichern musst, backuppen und dann auch noch in Echtzeit später bereitstellen willst - am besten für drei oder vier Spuren parallel?



Antwort von Frank Glencairn:

... aber was soll all der Datenmüll, den du speichern musst, backuppen und dann auch noch in Echtzeit später bereitstellen willst - am besten für drei oder vier Spuren parallel?

Ich weiß nicht wie das bei dir ist, aber auf meinen Sets ist das, was wirklich teuer ist VOR der Kamera. Deshalb nehme ich zunächst mal in der bestmöglichen Qualität auf, welche die Kamera hergibt - also das was du "Datenmüll" nennst.

In Zeiten, wo Festplatten einen Bruchteil pro Stunde 4K Material kosten, wie früher SD DigibetaDigibeta im Glossar erklärt Kassetten, interessiert mich das Thema Speicherplatz nicht wirklich.

Drei oder vier Spuren parallel brauch ich nicht, weil Picture in Picture Effekte sowas von 90er sind.



Antwort von nic:

... aber was soll all der Datenmüll, den du speichern musst, backuppen und dann auch noch in Echtzeit später bereitstellen willst - am besten für drei oder vier Spuren parallel?

Ich weiß nicht wie das bei dir ist, aber auf meinen Sets ist das, was wirklich teuer ist VOR der Kamera. Deshalb nehme ich zunächst mal in der bestmöglichen Qualität auf, welche die Kamera hergibt - also das was du "Datenmüll" nennst.

In Zeiten, wo Festplatten einen Bruchteil pro Stunde 4K Material kosten, wie früher SD DigibetaDigibeta im Glossar erklärt Kassetten, interessiert mich das Thema Speicherplatz nicht wirklich.

Drei oder vier Spuren parallel brauch ich nicht, weil Picture in Picture Effekte sowas von 90er sind.

Unkomprimiertes RAW ist Datenmüll. Deine URSAs nehmen gar kein uncompressed RAW auf. Schon mit lossless compressed RAW kannst du rund 30% DatenrateDatenrate im Glossar erklärt einsparen. Und 3:1 oder 4:1 lossy, auf 4K "downgesampelt" ist mit bloßem Auge nicht wirklich unterscheidbar. Wenn dir der Darsteller von einem Meter auf die Linse haucht, hast du mehr Detailverlust...

Zumindest wenn du deine Rohdaten eine gewisse Zeit behalten möchtest, sollte es dich schon interessieren, ob du pro Woche Drehzeit 10TB vorhalten musst oder 30TB.



Antwort von iasi:

... aber was soll all der Datenmüll, den du speichern musst, backuppen und dann auch noch in Echtzeit später bereitstellen willst - am besten für drei oder vier Spuren parallel?

Ich weiß nicht wie das bei dir ist, aber auf meinen Sets ist das, was wirklich teuer ist VOR der Kamera. Deshalb nehme ich zunächst mal in der bestmöglichen Qualität auf, welche die Kamera hergibt - also das was du "Datenmüll" nennst.

In Zeiten, wo Festplatten einen Bruchteil pro Stunde 4K Material kosten, wie früher SD DigibetaDigibeta im Glossar erklärt Kassetten, interessiert mich das Thema Speicherplatz nicht wirklich.

Drei oder vier Spuren parallel brauch ich nicht, weil Picture in Picture Effekte sowas von 90er sind.

Unkomprimiertes RAW ist Datenmüll. Deine URSAs nehmen gar kein uncompressed RAW auf. Schon mit lossless compressed RAW kannst du rund 30% DatenrateDatenrate im Glossar erklärt einsparen. Und 3:1 oder 4:1 lossy, auf 4K "downgesampelt" ist mit bloßem Auge nicht wirklich unterscheidbar. Wenn dir der Darsteller von einem Meter auf die Linse haucht, hast du mehr Detailverlust...

Zumindest wenn du deine Rohdaten eine gewisse Zeit behalten möchtest, sollte es dich schon interessieren, ob du pro Woche Drehzeit 10TB vorhalten musst oder 30TB.

Also bei szenischen Geschichten spielt das keine Rolle - eine Woche Drehzeit ist dann meist schon der halbe Film.
Es kommt schon auch darauf an, was man dreht - und u.a. wie lange die Shots sind.
6 Min. Handkameragewackel am Stück würde ich auch nicht unkomprimiert machen.



Antwort von klusterdegenerierung:

Tja Frank, dann mußt Du jetzt wohl mal das ein oder andere Material vorm archivieren zippen, nicht das nachher noch die Backuppolizei bei Dir vorbei schaut! :-)))



Antwort von Frank Glencairn:


Deine URSAs nehmen gar kein uncompressed RAW auf.... .

Nicht mehr satisfaktionsfähig, weil disqualifiziert.



Antwort von nic:


Deine URSAs nehmen gar kein uncompressed RAW auf.... .

Nicht mehr satisfaktionsfähig, weil disqualifiziert.

Ich kenne nicht alle Modelle, die BMD momentan vertreibt, aber meines Wissens sind sie schon vor einiger Zeit auf lossless compressed CDNG umgestiegen.



Antwort von iasi:


Deine URSAs nehmen gar kein uncompressed RAW auf.... .

Nicht mehr satisfaktionsfähig, weil disqualifiziert.

Ich kenne nicht alle Modelle, die BMD momentan vertreibt, aber meines Wissens sind sie schon vor einiger Zeit auf lossless compressed CDNG umgestiegen.
Recording Formats

Lossless CinemaDNG RAW, RAW 3:1 and RAW 4:1

das eine schließt das andere nicht aus



Antwort von nic:


Deine URSAs nehmen gar kein uncompressed RAW auf.... .

Nicht mehr satisfaktionsfähig, weil disqualifiziert.

Ich kenne nicht alle Modelle, die BMD momentan vertreibt, aber meines Wissens sind sie schon vor einiger Zeit auf lossless compressed CDNG umgestiegen.
Recording Formats

Lossless CinemaDNG RAW, RAW 3:1 and RAW 4:1

das eine schließt das andere nicht aus

Lossless CDNG ist komprimiert. Allerdings lossless komprimiert...



Antwort von Frank Glencairn:

Ohh mann. Wenn ich unkomprimiertes Material in ein Zip schmeiße, ist es immer noch unkomprimiert. Das sind Basics 7nic. Was ist eigentlich dein Punkt?

Daß dir Festplatten zu teuer sind? Daß du von USB3 Drives schneiden mußt? Daß deine Hard/Software das nicht packt? Von mir aus, aber ich brauche keine Beratung hinsichtlich meines Workflow. Das läuft hier schon seit langem ganz wunderbar.



Antwort von Valentino:

...um das Ganze noch auf die Spitze zu treiben, es handelt sich um eine "mathematisch lossless Komprimierung" bei den BM-Kameras. Der Bildinhalt wird also nur so komprimiert, das man später wieder alle Werte 1:1 herstellen kann. Im Prinzip eine Art Zip bzw Rar Komprimierung. Je nach Bildinhalt komprimiert man damit mit einem Faktor zwischen 1 und 1,5.

Es gibt auch noch die visuell lossless Komprimierung, damit ist eben keine 1:1 Rekonstruktion der Bilddaten mehr möglich, aber man erkennt visuelle keinen Unterschied zur unkomprimierten Bilddatei.
Red bezeichnet z.B. den RedCode 3:1 als visuell lossless, was bei einer Wavelet-Komprimierung durchaus streitbar ist.

Hierbei ist aber der Grundsatz, wenn 3:1 bzw 5:1 für die großen VFX-Häuser für die Post ausreicht, dann sollte es das auch für den Rest der Benutzer ausreichen.

Am Ende wird eh alles mit 240Mbit zu einer DCP-Suppe vermischt, also für was der Aufwand ;-)

Und wie man an Moonlight ganz gut sehen kann, reicht auch ProResProRes im Glossar erklärt 4444 2k für ein erfolgreichen Hollywood-Film aus. Es muss also nicht immer RAW sein....



Antwort von Frank Glencairn:

Das kann ich dir sagen.

Die interne 3:1 Komprimierung der BM Kameras ist okay, aber nicht optimal.
Deshalb nehme ich unkomprimiert auf, und komprimiere 3:1 während des Kopierens/Backup (das geht gleichzeitig) on-the-fly mit SlimRAW.
Da hab ich dann auch gleich die Checksum zur Sicherheit.

SlimRAW nutzt eine bessere Methode als BM intern. Und ja, ich sehe da einen Unterschied zur internen KompressionKompression im Glossar erklärt, auch wenn er nicht massiv ist. Aber warum soll ich Qualität, die ich haben kann verschenken, auch wenns nicht viel ist?

Aber es gibt ja auch Leute, die sehen zwischen raw und ProResProRes im Glossar erklärt keinen nennenswerten Unterschied.

Was Hollywood und ProResProRes im Glossar erklärt betrifft, das ist eben immer eine Geldfrage.
Wenn ich 5 Licht-Trucks und eine Armee von Ameisen hab, die mir das alles aufstellen und rumwuchten, kann ich auch so leuchten, daß ich in der Post nicht mehr viel machen muss.
Z.B. Wenn ich für eine nächtliche Straßenszene einen Generatorwagen habe, einen Steiger und 20k oben drauf, dann langt mir vielleicht auch Prores, weil ich meine Ratios schon am Set so feintunen kann, daß es quasi schon passt.



Antwort von iasi:



Am Ende wird eh alles mit 240Mbit zu einer DCP-Suppe vermischt, also für was der Aufwand ;-)

Um das bestmögliche Ausgangsmaterial zu haben ...

Beispiel:
Im working on a alexa mini "4k" project at the moment. I was not thinking much of it when they told me they shoot mini 4k prores. And today when I started to key the material it it was way worse than I would ever think it would be. Upscaling and heavy compression is simply not a good combo.

http://www.reduser.net/forum/showthread ... -Hollywood
und:
It does not show much when just grading but the keying part feels like red one back in the SD card days.

Wenn man eh nicht viel mit dem Material in der Post machen (und damit die gestalterischen Möglichkeiten ungenutzt lassen) will, braucht"s wirklich keinen Aufwand ... dann genügt aber eben auch schon eine 8bit-Cam.



Antwort von nic:

Ohh mann. Wenn ich unkomprimiertes Material in ein Zip schmeiße, ist es immer noch unkomprimiert. Das sind Basics 7nic. Was ist eigentlich dein Punkt?

Daß dir Festplatten zu teuer sind? Daß du von USB3 Drives schneiden mußt? Daß deine Hard/Software das nicht packt? Von mir aus, aber ich brauche keine Beratung hinsichtlich meines Workflow. Das läuft hier schon seit langem ganz wunderbar.

Wenn du eine unkomprimierte Datei "zippst" dann komprimierst du sie. Das ist die Definition und das ist der Punkt: Unkomprimiertes RAW ist zu 30% Datenmüll, den du herausrechnen kannst.

Und nein, ich muss nicht von USB-Platten schneiden. Und unsere Hard- und Software käme auch mit 6K uncompressed RAW zurecht. Aber wieso sollte man sich das antun?

Ich berate dich nicht. Ich widerspreche deinen Falschaussagen.



Antwort von Frank Glencairn:

Nein, ich verpack die Daten nur so, daß sie weniger Platz brauchen.



Antwort von srone:

Wenn du eine unkomprimierte Datei "zippst" dann komprimierst du sie.

ja, aber eben "losless", das ist der punkt.

packst du sie wieder aus hast du 1:1 das unkomprimierte raw.

lg

srone



Antwort von nic:

Nein, ich verpack die Daten nur so, daß sie weniger Platz brauchen.

Willst du mich verarschen?

Die Datenkompression (wohl lehnübersetzt und eingedeutscht aus dem englischen ‚data compression‘) – auch (weiter eingedeutscht) Datenkomprimierung genannt – ist ein Vorgang, bei dem die Menge digitaler Daten verdichtet oder reduziert wird. Dadurch sinkt der benötigte Speicherplatz und die Übertragungszeit der Daten verkürzt sich. In der Nachrichtentechnik wird die Komprimierung von Nachrichten aus einer Quelle durch einen Sender als Quellenkodierung bezeichnet.

Grundsätzlich wird bei der Datenkompression versucht, überflüssige Informationen zu entfernen. Dazu werden die Daten in eine Darstellung überführt, mit der sich alle – oder zumindest die meisten – Informationen in kürzerer Form darstellen lassen. Diesen Vorgang übernimmt ein Kodierer und man bezeichnet den Vorgang als KompressionKompression im Glossar erklärt oder Komprimierung. Die Umkehrung bezeichnet man als Dekompression oder Dekomprimierung.

Man spricht von verlustfreier KompressionKompression im Glossar erklärt, verlustfreier Kodierung oder Redundanzreduktion, wenn aus den komprimierten Daten wieder alle Originaldaten gewonnen werden können. Das ist beispielsweise bei der KompressionKompression im Glossar erklärt ausführbarer Programmdateien notwendig.

Bei der verlustbehafteten KompressionKompression im Glossar erklärt oder Irrelevanzreduktion können die Originaldaten nicht mehr aus den komprimierten Daten zurückgewonnen werden, das heißt, ein Teil der Information geht verloren. Solche Verfahren werden häufig zur Bild- oder Videokompression und Audiodatenkompression eingesetzt.

Genau diese fehlende Komprimierung (egal ob lossless oder lossy) habe ich an der VariCam 35 bemängelt.

Du kannst nicht ständig einfach Definitionen ändern, nur um Recht zu behalten...



Antwort von -paleface-:

Das kann ich dir sagen.

Die interne 3:1 Komprimierung der BM Kameras ist okay, aber nicht optimal.
Deshalb nehme ich unkomprimiert auf, und komprimiere 3:1 während des Kopierens/Backup (das geht gleichzeitig) on-the-fly mit SlimRAW.
Da hab ich dann auch gleich die Checksum zur Sicherheit.

SlimRAW nutzt eine bessere Methode als BM intern. Und ja, ich sehe da einen Unterschied zur internen KompressionKompression im Glossar erklärt, auch wenn er nicht massiv ist. Aber warum soll ich Qualität, die ich haben kann verschenken, auch wenns nicht viel ist?

Aber es gibt ja auch Leute, die sehen zwischen raw und ProResProRes im Glossar erklärt keinen nennenswerten Unterschied.

Woran siehst du denn den genauen unterschied zwischen Uncompressed und 3/4:1?

Ich habe meine letzten Projekte mit 4:1 Raw gedreht und war ziemlich zufrieden.
Habe vorher einen Test gemacht zwischen den Compressed Möglichkeiten und keinen wirklichen Unterschied bemerkt.
Außer das es vielleicht in 4:1 im Gegensatz zu Uncompressed etwas mehr rauscht.
Zwischen 3:1 und 4:1 habe ich allerdings keinen Unterschied bemerken können.

Gibt es da sonst noch eine Sache die ich vielleicht übersehe?



Antwort von Frank Glencairn:

Rein optisch macht es keinen Unterschied, den merkst du erst in der Farbkorrektur. Vor allem wenn du Temp. und Tint verschiebst - da ist das Material quasi "fetter" und hat mehr Reserven. Auch wenn du einen Qualifier mit der Pipette machst, ist das ganze deutlich "griffiger", und bricht nicht so schnell aus, vor allem in den Schatten.



Antwort von -paleface-:

Ok.

Werde ich mal testen. Spannendes Thema :-)



Antwort von mediavideo:

...um das Ganze noch auf die Spitze zu treiben, es handelt sich um eine "mathematisch lossless Komprimierung" bei den BM-Kameras. Der Bildinhalt wird also nur so komprimiert, das man später wieder alle Werte 1:1 herstellen kann. Im Prinzip eine Art Zip bzw Rar Komprimierung. Je nach Bildinhalt komprimiert man damit mit einem Faktor zwischen 1 und 1,5.

Es gibt auch noch die visuell lossless Komprimierung, damit ist eben keine 1:1 Rekonstruktion der Bilddaten mehr möglich, aber man erkennt visuelle keinen Unterschied zur unkomprimierten Bilddatei.
Red bezeichnet z.B. den RedCode 3:1 als visuell lossless, was bei einer Wavelet-Komprimierung durchaus streitbar ist.

Hierbei ist aber der Grundsatz, wenn 3:1 bzw 5:1 für die großen VFX-Häuser für die Post ausreicht, dann sollte es das auch für den Rest der Benutzer ausreichen.

Am Ende wird eh alles mit 240Mbit zu einer DCP-Suppe vermischt, also für was der Aufwand ;-)

Und wie man an Moonlight ganz gut sehen kann, reicht auch ProResProRes im Glossar erklärt 4444 2k für ein erfolgreichen Hollywood-Film aus. Es muss also nicht immer RAW sein....

Hinter "mathematisch lossless Komprimierung" stehen im Wesentlichen 2 Algorithmen/Codierungen:

1. Huffman
https://de.wikipedia.org/wiki/Huffman-Kodierung

2. LZW
https://de.wikipedia.org/wiki/Lempel-Zi ... lgorithmus

Je nach Entropie ( https://de.wikipedia.org/wiki/Entropie_ ... theorie%29 ) des RAW-Aufnahmebildinhaltes schwankt der Kompressionswert, dürfte aber bei guten Kameras den Faktor 2 normalerweise nicht überschreiten können.

Dem entgegen kann z.B. bei der Entropie von Textdateien der Faktor auch locker über 10 liegen. Siehe z.B. eine Zip-Dateigröße im Verhältnis zur Textdatei-Originalgröße.



Antwort von mash_gh4:

Hinter "mathematisch lossless Komprimierung" stehen im Wesentlichen 2 Algorithmen/Codierungen:

1. Huffman
https://de.wikipedia.org/wiki/Huffman-Kodierung

2. LZW
https://de.wikipedia.org/wiki/Lempel-Zi ... lgorithmus

die vermutlich augenblicklich wichtigste solltest vielleicht auch noch erwähnen:
CABAC => https://de.wikipedia.org/wiki/Context-A ... tic_Coding

Je nach Entropie ( https://de.wikipedia.org/wiki/Entropie_ ... theorie%29 ) des RAW-Aufnahmebildinhaltes schwankt der Kompressionswert, dürfte aber bei guten Kameras den Faktor 2 normalerweise nicht überschreiten können.

das halte ich für ziemlich spekulativ, lässt sich aber nur relativ schwer an greifbaren anhaltspunkten vernünftiger bemessen. was jedenfalls dabei eine sehr wichtige rolle spielt, ist die art und weise, wie man die informationen aus dem bayer pattern so zusammenfast, dass benachbarte, und damit statistisch gesehen sehr oft ähnliche, bildinformationen sinnvoll nebeneiender zu liegen kommen bzw. systematisch berücksichtigt werden. da wird's dann gleich einmal ziemlich kompliziert ;)



Antwort von mediavideo:

@mash_gh4

So etwas wie CABAC kann ich mir aufgrund der nötigen Rechenleistung bei RAW schlecht vorstellen. Bei den Datenmengen/Datenraten wird es bei der KompressionKompression im Glossar erklärt eher einfach bleiben. Ist aber nur eine begründete Vermutung von mir, da es bisher keine hohe mathematische lossless KompressionKompression im Glossar erklärt bei RAW in Kameras gibt (siehe BM, Sony, ...). Wenn das ginge würden die das bestimmt machen um die Datenberge echt verlustlos deutlicher zu verkleinern.

Das mit dem maximal Faktor 2 ist eine Schätzung aufgrund von Erfahrung bei Medien. Mir ist bisher noch nichts größer 2 begegnet und selbst Firmen wie z.B. BM sprechen auch nur von weniger als Faktor 2.

Und bei guten Kameras wird das mit hoher mathematischer lossless Komprimierung sowieso schwieriger: Je besser die Kamera, je mehr Farbnuancen und damit eine ungünstigere Entropie zum Komprimieren.

Um das mit den besseren Kameras schnell zu verstehen:
Je mehr Farbwerte im Bild benutzt werden je schlechter ist statistisch gesehen die Huffmannkomprimierung, da immer mehr längere Bitwerte benutzt werden müssen. Weiterhin sind mit immer mehr verschiedenen Werten statistisch gesehen immer weniger lange LZW komprimierfähige Bereiche vorhanden. Und das dürfte auch für die CABAC-Komprimierung gelten.



Antwort von mash_gh4:

So etwas wie CABAC kann ich mir aufgrund der nötigen Rechenleistung bei RAW schlecht vorstellen. Bei den Datenmengen/Datenraten wird es bei der KompressionKompression im Glossar erklärt eher einfach bleiben. Ist aber nur eine begründete Vermutung von mir, da es bisher keine hohe mathematische lossless KompressionKompression im Glossar erklärt bei RAW in Kameras gibt (siehe BM, Sony, ...). Wenn das ginge würden die das bestimmt machen um die Datenberge echt verlustlos deutlicher zu verkleinern.

derartiges kann man mit hardwareimplementierungen ausgesprochen effizient umsetzten. das sind genau jene bausteine, die du in jeder professionellen xavc und avc-ultra kamera antreffen wirst.

das es natürlich ohne derartige beschleunigungshilfestellung gewöhnliche prozessoren ganz schön zu rauchen bringt, kann man ausgesprochen gut nachvolziehen, wenn man einmal mit FLIF herumspielt, das ja auch auf einer variante dieser technik basiert (im übrigen sind die dort angegeben kompressionsraten, die sich auf sehr große sammlungen von bildern beziehen, ein ganz guter anhaltspunkt bzgl. der tatsächlichen effizienz derartiger techniken).



Antwort von iasi:

Arriraw is not compressed and therefore creates large amounts of data. However, that same lack of compression allows for real time debayering at high quality on commodity hardware at fast than real time speeds using most software. So the only "hassle" is needing larger and faster storage. But the "handling" of Arriraw is a snap, with far fewer issues than any compressed format.
http://www.reduser.net/forum/showthread ... wood/page3

Er sagt"s ...
Back die Daten klein, musst du sie nachher eben auch wieder aufkochen - und das kostet Rechenpower.
Letztlich muss der Rechner so oder so mit unkomprimiertem Material umgehen.



Antwort von mediavideo:

Natürlich kann man das in Hardware schneller machen, aber es tut ja offensichtlich keiner sonst hätten wir ja höhere mathematisch lossless RAW-Kompressionen.

Beim aktuellen Faktor 1-2 dürften das nur einfache Huffmann/LZW-Kompessionstypen sein.

Einen höheren Faktor bei der mathematischen lossless KompressionKompression im Glossar erklärt würden die schon gerne haben, wäre ein echter Wettbewerbsvorteil. Z.B. BM muss sogar mit 2 Karten parallel arbeiten, das machen die nicht freiwillig.

Den Grund kann ich auch nur vermuten, dürfte bei der zu großen Wärmeentwicklung liegen.



Antwort von mash_gh4:

Back die Daten klein, musst du sie nachher eben auch wieder aufkochen - und das kostet Rechenpower.

ja -- allerdings muss der rechenaufwand beim encoderieren und decodieren nicht unebdingt gleich hoch sein. die meisten derartigen techniken zeichen sich dadurch aus, dass das entpacken mit verhältnismäßig bescheidenem aufwand möglich ist.

Letztlich muss der Rechner so oder so mit unkomprimiertem Material umgehen.

das stimmt schon, aber trotzdem kann der notwendige i/o-aufwand oft größer seien, als ein entpacken on the fly. der gesamtdurchsatz auf gleichwertiger hardware kann also letzlich durchaus höher ausfallen. das klingt zwar auf den ersten ein bisserl erstaunlich, wird aber in sehr vielen bereichen schon lange in genau dieser weise praktiziert.



Antwort von iasi:



Einen höheren Faktor bei der mathematischen lossless KompressionKompression im Glossar erklärt würden die schon gerne haben, wäre ein echter Wettbewerbsvorteil. Z.B. BM muss sogar mit 2 Karten parallel arbeiten, das machen die nicht freiwillig.

Man muss anschließend eben auch Dekomprimieren - und das verlangt eben auch Rechenpower.

Da der Rekorder an der VariCam das Raw wegschreiben kann, ist doch eh kein echtes Problem. Da muss dann auch nicht mühsam komprimiert werden.

Bei 6k oder gar 8k wird"s dann schon schwieriger.



Antwort von mediavideo:

@iasi

Du machst einen Denkfehler:
Je schneller - je teurer und extremer. Die Canon C700 verlangt für RAW einen Codex-Recorder. Was kostet der?

Wenn man intern schon mit billigen Kompressionschips auf 30% Datenmengen herunter käme, dann hätte man einen eigenen Recorder (= simpler Stand der Technik) angeflanscht und könnte sich das Geld des Codex-Recordrs selbst in die Tasche stecken oder man kann preisgünstiger im Wettbewerb anbieten. Und das gilt auch bei den Medien. Das müssten keine speziellen ultraschnellen Karten mehr sein, es wäre CFast von der Stange. Und bei 30% natürlich 3-fach längere Laufzeiten pro Karte. Macht auch einen Handlingvorteil, nehmen wir mal ein langes Musikstück das dann plötzlich auf eine Karte ohne Kartenwechsel passt ...



Antwort von iasi:

Back die Daten klein, musst du sie nachher eben auch wieder aufkochen - und das kostet Rechenpower.

ja -- allerdings muss der rechenaufwand beim encoderieren und decodieren nicht unebdingt gleich hoch sein. die meisten derartigen techniken zeichen sich dadurch aus, dass das entpacken mit verhältnismäßig bescheidenem aufwand möglich ist.

Letztlich muss der Rechner so oder so mit unkomprimiertem Material umgehen.

das stimmt schon, aber trotzdem kann der notwendige i/o-aufwand oft größer seien, als ein entpacken on the fly. der gesamtdurchsatz auf gleichwertiger hardware kann also letzlich durchaus höher ausfallen. das klingt zwar auf den ersten ein bisserl erstaunlich, wird aber in sehr vielen bereichen schon lange in genau dieser weise praktiziert.

Das extreme Gegenbeispiel:
RedRaw und AVCHDAVCHD im Glossar erklärt - wohlgemerkt 5k vs FHD - da werden in Premiere mehr RedRaw-Spuren abgespielt, als AVCHD-Spuren.



Antwort von mediavideo:

iasi, das ist genau das was ich oben bei meiner Vermutung geschrieben habe.

Die nötige Rechenleistung wäre bei RAW und z.B komplexer CABAC-Komprimierung wohl sehr hoch. Und das bringt eben auch heftige Nachteile.



Antwort von mash_gh4:

Beim aktuellen Faktor 1-2 dürften das nur einfache Huffmann/LZW-Kompessionstypen sein.

in der praxis ist das natürlich auch durch diverse formatspezifische vorgaben begrenzt. im falle von DNG ist bspw. klar spezifiziert, dass nur lossless JPEG92 zum einsatz kommen kann. bei den diversen proprietären RAW formaten und herstellerspezifischen übertragungs- und speicherlösungen, ist das aber oft anders gelöst.



Antwort von iasi:

@iasi

Du machst einen Denkfehler:
Je schneller - je teurer und extremer. Die Canon C700 verlangt einen Codex-Recorder. Was kostet der?

Wenn man intern schon mit billigen Kompressionschips auf 30% Datenmengen herunter käme, dann hätte man einen eigenen Recorder (= simpler Stand der Technik) angeflanscht und könnte sich das Geld des Codex-Recordrs selbst in die Tasche stecken oder man kann preisgünstiger im Wettbewerb anbieten. Und das gilt auch bei den Medien. Das müssten keine speziellen ultraschnellen Karten mehr sein, es wäre CFast von der Stange. Und bei 30% natürlich 3-fach längere Laufzeiten pro Karte. Macht auch einen Handlingvorteil, nehmen wir mal ein langes Musikstück das dann plötzlich auf eine Karte ohne Kartenwechsel passt ...

Ich will die hohen Datenmengen nicht verteidigen.
Aber Komprimierung ist eben auch immer ein Kompromis.

Es gibt durchaus Aufnahmesituationen, da schlägt die Komprimierung negativ durch.

Lossless reduziert im Verhältnis zum Aufwand die Datenmengen nicht wirklich relevant.



Antwort von mash_gh4:

Lossless reduziert im Verhältnis zum Aufwand die Datenmengen nicht wirklich relevant.

also, ich finde selbst 50% platzersparnis eine durchaus spürbare erleichternung.

im übrigen kannst du bspw. den bereits oben verlinkten ausführungen eines entwicklers entnehmen, dass bspw. im zusammenhang mit MagicLantern das abspielen von komprimiertem RAW schneller funktioniert als mit unbehandeltem bzw. dem doppelt so großen io aufwand.



Antwort von iasi:

Lossless reduziert im Verhältnis zum Aufwand die Datenmengen nicht wirklich relevant.

also, ich finde selbst 50% platzersparnis eine durchaus spürbare erleichternung.

im übrigen kannst du bspw. den bereits oben verlinkten ausführungen eines entwicklers entnehmen, dass bspw. im zusammenhang mit MagicLantern das abspielen von komprimiertem RAW schneller funktioniert als mit unbehandeltem bzw. dem doppelt so großen io aufwand.

klar - ein Nadelöhr tut sich immer auf.

Aber immerhin: Sowohl die Rechenpower, als auch die Übertragungsraten nehmen beständig zu.
Ich gebe auch zu, dass ich im Normalfall verlustbehaftete Komprimierung nutze.
Hängt aber - wie Frank schon sagte - auch davon ab, was vor der Kamera ist.



Antwort von mash_gh4:

Ich gebe auch zu, dass ich im Normalfall verlustbehaftete Komprimierung nutze.

das ist natürlichen in vielen fällen höchst vernünftig. aber gerade RAW material bzw. den dort sinnvollen aufbereitungstechniken, können verlustfreie ansätze durchaus sinn machen, wenn man wirklich bessere resultate erhalten will, als sie auch bereits recht durchschnittliche kameras intern zu backen verstehen.



Antwort von iasi:

Ich gebe auch zu, dass ich im Normalfall verlustbehaftete Komprimierung nutze.

das ist natürlichen in vielen fällen höchst vernünftig. aber gerade RAW material bzw. den dort sinnvollen aufbereitungstechniken, können verlustfreie ansätze durchaus sinn machen, wenn man wirklich bessere resultate erhalten will, als sie auch bereits recht durchschnittliche kameras intern zu backen verstehen.

hmmm ... Raw - auch verlustbehaftet komprimiert, bietet eben die Gestaltungsmöglichkeiten der Post, die man beim kamerainternen Backen schlicht verschenkt.



Antwort von mash_gh4:

hmmm ... Raw - auch verlustbehaftet komprimiert, bietet eben die Gestaltungsmöglichkeiten der Post, die man beim kamerainternen Backen schlicht verschenkt.

ja -- das prinzipell schon recht -- und um einigermaßen akzeptable farben herauszukitzeln reicht das natürlich im grunde. problematisch wird es erst, wenn man auch anspruchsvollere aufbereitungstechniken in der späteren verarbeitung nutzen und ganz gezielt justieren will, wie sie in heutigen kameras anzutreffen sind. dort geht's dann sehr oft um eine genauigkeit der ursprünglich zur verfügung stehenden daten, die sich doch ganz wesentlich von dem unterscheidet, was man mit unserem beschränkten sehsinn in normalen bilddaten ohnehin nicht sehen würde.

mir ist das bspw. gestern wieder einmal bewusst geworden, als ich im bei der suche nach einem link für eine andere diskussion hier im forum die aktuellen arbeiten im ephel projekt wiedereinmal überflogen habe bzw. erneut darüber staunen musste, mit welch diffizilen detailproblemen man sich im zuge der aufbereitung von sensordaten herumschlagen muss. ich persönlich komme bei derartigen überlegungen aber ohnehin meistens zum schluss, dass es vor allem die beschränkungen der gegenwärtig praktisch verfügbarer RAW video verarbeitungslösungen sind, die sich in diesem zusammenhang als verhältnismäßig primitiv und unzureichend ausnehmen, was dem ganzen leider ohnehin ziemlich enge grenzen und vorteile beschert.



Antwort von iasi:

Mir genügt die erreichbare Bildqualität schon längst.
Was mir aber wichtig ist, das ist der Gestaltungsspielraum eben auch in der Post.
In der Post haben doch die Revolutionen stattgefunden, was hier möglich ist, das konnten nicht mal die Abwedler der Zonensystem-Fraktion bewerkstelligen.
Bei den Kameras erhält man nun das Optimum an Auflösung und Empfindlichkeit, aus Negativzeiten.

Ich verstehe sowieso nicht, wenn jemand bei einer Kamera wie der VariCam über Look spricht.
Die Post ermöglicht mir jeden gewünschten Look zu kreieren, sofern das Ausgangsmaterial mir den Spielraum bietet (Stichwort: Raw).

Wenn natürlich die Lichter hart clippen oder die Schatten mit üblem Rauschen "verdreckt" sind, wird aus Gestaltungsspielraum leider nur noch Flickarbeit.
Aber genau hier schlägt sich die VariCam sehr gut - in dem Video sind keine Aufnahmen, die problematisch wären.



Antwort von nic:

Mir genügt die erreichbare Bildqualität schon längst.
Was mir aber wichtig ist, das ist der Gestaltungsspielraum eben auch in der Post.
In der Post haben doch die Revolutionen stattgefunden, was hier möglich ist, das konnten nicht mal die Abwedler der Zonensystem-Fraktion bewerkstelligen.
Bei den Kameras erhält man nun das Optimum an Auflösung und Empfindlichkeit, aus Negativzeiten.

Ich verstehe sowieso nicht, wenn jemand bei einer Kamera wie der VariCam über Look spricht.
Die Post ermöglicht mir jeden gewünschten Look zu kreieren, sofern das Ausgangsmaterial mir den Spielraum bietet (Stichwort: Raw).

Wenn natürlich die Lichter hart clippen oder die Schatten mit üblem Rauschen "verdreckt" sind, wird aus Gestaltungsspielraum leider nur noch Flickarbeit.
Aber genau hier schlägt sich die VariCam sehr gut - in dem Video sind keine Aufnahmen, die problematisch wären.

Ich würde gerne auch nur eine Sekunde Material von dir sehen. Das muss doch alles nach hochwertigem französischen Arthouse aussehen...



Antwort von iasi:

Mir genügt die erreichbare Bildqualität schon längst.
Was mir aber wichtig ist, das ist der Gestaltungsspielraum eben auch in der Post.
In der Post haben doch die Revolutionen stattgefunden, was hier möglich ist, das konnten nicht mal die Abwedler der Zonensystem-Fraktion bewerkstelligen.
Bei den Kameras erhält man nun das Optimum an Auflösung und Empfindlichkeit, aus Negativzeiten.

Ich verstehe sowieso nicht, wenn jemand bei einer Kamera wie der VariCam über Look spricht.
Die Post ermöglicht mir jeden gewünschten Look zu kreieren, sofern das Ausgangsmaterial mir den Spielraum bietet (Stichwort: Raw).

Wenn natürlich die Lichter hart clippen oder die Schatten mit üblem Rauschen "verdreckt" sind, wird aus Gestaltungsspielraum leider nur noch Flickarbeit.
Aber genau hier schlägt sich die VariCam sehr gut - in dem Video sind keine Aufnahmen, die problematisch wären.

Ich würde gerne auch nur eine Sekunde Material von dir sehen. Das muss doch alles nach hochwertigem französischen Arthouse aussehen...

Wie sieht den "französisches Arthouse" aus?

Der herausragendste Vorteil von Raw ist doch gerade, dass man damit in der Post so ziemlich jedes Aussehen kreieren kann.

Es geht eben gerade nicht um "fix it in post".
Man benötigt optimal belichtestes Ausgangsmaterial, dann stehen einem alle Gestaltungmöglichkeiten moderner Post-Technik zur Verfügung.

Ich hab zwar nicht den link zur Hand, aber es gibt da ein nettes Youtube-Video, in dem jemand eine Innenaufnahme einer Kirche bearbeitet. Diese Feinarbeit ist schon allein zeitlich während des Drehs gar nicht möglich, will man es mit Beleuchtungsmitteln erzeugen.
Ich denke da auch immer an den Camerashootout 2012, der nicht viel über die Kameras aussagt, aber über den Unterschied zwischen den Arbeitsweisen von Raw zu 8bit.
8bit erforderte mehr Leuchtmittel und weit mehr Zeit bei der Ausleuchtung - und dennoch sind die Gestaltungsmöglichkeiten in der Post vielfältiger und feiner.

Mein Eindruck zum VariCam-Material ist daher, dass es eine hervorragende Ausgangsbasis bietet - eben auch bei LowLight.
Daher würde ich sie für Projekte, die auch Einstellungen mit wenig Licht erfordern, ins Auge fassen. Hier ist sie z.B. einer Alexa klar überlegen. Auch wenn die Red Helium nun in den Schatten sehr sauber sein soll, wäre ich an einem Vergleich mit der VariCam doch sehr interessiert. (IPP2 für die Helium lässt aber immer noch auf sich warten.)



Antwort von nic:



Ich würde gerne auch nur eine Sekunde Material von dir sehen. Das muss doch alles nach hochwertigem französischen Arthouse aussehen...

Wie sieht den "französisches Arthouse" aus?

Der herausragendste Vorteil von Raw ist doch gerade, dass man damit in der Post so ziemlich jedes Aussehen kreieren kann.

Mein Eindruck zum VariCam-Material ist daher, dass es eine hervorragende Ausgangsbasis bietet - eben auch bei LowLight.
Daher würde ich sie für Projekte, die auch Einstellungen mit wenig Licht erfordern, ins Auge fassen. Hier ist sie z.B. einer Alexa klar überlegen. Auch wenn die Red Helium nun in den Schatten sehr sauber sein soll, wäre ich an einem Vergleich mit der VariCam doch sehr interessiert. (IPP2 für die Helium lässt aber immer noch auf sich warten.)

IPP2 ist längst da. Kannst du auf jegliches redraw-Material legen und neu entwickeln. Bei den Heliums sogar in-camera. Zwar Beta - aber was ist denn heute auch schon final?

Dass lowlight nicht die Stärke der Alexas ist, da sind wir uns wohl alle einig.

Und nein. Du kannst nicht jeden Look in der Post kreieren. Das ist absoluter Humbug. Jeder Look, bzw. Stil, der sich so nennen dürfte, hat mehr mit Framing, Blocking, Kamerabewegung, Lichtgestaltung, Ausstattung, Setbau und Objektivwahl zu tun, als mit so ziemlich allem was du in der Post machen kannst...



Antwort von iasi:



Ich würde gerne auch nur eine Sekunde Material von dir sehen. Das muss doch alles nach hochwertigem französischen Arthouse aussehen...

Wie sieht den "französisches Arthouse" aus?

Der herausragendste Vorteil von Raw ist doch gerade, dass man damit in der Post so ziemlich jedes Aussehen kreieren kann.

Mein Eindruck zum VariCam-Material ist daher, dass es eine hervorragende Ausgangsbasis bietet - eben auch bei LowLight.
Daher würde ich sie für Projekte, die auch Einstellungen mit wenig Licht erfordern, ins Auge fassen. Hier ist sie z.B. einer Alexa klar überlegen. Auch wenn die Red Helium nun in den Schatten sehr sauber sein soll, wäre ich an einem Vergleich mit der VariCam doch sehr interessiert. (IPP2 für die Helium lässt aber immer noch auf sich warten.)

IPP2 ist längst da. Kannst du auf jegliches redraw-Material legen und neu entwickeln. Bei den Heliums sogar in-camera. Zwar Beta - aber was ist denn heute auch schon final?

Dass lowlight nicht die Stärke der Alexas ist, da sind wir uns wohl alle einig.

Und nein. Du kannst nicht jeden Look in der Post kreieren. Das ist absoluter Humbug. Jeder Look, bzw. Stil, der sich so nennen dürfte, hat mehr mit Framing, Blocking, Kamerabewegung, Lichtgestaltung, Ausstattung, Setbau und Objektivwahl zu tun, als mit so ziemlich allem was du in der Post machen kannst...

Nur sind Framing, Blocking, Kamerabewegung, Lichtgestaltung, Ausstattung, Setbau und Objektivwahl kameraunabhängig.
Daher verstehe ich nicht, wenn jemand vom Look spricht, die eine Kamera liefert.

IPP2 ist jedenfalls noch nicht fertig - und Red empfiehlt auch selbst, Beta-Versionen nur für Testzwecke zu nutzen.



Antwort von nic:



Ich würde gerne auch nur eine Sekunde Material von dir sehen. Das muss doch alles nach hochwertigem französischen Arthouse aussehen...

Wie sieht den "französisches Arthouse" aus?

Der herausragendste Vorteil von Raw ist doch gerade, dass man damit in der Post so ziemlich jedes Aussehen kreieren kann.

Mein Eindruck zum VariCam-Material ist daher, dass es eine hervorragende Ausgangsbasis bietet - eben auch bei LowLight.
Daher würde ich sie für Projekte, die auch Einstellungen mit wenig Licht erfordern, ins Auge fassen. Hier ist sie z.B. einer Alexa klar überlegen. Auch wenn die Red Helium nun in den Schatten sehr sauber sein soll, wäre ich an einem Vergleich mit der VariCam doch sehr interessiert. (IPP2 für die Helium lässt aber immer noch auf sich warten.)

IPP2 ist längst da. Kannst du auf jegliches redraw-Material legen und neu entwickeln. Bei den Heliums sogar in-camera. Zwar Beta - aber was ist denn heute auch schon final?

Dass lowlight nicht die Stärke der Alexas ist, da sind wir uns wohl alle einig.

Und nein. Du kannst nicht jeden Look in der Post kreieren. Das ist absoluter Humbug. Jeder Look, bzw. Stil, der sich so nennen dürfte, hat mehr mit Framing, Blocking, Kamerabewegung, Lichtgestaltung, Ausstattung, Setbau und Objektivwahl zu tun, als mit so ziemlich allem was du in der Post machen kannst...

Nur sind Framing, Blocking, Kamerabewegung, Lichtgestaltung, Ausstattung, Setbau und Objektivwahl kameraunabhängig.
Daher verstehe ich nicht, wenn jemand vom Look spricht, die eine Kamera liefert.

IPP2 ist jedenfalls noch nicht fertig - und Red empfiehlt auch selbst, Beta-Versionen nur für Testzwecke zu nutzen.

Die Grundlage von ipp2 ist längst fertig: RedWideGamut und Log3G10. Dafür kannst du dir schon diverse ipp2-LUTs besorgen. Funktioniert tadellos.

Der Look, den deine Kamera liefert, der wird nunmal großteils dadurch bestimmt, was vor dem Sensor passiert. Deshalb behaupte ich ja auch frech, dass es ziemlich egal ist mit welcher (high-end) Kamera man momentan dreht. Natürlich gilt das nur unter kontrollierten Bedingungen.



Antwort von iasi:

.

Der Look, den deine Kamera liefert, der wird nunmal großteils dadurch bestimmt, was vor dem Sensor passiert. Deshalb behaupte ich ja auch frech, dass es ziemlich egal ist mit welcher (high-end) Kamera man momentan dreht. Natürlich gilt das nur unter kontrollierten Bedingungen.

ja - Zustimmung - aber ich würde nicht sagen "kontrollierte" Bedingungen, eher extreme Bedingungen.
Nimm als Beispiel eine LowLight-Situation - du willst ja nicht Lichthöfe und sonst nur schwarz, wenn du in Settings mit wenig Licht arbeitest. Und da würde ich sagen:
Alexa oder VariCam - ein erheblicher Unterschied.

Andererseits HighDR-Situation - kommt eine Lichtquelle ins Bild, ist es schon geschehen: Da liefert wohl die Alexa besseres Ausgangsmaterial.

Gerade eben auch wenn es darum geht, die Gestaltungsmöglichkeiten der Post zu nutzen, ist die Kamera von Bedeutung - jedenfalls in extremen Aufnahmesetting, bei denen man an die Grenzen geht.

Wenn genügend Licht vorhanden ist und der DR der Kamera nicht überstrapaziert wird, ist zwischen high-end-Kameras jedoch wirklich kein Unterschied auszumachen.

Wenn ich also die Lichtstimmung im Mittelalter haben möchte, nehme ich vielleicht wirklich die VariCam. Dichte, dunkle Wälder und spärlich beleuchtete Häuser mit kleinen Fenstern. Wenn das Feuer im Kamin brennt, dann muss es eine der Hauptlichtquellen sein - alles im Halbdunkel, aber eben doch nicht in völliger Dunkelheit. Das bekomme ich mit einer VariCam hin. (Kubrick hätte sich darüber gefreut - Barry Lyndon.)



Antwort von Jott:

Das Schöne an solchen Threads: man merkt, wer wirklich
produziert und wer nur schwadroniert! :-)



Antwort von iasi:

Das Schöne an solchen Threads: man merkt, wer wirklich
produziert und wer nur schwadroniert! :-)

ja - man merkt, wer "raus geht und dreht" und wer sich vorher überlegt, was er wie filmt.

Ein Hitchcock hatte einen Film schon bis ins Detail "schwadroniert", bevor er dann mit dem Dreh beginnen musste.
Filmsprachliche Mittel nutzt man nicht aus, wenn man erst am Rednerpult überlegt, wie man sagen will, was einem grob vorschwebt.

Nicht umsonst unterscheidet man geschriebene von gesprochener Sprache.
Leider wird beim Film eben viel zu viel aus dem Stehgreif dahergeplappert - das hat wohl auch die digitale Kameratechnik mit sich gebracht.



Antwort von wp:

genau, deswegen hatten wir dich ja wiederholt nach Beispielbildern gefragt...



Antwort von iasi:

genau, deswegen hatten wir dich ja wiederholt nach Beispielbildern gefragt...

Weswegen?

Ein Bild zeigt also, wie die filmsprachlichen Mittel eingesetzt wurden, um damit eine Aussage oder Wirkung zu erzielen?
Echt jetzt?

Film bietet derart viele Ausdrucksmittel - eine enorm reiche Sprache - die Meisterschaft ist doch gerade, einen möglichst großen Wortschatz auch aktiv nutzen zu können.

Nach einem emotionsgeladenen Dialog dreht sich die Person zum Fenster, die ihre Gefühle hinter einem ausdruckslosen Gesichtsausdruck zu verbergen versteht. Er muss und wird eine Entscheidung treffen. Regentropfen laufen die Scheiben herunter - das Licht wirft die Schatten der Tropfen auf sein Gesicht - wie Tränen ... Dies stellt die Frage in den Raum: Spiegelt dies seine Emotionen wider? Dadurch wird dann die Erwartung nochmals unterstrichen und verstärkt, wie er nun wohl reagieren und entscheiden wird.

Du kannst Bilder nicht aus dem Kontext reißen.



Antwort von nic:

genau, deswegen hatten wir dich ja wiederholt nach Beispielbildern gefragt...

Weswegen?

Ein Bild zeigt also, wie die filmsprachlichen Mittel eingesetzt wurden, um damit eine Aussage oder Wirkung zu erzielen?
Echt jetzt?

Film bietet derart viele Ausdrucksmittel - eine enorm reiche Sprache - die Meisterschaft ist doch gerade, einen möglichst großen Wortschatz auch aktiv nutzen zu können.

Nach einem emotionsgeladenen Dialog dreht sich die Person zum Fenster, die ihre Gefühle hinter einem ausdruckslosen Gesichtsausdruck zu verbergen versteht. Er muss und wird eine Entscheidung treffen. Regentropfen laufen die Scheiben herunter - das Licht wirft die Schatten der Tropfen auf sein Gesicht - wie Tränen ... Dies stellt die Frage in den Raum: Spiegelt dies seine Emotionen wider? Dadurch wird dann die Erwartung nochmals unterstrichen und verstärkt, wie er nun wohl reagieren und entscheiden wird.

Du kannst Bilder nicht aus dem Kontext reißen.

Hast du überhaupt schon mal einen Film gedreht?



Antwort von iasi:

genau, deswegen hatten wir dich ja wiederholt nach Beispielbildern gefragt...

Weswegen?

Ein Bild zeigt also, wie die filmsprachlichen Mittel eingesetzt wurden, um damit eine Aussage oder Wirkung zu erzielen?
Echt jetzt?

Film bietet derart viele Ausdrucksmittel - eine enorm reiche Sprache - die Meisterschaft ist doch gerade, einen möglichst großen Wortschatz auch aktiv nutzen zu können.

Nach einem emotionsgeladenen Dialog dreht sich die Person zum Fenster, die ihre Gefühle hinter einem ausdruckslosen Gesichtsausdruck zu verbergen versteht. Er muss und wird eine Entscheidung treffen. Regentropfen laufen die Scheiben herunter - das Licht wirft die Schatten der Tropfen auf sein Gesicht - wie Tränen ... Dies stellt die Frage in den Raum: Spiegelt dies seine Emotionen wider? Dadurch wird dann die Erwartung nochmals unterstrichen und verstärkt, wie er nun wohl reagieren und entscheiden wird.

Du kannst Bilder nicht aus dem Kontext reißen.

Hast du überhaupt schon mal einen Film gedreht?

Ach so - ich soll mal wieder etwas beweisen.
Von dir hab ich aber noch nicht wirklich viel gelesen, das mich dazu motivieren würde.

Ich will nicht irgendwelche Videos von dir sehen - das bringt mir nichts und dir nichts. Denn was könnten sie zu dieser Diskussion und diesem Thema beitragen?
Wenn dir danach ist, starte ein neues Thema mit einem Link zu deinem Film und lass dann darüber diskutieren - ich halte von so etwas nicht viel.
Diskutieren sollte man im Vorfeld - in der Vorbereitung ...



Antwort von nic:

genau, deswegen hatten wir dich ja wiederholt nach Beispielbildern gefragt...

Weswegen?

Ein Bild zeigt also, wie die filmsprachlichen Mittel eingesetzt wurden, um damit eine Aussage oder Wirkung zu erzielen?
Echt jetzt?

Film bietet derart viele Ausdrucksmittel - eine enorm reiche Sprache - die Meisterschaft ist doch gerade, einen möglichst großen Wortschatz auch aktiv nutzen zu können.

Nach einem emotionsgeladenen Dialog dreht sich die Person zum Fenster, die ihre Gefühle hinter einem ausdruckslosen Gesichtsausdruck zu verbergen versteht. Er muss und wird eine Entscheidung treffen. Regentropfen laufen die Scheiben herunter - das Licht wirft die Schatten der Tropfen auf sein Gesicht - wie Tränen ... Dies stellt die Frage in den Raum: Spiegelt dies seine Emotionen wider? Dadurch wird dann die Erwartung nochmals unterstrichen und verstärkt, wie er nun wohl reagieren und entscheiden wird.

Du kannst Bilder nicht aus dem Kontext reißen.

Hast du überhaupt schon mal einen Film gedreht?

Ach so - ich soll mal wieder etwas beweisen.
Von dir hab ich aber noch nicht wirklich viel gelesen, das mich dazu motivieren würde.

Ich will nicht irgendwelche Videos von dir sehen - das bringt mir nichts und dir nichts. Denn was könnten sie zu dieser Diskussion und diesem Thema beitragen?
Wenn dir danach ist, starte ein neues Thema mit einem Link zu deinem Film und lass dann darüber diskutieren - ich halte von so etwas nicht viel.
Diskutieren sollte man im Vorfeld - in der Vorbereitung ...

Das war eine ernst gemeinte Frage. Sie kam mir so in den Sinn, als ich deinen Beitrag gelesen habe. Ein simples "Ja" oder "Nein" reicht mir als Antwort.



Antwort von Valentino:

Ich habe schon ein Kurzfilm gesehen, bei dem er als DoP mitgearbeitet hat.
Vom Handwerk her war dieser recht gelungen, das Thema "Altersheim" hat mir aber nicht so gefallen.



Antwort von iasi:

genau, deswegen hatten wir dich ja wiederholt nach Beispielbildern gefragt...

Weswegen?

Ein Bild zeigt also, wie die filmsprachlichen Mittel eingesetzt wurden, um damit eine Aussage oder Wirkung zu erzielen?
Echt jetzt?

Film bietet derart viele Ausdrucksmittel - eine enorm reiche Sprache - die Meisterschaft ist doch gerade, einen möglichst großen Wortschatz auch aktiv nutzen zu können.

Nach einem emotionsgeladenen Dialog dreht sich die Person zum Fenster, die ihre Gefühle hinter einem ausdruckslosen Gesichtsausdruck zu verbergen versteht. Er muss und wird eine Entscheidung treffen. Regentropfen laufen die Scheiben herunter - das Licht wirft die Schatten der Tropfen auf sein Gesicht - wie Tränen ... Dies stellt die Frage in den Raum: Spiegelt dies seine Emotionen wider? Dadurch wird dann die Erwartung nochmals unterstrichen und verstärkt, wie er nun wohl reagieren und entscheiden wird.

Du kannst Bilder nicht aus dem Kontext reißen.

Hast du überhaupt schon mal einen Film gedreht?

Ach so - ich soll mal wieder etwas beweisen.
Von dir hab ich aber noch nicht wirklich viel gelesen, das mich dazu motivieren würde.

Ich will nicht irgendwelche Videos von dir sehen - das bringt mir nichts und dir nichts. Denn was könnten sie zu dieser Diskussion und diesem Thema beitragen?
Wenn dir danach ist, starte ein neues Thema mit einem Link zu deinem Film und lass dann darüber diskutieren - ich halte von so etwas nicht viel.
Diskutieren sollte man im Vorfeld - in der Vorbereitung ...

Das war eine ernst gemeinte Frage. Sie kam mir so in den Sinn, als ich deinen Beitrag gelesen habe. Ein simples "Ja" oder "Nein" reicht mir als Antwort.

Blick zurück bringt nur im Hinblick darauf etwas, Dinge in Zukunft noch besser zu machen.

Planung und Vorbereitung ist alles - dann braucht es z.B. während des Drehs auch keinen Technikfuhrpark.
Ich hatte ein Projekt in Vorbereitung, bei dem ich nur vorhandenes Licht einsetzen wollte und eben auch in einem Haus eines Freilichtmuseums drehen wollte. Tolle Lichtstimmung - aber eben auch verdammt wenig Licht in den Räumen. Die Wände eher dunkel, die Fenster sehr klein und ohne Klarglas.
Damals gab"s u.a. von Red nur die MX. Nach meinen Messungen und Tests war schnell klar, dass das mit einer MX oder auch Alexa sehr sehr schwierig würde.
Ich wollte auch nicht extreme WW nutzen, was den Spielraum bei der BlendenöffnungBlendenöffnung im Glossar erklärt auch begrenzte. Die Räume waren klein, der Abstand zur Kamera wäre gering gewesen, was bei offener BlendeBlende im Glossar erklärt schnell zu einer extrem geringen Schärfentiefe geführt hätte.
Die VariCam scheint die richtige Kamera für solch ein Projekt. Mit ISO5000 wären die Innenaufnahmen zu machen. Eventuell müsste ich bei der Belichtungszeit auch mal auf 360° gehen, aber die Aufnahmen wären machbar.
Andererseits sind für die Außenaufnahmen die ISO800 in Ordnung.

Doku-Sachen sind wiederum eine ganz andere Herausforderung - hier setze ich immer auf den DR der Kamera und eben auf Raw. Blick auf"s HistogrammHistogramm im Glossar erklärt muss genügen - mit mehr will ich mich während einer Aufnahmesituation, die ich nicht beeinflussen will, nicht auseinandersetzen. Denn es gilt: Die Leute müssen agieren, als sei die Kamera nicht da.
Natürlich sind auch hier dann die 2 Basiswerte ISO800 und IOS5000 von Vorteil.



Antwort von wp:

/OT
Wenn's gelingt diesem Herrn iasi ein Würmchen aus der Nase zu ziehen sind's oft vortreffliche Beispiele.
So ging's einmal um die Macht von kristallscharfem 4k (und selbstredend raw) und dies wurde - leider abstrakt - anhand einer Szene eines frisch geschlachteten Schweines im Morgenlicht bei Frost diskutiert.
Was soll ich sagen: iasi hatte recht! Das wurde mir nämlich gut ein Jahr später klar, als ich plötzlich mit dieser Sequenz überrascht wurde... Da hätte man deutlich mehr herausholen sollen, eigentlich war es sogar schon die Vorwegnahme der eigentlichen "Fressen"-Metapher des Films... aber irgendwie hat man das nicht recht hinbekommen, eigentlich leider halb vergeigt. (ich denke, der Kameramann hatte sich a) geekelt oder b) war völlig vom Dampf überrascht und c) ein zweites Schwein war wohl gerade nicht verfügbar. *lach* )
Außerdem verdanke ich iasi sozusagen den "Leviathan" (2014) (im OT, die dt. Synchro ist grottigst)
:-)


zur Cam: beeindruckend. bisschen nach(t)träglich nach(t)gedunkelt, aber rockt.
.

ich hab noch weiter nach footage gesucht: sieht alles gut aus.



Antwort von iasi:



zur Cam: beeindruckend. bisschen nach(t)träglich nach(t)gedunkelt, aber rockt.
.

ich hab noch weiter nach footage gesucht: sieht alles gut aus.

Ich diskutiere viel und gern mit WoWu - er hatte die Vorzüge des VariCam-Dual-ISO sehr überzeugend erläutert.
Die Aufnahmen bestätigen ihn.

Ich mag Red-Kameras, aber für Projekte mit hohem LowLight-Anteil, scheint die VariCam vielleicht die bessere Wahl. Das müsste man dann testen.

PS: Die Red-Leute werden nun anführen, dass Dragon und Helium auch bei starker Unterbelichtung (alles nur links im Histogramm) noch gute Ergebnisse liefern - aber hier gilt: Das Bessere ist der Feind des Guten.



Antwort von Frank Glencairn:

Ich geb ja iasi nur ungerne recht, aber hier hat er einen Punkt.



Antwort von nic:

Ich geb ja iasi nur ungerne recht, aber hier hat er einen Punkt.

Das sind Offensichtlichkeiten... und auf der Stufe erübrigt sich auch jede Diskussion...



Antwort von iasi:

Ich geb ja iasi nur ungerne recht, aber hier hat er einen Punkt.

Das sind Offensichtlichkeiten... und auf der Stufe erübrigt sich auch jede Diskussion...

Offensichtlich oder nicht - das ist schon auch wichtig, bei der Einschätzung einer Kamera.

Es geht ja immer darum, welche Kamera die geeignetste ist. Die eierlegende Wollmilchsau gibt"s eben auch bei den Kameras nicht.

Vor- und Nachteile abwägen.



Antwort von nic:

Ich geb ja iasi nur ungerne recht, aber hier hat er einen Punkt.

Das sind Offensichtlichkeiten... und auf der Stufe erübrigt sich auch jede Diskussion...

Offensichtlich oder nicht - das ist schon auch wichtig, bei der Einschätzung einer Kamera.

Es geht ja immer darum, welche Kamera die geeignetste ist. Die eierlegende Wollmilchsau gibt"s eben auch bei den Kameras nicht.

Vor- und Nachteile abwägen.

Das ist, als diskutiere man, ob ein Allradantrieb Vorteile im Gelände bringen würde...



Antwort von mash_gh4:

darin, dass diese kamera einiges zu bieten hat, das tlw. weit über die möglichkeiten einfacherer günstigerer lösungen hinausgeht, gibt's vermutlich ohnehin keinen zweifel, trotzdem finde ich seltsam, dass selbst hier, wo ja speziell die RAW charakteristiken diskutiert werden, kein wort darüber fällt, welche neunen probleme sich durch die "dual nativ ISO" technologie in der aufbereitung der sensor daten stellen.

ich bin mir noch immer nicht ganz im klaren darüber, ob das beim vorliegenden sensor in ähnlicher weise gehandhabt wird wie bei bei den CMOSIS dual gain/exposure sensoren. dort hat es nämlich, ganz ähnlich wie bei MagicLantern dual ISO aufnahmen, auch wenn letztere sich nicht auf derartige spezielle voraussetzung in der analogen signalaufbereitung am senser stützen, zur folge, dass man man RAW ausgangsdaten konfrontiert wird, die sich von traditionellem sensoroutput deutlich unterscheiden. die sich daraus ergebenede problematik, dass man das zeug nur mehr mit sehr wenigen proprietären softwarelösungen aufbereiten kann, scheint mir leider nicht völlig vernachlässigbar. RAW entwicklung ist zwar immer ein bisserl problematisch, weil hier jeder hersteller gerne sein eigenes süppchen kocht, aber trotzdem muss man sich halt auch über derartige fragen den kopf zerbrechen, wenn man einigermaßen vernünftig darüber urteilen will.



Antwort von iasi:

so weit ich das verstanden habe, setzt die VariCam-Lösung schon bei der Signalverstärkung der Sensordaten an. Man bekommt also "native" ISO800-Raw und ISO5000-Raw - es werden also nicht "einfach" die Raw-Daten hochgezogen.
Das ist dann wohl so, wie ein ISO1600-Negativ zu einem auf ISO1600 gepushten ISO400-Negativ.
Die VariCam hat sozusagen zwei Negative drin - ISO800 und ISO5000.



Antwort von mash_gh4:

ja -- prinzipiell ist die sache mit den zwei analogen arbeitsmodi ohnehin einigermaßen nachvollziehbar. wirklich spannend ist die sache aber deswegen, weil das für alle pixel unabhängig zu funktionieren scheint. du erhältst also in den RAW-daten vermutlich werte, die aus beiden zuständen stammen können. das ist zwar ein bisserl anders als bei CMOSIS, wo man nur die empfindlichkeit ganzer zeilen abwechselnd unterscheidlich konfiguriert, aber vermutlich hat es trotzdem die selben folgen, nämlich das man die werte in etwas komplizierter weise interpretieren muss, um diesen besonderheiten rechnung zu tragen. wie gesagt, das macht natürlich alles durchaus sinn, nur wird's damit halt alles auch gleich wieder ein bisserl komplizierter als wenn man nur eine mehr oder weniger linieare kennlinie und ein simples bayer pattern berücksichten muss. und da wird's dann halt vor allem auch wieder eine frage der verfügbaren softwarelösungen...




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Panasonic VariCam LT 5.5 Update mit 240p Raw Output u.v.m.
VariCam LT 5.0 Firmware und erste VariCam Pure Raw Footage
Firmware-Update: Externes RAW-Recording für VariCam LT // IBC 2016
Panasonic VariCam LT -- mobile 4K S35-Variante der Varicam 35
Firmware-Updates für Panasonic VariCam LT und Sony F55/F5 // NAB 2017
Panasonic bringt neue Raw-only Varicam raus
Panasonic VariCam LT Firmware Upgrade 6.0 mit Live Funktionen angekündigt
CODEX liefert V-RAW Recorder Modul für Panasonic Varicam 35 aus
Panasonic VariCam LT Firmware 8.0 bringt Support für Hybrid Log Gamma
Panasonic Pro stellt VariCam 35 und HS Simulatoren vor
AtomOS 8.4 - (noch mehr) HDR und Goodies für die Varicam LT
Panasonic stellt Varicam LT Kits vor und senkt Preise für Express P2 K
Panasonic stellt kostenlose LUT Library für VariCam und EVA1 Cine Kameras zur Verfügung
Varicam 35: First Look
Panasonic VariCam LT
Panasonic VariCam ganz modular
Scarlet vs Varicam Dynamic Test
Panasonic Varicam LT Preissenkung - 9.995,-U$
Panasonic VariCam LT um 5.500 Euro billiger
Apple MacBook Pro 2018 im 4K Schnitt Performance Test: ARRI, RED, VariCam Material in FCPX, Premiere Pro und Resolve
Panasonic Varicam 35 - Framerates & zugehörige Codecs
Tatort "Zorn Gottes" am 20.03. mit VariCam 35 gedreht
Kurznews: GH4 mit Varicam V-Log Picture Profile
Panasonic kündigt "kleine" Cine-Kamera an: VariCam "Mini" im Anflug // NAB 2017
Shootout Dynamikumfang: Sony F65, ARRI Alexa, RED Dragon, Varicam 35, Canon
Das neue 15" MacBook Pro im 4K Performance-Check mit ARRI, RED, VariCam LT

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen