Logo Logo
/// 

Komodo - C70 - ZCam F6 - BMPCC 6K Pro - FX6



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Frage von klusterdegenerierung:


Tolle Gegenüberstellung, sehenswert und gut gemacht.

https://www.youtube.com/watch?v=MyoRpzDe2QA



Antwort von iasi:

klusterdegenerierung hat geschrieben:
Tolle Gegenüberstellung, sehenswert und gut gemacht.

https://www.youtube.com/watch?v=MyoRpzDe2QA
Das ist wieder so ein Videofilmer-Test.

Da fehlt wieder einmal die eigentlich wichtigste Frage:
Wieviel Farben liefert die Kamera?

Also in wie vielen Farbabstufungen bekommt man den Hautton.
Wie viel Rot ist denn z.B. auch bei einer miesen Lichtsituation mit engem Farbspektrum im Material vorhanden? Und eben so abgestuft, dass man es auch nutzen kann ohne dass es die Farbe beim Grading zerreisst.



Antwort von Darth Schneider:

Wieso ?
Die Anzahl Farben steht doch in den Camera Specs.
Ich denke einfach mit Raw Kameras und Vergleichen mit nicht RAW Kameras sind es doch eher schwierig. Und andererseits frage ich mich ob es heute solche YouTube Vergleiche eigentlich wirklich noch braucht ?
SlashCAM und Co, testet doch viel professioneller, ausserdem, mehr als gut genug sind alle die verglichenen Kameras doch so oder so.
Die Unterschiede zwischen der Bildqualität der Cams werden immer kleiner, also belangloser…
Gruss Boris








Antwort von iasi:

"Darth Schneider" hat geschrieben:
Wieso ?
Die Anzahl Farben steht doch in den Camera Specs.
Ich denke einfach mit Raw Kameras und Vergleichen mit nicht RAW Kameras sind es doch eher schwierig. Und andererseits frage ich mich ob es heute solche YouTube Vergleiche eigentlich wirklich noch braucht ?
SlashCAM und Co, testet doch viel professioneller, ausserdem, mehr als gut genug sind alle die verglichenen Kameras doch so oder so.
Die Unterschiede zwischen der Bildqualität der Cams werden immer kleiner, also belangloser…
Gruss Boris
In den Specs steht doch nicht, wie sehr man das Material gestalten kann, bevor die Farbübergänge abreissen.
Du kannst nun einmal die Raw Aufnahmen von Arri, Red oder den Sony Venice weit mehr durchkneten ohne dass der Knet zerbröckelt.
Der Hautton lässt sich dann eben in höherem Maße verändern und anpassen, als bei Kameras, die "weniger Farben" bieten.

Messerschmidt drehte und testete die DJI 4D eben auch gezielt bei Neonlicht mit engem Spektralband, um zu sehen, wie weit er die Hauttöne zurückholen konnte.

Schau dir doch auch Szenen mit einfarbigen Lichtquellen an. Hier zeigt sich was die Kamera leistet - und natürlich auch das Wiedergabeformat.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Das ist wieder so ein Videofilmer-Test.




Antwort von klusterdegenerierung:

Was macht man denn am Ende mit dem Material jeder dieser Kameras?
Man verarbeitet es oder lässt es verarbeiten, genau das wurde hier gemacht und genau das ist das was in meinen Augen am meißten Sinn macht, denn ein Fachmann kann genau sagen, wie gut oder schwierig man mit dem Material klar kommt und wie weit man damit gehen kann!

Was nutzt mir irgendein Raw Test oder log welches bleibt wie es ist, oder macht ein Häckchen fürs highlightclipping oder filmt einen Graukeil.
Am Ende sieht es zwar professionell aus, sagt aber doch garnix.

Am meißten können doch Coloristen bzw Cutter zu dem Meterial sagen, denn die wissen genau wie weit sie dieses Material verbiegen können ohne das es reißt und wenn dann noch die useability passt, na dann hat man doch alles was man wissen muß und ganu das ist in diesem wirklich guten Test ohne cinematic Allüren passiert!



Antwort von Darth Schneider:

Ich würde mich eh ganz klar für die Sony FX6 entscheiden, ganz egal auch wenn jetzt die andere Cam 2% schöner filmen würde.
Aber halt mehr wegen dem Gesamtpaket, und nicht zuletzt auch dem Formfaktor.
Gruss Boris



Antwort von klusterdegenerierung:

Ich finde ja das die Pocket echt klasse abgeschnitten hat und im Log grade sehr neutral aussah.
Auch finde ich sie vom Preis und Anschlüßen eine echt gelungene Cam, mich stört aber immer noch der Formfaktor, das fehlen eines potenten AFs, und das EF Bajonett, weil nur noch E Optiken.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
Was macht man denn am Ende mit dem Material jeder dieser Kameras?
Man verarbeitet es oder lässt es verarbeiten, genau das wurde hier gemacht und genau das ist das was in meinen Augen am meißten Sinn macht, denn ein Fachmann kann genau sagen, wie gut oder schwierig man mit dem Material klar kommt und wie weit man damit gehen kann!

Was nutzt mir irgendein Raw Test oder log welches bleibt wie es ist, oder macht ein Häckchen fürs highlightclipping oder filmt einen Graukeil.
Am Ende sieht es zwar professionell aus, sagt aber doch garnix.

Am meißten können doch Coloristen bzw Cutter zu dem Meterial sagen, denn die wissen genau wie weit sie dieses Material verbiegen können ohne das es reißt und wenn dann noch die useability passt, na dann hat man doch alles was man wissen muß und ganu das ist in diesem wirklich guten Test ohne cinematic Allüren passiert!
So redet eben ein Videofilmer, der LUT drüberhaut und erwartet, dass perfekte Hautfarben dabei rauskommen, ganz egal unter welchen Lichtverhältnissen er gefilmt hat.

Früher hatte jeder Kameramann Negative immer in Verbindung mit Entwicklungsverfahren getestet, bevor der eigentlich Dreh began.
Heute meint man, das Vorschaubild auf dem Monitor müsse schon das fertige Endergebnis zeigen.

Wenn man eine Raw-Kamera testet, gehört es einfach dazu, dass man die Grenzen des Material auch austestet. Was früher in Zusammenarbeit mit den Entwicklungslabors geschah, das muss eben heute mit dem Grading geschehen.

Einfach die "Filmentwicklung" auszublenden, macht einen Kameratest schlicht überflüssig, was die Bildqualität betrifft.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
So redet eben ein Videofilmer, der LUT drüberhaut und erwartet, dass perfekte Hautfarben dabei rauskommen, ganz egal unter welche Lichtverhältnissen er gefilmt hat.

Früher hatte jeder Kameramann auch Negative und Entwicklungsverfahren getestet, bevor der eigentlich Dreh began.
Heute meint man, das Vorschaubild auf dem Monitor müsse schon das fertige Endergebnis zeigen.

Wenn man eine Raw-Kamera testet, gehört es einfach dazu, dass man die Grenzen des Material auch austestet. Was früher in Zusammenarbeit mit den Entwicklungslabors geschah, das muss eben heute mit dem Grading geschehen.

Einfach die "Filmentwicklung" auszublenden, macht einen Kameratest schlicht überflüssig, was die Bildqualität betrifft.
Meinst Du mit Videofilmer und lut drüber legen mich?
Ich bin weder Videofilmer, noch lege ich luts drauf, aber so kann auch nur jemand reden der seit Jahren einer Marke hinterherrennt die er nicht sein eigen nennen kann und mit dem alltäglich Arbeiten nichts am Hut hat und in einer Traumblase lebt.

Für Dich gibt es nur RED, egal in welchem Fachbereich man tätig ist und eine RED mit ihrem ganze Addon gebimbels null Sinn machen würde, Du bist immer noch von einer Markenphilosophie verblendet und kennst dich scheinbar mit dem täglichen Arbeitsgeschehen null aus!

Ach vergessen, hier wurden keine "Raw Kameras" getestet, sondern Kameras, die auch raw können, wobei es im dem Test nicht um Raw und dessen Verarbeitung ging.
Du solltest Dir den Test also mal wirklich genau und ganz ansehen, dann kannst Du auch mitreden und es kommt nicht immer zu diesen Missverständnissen und anschuldigungen, Du Garnixfilmer ;-))



Antwort von Jott:

Warum produzierst du, Iasi, eigentlich keine Kameratests? Das jahrelange (jahrzehntelange?) Specs-Lesen und Abwägen und Kritisieren und Verwerfen ist doch deine absolute Wohlfühlzone.

Da du scheinbar sonst nichts zu tun hast, wäre das doch echt mal was. Gewürzt mit den sattsam bekannten Anekdoten aus der Filmgeschichte. Du kannst vor viel größerem Publikum gegen "Videofilmer" wettern.

Da YouTube sogar 8K spielen kann, steht einem profunden Cine-Kameravergleich mit deiner Expertise nichts im Wege. Eine Rauskitzeldemo "raw gegen durch" wäre ein logisches Sequel.

Aber ich weiß schon, woran die Idee scheitern muss: es gibt keine adäquate Kamera auf dem Markt, mit der du dich als Moderator aufnehmen könntest.



Antwort von iasi:

Jott hat geschrieben:
Warum produzierst du, Iasi, eigentlich keine Kameratests? Das jahrelange (jahrzehntelange) Specs-Lesen und Abwägen und Kritisieren und Verwerfen ist doch deine absolute Wohlfühlzone.

Da du scheinbar sonst nichts zu tun hast, wäre das doch echt mal was. Gewürzt mit den sattsam bekannten Anekdoten aus der Filmgeschichte.

Da YouTube sogar 8K spielen kann, steht einem profunden Cine-Kameravergleich mit deiner Expertise nichts im Wege. Eine Rauskitzeldemo "raw gegen durch" wäre ein logisches Sequel.

Aber ich weiß schon, woran die Idee scheitern muss: es gibt keine adäquate Kamera auf dem Markt, mit der du dich als Moderator aufnehmen könntest.
Ich bin kein Youtuber - und ich will es auch nicht sein.
Und den youtube-Videos mangelt es sowieso an Farbe.

Meine Tests mache ich für meine Projekte.
Und ich kann dir sagen: Das Material einer Red oder einer anderen Cine-Cam, die nicht nur den Namen führt, ist hervorragend.
Arri geht hier sogar noch weniger Kompromisse ein, als Red.
Fast schon bedauerlich ist ja z.B. auch, dass das 16bit-Raw, welches die Sony A7S3 ausgibt, noch ziemlich ungenutzt bleibt.

Man kann eben auch aus dem Fotobereich lernen:
Dort rümpft man bei 12bit-Raw-Aufnahmen schon ein wenig die Nase.
Warum wohl?








Antwort von andieymi:

iasi hat geschrieben:
Fast schon bedauerlich ist ja z.B. auch, dass das 16bit-Raw, welches die Sony A7S3 ausgibt, noch ziemlich ungenutzt bleibt.
Moment, was? Welcher 16-Bit oder Dual 14-Bit A/-DKonverter soll das sein, mit dem die Mühle auf 16Bit-Raw kommt? Das schafft die doch nicht mal bei Fotos. Da sinds bei Sony immer 14-Bit.

Oder meinst Du, dass Sony da 16-Bit draufschreibt, egal was drin ist?



Antwort von klusterdegenerierung:

andieymi hat geschrieben:
Das schafft die doch nicht mal bei Fotos. Da sinds bei Sony immer 14-Bit.
Manche Leute hier sind ziemlich durch, Raw Fotos 14Bit, man oh man oh man.



Antwort von iasi:

andieymi hat geschrieben:
iasi hat geschrieben:
Fast schon bedauerlich ist ja z.B. auch, dass das 16bit-Raw, welches die Sony A7S3 ausgibt, noch ziemlich ungenutzt bleibt.
Moment, was? Welcher 16-Bit oder Dual 14-Bit A/-DKonverter soll das sein, mit dem die Mühle auf 16Bit-Raw kommt? Das schafft die doch nicht mal bei Fotos. Da sinds bei Sony immer 14-Bit.

Oder meinst Du, dass Sony da 16-Bit draufschreibt, egal was drin ist?
Am HDMIHDMI im Glossar erklärt liefert die Kamera 16bit - so die Specs der Kamera.
Wenn du die Aussage von Sony anzweifelst, dann musst du mit denen diskutieren.

Oder sag z.B. auch ihm und all den anderen, die so etwas schreiben, dass sie falsch liegen:

The 16-bit linear Raw video output of the a7S III is sent via HDMI

https://www.dpreview.com/news/932761644 ... r-recorder



Antwort von iasi:

klusterdegenerierung hat geschrieben:
andieymi hat geschrieben:
Das schafft die doch nicht mal bei Fotos. Da sinds bei Sony immer 14-Bit.
Manche Leute hier sind ziemlich durch, Raw Fotos 14Bit, man oh man oh man.
Diese Leute nehmen dann eben auch eine, die z.B. so etwas bietet:

https://pro.sony/de_DE/technology/recor ... ology-xocn

Währenddessen denken Videofilmer mit einer ZCam F6 und ihren internen 10bit eine Cine-Cam in der Hand zu halten.

Red erzählt hier etwas über Red-Raw:

https://www.youtube.com/watch?v=fgaQF8nXLWg&t=57s

Und Arri?

https://www.arri.com/en/learn-help/lear ... dion-44240



Antwort von Darth Schneider:

Schau mal im Kino.
Bei Arri gibt es nix zu plappern nur zum staunen..;)
Gruss Boris



Antwort von Mantas:

iasi hat geschrieben:

The 16-bit linear Raw video output of the a7S III is sent via HDMI
Würde mich in der Tat interessieren ob sie das auch wirklich tut oder nur ein Container ist. Gab es da neue Erkenntnisse?

Genauso wie 4:4:44:4:4 im Glossar erklärt aus einer Bayer Kamera, das FormatFormat im Glossar erklärt ist da, der Inhalt nicht.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Währenddessen denken Videofilmer mit einer ZCam F6 und ihren internen 10bit eine Cine-Cam in der Hand zu halten.
Sag mal liest Du Dir eigentlich überhaupt irgendwas ganz durch und muß man Dir den Inhalt jetzt tatsächlich jedesmal wiederkauen?
Der Dude hat doch geschrieben das die Sonys weder 16Bit Raw Film noch Foto ausgeben, was belegbar totaler nonsens ist.

Weswegen sollte ich mir dann eine Venice anschauen, die garkeine Fotos schiessen kann und was hat das mit einer ZCam zu tun von der ich nie geredet habe?
Trinke doch mal Kamile statt Whisky, vielleicht wird das dann endlich besser, das ist ja schon patologisch!



Antwort von Clemens Schiesko:

klusterdegenerierung hat geschrieben:
andieymi hat geschrieben:
Das schafft die doch nicht mal bei Fotos. Da sinds bei Sony immer 14-Bit.
Manche Leute hier sind ziemlich durch, Raw Fotos 14Bit, man oh man oh man.
Da hat er aber nicht unrecht. Die meisten, so auch die a7s III, nehmen Raw Fotos ins 14 BitBit im Glossar erklärt auf.
Dein Screenshot zeigt die Audiobitrate (oder irgendeine andere fehlinterpretierte Information).



Antwort von klusterdegenerierung:

"Clemens Schiesko" hat geschrieben:
klusterdegenerierung hat geschrieben:

Manche Leute hier sind ziemlich durch, Raw Fotos 14Bit, man oh man oh man.
Da hat er aber nicht unrecht. Die meisten, so auch die a7s III, nehmen Raw Fotos ins 14 BitBit im Glossar erklärt auf.
Dein Screenshot zeigt die Audiobitrate (oder irgendeine andere fehlinterpretierte Information).
Holy!
Seit Jahren schiesst jeder Fotograf 16Bit Rat Dateien und nu sind sie 14Bit, ich fasse es nicht!
Chemtrail lässt grüßen, wird immer absurder hier!








Antwort von Alex:

Also ich habe mich noch nie damit beschäftigt in welcher Bit-Tiefe die A7* III Fotos aufnimmt, Google gibt mir Folgendes: https://www.sony.de/electronics/support ... s/00229990



Antwort von klusterdegenerierung:

internal 16-bit AD read out and a 14-bit data transfer to the Boinz-X processor - which is not part of the sensor.



Antwort von Clemens Schiesko:

klusterdegenerierung hat geschrieben:
internal 16-bit AD read out and a 14-bit data transfer to the Boinz-X processor - which is not part of the sensor.
Na da hast Du es doch. Ist ein wenig so wie einen 32bit Audiorecoder an die Kamera zu klinken und zu hoffen, dass sich dann auch 32bit im Video-Container befinden.



Antwort von iasi:

Mantas hat geschrieben:
iasi hat geschrieben:

The 16-bit linear Raw video output of the a7S III is sent via HDMI
Würde mich in der Tat interessieren ob sie das auch wirklich tut oder nur ein Container ist. Gab es da neue Erkenntnisse?

Genauso wie 4:4:44:4:4 im Glossar erklärt aus einer Bayer Kamera, das FormatFormat im Glossar erklärt ist da, der Inhalt nicht.
Bisher nutzt ja leider erst der Ninja mit seinem ProResProRes im Glossar erklärt Raw-Format diese Ausgabe.

Ich würde es auch nicht nur an der Bitrate festmachen wollen, denn Arri-Raw hat auch "nur" 12bit, aber dafür eben unkomprimiertes und "echtes".

Ich hab noch meine BMCC mit ihrem 2.4k-Sensor, der nicht unbedingt zum Besten auf dem Markt gehört. Aber auch die BMCC schreibt unkomprimiertes Raw weg und hebt die Kamera dadurch noch immer über so manche 10bit-Cam.



Antwort von iasi:

"Clemens Schiesko" hat geschrieben:
klusterdegenerierung hat geschrieben:
internal 16-bit AD read out and a 14-bit data transfer to the Boinz-X processor - which is not part of the sensor.
Na da hast Du es doch. Ist ein wenig so wie einen 32bit Audiorecoder an die Kamera zu klinken und zu hoffen, dass sich dann auch 32bit im Video-Container befinden.
Wobei wir die Zahlen doch auch richtig interpretieren sollten.
14bit bieten nun einmal auch schon reichlich Farbabstufungen. :)



Antwort von klusterdegenerierung:

So läuft es ja momentan mit dem ProResProRes im Glossar erklärt Raw via Shogun auch, 16Bit gehen rein, Shogun kann aber nur 14Bit, der Sony Recorder kann ja angeblich 16.



Antwort von Mantas:

klusterdegenerierung hat geschrieben:
So läuft es ja momentan mit dem ProResProRes im Glossar erklärt Raw via Shogun auch, 16Bit gehen rein, Shogun kann aber nur 14Bit, der Sony Recorder kann ja angeblich 16.
shogun 12 bit log oder nicht?

Sony recorder, meinst du den AXS? Der wird an Mühlen angeschlossen die es auch können.



Antwort von klusterdegenerierung:

ne dieser RX oder wie der heißt.



Antwort von iasi:

Mantas hat geschrieben:
klusterdegenerierung hat geschrieben:
So läuft es ja momentan mit dem ProResProRes im Glossar erklärt Raw via Shogun auch, 16Bit gehen rein, Shogun kann aber nur 14Bit, der Sony Recorder kann ja angeblich 16.
shogun 12 bit log oder nicht?

Sony recorder, meinst du den AXS? Der wird an Mühlen angeschlossen die es auch können.
ProRes Raw kann sowieso nur 12bit.
Zudem ist das sowieso ein - sagen wir mal - "besonderes" Raw-Format








Antwort von pillepalle:

@ iasi

Wieso besonders? Es geht bei RAW um das Demosaicing, das erst im Rechner stattfindet.

VG



Antwort von klusterdegenerierung:

iasi hat geschrieben:
ProRes Raw kann sowieso nur 12bit.
Woher weißt Du das, arbeitest Du damit?
Seriöse Belege bitte!



Antwort von pillepalle:

12 BitBit im Glossar erklärt logharitmisch sind auch nicht wirklich schlechter als 16 bit linear. Im Gegenteil, sogar recht effizient.

VG



Antwort von klusterdegenerierung:

Er vergisst aber immer zu erwähnen, das die FX6 16Bit aufnimmt, der Shogun 7 aber 12Bit lossles Log aufzeichnet, das ist was ganz anderes, als das die FX6 12Bit aufnimmt und schreibt, was ganz anderes!

Ausserdem betont er das doch nur immer, weil er es nicht haben kann, das es neben RED noch andere Raw Cams gibt, die was im Ärmel haben.

Record 16-bit linear RAW

Capture 16-bit linear RAW in a visually lossless 12-bit log Apple ProResProRes im Glossar erklärt RAW format and make maximum use of Sony’s state of the art Exmor R CMOS full-frame 6K image sensor, using a single BNC cable to the camera’s 12G-SDI port.

The recorded 12-bit log format lets you capture 68 billion colour graduations preserving every important detail in your image, while still maintaining practical data rates. The recorded files are extremely clean, preserving the maximum dynamic range, color accuracy and every detail, allowing for greater creativity in post-production with perfect skin tones and easily matched colours, ideal for both HDR and SDR (Rec.709) workflows.

The back-illuminated CMOS image sensor also uses Sony’s Exmor R technology for improved sensitivity and noise reduction, leading to cleaner RAW images.




Antwort von cantsin:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
ProRes Raw kann sowieso nur 12bit.
Woher weißt Du das, arbeitest Du damit?
Seriöse Belege bitte!
"Atomos has announced it’s working alongside Sony to bring ProResProRes im Glossar erklärt RAW recording to its Ninja V monitor/recorder when connected to Sony’s new FX3 Cinema Line camera over HDMI. Although only in development at this point, the update will enable Atomos’ Ninja V monitor/recorder to record the 16-bit Raw output of Sony’s new FX3 Cinema Line camera at 4K60p. There is one caveat, however.

While the FX3 is capable of ouputting 16-bit Raw video over its HDMIHDMI im Glossar erklärt port, the Ninja V can only record ProResProRes im Glossar erklärt RAW at 12-bit, meaning any ProResProRes im Glossar erklärt RAW footage recorded on the Ninja V will be limited to 12-bit. That said, even if it’s only recording at 12-bit, it’s still creating that 12-bit footage using the 16-bit data."


Quelle: https://www.dpreview.com/news/735406938 ... to-the-fx3

Die Lösung des scheinbaren Widerspruchs liegt darin, dass die Kamera 16bit lineare Sensorwerte ausgibt und der Recorder die Werte logarithmisch in 12bit verpackt bzw. verteilt.



Antwort von iasi:

cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:

Woher weißt Du das, arbeitest Du damit?
Seriöse Belege bitte!
"Atomos has announced it’s working alongside Sony to bring ProResProRes im Glossar erklärt RAW recording to its Ninja V monitor/recorder when connected to Sony’s new FX3 Cinema Line camera over HDMI. Although only in development at this point, the update will enable Atomos’ Ninja V monitor/recorder to record the 16-bit Raw output of Sony’s new FX3 Cinema Line camera at 4K60p. There is one caveat, however.

While the FX3 is capable of ouputting 16-bit Raw video over its HDMIHDMI im Glossar erklärt port, the Ninja V can only record ProResProRes im Glossar erklärt RAW at 12-bit, meaning any ProResProRes im Glossar erklärt RAW footage recorded on the Ninja V will be limited to 12-bit. That said, even if it’s only recording at 12-bit, it’s still creating that 12-bit footage using the 16-bit data."


Quelle: https://www.dpreview.com/news/735406938 ... to-the-fx3

Die Lösung des scheinbaren Widerspruchs liegt darin, dass die Kamera 16bit lineare Sensorwerte ausgibt und der Recorder die Werte logarithmisch in 12bit verpackt bzw. verteilt.
Die 12bit wären gar nicht so sehr das Problem, sondern eher was bei ProResProRes im Glossar erklärt Raw sonst noch so alles unter dem Deckel abläuft. Ich weiß noch immer nicht so recht, was ProResProRes im Glossar erklärt Raw denn nun genau ist.

Messerschmidt war immerhin recht zufrieden mit dem Material der DJI 4D.

Aber es wäre doch nett, wenn ein Rekoder die 16bit Raw in z.B. 12bit cDNG wegschreiben würde.



Antwort von Mantas:

klusterdegenerierung hat geschrieben:
... maximum use of Sony’s state of the art Exmor R CMOS full-frame 6K image sensor, using a single BNC cable to the camera’s 12G-SDI port.
...
vielleicht hat die FX9 ja echte 16Bit mit dem großen Modul.



Antwort von klusterdegenerierung:

Das macht er nicht mehr, wegen der hohen Rechnleistung die benötigt wird.
Der Atomos NEO ist zur Zeit der einzige Recorde in der Serie, der die 16Bit der FX6 auch als 16Bit aufzeichnen kann.

Atomos hat mit der Einführung des Shogun 7 und der FX6 überlegt eine Art Shogun Neo einzuführen, allerdings passt momentan die Rechenpower die benötigt wird nicht in den Shogun und der Neo ist ja ein Studiomonitor und nicht als Fieldrecorder zu gebrauchen.

Sobald Atomos in der Lage ist, dies in ein portables Gerät zu packen, bin ich auch wieder dabei, aber so macht PRR für mich momentan keinen Sinn, vor allem wo das intra echt klasse ist.



Antwort von klusterdegenerierung:

Mantas hat geschrieben:
klusterdegenerierung hat geschrieben:
... maximum use of Sony’s state of the art Exmor R CMOS full-frame 6K image sensor, using a single BNC cable to the camera’s 12G-SDI port.
...
vielleicht hat die FX9 ja echte 16Bit mit dem großen Modul.
Ja das ding was an der Venice hing und nun intergriert wurd, das soll 16Bit können.








Antwort von Mantas:

klusterdegenerierung hat geschrieben:
Mantas hat geschrieben:


vielleicht hat die FX9 ja echte 16Bit mit dem großen Modul.
Ja das ding was an der Venice hing und nun intergriert wurd, das soll 16Bit können.
Das sowieso, bei fx3, 6 und a7s3 wird eher "nur" ein Container mit 14 bit Inhalt sein, denke ich.

Nichtsdestotrotz ist das mehr als genug. XAVC-I ist eh wahnsinnig gut.

Apropos Venice2, wie machen die das, zahlen die an RED, oder das Patent ausgelaufen oder ne Lücke gefunden...



Antwort von klusterdegenerierung:

Könnte das was damit zutun haben, das es nun kein Recorder mehr ist und es nun wie bei anderen Cams Teil der Kamera ist und damit eine andere Art Geräteklasse darstellt?



Antwort von pillepalle:

iasi hat geschrieben:

Die 12bit wären gar nicht so sehr das Problem, sondern eher was bei ProResProRes im Glossar erklärt Raw sonst noch so alles unter dem Deckel abläuft. Ich weiß noch immer nicht so recht, was ProResProRes im Glossar erklärt Raw denn nun genau ist.

Messerschmidt war immerhin recht zufrieden mit dem Material der DJI 4D.

Aber es wäre doch nett, wenn ein Rekoder die 16bit Raw in z.B. 12bit cDNG wegschreiben würde.
Warum hängst Du so an älteren Formaten, wie 16 BitBit im Glossar erklärt cDNG? Bei den höheren Auflösungen und Frameraten moderner Kameras wären das Datenraten, die wohl Kameraintern nur schwer wegzuschreiben wären und die Speicherkarten würden sich noch schneller füllen. Einer der Vorteile von ProResProRes im Glossar erklärt RAW ist ja gerade, dass die Datenraten noch halbwegs im Rahmen bleiben und es sich in der Post genauso leicht verarbeiten läßt wie ProRes. Man ist dadurch noch flexibeler, als man es bei ProResProRes im Glossar erklärt ohnehin schon war.

Es gibt gerade ein neues Video auf dem Atomos Kanal, wo jemand mit unterschiedlichen Kameras filmt (S1H und FX3) und durch das gemeinsame RAW FormatFormat im Glossar erklärt und gleiche Monitoring auf allen Kameras sicherer belichtet. Auch bei Kameras die er kaum kennt, weil sie gemietet sind.



Könnte man prinzipiell ja auch mit BRAW und einem video Assist machen, nur die Sony Kanmeras z.B. unterstützen das FormatFormat im Glossar erklärt noch nicht.

VG



Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:

Die 12bit wären gar nicht so sehr das Problem, sondern eher was bei ProResProRes im Glossar erklärt Raw sonst noch so alles unter dem Deckel abläuft. Ich weiß noch immer nicht so recht, was ProResProRes im Glossar erklärt Raw denn nun genau ist.

Messerschmidt war immerhin recht zufrieden mit dem Material der DJI 4D.

Aber es wäre doch nett, wenn ein Rekoder die 16bit Raw in z.B. 12bit cDNG wegschreiben würde.
Warum hängst Du so an älteren Formaten, wie 16 BitBit im Glossar erklärt cDNG? Bei den höheren Auflösungen und Frameraten moderner Kameras wären das Datenraten, die wohl Kameraintern nur schwer wegzuschreiben wären und die Speicherkarten würden sich noch schneller füllen. Einer der Vorteile von ProResProRes im Glossar erklärt RAW ist ja gerade, dass die Datenraten noch halbwegs im Rahmen bleiben und es sich in der Post genauso leicht verarbeiten läßt wie ProRes. Man ist dadurch noch flexibeler, als man es bei ProResProRes im Glossar erklärt ohnehin schon war.

Es gibt gerade ein neues Video auf dem Atomos Kanal, wo jemand mit unterschiedlichen Kameras filmt (S1H und FX3) und durch das gemeinsame RAW FormatFormat im Glossar erklärt und gleiche Monitoring auf allen Kameras sicherer belichtet. Auch bei Kameras die er kaum kennt, weil sie gemietet sind.



Könnte man prinzipiell ja auch mit BRAW und einem video Assist machen, nur die Sony Kanmeras z.B. unterstützen das FormatFormat im Glossar erklärt noch nicht.

VG
Die 4k-Raw der Sonys sind heute nicht mehr problematisch, was die DatenrateDatenrate im Glossar erklärt betrifft.

Arri hebt ja z.B. auch immer hervor, welche Vorteile unkomprimiertes Arri-Raw hat.

Was die Belichtung verschiedener Kameras betrifft, so hängt dies nicht vom Raw-Format ab und sollte sowieso nicht anhand des Monitoring, sondern Messinstrumenten, erfolgen.

Ziel ist zunächst, ein bestmöglich belichtetes Raw zu erhalten - was er ja auch im Video sagt. Das Angleichen erfolgt dann sowieso in der Post. Eine Beurteilung anhand des Vorschaubildes auf dem Monitor ist hierbei eher riskant.
Während du bei einer Kamera mit den Highlights an die Grenzen gehen kannst, da du einen weichen Roll-off hast, musst du bei einer anderen Kamera die Lichter schützen.

Ich stimme dem, was er im Video sagt, in vielen Punkten zu, aber die Beurteilung anhand des Monitorbildes halte ich für falsch.
Er widerspricht sich ja auch selbst, wenn er sagt, er will anhand der Messungen das bestmögliche Ausgangsmaterial erhalten, dann aber meint er am Schluss, er fände es toll die Aufnahmen anhand des Vorschaubildes beurteilen zu können.



Antwort von roki100:

iasi hat geschrieben:
Während du bei einer Kamera mit den Highlights an die Grenzen gehen kannst, da du einen weichen Roll-off hast, musst du bei einer anderen Kamera die Lichter schützen.
Bei RED ist Highlight-Recovery immer aktiviert.



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Während du bei einer Kamera mit den Highlights an die Grenzen gehen kannst, da du einen weichen Roll-off hast, musst du bei einer anderen Kamera die Lichter schützen.
Bei RED ist Highlight-Recovery immer aktiviert.
Wenn ich Highlight-Recovery nutzen muss, habe ich falsch belichtet. :)

Red hat die Ampel. Hier sollte keines der Lichter angehen.



Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:

Bei RED ist Highlight-Recovery immer aktiviert.
Wenn ich Highlight-Recovery nutzen muss, habe ich falsch belichtet. :)
Ob Du es nutzen willst oder nicht, es ist immer aktiviert, ohne das hätte die Komodo wahrscheinlich soviel Dynamicrange wie meine G9 oder GH5II ;) aber mit HR hat die Komodo ca. 1 Stop mehr (immer noch gut, weil Global Shutter)... ;) siehe auch hier: Zuerst einmal fällt auf, dass die RED KOMODO immer mit aktivierter Highlight-Recovery arbeitet.



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Wenn ich Highlight-Recovery nutzen muss, habe ich falsch belichtet. :)
Ob Du es nutzen willst oder nicht, es ist immer aktiviert, ohne das hätte die Komodo wahrscheinlich soviel Dynamicrange wie meine G9 oder GH5II ;) aber mit HR hat die Komodo ca. 1 Stop mehr (immer noch gut, weil Global Shutter)... ;) siehe auch hier: Zuerst einmal fällt auf, dass die RED KOMODO immer mit aktivierter Highlight-Recovery arbeitet.
Red hat die Ampel.
Solange keiner der Kanäle clippt, bleibt Highlight-Recovery ungenutzt.
Und das ist dann eben richtige Belichtung.
Bei Lichtquellen im Bild hilft es ein hartes Clippen zu verhindern, wenn der Kontrast den DR der Kamera übersteigt.



Antwort von roki100:

iasi hat geschrieben:
Bei Lichtquellen im Bild hilft es ein hartes Clippen zu verhindern, wenn der Kontrast den DR der Kamera übersteigt.
Ohne HR würde bei RED aber früher Clippen...








Antwort von klusterdegenerierung:

Ich denke das RED nicht groß besser da steht als andere Cams, der Vorteil bei RED ist nur, das es nicht so aufällt, da überwiegend direkt mit Raw gearbeitet wird und man immer den max Umfang hat, wenn eine Red erstmal nur mit AVCHDAVCHD im Glossar erklärt arbeiten würde und Raw nur ein Zusatz mit Hürden wäre, dann würde kaum noch über RED so geredet, denn da tut sich sich nicht viel und ist nicht besser als ein FX9/6 mit ProResRaw.

Alles Imagepflege etc.



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Bei Lichtquellen im Bild hilft es ein hartes Clippen zu verhindern, wenn der Kontrast den DR der Kamera übersteigt.
Ohne HR würde bei RED aber früher Clippen...
HR setzt man ein, wenn ein oder zwei Kanäle schon geclippt sind.
Man rettet dadurch Zeichnung in den Lichtern, verschiebt aber doch das Clippen nicht.



Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


Ohne HR würde bei RED aber früher Clippen...
HR setzt man ein, wenn ein oder zwei Kanäle schon geclippt sind.
Man rettet dadurch Zeichnung in den Lichtern, verschiebt aber doch das Clippen nicht.
Ja aber HR wird doch standardmäßig bei RED eingesetzt. Du weißt also nicht genau wo es ohne HR Clippen würde, weil HR immer aktiviert ist... Oder gibt es nachträglich einen Schalter wie das bei CDNG oder BRAW der Fall ist?



Antwort von iasi:

klusterdegenerierung hat geschrieben:
Ich denke das RED nicht groß besser da steht als andere Cams, der Vorteil bei RED ist nur, das es nicht so aufällt, da überwiegend direkt mit Raw gearbeitet wird und man immer den max Umfang hat, wenn eine Red erstmal nur mit AVCHDAVCHD im Glossar erklärt arbeiten würde und Raw nur ein Zusatz mit Hürden wäre, dann würde kaum noch über RED so geredet, denn da tut sich sich nicht viel und ist nicht besser als ein FX9/6 mit ProResRaw.

Alles Imagepflege etc.
Das hat nichts mit Imagepflege zu tun, sondern ist ein zentraler technischer Aspekt von Cine-Cams.

Auch eine Arri Alexa würde ohne den Arri-Raw-Workflow heute ihren hohen Preis nicht mehr rechtfertigen können.

RedRaw ist nun einmal Bestandteil einer Red-Cam. Red verwendet daher auch viel Entwicklungspower auf den Red-Raw-Workflow.
RedRaw ist die Stärke der Red-Cams.

Arri hat eben das Problem mit der Auflösung und der minimalen Komprimierung. Auch die Alexa65 kommt "nur" auf etwas mehr als die Hälfte der PixelPixel im Glossar erklärt einer Red VV.
Das Gerede über die "größeren besseren Pixel" verdeckt doch nur den Umstand, dass Arri gar nicht in der Lage ist, 8k DCI in Raw zu bieten.



Antwort von roki100:

roki100 hat geschrieben:
iasi hat geschrieben:


HR setzt man ein, wenn ein oder zwei Kanäle schon geclippt sind.
Man rettet dadurch Zeichnung in den Lichtern, verschiebt aber doch das Clippen nicht.
Ja aber HR wird doch standardmäßig bei RED eingesetzt. Du weißt also nicht genau wo es ohne HR Clippen würde, weil HR immer aktiviert ist... Oder gibt es nachträglich einen Schalter wie das bei CDNG oder BRAW der Fall ist?
Nachtrag:
RED confirmed that the Komodo is their first camera to use a highlight recovery algorithm built in to the camera.
https://www.adorama.com/alc/red-komodo- ... on-review/

HR ist also bei Komodo, ein Kamerainterner Prozess und somit quasi eingebacken.



Antwort von Darth Schneider:

@roki
Also ich nutze HR ausschliesslich um in Post was im Bild zu retten, was ich beim Dreh verkackt habe.
Und nicht um HR bewusst einzusetzen um schon schon so zu drehen das man es am Schluss sicher braucht…
HR holt nur zurück was schon im Bild schon von Anfang an schön da ist, Bildqualität hinzu zaubern geht damit nicht.

Darum heisst es ja auch Recovery….übersetzt, Erholung, Genesung…
Es heisst nicht, Verbesserung, in irgend einer Form !

Und bestimmt kann man das bei Bed RAW irgendwie ausschalten…;)
Gruss Boris



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


HR setzt man ein, wenn ein oder zwei Kanäle schon geclippt sind.
Man rettet dadurch Zeichnung in den Lichtern, verschiebt aber doch das Clippen nicht.
Ja aber HR wird doch standardmäßig bei RED eingesetzt. Du weißt also nicht genau wo es ohne HR Clippen würde, weil HR immer aktiviert ist... Oder gibt es nachträglich einen Schalter wie das bei CDNG oder BRAW der Fall ist?
Eine Red-Cam (und nun auch BM-Cam) zeigt dir mit der Ampel an, wann ein Kanal clippt . und erst dann wird HR eingesetzt.
HR ist eine Notlösung, wenn der DR nicht ausreicht oder man mit Blick auf die Mitteltöne notgedrungen ein Clippen in Kauf nimmt.



Antwort von roki100:

RED confirmed that the Komodo is their first camera to use a highlight recovery algorithm built in to the camera....



Antwort von Darth Schneider:

Da steht aber nicht das man HR beim Schnitt nicht wieder deaktivieren kann.
Es ist doch RedRaw…kein h462.
Bei BRaw ist es doch schliesslich auch nur ein Häckchen, zum ein und ausschalten…
Wie kommst du darauf das das bei Red RAW nicht gehen sollte ?
Und warum ?
Gruss Boris








Antwort von iasi:

roki100 hat geschrieben:
roki100 hat geschrieben:


Ja aber HR wird doch standardmäßig bei RED eingesetzt. Du weißt also nicht genau wo es ohne HR Clippen würde, weil HR immer aktiviert ist... Oder gibt es nachträglich einen Schalter wie das bei CDNG oder BRAW der Fall ist?
Nachtrag:
RED confirmed that the Komodo is their first camera to use a highlight recovery algorithm built in to the camera.
https://www.adorama.com/alc/red-komodo- ... on-review/

HR ist also bei Komodo, ein Kamerainterner Prozess und somit quasi eingebacken.
Und?
Wer korrekt belichtet, der lässt keine Kanäle clippen.
Wenn man bei BRaw in der Post HR anklicken muss, dann hat man während der Aufnahme nicht optimal belichtet.



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Darum heisst es ja auch Recovery….übersetzt, Erholung, Genesung…
Es heisst nicht, Verbesserung, in irgend einer Form !
Mir ist öfter passiert, dass z.b. Gesichter ausgebrannt sind, durch aktivieren von HR und runter ziehen von Highlight Regler dann aber gerettet und somit ist das ganze natürlich Verbessert ;)



Antwort von Darth Schneider:

@asi
Genau so sehe ich das auch.
Es sagt ja schon der Name an sich, aber man muss englisch können und auch richtig verstehen…;))))

@roki
Eben, du hast beim Dreh die Belichtung vergeigt und mit HR deinen Hintern wieder gerettet.;)
Gruss Boris



Antwort von roki100:

iasi hat geschrieben:
Und?
Wer korrekt belichtet, der lässt keine Kanäle clippen.
Du liebe Güte ;) Nochmal: Ja aber HR wird doch standardmäßig bei RED Komodo eingesetzt. Du weißt also nicht genau wo es ohne HR Clippen würde, weil HR immer aktiviert ist... Das heißt, wenn man DR vergleich mit andere Kameras macht, bei denen HR standardmässig nicht in Kamera eingeschaltet ist, ist das somit kein korrekter vergleich. Wenn man DR vergleiche macht, dann sollte man das berücksichtigen.



Antwort von Darth Schneider:

Und weil jetzt bei Red HR erstmal beim Dreh aktiv ist, ist das für dich ein Grund HR immer für alles zu nutzen ?
Für mich gar nicht…
Weil das ist nicht der eigentliche Sinn von HR…
Genau wie du den ND ja auch nicht immer drauf lässt..;)
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Eben, du hast beim Dreh die Belichtung vergeigt und mit HR deinen Hintern wieder gerettet.;)
Gruss Boris
Ja, passiert. Durch gerettet habe ich es dann verbessert ;)



Antwort von Darth Schneider:

Aber das musstest du nur weil die Gesichter wegen der falschen Belichtung ausgebrannt waren.
Ich bleibe stur, HR ist kein Verbesserungs Tool, das man immer eingeschaltet lassen muss, weil das nix einfach so verbessert, ausser man belichtet halt nicht optimal.
Gruss Boris



Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Ich denke das RED nicht groß besser da steht als andere Cams, der Vorteil bei RED ist nur, das es nicht so aufällt, da überwiegend direkt mit Raw gearbeitet wird und man immer den max Umfang hat, wenn eine Red erstmal nur mit AVCHDAVCHD im Glossar erklärt arbeiten würde und Raw nur ein Zusatz mit Hürden wäre, dann würde kaum noch über RED so geredet, denn da tut sich sich nicht viel und ist nicht besser als ein FX9/6 mit ProResRaw.

Alles Imagepflege etc.
Das hat nichts mit Imagepflege zu tun, sondern ist ein zentraler technischer Aspekt von Cine-Cams.

Auch eine Arri Alexa würde ohne den Arri-Raw-Workflow heute ihren hohen Preis nicht mehr rechtfertigen können.

RedRaw ist nun einmal Bestandteil einer Red-Cam. Red verwendet daher auch viel Entwicklungspower auf den Red-Raw-Workflow.
RedRaw ist die Stärke der Red-Cams.

Arri hat eben das Problem mit der Auflösung und der minimalen Komprimierung. Auch die Alexa65 kommt "nur" auf etwas mehr als die Hälfte der PixelPixel im Glossar erklärt einer Red VV.
Das Gerede über die "größeren besseren Pixel" verdeckt doch nur den Umstand, dass Arri gar nicht in der Lage ist, 8k DCI in Raw zu bieten.
Witzig, Du schreibst das gleiche wie ich, nur mit andern Worten.



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Aber das musstest du nur weil die Gesichter wegen der falschen Belichtung ausgebrannt waren.
Ich bleibe stur, HR ist kein Verbesserungs Tool, das man immer eingeschaltet lassen muss, weil das nix einfach so verbessert.
Gruss Boris
Die Funktion steht nicht umsonst zur verfügung, es ist ein Bestandteil der nachträglichen Korrektur... Wenn zB. die Sonne von Wolken bedeckt ist und während der Aufnahme die Wolken weg sind und die Sonne auf Gesichter strahlt, Du aber durchgehend aufnimmst, dann kann man nachträglich durch HR manches retten bzw. korrigieren und das bild sieht danach besser aus, als ohne HR.








Antwort von roki100:

iasi hat geschrieben:
Arri hat eben das Problem mit der Auflösung und der minimalen Komprimierung. Auch die Alexa65 kommt "nur" auf etwas mehr als die Hälfte der PixelPixel im Glossar erklärt einer Red VV.
Das Gerede über die "größeren besseren Pixel" verdeckt doch nur den Umstand, dass Arri gar nicht in der Lage ist, 8k DCI in Raw zu bieten.
Ja sieht man hier z.B. viewtopic.php?f=1&t=144987&p=1115809#p1115809 ;) Oder wäre RED VV eine bessere Option für den vergleich statt IMAX 11K scan? ;)



Antwort von Darth Schneider:

@roki
Schon witzig, wie verschieden die Leute mit BMD Kameras arbeiten.
Ich nutze HR wenn nur sehr, sehr sparsam, manchmal, bei problematischen Innenaufnahmen.
Draussen eigentlich nie.
Und den blauen Himmel gibts doch mit den NDs und mehr oder weniger Licht auf den Gesichtern, ganz einfach mit mehr oder weniger Licht auf den Gesichtern, dafür brauch ich bestimmt kein HR….
Eher wenn dann eher noch HDR, bei einem mix von sehr dunklen Stellen und sehr hellen Stellen im Bild…;)))
Gruss Boris



Antwort von roki100:

Boris, HR bedeutet 1 - 1,5 DR Stops mehr (keine echter DB Wert vom Sensor, sondern quasi Softwareseitige Lösung)... Wäre deine Kamera von RED, so würde RED das dazu zählen bzw. statt 13 DR Stops verkauft dir RED das als 14 oder 14,5 Stops.
Jetzt verstanden worum es hier eigentlich geht?

Wenn DR von Kameras verglichen wird, dann sollte man diese 1-1,5 Stops von Komodo interne HR, berücksichtigen... Komodo hat also Global ShutterShutter im Glossar erklärt, dafür aber (in Wirklichkeit) weniger DR als deine P4K und nicht nur viel weniger als C70, Z-Cam, P6KPro oder FX6.



Antwort von Darth Schneider:

@roki
Verstanden habe ich ganz genau was HR ist, das schon lange genug.
Und deine digital hinzu gerechneten Stops sind nun mal entweder in der Realtät schon im Bild vorhanden, oder sonst wird das nix mit 15 Stops, auch nicht mit HR, auch nicht mit einer Red !

HR doch ganz klar eine Software Not Lösung ( bei Red einfach mal beim Dreh eingeschaltet).
Also filmen wir mit Kameras das Licht, oder rechnet die Software am Schluss einfach den Film…?
Mehr Stops einfach grundsätzlich immer digital von irgend einen Computer Chip dazu zu rechnen zu lassen, kann doch aber nicht das grundsätzliche Ziel sein, beim Filmhandwerk, oder ?
Nicht für mich ! Sonst kann ich gleich mit dem iPhone filmen..
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Mehr Stops einfach grundsätzlich immer digital von irgend einen Computer Chip dazu zu rechnen kann doch aber nicht das grundsätzliche Ziel sein beim Filmhandwerk, oder ?
Oder das , ja kann man so sehen.... Ich meine, ist ja jetzt nicht so schlimm dass das bei RED Komodo immer aktiviert ist. Es ging mir persönlich nur darum, dass das bei DR Kameravergleich nicht berücksichtigt wird. Es ging mir auch nicht darum, ob man das nutzen sollte oder nicht, jedem das seine und ich finde es gut dass man es nachträglich nutzen bzw. aktivieren/deaktivieren kann.

Komodo wäre auch jetzt kein Einzelfall. Auch zB. HLG Modus bei Panasonic, da ist scheinbar HR auch Kameraintern aktiviert.



Antwort von Darth Schneider:

@roki
Über HR redet er gleich am Anfang, schon interessant, also hat roki schon auch recht…Zumindest was BMD betrifft.
Sorry ! ;)



Interessant ist das es scheinbar bei den beiden nativen Iso Werten ( bei den neuen Pockets ) nicht geht…nur jeweils below..
Hab ich nicht mal gewusst…
Gruss Boris



Antwort von Darth Schneider:

Fragen wir die Profis.

@ Frank und freezer
Wie macht ihr das so mit HR ?
Mit welchen ISO Werten filmt ihr eigentlich (meistens) ?
Gruss Boris



Antwort von roki100:

Boris, Du fragst da die Profis, die ja kontrollierte Aufnahmen machen, alles vorher durchdacht, geplant usw. Die benutzen HR wahrscheinlich gar nicht, oder sehr selten... ;)



Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
@roki
Schon witzig, wie verschieden die Leute mit BMD Kameras arbeiten.
Auch das roki mitmal RED Beauftragter und ausgewiesener Experte ist, wahnsinn!








Antwort von andieymi:

Mantas hat geschrieben:
iasi hat geschrieben:

The 16-bit linear Raw video output of the a7S III is sent via HDMI
Würde mich in der Tat interessieren ob sie das auch wirklich tut oder nur ein Container ist. Gab es da neue Erkenntnisse?

Genauso wie 4:4:44:4:4 im Glossar erklärt aus einer Bayer Kamera, das FormatFormat im Glossar erklärt ist da, der Inhalt nicht.
Solange andere Hersteller außer Arri nicht transparenter mit den A/Ds sind, muss niemand denen Abkaufen, was drauf steht. Bis dato gibt es keinen Sony-Sensor mit vollen Specs (35mm - KB oder Größer) mit 16-Bit A/D:
https://www.sony-semicon.co.jp/e/produc ... oduct.html
Darauf bezog sich meine Aussage.

Es gibt mittlerweile geleakte Datenblätter, wo vereinzelt für niedrigste Frameraten (ergo Fotos, kein Bewegtbild in sinnvollen Auflösungen oder Frameraten) 16-Bit Readout-Modi vorhanden sind. Also gut, 16-Bit bei Fotos - mittlerweile:
https://www.sonyalpharumors.com/here-ar ... structure/

Arri selbst, die am transparentesten über deren Processing sind, sagt selbst, dass die F65 die einzige(!) Bewegbildkamera ist, von der sie wissen, dass sie überhaupt einen 16-Bit A/D Wandler hat. Arri selbst macht das ja auch nur mit 2 (Dual-Gain) 14-Bit A/Ds, das ist ja keine Schande. Selbst aus diesen 14-Bit wird nur nach den A/Ds ein 16-Bit Lineares Processing-Bild, das schließlich für Arri RAW in 12-Bit LOG Unkomprimiert gespeichert wird. Alles, alles andere würde laut Aussage von Arri die Speichermöglichkeiten völlig übersteigen.
Quelle: Chase Hahn, Arri Tech Sales Rep)

Wo soll also soll bitte der 16-Bit (Linear) Output herkommen? Von einem 16-Bit A/D a la F65? Wohl kaum! Von einem einzelnen 14-Bit A/D? Geht schon mal nicht. Soweit ich weiß hat Sony keine DG-Architektur am Start.

16-Bit-Raw-Output zu behaupten ist halt das eine. Specs nachzuplappern wie Bloom das tut, auch. Alles was ich sage, ist dass Sony einfach keinerlei Transparenz bietet oder Indikatoren liefert um das, was sie behaupten nachvollziehen zu können. Ich bin ja jetzt auch wirklich nicht der Einzige, der daran meine lieben Zweifel hat:
https://www.cined.com/sony-cinema-line- ... r-readout/
(Ich bin wirklich nicht unbedingt ein CineD-Fan und habe in der Vergangenheit auch schon mein Problem mit gewissen Artikeln gehabt. Aber wie gesagt, auch andere zählen 1+1 zusammen.)

Ich habe aber, damit dass nicht nur gegen Sony geht auch meine Zweifel ob das bei Red nicht eigentlich immer schon auch der Container-Hoax ist, um sich nicht völlig in Unplausibiltäten bzgl. der behaupteten 16-Blenden zu versteigen. So kann ich z.B. nicht vorstellen, dass die Komodo mehr als einen 12-14-Bit A/D hat. Gleichzeitig glaube ich nicht, dass bei Sony außer in der Venice mehr als 12-Bit werkeln. Wenn jemand ein Datenblatt hat, das das klarstellt, lass ich mich gern eines besseren belehren. Das würde sich letztendlich auch bei der Dynamik zeigen und da steht grad alles außer Arri, Sony (Venice) und Red (Non-Komodo) bei der "magischen Knapp-über-12-Blenden Schranke" an. Jede BMD Pocket, jede SH1 Kaum eine Kamera schafft minimal mehr (A7SIII mit int. Denoising, Komodo mit HR, Ursa Mini Pro mit DGA), letztendlich liegt das an den verbauten Sensoren mit 12-Bit A/D für Bewegtbild. Und darüber wird es einfach ein brutal teurer Spaß mit DGA (Arri, BMD - nur Ursa Mini Pro, Canon - C70), Algorithmusbasierte HR (Red Komodo) oder mind. mittels extrem speziellen Sensoren und 14-Bit A/Ds (Sony Venice, Sony F65, Rest Red).

Aber klar. 16-Bit Raw verkauft sich halt gut. Dass nicht immer drin ist, was drauf steht betrifft auch andere, die da recht intransparent sind (Red). Deren Highlight Recovery wurde auch erst gefunden, als sich Leute gedanken gemacht haben wieso da Highlight-Stops ohne komplettes RGB-Spektrum mehr vorhanden sind. Aber dass lässt halt dann zumindest erkennen, dass da ein Stop Mehr mit schlechterer Farbseperation vorhanden ist, egal wie man das gewichtet. Beim sogenannten 16-Bit RAW Output kommt halt dann komischerweise weniger Dynamik raus, als im internen 10-Bit LOG Recording. Hmm.



Antwort von Darth Schneider:

@roki
Ich nutze HR jedenfalls nur sehr, sehr selten…und probiere auch wenn immer ich nur kann, die Aufnahmen mit der Pocket, nur in einer möglichst kontrollierten Umgebung zu machen…

Für was anderes, sind doch Cinema Cameras eigentlich auch gar nicht wirklich gedacht und schon gar nicht für ganz spontanes Point and Shoot Zeugs.
Für sowas gibt es zig geeignetere Kameras auf dem Markt.
Und keine einzige ist von Blackmagic Design, Arri, Red, ZCam und Co., finde ich jetzt zumindest.

Gruss Boris



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Und?
Wer korrekt belichtet, der lässt keine Kanäle clippen.
Du liebe Güte ;) Nochmal: Ja aber HR wird doch standardmäßig bei RED Komodo eingesetzt. Du weißt also nicht genau wo es ohne HR Clippen würde, weil HR immer aktiviert ist...
Die Ampel, die im Display angezeigt wird, sagt mir ganz exakt, wann ein Kanal clippt.
+
HR wird nur dann eingesetzt, wenn ein oder zwei Kanäle clippen.
=
Belichte ich korrekt, sodass bei der Ampel keine Farbe aufleuchtet, dann wird auch HR nicht aktiviert.

Denn HR versucht aus den Informationen aus einem oder zwei nicht geclippten Kanälen, die geclippten Kanäle zu rekonstruieren.



Antwort von Darth Schneider:

Ich denke wir können schreiben was und wie wir das wollen.
Aber roki wird das sehr wahrscheinlich gar nicht kapieren wollen das die 1.5 Stops mehr mit HR nur im Bild sichtbar sind wenn die Belichtung von Anfang an stimmt….
Sonst ist und bleibt HR nur eine Art von Heftpflaster artiger Notlösung….
Gruss Boris



Antwort von roki100:

iasi hat geschrieben:
...dann wird auch HR nicht aktiviert.
Es aktiviert sich aber nicht ab bestimmte Punkt, sondern ist stets aktiviert. Frag mal ruhig im RED Forum. Oder wenn Du eine quelle hast, dann her damit...
"Darth Schneider" hat geschrieben:
Ich denke wir könne schreiben was und wie wir das wollen. Aber roki wird das gar nicht kapieren wollen.
Was habe ich bitte nicht kapiert? Nochmal: viewtopic.php?f=5&t=154243&start=35#p1115874 Und das hast du doch selbst mit dem Video oben bestätigt.



Antwort von Darth Schneider:

@roki
Noch ein letzter Versuch.

Ja schon, du hast das meiste sicher längst kapiert.
Aber eben leider, meiner Meinung nach noch nicht das HR nicht immer, bei jeder Aufnahme, und beim Schnitt bei jedem RAW FormatFormat im Glossar erklärt immer eingeschaltet bleiben sollte.
RedRaw mit HR ist eine Sache.
BRaw mit HR, unter Umständen funktioniert nicht genau gleich, das muss es gar nicht….
Mit CDng auch nicht zwangsläufig…

Die Kameras sind doch auch noch dazu voll verschieden…

Ich habe ausserdem weder eine Red mit RedRaw noch eine Pocket mit CDng…

Irgend einer im Netz auf YouTube hat z,B, ganz klar betont und gesagt das man eben HR bei BRaw nicht immer einschalten soll. Weil auch DR verloren gehen kann wenn man es bei Aufnahmen macht wo es nicht eben gebraucht wird,
Irgendwie glaube ich ihm das.
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Ja schon, du hast das meiste sicher kapiert.
Aber eben leider noch nicht das HR nicht immer, bei jeder Aufnahme, und beim Schnitt bei jedem RAW FormatFormat im Glossar erklärt immer eingeschaltet bleiben sollte.
Wo schreibe ich bitte, dass HR "immer, bei jeder Aufnahme, und beim Schnitt bei jedem RAW FormatFormat im Glossar erklärt immer eingeschaltet bleiben sollte." ?
Ich schreibe nur, dass das bei Komodo der Fall ist...



Antwort von Darth Schneider:

Deine Texte über HR lesen sich so.
Ich dachte mir, der roki braucht HR bestimmt meistens…;)
Gruss Boris



Antwort von iasi:

andieymi hat geschrieben:
Mantas hat geschrieben:


Würde mich in der Tat interessieren ob sie das auch wirklich tut oder nur ein Container ist. Gab es da neue Erkenntnisse?

Genauso wie 4:4:44:4:4 im Glossar erklärt aus einer Bayer Kamera, das FormatFormat im Glossar erklärt ist da, der Inhalt nicht.
Solange andere Hersteller außer Arri nicht transparenter mit den A/Ds sind, muss niemand denen Abkaufen, was drauf steht. Bis dato gibt es keinen Sony-Sensor mit vollen Specs (35mm - KB oder Größer) mit 16-Bit A/D:
https://www.sony-semicon.co.jp/e/produc ... oduct.html
Darauf bezog sich meine Aussage.

Es gibt mittlerweile geleakte Datenblätter, wo vereinzelt für niedrigste Frameraten (ergo Fotos, kein Bewegtbild in sinnvollen Auflösungen oder Frameraten) 16-Bit Readout-Modi vorhanden sind. Also gut, 16-Bit bei Fotos - mittlerweile:
https://www.sonyalpharumors.com/here-ar ... structure/

Arri selbst, die am transparentesten über deren Processing sind, sagt selbst, dass die F65 die einzige(!) Bewegbildkamera ist, von der sie wissen, dass sie überhaupt einen 16-Bit A/D Wandler hat. Arri selbst macht das ja auch nur mit 2 (Dual-Gain) 14-Bit A/Ds, das ist ja keine Schande. Selbst aus diesen 14-Bit wird nur nach den A/Ds ein 16-Bit Lineares Processing-Bild, das schließlich für Arri RAW in 12-Bit LOG Unkomprimiert gespeichert wird. Alles, alles andere würde laut Aussage von Arri die Speichermöglichkeiten völlig übersteigen.
Quelle: Chase Hahn, Arri Tech Sales Rep)

Wo soll also soll bitte der 16-Bit (Linear) Output herkommen? Von einem 16-Bit A/D a la F65? Wohl kaum! Von einem einzelnen 14-Bit A/D? Geht schon mal nicht. Soweit ich weiß hat Sony keine DG-Architektur am Start.

16-Bit-Raw-Output zu behaupten ist halt das eine. Specs nachzuplappern wie Bloom das tut, auch. Alles was ich sage, ist dass Sony einfach keinerlei Transparenz bietet oder Indikatoren liefert um das, was sie behaupten nachvollziehen zu können. Ich bin ja jetzt auch wirklich nicht der Einzige, der daran meine lieben Zweifel hat:
https://www.cined.com/sony-cinema-line- ... r-readout/
(Ich bin wirklich nicht unbedingt ein CineD-Fan und habe in der Vergangenheit auch schon mein Problem mit gewissen Artikeln gehabt. Aber wie gesagt, auch andere zählen 1+1 zusammen.)

Ich habe aber, damit dass nicht nur gegen Sony geht auch meine Zweifel ob das bei Red nicht eigentlich immer schon auch der Container-Hoax ist, um sich nicht völlig in Unplausibiltäten bzgl. der behaupteten 16-Blenden zu versteigen. So kann ich z.B. nicht vorstellen, dass die Komodo mehr als einen 12-14-Bit A/D hat. Gleichzeitig glaube ich nicht, dass bei Sony außer in der Venice mehr als 12-Bit werkeln. Wenn jemand ein Datenblatt hat, das das klarstellt, lass ich mich gern eines besseren belehren. Das würde sich letztendlich auch bei der Dynamik zeigen und da steht grad alles außer Arri, Sony (Venice) und Red (Non-Komodo) bei der "magischen Knapp-über-12-Blenden Schranke" an. Jede BMD Pocket, jede SH1 Kaum eine Kamera schafft minimal mehr (A7SIII mit int. Denoising, Komodo mit HR, Ursa Mini Pro mit DGA), letztendlich liegt das an den verbauten Sensoren mit 12-Bit A/D für Bewegtbild. Und darüber wird es einfach ein brutal teurer Spaß mit DGA (Arri, BMD - nur Ursa Mini Pro, Canon - C70), Algorithmusbasierte HR (Red Komodo) oder mind. mittels extrem speziellen Sensoren und 14-Bit A/Ds (Sony Venice, Sony F65, Rest Red).

Aber klar. 16-Bit Raw verkauft sich halt gut. Dass nicht immer drin ist, was drauf steht betrifft auch andere, die da recht intransparent sind (Red). Deren Highlight Recovery wurde auch erst gefunden, als sich Leute gedanken gemacht haben wieso da Highlight-Stops ohne komplettes RGB-Spektrum mehr vorhanden sind. Aber dass lässt halt dann zumindest erkennen, dass da ein Stop Mehr mit schlechterer Farbseperation vorhanden ist, egal wie man das gewichtet. Beim sogenannten 16-Bit RAW Output kommt halt dann komischerweise weniger Dynamik raus, als im internen 10-Bit LOG Recording. Hmm.
Nun ja. Deinen Annahmen beruhen eben leider auch nur auf Vermutungen.

HR hat ja z.B. zunächst nichts mit 12, 14 oder 16bit zu tun. HR hatten Leute schon vor einem Jahrzehnt mit Red-Material händisch in Resolve gemacht, als es den Begriff noch gar nicht gab - geschweige denn das Kästchen zum Anklicken. :)
Anhand dessen auf den A/D-Wandler schließen zu wollen, scheint mir jedenfalls schwierig.
Dass 16-bit Raw Output weniger DR haben soll, als internes 10-bit Log halte ich auch für komisch - aber im Sinne von humorvoll. ;)

Arri wiederum hat nicht wegen 16bit ein Datenraten-Problem, sondern weil Arri-Raw unkomprimiert ist und schon mit 6k im Breitformat und 20MPixel am Limit ist. 8k wären daher auch mit 12bit nicht umsetzbar.

Red spricht von 16-bit color depth bei RedRaw und 16-Bit-Verarbeitung beim Farbmanagement - das muss wirklich nicht bedeuten, dass ein 16 bit A/D genutzt wird.








Antwort von roki100:

"Darth Schneider" hat geschrieben:
Deine Texte über HR lesen sich so.
Ich dachte mir, der roki braucht HR bestimmt meistens…;)
ich aktiviere es nur dann, wenn ich es wirklich brauche. Und auch dann, wenn man HR in Davinci immer aktiviert, passiert nichts, denn es setzt nur ein, wenn es Clippt / wenn helle Lichter im bild zu sehen sind...
Es ging von Anfang an nicht darum, wann HR Sinn macht und wann nicht, sondern viel mehr darum, dass RED mit der Komodo nicht die eigentliche (DR)Stops des Sensor nennt, sondern den DR Wert mit HR (Kamerainterne Softwareseitige Lösung für ca. +1 - 1,5 Stops). Wahrscheinlich war das notwendig, weil viel zu wenig DR für eine Cine Cam mit aktiviertem Global Shutter....



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
...dann wird auch HR nicht aktiviert.
Es aktiviert sich aber nicht ab bestimmte Punkt, sondern ist stets aktiviert. Frag mal ruhig im RED Forum. Oder wenn Du eine quelle hast, dann her damit...
Mal zwei Beispiele:

R und G haben noch Zeichnung (nicht full well), aber B clippt.
Nun interpoliert die Kamera oder die Software Details und Farbe von B aus den Werten von R und G sowie eventuell je nach Algorithmus von Nebenwerten. Da wird dann das Bayer-Muster genutzt.

R und G und B clippen nicht. Debayering erfolgt nach dem üblichen Algorithmus.

HR kann zu Falschfarben führen. Dem begegnet man am besten durch eine Belichtung bei der kein Kanal clippt.
Zweite Möglichkeit: Die Falschfarben korregieren.
Dritte Möglichkeit: HR ausschalten und mit dem geclippten Kanal leben.



Antwort von iasi:

roki100 hat geschrieben:
"Darth Schneider" hat geschrieben:
Deine Texte über HR lesen sich so.
Ich dachte mir, der roki braucht HR bestimmt meistens…;)
ich aktiviere es nur dann, wenn ich es wirklich brauche. Und auch dann, wenn man HR in Davinci immer aktiviert, passiert nichts, denn es setzt nur ein, wenn es Clippt / wenn helle Lichter im bild zu sehen sind...
Es ging von Anfang an nicht darum, wann HR Sinn macht und wann nicht, sondern viel mehr darum, dass RED mit der Komodo nicht die eigentliche (DR)Stops des Sensor nennt, sondern den DR Wert mit HR (Kamerainterne Softwareseitige Lösung für ca. +1 - 1,5 Stops). Wahrscheinlich war das notwendig, weil viel zu wenig DR für eine Cine Cam mit aktiviertem Global Shutter....
HR ist nun einmal nichts anderes als ein erweiteres Debayering.
Du bekommst bei weißer oder grauer Fläche und Licht mit der nativen Farbtemperatur der Kamera 0 Stops an zusätzlichem DR, denn alle Kanäle werden wahrscheinlich gleichzeitig clippen.
HR nutzt schließlich nur das unterschiedliche Clippen der RGB-Kanäle aus.



Antwort von roki100:

All das weiß ich doch..... Was Du aber nicht verstehen willst, es ging doch nirgends darum, um zu verstehen, wie HR funktioniert (hast Du mir schon mindestens 10x erklärt, das ist Nett, Danke).
Mal erste Beispiel nochmal: BMD &Co. verkaufen nicht Kameras, indem behauptet wird z.B.: "unsere P4K Kamera hat 15+ Stops DR!" dann aber nirgends zu lesen, dass die 15+ Stops in Wirklichkeit keine Hardwareseitige (Sensor) DR ist, sondern Tricksi DR, dank Softwareseitige HR ...
Da ist RED mit Komodo scheinbar Einzigartig... ;)

Siehe nochmal das Video was Boris verlinkt hat:

https://youtu.be/DaX1DFvybog?t=69

Er findet es schade, dass bei BMD Kamera das nicht so ist, wie das z.B. bei Komodo der Fall ist (HR Kameraintern), denn das bedeutet mehr Dynamicrange.... und bei Kameratests würde man da mehr Dynamicrange feststellen.



Antwort von Darth Schneider:

Es spielt doch absolut keine Rolle. Wer will kann es ja ein oder ausschalten..
Und wer sieht dann im fertigen Film wie viel DR dort hinten beim Fenster ist ?
Genau mal so gut wie gar niemand…
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Es spielt doch absolut keine Rolle. Wer will kann es ja ein oder ausschalten..
Bei Komodo, nein.

Nun ist alles erklärt, mehr wollte ich nicht. Schade nur dass ich dafür mehrere Beiträge gebraucht habe. .LOL ;))



Antwort von Darth Schneider:

Woher weisst du denn das ?
Und wenn schon…
Das betrifft uns eigentlich nicht die Bohne..

Ausserdem die Komodo ist doch keine wirkliche ausgewachsene Red.
Mehr so eine Red Light Cine Camera…;)
Die echten Reds kosten so ab, vier mal mehr….
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Woher weisst du denn das ?
Und wenn schon…
Das betrifft uns eigentlich nicht die Bohne..
Gruss Boris
Dann solltest Du genauer alles lesen. Denn ein paar Beiträge zurück, habe ich etwas von hier/SlashCam gepostet und auch, dass RED selbst das auch so bestätigt hat (bei Komodo ist HR Kameraintern aktiviert).

Das hat nichts mit Preis etc. zu tun, sondern mit "Tricksi Dynamicrange..." ;)



Antwort von klusterdegenerierung:

Hier mal ganz passend zur Diskussion hat jemand das Red Raw und das ProResProRes im Glossar erklärt Raw etwas gestresst.
Zwar viel gelaber, aber kein schlechter Test, der wiedermal eines aussagt, es tut sich nix wirklich viel.





Antwort von klusterdegenerierung:

Weils so schön war ;-)





Antwort von Darth Schneider:

Also.
Die FX6 ( beruflich), oder die 6K Pocket Pro (als Amateur)….
Auch wenn ich die Cam jetzt geschenkt voll ausgestattet kriegen würde…;)
Sorry Red…
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Also.
Die FX6, oder die Pocket….
Auch wenn ich die Cam jetzt geschenkt voll ausgestattet kriegen würde…;)
Du hast doch die ganze Zeit auf die blonde Dame geschaut, passend mit der Music undso..... ich kenne Dich! ;)



Antwort von Darth Schneider:

Nein, viel zu viele Textilien die ablenken.
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Nein, viel zu viele Textilien die ablenken.
Gruss Boris
.LOL



Antwort von Darth Schneider:

Je weniger Textilien wir tragen desto kleiner wird unser ökologischer Fussabdruck…
Dem Klimawandel zu liebe, natürlich nur…
Gruss Boris



Antwort von andieymi:

iasi hat geschrieben:
Nun ja. Deinen Annahmen beruhen eben leider auch nur auf Vermutungen.

HR hat ja z.B. zunächst nichts mit 12, 14 oder 16bit zu tun. HR hatten Leute schon vor einem Jahrzehnt mit Red-Material händisch in Resolve gemacht, als es den Begriff noch gar nicht gab - geschweige denn das Kästchen zum Anklicken. :)
Anhand dessen auf den A/D-Wandler schließen zu wollen, scheint mir jedenfalls schwierig.
Dass 16-bit Raw Output weniger DR haben soll, als internes 10-bit Log halte ich auch für komisch - aber im Sinne von humorvoll. ;)

Arri wiederum hat nicht wegen 16bit ein Datenraten-Problem, sondern weil Arri-Raw unkomprimiert ist und schon mit 6k im Breitformat und 20MPixel am Limit ist. 8k wären daher auch mit 12bit nicht umsetzbar.

Red spricht von 16-bit color depth bei RedRaw und 16-Bit-Verarbeitung beim Farbmanagement - das muss wirklich nicht bedeuten, dass ein 16 bit A/D genutzt wird.
Und die Behauptungen von Sony sind eben auch nur Behauptungen, bis das Gegenteil messbar ist? Ich kritisiere ja in erster Linie nur, dass Sony einfach intransparent ist und Specs anschreibt, die zumindest bei Betrachtung einiger messbarer Tatsachen unplausibel erscheinen.

Die Argumentation von Arri ist trotzdem, dass das es wegen Datenraten sinnvoller ist, in 12-Bit Log zu speichern, als in 16 Bit. Was willst Du damit sagen? Niemand behauptet, dass ArriRaw 16-Bit speichert. Das Problem gibt es also schon mir 12-Bit unkomprimiertem RAW und fängt nicht erst bei unkomprimierten 16 an. Soweit auch nichts neues und andere Raw-Formate wie X-OCN oder R3D setzen deshalb auf Kompression. Das haben auch andere erkannt (BMD), die ja mittlerweile auch kein unkomprimiertes Raw mehr anbieten, weil so Framschubsereien auf 2 Cfast alternierend wohl auch nicht gerade der Bringer waren.

Ich gebe Dir mit dem humorvoll recht - Das macht die 16-Bit Output der FX 6 von Sony ja so lachhaft. Wenn bei 16-Bit RAW Extern im 12-Bit RAW Container am Ende weniger messbare DR übrig bleibt, als im internen 10-Bit XAVC dank Denoisung. Was ist dann der 16-Bit Output wert und wo sollen die 16-Bit herkommen? Das lässt sich auch testen: Kann man testen: https://www.cined.com/sony-fx6-lab-test ... avc-intra/
Weil ich schon den 2. Cine-D Link poste: Jeder kann sagen er glaubt keinen Tests die nicht selbst gefälscht wurden. Soweit eh klar. Ich kenne aber zumindest keine vergleichbare Benchmarking Serie, als was CineD von mittlerweile einigen Kameras in vergleichbaren Bedingungen geschaffen hat. Die Kommentare zu den Tests sind auch immer sehr kritisch, mit vollkommenem Blödsinn würden die auch nicht durchkommen.

Außerdem: Ich habe nie behauptet, dass Red einen 16-Bit A/D nutzt, sondern das mit der Aussage vom Arri Rep unterstrichen, dass die Sony F65 die einzige Kamera mit bekannten 16-Bit AD/s ist. Bei der, das ist wieder keine Spekulation, messbaren DR von neueren Reds ist auch davon auszugehen, dass da kein 12-Bit AD am werkeln ist, wo sollen 14-Blenden Plus sonst herkommen?



Antwort von dienstag_01:

Red spricht von 16-bit color depth bei RedRaw und 16-Bit-Verarbeitung beim Farbmanagement - das muss wirklich nicht bedeuten, dass ein 16 bit A/D genutzt wird. Sondern?



Antwort von klusterdegenerierung:

andieymi hat geschrieben:
Was ist dann der 16-Bit Output wert und wo sollen die 16-Bit herkommen? Das lässt sich auch testen: Kann man testen: https://www.cined.com/sony-fx6-lab-test ... avc-intra/
Die haben aber auch nicht ihre Hausaufgaben gemacht, denn dann wüßten die von CineD, dass das S-Gamut3 dem S-Gamut3.Cine aus Qualitätsgründen vorzuziehen ist.
Warum man dies ignoriert ist mir ein Rätsel, denn wenn man schon das max haben will, dann muß man es auch nutzen.

Wohlmöglich haben die dann auch das Setting für die auto noisereduction noch aktiv, die mit .Cine einhergeht.



Antwort von iasi:

dienstag_01 hat geschrieben:
Red spricht von 16-bit color depth bei RedRaw und 16-Bit-Verarbeitung beim Farbmanagement - das muss wirklich nicht bedeuten, dass ein 16 bit A/D genutzt wird.
Sondern? Nichts.
Wenn ich sage, die Garage ist weiß, bedeutet es ja auch nicht, dass das Auto weiß ist.



Antwort von Mantas:

klusterdegenerierung hat geschrieben:
andieymi hat geschrieben:
Was ist dann der 16-Bit Output wert und wo sollen die 16-Bit herkommen? Das lässt sich auch testen: Kann man testen: https://www.cined.com/sony-fx6-lab-test ... avc-intra/
Die haben aber auch nicht ihre Hausaufgaben gemacht, denn dann wüßten die von CineD, dass das S-Gamut3 dem S-Gamut3.Cine aus Qualitätsgründen vorzuziehen ist.
Warum man dies ignoriert ist mir ein Rätsel, denn wenn man schon das max haben will, dann muß man es auch nutzen.

Wohlmöglich haben die dann auch das Setting für die auto noisereduction noch aktiv, die mit .Cine einhergeht.
Hast du das mal auch selbst getestet? Du sagst es ziemlich oft.
Vielleicht ist es wieder was, was die Kamera eigentlich nicht schafft, aber anbietet. Somit würde man Daten verschenken.

btw NoiseNoise im Glossar erklärt Reduction, steht im Artikel, dass es aus ist.

Kenne, ehrlich gesagt, niemanden der ohne.cine dreht. Der Mehraufwand ist erheblich größer für eine Qualität die keiner merkt(ist bei Venice vielleicht anders.



Antwort von dienstag_01:

iasi hat geschrieben:
dienstag_01 hat geschrieben:

Sondern?
Nichts.
Wenn ich sage, die Garage ist weiß, bedeutet es ja auch nicht, dass das Auto weiß ist.
Interessant, als ob es bei Red nur eine Marketingabteilung gäbe.



Antwort von iasi:

andieymi hat geschrieben:

Ich gebe Dir mit dem humorvoll recht - Das macht die 16-Bit Output der FX 6 von Sony ja so lachhaft. Wenn bei 16-Bit RAW Extern im 12-Bit RAW Container am Ende weniger messbare DR übrig bleibt, als im internen 10-Bit XAVC dank Denoisung. Was ist dann der 16-Bit Output wert und wo sollen die 16-Bit herkommen? Das lässt sich auch testen: Kann man testen: https://www.cined.com/sony-fx6-lab-test ... avc-intra/
Aber dir ist schon auch bewußt, dass dieser Vergleich nicht viel aussagt.
Einzig, dass bei 10-Bit XAVC in der Kamera ein NR gemacht wurde.

In einem youtube-Test-Video verglich einer die interne Aufnahme mit einer externen Raw-Aufnahme nach NR in der Post.
Da sah das Ergebnis eben schon mal ganz anders aus.

Der 16bit-Output bringt "richer colors", wie es Messerschmidt bezeichnet.
Soll heißen, die Farbabstufungen erlauben ein Grading, das die Farben nicht "zerfallen" lässt.
Auch kann man feiner arbeiten.

Was nutzt mir in der Praxis der tolle DR, wenn ich die Hauttöne nicht im "Zielbereich" habe und sie anpassen möchte, mir dann aber bei der Anpassung das Bild "zerreisst", weil die Farbabstufungen zu grob sind.
Bei Raw belichtet man schließlich nach ETTR.

RedRaw ist - wohl auch aufgrund der Patente - das beste komprimierte Raw-Format. Das würde ich mal behaupten.
Arri Raw punktet durch den Verzicht auf Komprimierung, was aber die mögliche Auflösung beschränkt.

Ich kenne das Material der Ursa 12k nicht, worauf ja BRaw besonders abgestimmt sein soll.
BRaw von der Pocket kommt jedoch nicht ganz an RedRaw heran, was an der Kamera liegen mag.

...



Antwort von iasi:

dienstag_01 hat geschrieben:
iasi hat geschrieben:


Nichts.
Wenn ich sage, die Garage ist weiß, bedeutet es ja auch nicht, dass das Auto weiß ist.
Interessant, als ob es bei Red nur eine Marketingabteilung gäbe.
Es gibt die Praxis und da zeigt sich eben die Qualität von Red Raw und somit den Kameras.
Und ich meine echte Praxis und nicht solche Vergleichstests.



Antwort von klusterdegenerierung:

Mantas hat geschrieben:
Kenne, ehrlich gesagt, niemanden der ohne.cine dreht. Der Mehraufwand ist erheblich größer für eine Qualität die keiner merkt(ist bei Venice vielleicht anders.
Da gibt es null Mehraufwand!
Cam auf S-Gamut3 stellen statt auf S-Gamut3.Cine.

In Resolve erkennt RCM automatisch das Gamut und wählt S-Gumut3 und die files sehen perfekt aus.
Das S-Gamut3 ist halt etwas größer und lässt ein deaktivieren der Rauschunterdrückung zu, bin mir nicht mehr ganz sicher ob .Cine das auch erlaubt, muß ich noch mal schauen.

Sony sagt ja selbt in dem schon von mir hier verlinktem Text, das wenn man max Quali haben möchte, dieses Gamut wählen soll.
Alister Chapman sagt in einem seiner FX6 Masterclass Videos, das selbe, meint aber das dieses Gamut händisch schwerer zu verarbeiten sei, da noch logiger als das .Cine.

Wenn man RCM mit Wide Gamut gewählt hat, passt dieser größere Farbraum auch da rein und wird wie gesagt automatisch gewählt und schafft eine perfekte Rec709 Darstellung und hat enorme Korrekturreserven.

Ich muß aber auch zugeben, das ich mich da auf Sony und Chapmann (auch im Manual steht es) verlassen habe und das .Cine dann erst garnicht benutze, ich möchte ja das maximum aus der Cam rausholen, wenn ich schon keinRaw verwende.

Ich habe Heute übrigens noch mal ein paar Tests mit dem 240p gemacht und es rauscht schon ganzschön, aber mit dem NoiseNoise im Glossar erklärt tool der Studio Version, bekommt man es sehr easy komplett weg, so das es dem der FS700 kaum noch in was nachsteht. :-)



Antwort von dienstag_01:

iasi hat geschrieben:
dienstag_01 hat geschrieben:

Interessant, als ob es bei Red nur eine Marketingabteilung gäbe.
Es gibt die Praxis und da zeigt sich eben die Qualität von Red Raw und somit den Kameras.
Und ich meine echte Praxis und nicht solche Vergleichstests.
Verstehe, echte Praxis.
Ich kenne gar keinen Sensor, der Werte für 16bit liefert.



Antwort von iasi:

dienstag_01 hat geschrieben:
iasi hat geschrieben:


Es gibt die Praxis und da zeigt sich eben die Qualität von Red Raw und somit den Kameras.
Und ich meine echte Praxis und nicht solche Vergleichstests.
Verstehe, echte Praxis.
Ich kenne gar keinen Sensor, der Werte für 16bit liefert.
Natürlich kennst du keinen, denn du weißt ja noch nicht mal welche Sensoren in den meisten Kameras stecken.

Angaben in den technischen Daten wie diese, helfen eben auch nicht wirklich weiter:
Farbtiefe 24 BitBit im Glossar erklärt (8 BitBit im Glossar erklärt pro Farbkanal), 30 BitBit im Glossar erklärt (10 BitBit im Glossar erklärt pro Farbkanal), 42 BitBit im Glossar erklärt (14 BitBit im Glossar erklärt pro Farbkanal) ;)



Antwort von roki100:

ich kenne auch gar keinen 16Bit Sensor.
Ich kann mir aber vorstellen, dass die verbauten Sensoren in RED Kameras mehr K's haben als angegeben und kameraintern wird das Bild zu niedrigere echte von RED angegebene K zusammengepresst wird, um quasi +2Bit mehr zu erhalten...?



Antwort von iasi:

roki100 hat geschrieben:
ich kenne auch kein 16Bit sensor. Ich kann mir aber vorstellen dass die verbauten Sensoren in RED Kameras mehr K's haben als angegeben und kameraintern das Bild zu niedrigere echte von RED angegebene K zusammengepresst wird, um quasi +2Bit mehr zu erhalten...?
Es ist eben vor allem ein Unterschied, ob die Sensordaten nun in 10bit hineingequetscht oder in 16bit gelegt werden.

Der Unterschied zwischen 12bit und 14bit ist übrigens nicht so gering, wie es anhand der reinen Zahlen scheint.

Relevant ist eben auch, wie die Raw-Daten gespeichert werden. Arri setzt hierbei auf unkomprimiert.

Ob ProResProRes im Glossar erklärt Raw denn nun überhaupt als Raw angesehen werden kann, ist ja z.B. gar nicht unumstritten.

Verwendet man in Resolve RedRaw wird geraten, man solle von 10bit auf 16bit umstellen - man kann es als Marketing abtun, aber mehr als 10bit bietet RedRaw jedenfalls. :)

Wirklich vergleichen kann man die Raw-Versionen sowieso nicht, denn sie laufen auf verschiedenen Kameras.
Aber man kann testen, wie weit sie sich biegen und kneten lassen.
Und da behaupte ich mal, dass RedRaw in diesem Kameravergleich die Nase vorn hat.



Antwort von roki100:

iasi hat geschrieben:
Und da behaupte ich mal, dass RedRaw in diesem Kameravergleich die Nase vorn hat.
Ich denke eher solche Technologie wie DualGain Sensoren, die nicht nur 12Bit können, sondern zusätzlich/unabhängig noch jeweils für dunkele und hellere Bereiche 14Bit können (bei BMD, wie bei deiner BMCC, zusätzlich 2 x 11Bit) und an den nächsten kamerainternen Prozess das ganze übergeben....
Wenn das ein Sensor kann, dann ist auch RAW da besser... Also momentan scheint das beste doch ArriRaw zu sein. :)



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Und da behaupte ich mal, dass RedRaw in diesem Kameravergleich die Nase vorn hat.
Ich denke eher solche Technologie wie DualGain Sensoren, die nicht nur 12Bit können, sondern zusätzlich/unabhängig noch jeweils für dunkele und hellere Bereiche 14Bit können (bei BMD, wie bei deiner BMCC, zusätzlich 2 x 11Bit) und an den nächsten kamerainternen Prozess das ganze übergeben....
Wenn das ein Sensor kann, dann ist auch RAW da besser... Also momentan scheint das beste doch ArriRaw zu sein. :)
Nicht immer den DR überstrapazieren.
Wichtig ist, wie sich das Material gestalten lässt. Wieviele Farbabstufungen man also z.B. bei den Hauttönen hat.
Ob nun in den Schatten noch Zeichnung ist, spielt (meist) weniger eine Rolle, als der Farbverlauf auf der Haut des Darstellers.
Nun stell dir auch noch vor, der Darsteller wird immer wieder von einem starken, roten Licht beleuchtet.



Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:

Ich denke eher solche Technologie wie DualGain Sensoren, die nicht nur 12Bit können, sondern zusätzlich/unabhängig noch jeweils für dunkele und hellere Bereiche 14Bit können (bei BMD, wie bei deiner BMCC, zusätzlich 2 x 11Bit) und an den nächsten kamerainternen Prozess das ganze übergeben....
Wenn das ein Sensor kann, dann ist auch RAW da besser... Also momentan scheint das beste doch ArriRaw zu sein. :)
Nicht immer den DR überstrapazieren.
das wird natürlich für DR genutzt, aber dennoch sind die dunkele und hellere Bereiche dann cleaner...



Antwort von mash_gh4:

mittlerweile gibt es durchaus sensoren, die bereits mehr als 140db dynamic range erfassen können, aber trotzdem nur 10 od. 12bit raw-daten übergeben -- z.b. den ON Semi AR0821, den man immer öfter in verschiedensten industriekameras findet.

https://www.onsemi.com/design/resources ... -ehdr-mode
https://www.onsemi.com/products/sensors ... s/ar0821cs

https://www.youtube.com/watch?v=WsVH1PRmeIA

allerdings nutzt man derartige verrückte fähigkeiten eher dort, wo kein kameramann mehr in der nähe ist, der mitdenken könnte und handwerklich vernünftige entscheidungen trifft, um möglichst gute bilder aus dem genutzten gerät herauszuholen, sondern vielmehr in fällen, wo irgendwelche abläufe auch noch unter widrigsten bedingungen völlig automatisiert erfasst und verarbeitet werden müssen und ästhetische fragen keine große rolle spielen.



Antwort von roki100:

hmmm 140db !
Das wären etwa 30 Stops +/- oderso... Ne! ;)



Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:


@ Frank und freezer
Wie macht ihr das so mit HR ?
Mit welchen ISO Werten filmt ihr eigentlich (meistens) ?
Fast immer bei ISO 800.
HR brauch ich eigentlich nie, weil ich entsprechend belichte.
Deshalb nutze ich auch nach wie vor Vari NDs statt der eingebauten Filter, die Varis geben mir ne viel genauere, völlig stufenlose und präzise Kontrolle statt der paar groben Abstufungen der eingebauten.



Antwort von andieymi:

klusterdegenerierung hat geschrieben:
Die haben aber auch nicht ihre Hausaufgaben gemacht, denn dann wüßten die von CineD, dass das S-Gamut3 dem S-Gamut3.Cine aus Qualitätsgründen vorzuziehen ist.
Warum man dies ignoriert ist mir ein Rätsel, denn wenn man schon das max haben will, dann muß man es auch nutzen.

Wohlmöglich haben die dann auch das Setting für die auto noisereduction noch aktiv, die mit .Cine einhergeht.
Ich kann Dir tatsächlich nicht sagen, wie es sich mit S-Gamut3 und S-Gamut3.Cine bei der FX6 verhält. Weiß ich nicht. Mein Punkt war: Wäre das 16-Bit auch nur annähernd der Mehrwert, wäre es einfach technisch besser. Stattdessen bekommt man ein Bittiefen und speicherverbrauchsmäßig hochskaliertes Bild, ohne echten Mehrwert und Leute geben sogar noch Geld für einen externen Recorder aus, weil Sony etwas anpreist, das - sollten tatsächlich irgendwie 16-Bit drin sein - keinen Unterschied macht.

Die Denoising-Sache ist allerdings etwas, das man nicht vernachlässigen sollte. Sieht man jetzt die Imatest-Stufen an, ist da allerdings einfach nicht mehr am unteren Ende da, das von manuellem Entrauschen profitieren würde.

Ich habe mir die Vergleichstest angeschaut und ich finde die Unterschiede im Bild tatsächlich vernachlässigbar. Kein Projekt wird scheitern, weil es auf C70/FX6/Komodo gedreht wurde. Das ist wie mit synthetischen Benchmarks bei PCs. Wobei der ursprünglich verlinkte Test vmtl der aussagekräftigste war und am wenigsten bildverändernde Ungereimtheiten (Belichtungsunterschiede, heftiges Grading, etc.) für mich aufgewiesen hat.



Antwort von pillepalle:

Shit... und ich dachte immer mit der richtigen Kamera sieht plötzlich alles aus wie großes Kino 🙃

VG



Antwort von roki100:

pillepalle hat geschrieben:
Shit... und ich dachte immer mit der richtigen Kamera sieht plötzlich alles aus wie großes Kino 🙃
Mit der Z9 bestimmt ;)



Antwort von klusterdegenerierung:

andieymi hat geschrieben:
Mein Punkt war: Wäre das 16-Bit auch nur annähernd der Mehrwert, wäre es einfach technisch besser. Stattdessen bekommt man ein Bittiefen und speicherverbrauchsmäßig hochskaliertes Bild, ohne echten Mehrwert und Leute geben sogar noch Geld für einen externen Recorder aus, weil Sony etwas anpreist, das - sollten tatsächlich irgendwie 16-Bit drin sein - keinen Unterschied macht.
Hast Du denn ein paar test für Dich gemacht?
Ich hatte ja einen Shogun7 extra gekauft, allerdings mit der vergeblichen Hoffnung das Resolve mit einsteigt, was ja nix wurde.

Die endlos aufgeblasene Konvertierungszeremonie in Premiere, damit man es überhaupt lesen kann, war natürlich völlig kontraproduktiv und wahrscheinlich war mehr Luft in den Files als Daten.
Ob das Raw mehr hergab als das Intra, konnte ich nicht mal ausmachen, denn ich hatte persönlich kaum Material wo man Raw hätte zwingend benötigt.

Dass das Raw natürlich mehr rauscht als das Intra, war ja zu erwarten, war ja bei der FS700 auch schon so, allerdings empfand ich das jetzt nicht dramatisch und lies sich auch easy inResolve entfernen.

Meine Vermutung ist, wenn Resolve das PRR fressen würde wie das Intra, dann würde sich auch ein benefit kristalisieren, aber mit dieser rumkonvertiererei durch zig Programme, sehe ich eher Verluste als Gewinne.

Aber am Ende ist ja immer die Frage, was macht man überhaubt, das man so sehr an die Grenzen kommt, das man Raw braucht?
Statt eines Recorders würde ja vielleicht ein proper WB oder mal ein Belichtungsmesser und etwas Licht für den einen oder anderen genauso funktionieren. :-)



Antwort von Mantas:

klusterdegenerierung hat geschrieben:
Da gibt es null Mehraufwand!
Cam auf S-Gamut3 stellen statt auf S-Gamut3.Cine.

In Resolve erkennt RCM automatisch das Gamut und wählt S-Gumut3 und die files sehen perfekt aus.
Das S-Gamut3 ist halt etwas größer und lässt ein deaktivieren der Rauschunterdrückung zu, bin mir nicht mehr ganz sicher ob .Cine das auch erlaubt, muß ich noch mal schauen.
Noise Reduction kann man auch bei cine ausstellen, warum sollte man es nicht.

Trotzdem wäre ein Test interessant. Die meisten LUTS sind auch für cine gemacht. Sonst braucht man für andere NLEs 2 LUTS.
Seitdem ich cine kenne, komme ich leichter zu besseren Ergebnissen.



Antwort von klusterdegenerierung:

Aber warum denn überhaupt lut, denn die sind ja immer nie wirklich ganz passend?
Hast Du mal RCM ausprobiert, ich kann das immer nur predigen, es gibt nichts einfacheres?

Einmal ein Projekt erstellt mit RCM und input wide Gamut, Ziel Rec709 und fertig.
Files auf der timeline ablegen und fertig, nix weiter, höchtens noch etwas nachbessern wenn überhaupt!

Der ganze Spuk mit hin und her interpretieren oder luts dranhängen und aufpassen das sie an der richtige Stelle liegt etc. pp, alles weg.
Es geht einfach nicht einfacher und ich denke darin liegt auch schon Pudels Kern begraben, denn a schafft es kein Vertrauen wenn man nix mehr machen muß und B wäre das ja zu schön um wahr zu sein, sowas geht ja nichteinmal mit ACES, wie soll das dann gehen?

Ich habe noch nie so wenig am Material machen müßen, seit dem ich RCM mit wide Gamut nutze, das ist Kinderleicht, da Resolve das richtige Gamut nach footage auswählt, also auch wenn unterschiedliche Cams genutzt werden.

Hier 2 screenshots wie es aufgenommen wurde und das andere dann auf der TimelineTimeline im Glossar erklärt abgelegt, easier gehts nicht und die Farben stimmen.



Antwort von Mantas:

ok verstehe.

nicht jeder arbeitet in Davinci, bzw sogar ganz selten.
Meistens gebe ich mein Material ab und erstelle für einzelne Projekte eine LUT für die ungefähre Richtung. Fährt sich ganz gut damit :)

Und es gibt sehr viele LUTS die super passen, besser als die Originalen.

btw wie das log Rohmaterial ausschaut ist doch echt Schnuppe, warum zeigen das so viele so gerne



Antwort von iasi:

andieymi hat geschrieben:

Mein Punkt war: Wäre das 16-Bit auch nur annähernd der Mehrwert, wäre es einfach technisch besser. Stattdessen bekommt man ein Bittiefen und speicherverbrauchsmäßig hochskaliertes Bild, ohne echten Mehrwert und Leute geben sogar noch Geld für einen externen Recorder aus, weil Sony etwas anpreist, das - sollten tatsächlich irgendwie 16-Bit drin sein - keinen Unterschied macht.
Da sind eigentlich 2 Punkt drin versteckt:

1. Es gibt eben sehr wohl einen Mehrwert selbst beim DR. Du hängst dich zu sehr an der Zahl 16 auf. Man holt aber eben mit hochwertigem Raw, mehr aus der Aufnahme.

2. Es sind die Abstufungen in den Mitten und nicht in den Lichtern oder Schatten, auf die es ankommt. Und gerade hier bietet hochwertiges Raw das bedeutende Plus an Gestaltungsspielraum und Robustheit. Und dafür bezahlen Leute dann eben auch bereitwillig mehr.



Antwort von iasi:

klusterdegenerierung hat geschrieben:

Aber am Ende ist ja immer die Frage, was macht man überhaubt, das man so sehr an die Grenzen kommt, das man Raw braucht?
Statt eines Recorders würde ja vielleicht ein proper WB oder mal ein Belichtungsmesser und etwas Licht für den einen oder anderen genauso funktionieren. :-)
Es sind die extremen Situtionen, in denen man von Raw profitiert.
Nimm z.B. eine Nachtaufnahme mit dem rottierenden Licht eines stehenden Krankenwagens, das immer wieder das Gesicht einer Person erhellt.
Oder das Licht einer roten Leuchtreklame.
...

Raw hilft zudem, die Gestaltungsmöglichkeit der Post maximal ausschöpfen zu können.



Antwort von Darth Schneider:

RAW braucht man nicht.
RAW ist auch nicht grundsätzlich besser, als LOG Codecs.
Entweder man will mit RAW arbeiten, oder eben nicht.
Man hat ja die Wahl und das ist auch gut so.
Verschiedene Möglichkeiten für verschiedene Art von Menschen.
Und Gestaltungsmöglichkeiten in Post optimal ausnutzen geht doch ausserdem auch mit ProResProRes im Glossar erklärt und auch inzwischen mit einigen anderen vergleichbaren Codecs.
Gruss Boris



Antwort von roki100:

https://youtu.be/84J48g7t2WY?t=154

Man sieht doch, da ist nicht wirklich ein gewaltiger unterschied...Es ist alles minimal bzw. sichtbar in den Farbenbereich wo man auch mit 14Bit nicht soweit gehen würde...



Antwort von iasi:

"Darth Schneider" hat geschrieben:
RAW braucht man nicht.
RAW ist auch nicht grundsätzlich besser, als LOG Codecs.
Stimmt eben leider nicht.
LOG dient nur dazu den DR reinzuquetschen.
Es verringert dabei sogar noch die Abstufungen, auf die es ankommt.

Es geht um die Zahl der Farben und nicht um die Zahl der Stops.



Antwort von Darth Schneider:

Nein, eigentlich geht es ausschliesslich darum ob der gemachte Film dann dem Publikum auch gefällt, oder nicht.
Und das hat rein gar nix mit DR, Auflösung, auch nicht mit Codecs, oder mit sonstigen technischen Details zu tun, die man als normaler Mensch, fast nur mit dem Mikroskop erkennen kann.;)

Jetzt mal im Ernst, iasi.
Denkst du nicht du verfängst dich gedanklich, vor lauter denken und analysieren, langsam aber sicher in den ganzen Pixeln..?
Und siehst den Wald vor lauter Bäumen nicht mehr ?
Und vergisst dabei was beim Filmemachen wirklich wichtig ist ?
Gruss Boris



Antwort von pillepalle:

"Darth Schneider" hat geschrieben:
Und siehst den Wald vor lauter Bäumen nicht mehr ?
Und vergisst dabei was beim Filmemachen wirklich wichtig ist ?
Die Wollmütze?

VG



Antwort von srone:

pillepalle hat geschrieben:
"Darth Schneider" hat geschrieben:
Und siehst den Wald vor lauter Bäumen nicht mehr ?
Und vergisst dabei was beim Filmemachen wirklich wichtig ist ?
Die Wollmütze?

VG
im moment wohl eher die ffp-2 maske...;-)

mal sehen, wann dann das passende ki plug-in "mask away" kommt...:-))

lg

srone



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Nein, eigentlich geht es darum ob der gemachte Film dann dem Publikum auch gefällt…..

Jetzt mal im Ernst, iasi.
Denkst du nicht du verfängst dich gedanklich, vor lauter denken und analysieren, langsam aber sicher in den ganzen Pixeln..?
Und siehst den Wald vor lauter Bäumen nicht mehr ?
Und vergisst dabei was beim Filmemachen wirklich wichtig ist ?
Gruss Boris
Das ist jetzt aber ziemliches Blabla.

Sonst werden die Arri-Cams als das Maß aller Dinge gesehen, aber wenn Arri sein Arri Raw im Vergleich zu ProResProRes im Glossar erklärt lobt, zählt dies plötzlich nichts mehr.

Ich habe verschiedene Kameras und ich sehe den Unterschied der Formate, die sie ausgeben.
RedRaw ist dabei nun einmal herausragend.
Arri Raw hab ich nicht, aber ich nehme an, dass es ebenso herausragend ist.
CinemaDNG meiner alten BMCC ist ebenfalls sehr gut - leider limitiert der Sensor.
BRaw ist OK.
ProRes HQ oder die anderen 10bit-Codecs sind limitierend.



Antwort von pillepalle:

srone hat geschrieben:
mal sehen, wann dann das passende ki plug-in "mask away" kommt...:-))
Vor allem brauchen wir jetzt erstmal eine Kamera mit Masken-AF... sonst drehen wir gar nix mehr :)

VG



Antwort von roki100:

Bei Arri wird aber ProResProRes im Glossar erklärt öfter genutzt, nur RED übertreibt da und sieht das als Proxy... ;) Die übertreiben auch mit DR und sagen es ist 15+ Stops, ist aber bloß nur +HR und auch damit nur ca. 12 Stops ;)

Und das ist nicht "iasi ärgern" oderso, ich schreibe einfach (wie immer) nur die Wahrheit.



Antwort von srone:

iasi hat geschrieben:
"Darth Schneider" hat geschrieben:
Nein, eigentlich geht es darum ob der gemachte Film dann dem Publikum auch gefällt…..

Jetzt mal im Ernst, iasi.
Denkst du nicht du verfängst dich gedanklich, vor lauter denken und analysieren, langsam aber sicher in den ganzen Pixeln..?
Und siehst den Wald vor lauter Bäumen nicht mehr ?
Und vergisst dabei was beim Filmemachen wirklich wichtig ist ?
Gruss Boris
Das ist jetzt aber ziemliches Blabla.

Sonst werden die Arri-Cams als das Maß aller Dinge gesehen, aber wenn Arri sein Arri Raw im Vergleich zu ProResProRes im Glossar erklärt lobt, zählt dies plötzlich nichts mehr.

Ich habe verschiedene Kameras und ich sehe den Unterschied der Formate, die sie ausgeben.
RedRaw ist dabei nun einmal herausragend.
Arri Raw hab ich nicht, aber ich nehme an, dass es ebenso herausragend ist.
CinemaDNG meiner alten BMCC ist ebenfalls sehr gut - leider limitiert der Sensor.
BRaw ist OK.
ProRes HQ oder die anderen 10bit-Codecs sind limitierend.
unter einer absoluten sichtweise gebe ich dir recht, aber arbeitet man eben passend zum zielformat/zielabspielort, weils schnell und einfach sein soll, darfs gerne unter kontrollierten bedingungen auch mal prores-hq oder h264/265 sein, sofern korrekt belichtet und beleuchtet, alles im rahmen einer entscheidungsfindung für die sache, eben..."you have to made a decision!", diese entscheidungsfindung sehe ich als entscheidenden schritt meiner kameraarbeit und habe kein problem meine gh-2"s für die grossen einzusetzen (empfehlenswert mit canon fd 50 1,4, 85 1,8 oder 135 2,5, mit oder ohne speedbooster), wenn wir bei art vs film ein multicam setup benötigen, da kommt eh beauty drüber...;-)

lg

srone



Antwort von roki100:

iasi hat geschrieben:
CinemaDNG meiner alten BMCC ist ebenfalls sehr gut - leider limitiert der Sensor.
Der Sensor von BMCC 2.5K, ist aber ein kleiner ALEV... ;)



Antwort von iasi:

roki100 hat geschrieben:
Bei Arri wird aber ProResProRes im Glossar erklärt öfter genutzt, nur RED übertreibt da und sieht das als Proxy... ;) Die übertreiben auch mit DR und sagen es ist 15+ Stops, ist aber bloß nur +HR und auch damit nur ca. 12 Stops ;)

Und das ist nicht "iasi ärgern" oderso, ich schreibe einfach (wie immer) nur die Wahrheit.
Und du denkst da dann an ProResProRes im Glossar erklärt HQ?
ProRes 4444 XQ !

Und frag dich doch mal, weshalb die großen Produktion heute Arri Raw nutzen.

Die Wahrheit ist, dass du nicht auf dem aktuellen Stand bist.



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
CinemaDNG meiner alten BMCC ist ebenfalls sehr gut - leider limitiert der Sensor.
Der Sensor von BMCC 2.5K, ist aber ein kleiner ALEV... ;)
Schön wär"s. :)



Antwort von roki100:

iasi hat geschrieben:
Und du denkst da dann an ProResProRes im Glossar erklärt HQ?
ProRes 4444 XQ !
ja, sicherlich auch in ProResProRes im Glossar erklärt HQ. Schließlich steht das nicht umsonst zur Verfügung...sondern um es zu benutzen.



Antwort von iasi:

srone hat geschrieben:
iasi hat geschrieben:


Das ist jetzt aber ziemliches Blabla.

Sonst werden die Arri-Cams als das Maß aller Dinge gesehen, aber wenn Arri sein Arri Raw im Vergleich zu ProResProRes im Glossar erklärt lobt, zählt dies plötzlich nichts mehr.

Ich habe verschiedene Kameras und ich sehe den Unterschied der Formate, die sie ausgeben.
RedRaw ist dabei nun einmal herausragend.
Arri Raw hab ich nicht, aber ich nehme an, dass es ebenso herausragend ist.
CinemaDNG meiner alten BMCC ist ebenfalls sehr gut - leider limitiert der Sensor.
BRaw ist OK.
ProRes HQ oder die anderen 10bit-Codecs sind limitierend.
unter einer absoluten sichtweise gebe ich dir recht, aber arbeitet man eben passend zum zielformat/zielabspielort, weils schnell und einfach sein soll, darfs gerne unter kontrollierten bedingungen auch mal prores-hq oder h264/265 sein, sofern korrekt belichtet und beleuchtet, alles im rahmen einer entscheidungsfindung für die sache, eben..."you have to made a decision!", diese entscheidungsfindung sehe ich als entscheidenden schritt meiner kameraarbeit und habe kein problem meine gh-2"s für die grossen einzusetzen (empfehlenswert mit canon fd 50 1,4, 85 1,8 oder 135 2,5, mit oder ohne speedbooster), wenn wir bei art vs film ein multicam setup benötigen, da kommt eh beauty drüber...;-)

lg

srone
Wobei du eigentlich kaum mehr Vorteile hast, wenn du statt z.B. RedRaw nun ProResProRes im Glossar erklärt HQ nutzt. Umgekehrt hingegen schon.

Wenn du ohne Grading ein Ergebnis haben möchtest, sieht es natürlich anders aus - das ist dann eben Videofilmen. Klar kann dies für Einsätze, wie du sie schilderst sinnvoll sein.
Ich nehm auch nicht meine Red für alles.
Dazu zähle ich übrigens auch die LUT-drüber und fertig Geschichten.



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Und du denkst da dann an ProResProRes im Glossar erklärt HQ?
ProRes 4444 XQ !
ja, sicherlich auch in ProResProRes im Glossar erklärt HQ. Schließlich steht das nicht umsonst zur Verfügung...sondern um es zu benutzen.
Das ist dann für Leute, die ihre Arri- oder Red-Cam für Sachen nutzen wollen, bei denen es auch eine günstigere Kamera auch getan hätte.



Antwort von srone:

iasi hat geschrieben:
Wobei du eigentlich kaum mehr Vorteile hast, wenn du statt z.B. RedRaw nun ProResProRes im Glossar erklärt HQ nutzt. Umgekehrt hingegen schon.

Wenn du ohne Grading ein Ergebnis haben möchtest, sieht es natürlich anders aus - das ist dann eben Videofilmen. Klar kann dies für Einsätze, wie du sie schilderst sinnvoll sein.
Ich nehm auch nicht meine Red für alles.
Dazu zähle ich übrigens auch die LUT-drüber und fertig Geschichten.
ein bischen grading muss schon sein, aber pro res hq ist doch auch da, fast schon overkill, wenn mans richtig beleuchtet und belichtet gefilmt hat, da komm ich auch mit 8bit 4:2:04:2:0 im Glossar erklärt 28mbit avchd aus der gh-2 noch klar...was ist idr bei sowas web/imagefilm, das zielformat? sicher kein dcp...;-)

lg

srone



Antwort von iasi:

srone hat geschrieben:
iasi hat geschrieben:
Wobei du eigentlich kaum mehr Vorteile hast, wenn du statt z.B. RedRaw nun ProResProRes im Glossar erklärt HQ nutzt. Umgekehrt hingegen schon.

Wenn du ohne Grading ein Ergebnis haben möchtest, sieht es natürlich anders aus - das ist dann eben Videofilmen. Klar kann dies für Einsätze, wie du sie schilderst sinnvoll sein.
Ich nehm auch nicht meine Red für alles.
Dazu zähle ich übrigens auch die LUT-drüber und fertig Geschichten.
ein bischen grading muss schon sein, aber pro res hq ist doch auch da, fast schon overkill, wenn mans richtig beleuchtet und belichtet gefilmt hat, da komm ich auch mit 8bit 4:2:04:2:0 im Glossar erklärt 28mbit avchd aus der gh-2 noch klar...was ist idr bei sowas web/imagefilm, das zielformat? sicher kein dcp...;-)

lg

srone
Wenn alles ideal ausgeleuchtet und belichtet ist, dann verhält es sich wie mit ordentlichen Objektiven, die man ideal abblendet: Alle liefern gute Ergebnisse.
Das zeigte doch auch schon das Camerashootout 2012.

Aber dann muss man sich natürlich auch die Frage stellen:
Warum werden teure Kameras wie die von Arri genutzt?



Antwort von klusterdegenerierung:

Mantas hat geschrieben:
btw wie das log Rohmaterial ausschaut ist doch echt Schnuppe, warum zeigen das so viele so gerne
Weil Dir das nur zeigen sollte wie das abläuft, denn zwischen diesen beiden Bildern habe ich genau nix machen müßen!
Normalerweiße liegt ja oft sogar ein ganzer node bassierter Korrekturprozess bzw lut auf dem footage bevor es überhaupt los geht.

In diesem Fall ist noch keine node angetreten und das schöne am ganzen ist ja, das wenn Du jetzt Amira und Ursa Material dazu legst, hat das Amira ein Arri Gamut und das Ursa ein BMD Gamut und Du kannst dich bei allen erstmal auf den Schnitt konzentrieren was auch besser geht, das Du schon korrekte Farben siehst und Du brauchst nur noch eine kleine Korrektur node und mußt nicht mit einer lut am Ende rumhampeln und diese vielleich auch noch korrigieren.

Ist aber auch Geschmackssache, ich zumindest hatte vorher immer Probleme mit dem WB, der eigentlich gemessen und stimmig war, dann aber doch nicht passte und Korrekturen irgendwie nicht so super passten, das habe ich nun garnicht mehr, das ist nun tatsächlich, wysiwyg.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
LOG dient nur dazu den DR reinzuquetschen.
Es verringert dabei sogar noch die Abstufungen, auf die es ankommt.
Es geht um die Zahl der Farben und nicht um die Zahl der Stops.
Das war vielleicht noch zu Zeiten der Prohibition, aber log ist doch längst nicht mehr so eine Krücke wie am Anfang, zudem zeichnet fasst jede professionelle Produktion in Log auf, wenn es nicht Raw sein muß.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
Mantas hat geschrieben:
btw wie das log Rohmaterial ausschaut ist doch echt Schnuppe, warum zeigen das so viele so gerne
Weil Dir das nur zeigen sollte wie das abläuft, denn zwischen diesen beiden Bildern habe ich genau nix machen müßen!
Normalerweiße liegt ja oft sogar ein ganzer node bassierter Korrekturprozess bzw lut auf dem footage bevor es überhaupt los geht.
Das ist der Videofilmer-Workflow.
Was früher die Videokamera intern automatisch gemacht hatte, das macht der Videofilmer heute mit einem Klick am Rechner und verkauft dies dann sogar noch als Grading. :)



Antwort von Mantas:

Ihr videofilmer, pff



Antwort von Funless:

iasi hat geschrieben:
Camerashootout 2012
So oft wie du dieses ominöse Shootout rauskamst will ich doch wirklich für dich hoffen, dass du von den damaligen Organisatoren dieses Events zum Dank nächstes Jahr zur zehnjährigen Jubiläumsfeier eingeladen wirst ..



Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:

Weil Dir das nur zeigen sollte wie das abläuft, denn zwischen diesen beiden Bildern habe ich genau nix machen müßen!
Normalerweiße liegt ja oft sogar ein ganzer node bassierter Korrekturprozess bzw lut auf dem footage bevor es überhaupt los geht.
Das ist der Videofilmer-Workflow.
Was früher die Videokamera intern automatisch gemacht hatte, das macht der Videofilmer heute mit einem Klick am Rechner und verkauft dies dann sogar noch als Grading. :)
Ach iasi, das kommt davon wenn Du immer mit Deiner RED immer nur in Raw filmst, dann weißt Du nämlich garnicht, das wenn es in der Kamera schon so ausschaut, sich Rec709 schimpft und sich kaum noch korrigieren lässt, aber woher solltest Du sowas auch wissen, mit sowas banalem gibst Du Dich doch längst nicht mehr ab.

Das dies ein professioneller zeitsparender workaround ist der die Reserven und Dynamik des Log schützt trotz Rec709 look, scheint Dir verborgen zu bleiben. :-)



Antwort von klusterdegenerierung:

Geiles Teil, wenn ich ne Komode hätte, würd ichs mir sofort kaufen. :-)





Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


ja, sicherlich auch in ProResProRes im Glossar erklärt HQ. Schließlich steht das nicht umsonst zur Verfügung...sondern um es zu benutzen.
Das ist dann für Leute, die ihre Arri- oder Red-Cam für Sachen nutzen wollen, bei denen es auch eine günstigere Kamera auch getan hätte.
Mir gefällt bei Arri allein schon default LOG_to_Rec709 (egal ob in 12 oder 10 Bit), zumindest bei der 3.2K Alexa das grünliche im Bild... :)



Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:
Camerashootout 2012
So oft wie du dieses ominöse Shootout rauskamst will ich doch wirklich für dich hoffen, dass du von den damaligen Organisatoren dieses Events zum Dank nächstes Jahr zur zehnjährigen Jubiläumsfeier eingeladen wirst ..
Hast du deinen jährlichen Test mit dem fallenden Apfel auch filmisch festgehalten?
Man kann froh sein, dass Leute wie du, immer wieder überprüfen, ob der Apfel dann auch zu Boden fällt. :)



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:


Das ist der Videofilmer-Workflow.
Was früher die Videokamera intern automatisch gemacht hatte, das macht der Videofilmer heute mit einem Klick am Rechner und verkauft dies dann sogar noch als Grading. :)
Ach iasi, das kommt davon wenn Du immer mit Deiner RED immer nur in Raw filmst, dann weißt Du nämlich garnicht, das wenn es in der Kamera schon so ausschaut, sich Rec709 schimpft und sich kaum noch korrigieren lässt, aber woher solltest Du sowas auch wissen, mit sowas banalem gibst Du Dich doch längst nicht mehr ab.

Das dies ein professioneller zeitsparender workaround ist der die Reserven und Dynamik des Log schützt trotz Rec709 look, scheint Dir verborgen zu bleiben. :-)
Das ist es aber eben doch, was den Videofilmer so erfreut:
Es gibt das Knöpfchen bzw. den LUT nicht nur für Rec709 und auch nur einen Look.
Wie im Katalog kann er zwischen verschiedenen Größen und Farben wählen. ;)



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Das ist es aber eben doch, was den Videofilmer so erfreut:
Es gibt das Knöpfchen bzw. den LUT nicht nur für Rec709 und auch nur einen Look.
Wie im Katalog kann er zwischen verschiedenen Größen und Farben wählen. ;)
Look?
Iasi ich glaub Du weißt null was Log & RCM bedeutet, mach doch mal einen VHS Kurs, würde Dir ganz gut tun.

Ach wußtest Du, das Raw nur ein look ist.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Das ist es aber eben doch, was den Videofilmer so erfreut:
Es gibt das Knöpfchen bzw. den LUT nicht nur für Rec709 und auch nur einen Look.
Wie im Katalog kann er zwischen verschiedenen Größen und Farben wählen. ;)
Look?
Iasi ich glaub Du weißt null was Log & RCM bedeutet, mach doch mal einen VHS Kurs, würde Dir ganz gut tun.

Ach wußtest Du, das Raw nur ein look ist.
Und du solltest mal einen Kurs zum echten Grading machen.
Bei der VHS bekommst du den aber eben nicht, denn da sind die Videofilm-Grader unterwegs. ;)
Die reden auch ständig über Log, RCM, look und und und - und natürlich über cinematisch. :)
Das beeindruckt dann natürlich die VHS-Schüler. ;)



Antwort von Darth Schneider:

@roki
Was ?
Dir gefällt eine Arri mit Grünstich ?
Ich denke wenn die Arri einen Grünstich hat ist sie eher kaputt.;)
Und ich dachte das sind nur manche, übermotivierte, frischgebackene Muttis, die sogar den Kot in der stinkigen Windel von ihrem Baby noch süss finden….
Gruss Boris



Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:


So oft wie du dieses ominöse Shootout rauskamst will ich doch wirklich für dich hoffen, dass du von den damaligen Organisatoren dieses Events zum Dank nächstes Jahr zur zehnjährigen Jubiläumsfeier eingeladen wirst ..
Hast du deinen jährlichen Test mit dem fallenden Apfel auch filmisch festgehalten?
Man kann froh sein, dass Leute wie du, immer wieder überprüfen, ob der Apfel dann auch zu Boden fällt. :)
Weshalb sollte ich das tun? Ich bin ja nicht du.

Und dass du gerne mit haltlosen Stammtischparolen polarisieren möchtest ist ja nun auch nichts neues.



Antwort von Jott:

iasi hat geschrieben:
Es sind die extremen Situtionen, in denen man von Raw profitiert.
Nimm z.B. eine Nachtaufnahme mit dem rottierenden Licht eines stehenden Krankenwagens, das immer wieder das Gesicht einer Person erhellt.
Yep, ohne raw nicht umsetzbar. An solchen Szenen scheitern DoPs ohne raw seit Jahrzehnten! :-)



Antwort von pillepalle:

Nur solche wie iasi, die sich strikt gegen Planung oder den Einsatz von Licht aussprechen. Nur mit Akrobatik in der Post zeigt sich das wahre Können eines Filmemachers :)

VG



Antwort von andieymi:

iasi hat geschrieben:
Da sind eigentlich 2 Punkt drin versteckt:

1. Es gibt eben sehr wohl einen Mehrwert selbst beim DR. Du hängst dich zu sehr an der Zahl 16 auf. Man holt aber eben mit hochwertigem Raw, mehr aus der Aufnahme.

2. Es sind die Abstufungen in den Mitten und nicht in den Lichtern oder Schatten, auf die es ankommt. Und gerade hier bietet hochwertiges Raw das bedeutende Plus an Gestaltungsspielraum und Robustheit. Und dafür bezahlen Leute dann eben auch bereitwillig mehr.
Dann liefere ein Beispiel, wo das "16-Bit Raw" der FX6 mehr Dynamik, mehr Mittenabstufungen, irgendwo mehr bringt als das interne 10-Bit XAVC-Intra. Bis dahin bleib ich bei dem einem Beispiel, und das zeigt nur mehr Rauschen und damit weniger Dynamik. Kann ich zwar denoisen, dann schaut aber auch nicht mehr raus, als im internen mit internem Denoising. Dann fragt man sich halt, wie viel Mehrwert bringt das sogenannte Raw?

Kannst Du mehr als Mantra-artig runterbeten wie toll nicht Raw ist, wenn der Zweifel bei der FX6 ist ob das sogenannte Raw nicht eher ein Hoax ist?

Du musst mich auch nicht von der Sinnhaftigkeit von Raw überzeugen. Alles was ich in Frage stelle, ist ob bei genannter Kamera das Raw überhaupt Sinn macht.
"Darth Schneider" hat geschrieben:
@roki
Was ?
Dir gefällt eine Arri mit Grünstich ?
Ich denke wenn die Arri einen Grünstich hat ist sie eher kaputt.;)
Denkbar schlechtes Beispiel, eine Kamera zu einem Vergleichstest heranzuziehen, die offensichtlich Jahre nicht beim Service war. Die Arris werden alle grün, wenn sie über Jahre nicht irgendwann mal wieder einer Werkskalibrierung bekommen. Weiß ich in dem Fall aus Erfahrung, an der Hochschule gabs eine Alexa, eine Amira - die Alexa nur wenige Jahre älter und irgendwann kippt die so ins Grün, dass da nichts mehr mit "Matching" war.



Antwort von roki100:

das was ich meine ist aber kein defekt, nicht wirklich Grünstich sondern ein schönes Grün ;) keine Ahnung wie man das nennt, Mojo bzw. Filmmatrix oderso - und das sieht in meinen Augen cinematisch.... Anders als wie das z.B. bei der RED der Fall ist, mit diesem gelblichen oder bräunlichen Farbstich...

Frank meinte mal, dass das bei Arri Alexa an das Glass vor dem Sensor liegen könnte...? Weiß nicht mehr genau.
Das grüne hat sich bei manche ins Gehirn als cinema eingepflanzt und einige Graden dann den Look etwas mehr ins grüne...



Antwort von Frank Glencairn:

iasi hat geschrieben:

Es sind die extremen Situtionen, in denen man von Raw profitiert.
Nimm z.B. eine Nachtaufnahme mit dem rottierenden Licht eines stehenden Krankenwagens, das immer wieder das Gesicht einer Person erhellt.

Ich muß gestehen, das Blaulicht schon mal in der Post gefaked zu haben :D

..allerdings unabhängig von raw, das gabs damals noch nicht -war der erste Kurzfilm mit der DVX (und dem berüchtigten 35mm Adapter),
den ich damals für nen Wettbewerb gedreht hatte - is gefühlte 50 Jahre her.



Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:


Hast du deinen jährlichen Test mit dem fallenden Apfel auch filmisch festgehalten?
Man kann froh sein, dass Leute wie du, immer wieder überprüfen, ob der Apfel dann auch zu Boden fällt. :)
Weshalb sollte ich das tun? Ich bin ja nicht du.

Und dass du gerne mit haltlosen Stammtischparolen polarisieren möchtest ist ja nun auch nichts neues.
Nun - mir genügt ein Test aus dem Jahr 2012.

Stammtischparolen sind ja zudem dein Metier - das mache ich dir auch nicht streitig.



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Es sind die extremen Situtionen, in denen man von Raw profitiert.
Nimm z.B. eine Nachtaufnahme mit dem rottierenden Licht eines stehenden Krankenwagens, das immer wieder das Gesicht einer Person erhellt.

Ich muß gestehen, das Blaulicht schon mal in der Post gefaked zu haben :D

..allerdings unabhängig von raw, das gabs damals noch nicht -war der erste Kurzfilm mit der DVX (und dem berüchtigten 35mm Adapter),
den ich damals für nen Wettbewerb gedreht hatte - is gefühlte 50 Jahre her.
Blaulicht zu faken ist ja noch nicht mal der kritische Punkt.
Aber wenn der Darsteller immer wieder von Licht mit engem Spektrum angestrahlt wird, muss das Material eben etwas abkönnen und robust sein - dann sind viele Farbabstufungen gefragt.

Oder du hast eine Situation mit schwierigen Lichtverhältnissen.
Beispiel:
Ein Schwimmwettbewerb in einer Halle, durch deren Fenster Sonnenlicht hereinstrahlte. Dann aber eben Schattenbereiche, in denen das vom blauen Becken bzw. Wasser reflektierte Licht Wirkung zeigte. Es war gar nicht mal der DR das Problem, sondern eben die Hautfarben. Mit Leuchtmitteln war dem nicht entgegen zu wirken.
Zudem war es eigentlich eher ein Kameratest, um zu sehen, was die Kamera an DR und das Raw-Material an Spielraum bietet.



Antwort von Darth Schneider:

Es gibts auch auf der Bühne dieses blaue LED Licht, das eigentlich immer scheisse, aussieht, (auch weil die Haut der Tänzer so nach Zombie aussieht) und auf Video auch noch immer überstrahlt und irgendwie wie Ultraviolett wirkt.
Hatte ich auch schon grosse Probleme damit.
Seither bin ich beim Proben mit dem Beleuchter wenn immer ich auch kann mit dabei. Er kennt mich mittlerweile und vermeidet das Zombie Licht am Abend wenn ich filme.

In der Schwimmhalle bei einem Anlass mit Tageslicht ist das jedoch schwierig.
Da muss man leben mit dem was man hat…
Ausser die Fenster haben einen Sonnenschutz, oder Storen zum zu machen, und der Badmeister/Berteiber ein offenes Ohr für solche Probleme..;)
Gruss Boris



Antwort von Funless:

iasi hat geschrieben:
Stammtischparolen sind ja zudem dein Metier
Hast du Quellen hierzu?

Denn umgekehrt, kann ich gerne deine Stammtischparolen die du allein nur in diesem Thread bereits zum Besten gegeben hast zitieren.



Antwort von Darth Schneider:

Was habt ihr denn gegen einen Stammtisch mit Stamtischparolen ?
Das kann durchaus sehr viel Spass machen…
Schade hat SlashCAM keinen echten Stammtisch.
Gruss Boris



Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:
Es gibts auch auf der Bühne dieses blaue LED Licht, das eigentlich immer scheisse, aussieht, (auch weil die Haut der Tänzer so nach Zombie aussieht) und auf Video auch noch immer überstrahlt und irgendwie wie Ultraviolett wirkt.
Schmalbandiges Licht ist immer ein Problem beim Debaiering - wenn's drauf an kommt ausschalten oder modifizieren.



Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:
Stammtischparolen sind ja zudem dein Metier
Hast du Quellen hierzu?
Deine Beiträge hier auf Slashcam.



Antwort von pillepalle:

iasi hat geschrieben:
Oder du hast eine Situation mit schwierigen Lichtverhältnissen.
Beispiel:
Ein Schwimmwettbewerb in einer Halle, durch deren Fenster Sonnenlicht hereinstrahlte. Dann aber eben Schattenbereiche, in denen das vom blauen Becken bzw. Wasser reflektierte Licht Wirkung zeigte. Es war gar nicht mal der DR das Problem, sondern eben die Hautfarben. Mit Leuchtmitteln war dem nicht entgegen zu wirken.
Zudem war es eigentlich eher ein Kameratest, um zu sehen, was die Kamera an DR und das Raw-Material an Spielraum bietet.
Ich verstehe aber immer noch nicht worum es Dir bei Deinen Beispielen eigentlich geht? Bei szenischen Filmen kann ich mir doch die Bedingungen schaffen die ich brauche, auch in einer Schwimmhalle. Bei dir klingt das immer so wie ein Soloshooter, der jede Situation so nehmen muss wie sie kommt. Und wenn das Licht miserabel ist, dann muss man eben damit leben und auf die Post hoffen. Das hat doch nichts mit Filmemachen im eigentlichen Sinne zu tun? Selbst bei einer Doku kann man sich Situationen zurecht legen, oder zumindest etwas Einfluß darauf nehmen.

https://www.youtube.com/watch?v=eETAPKUbNmE

VG



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:
Es gibts auch auf der Bühne dieses blaue LED Licht, das eigentlich immer scheisse, aussieht, (auch weil die Haut der Tänzer so nach Zombie aussieht) und auf Video auch noch immer überstrahlt und irgendwie wie Ultraviolett wirkt.
Schmalbandiges Licht ist immer ein Problem beim Debaiering - wenn's drauf an kommt ausschalten oder modifizieren.
Nur geht dies eben nicht immer oder es wird als Gestaltungsmittel gewünscht.

Und dann hilft eben ein Raw-Format, das dennoch "genügend" Farben bietet, um den Tänzer nicht zu Zombie werden zu lassen.

So etwas fordert das Aufnahmematerial z.B. schon sehr:

zum Bild https://assets.cdn.moviepilot.de/files/ ... -ronin.jpg




Antwort von Darth Schneider:

Moment, wir reden hier von einer Live Show vor Publikum, nicht von einem szenischen Dreh.
Das heisst es muss live für das Publikum und auch auf Video gut aussehen, wichtiger ist und bleibt jedoch das Publikum im Saal.
Da nützt dir RAW genau mal auch nix….
Das geht nur mit echtem Licht.
Es werden ja abgesehen davon auch nicht alle Tänzer von dem problematischen Licht zusammen in der selben Szene angestrahlt, meistens nur 2, 3 Solisten….
Die anderen (meisten) Tänzerinnen nicht zwangsläufig.
Und ich kann den Beleuchter doch nur bitten ein paar Farben an ein paar einzelnen Lampen zu wechseln und nicht das gesamte Bühnenlicht über den Haufen zu werfen und nur für das Video ganz neu zu machen….

Ausserdem habe ich überhaupt kein Budget um nach dem Dreh 2 Wochen am Computer mit Details herum zu spielen…;)

Der schnell mal stündige Film muss normalerweise in ein zwei Tagen fertig geschnitten sein, inklusive Titel und Abspann (mit über einhundert Namen) und nach einer Woche sollten die ersten 20, besser 50 Kopien ready sein, und nach Bedarf ( je länger je weniger) noch mit DVD/BluRay Hüllen….Mach ich ja alles selber….

Das heisst für mich, irgend ein Licht Problem muss immer vor Ort ( auf der Bühne) schon in den Griff gekriegt werden.
Gruss Boris



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Moment, wir reden hier von einer Live Show vor Publikum, nicht von einem szenischen Dreh.
Das heisst es muss live für das Publikum und auch auf Video gut aussehen, wichtiger ist und bleibt jedoch das Publikum im Saal.
Da nützt dir RAW genau mal auch nix….
Das geht nur mit echtem Licht.
Es werden ja abgesehen davon auch nicht alle Tänzer von dem problematischen Licht zusammen in der selben Szene angestrahlt, meistens nur 2, 3 Solisten….
Die anderen (meisten) Tänzerinnen nicht zwangsläufig.
Und ich kann den Beleuchter doch nur bitten ein paar Farben an ein paar einzelnen Lampen zu wechseln und nicht das gesamte Bühnenlicht über den Haufen zu werfen und nur für das Video ganz neu zu machen….

Ausserdem habe ich überhaupt kein Budget um nach dem Dreh 2 Wochen am Computer mit Details herum zu spielen…;)

Der schnell mal stündige Film muss normalerweise in ein zwei Tagen fertig geschnitten sein, inklusive Titel und Abspann (mit über einhundert Namen) und nach einer Woche sollten die ersten 20, besser 50 Kopien ready sein, und nach Bedarf ( je länger je weniger) noch mit DVD/BluRay Hüllen….Mach ich ja alles selber….

Das heisst für mich, irgend ein Licht Problem muss immer vor Ort ( auf der Bühne) schon in den Griff gekriegt werden.
Gruss Boris
Raw nutzt dir in sofern etwas, dass es dir die Farben nicht zerreisst.
Es geht ja auch nicht darum, den blau angestrahlten Tänzern wieder einen natürlichen hautton hinzugraden, sondern eben den Zombie-look zu verhindern. Der entsteht eben, wenn die Frbübergänge abgekackt wirken und Farbverschiebungen sowie Entsättigung in den dunkeln und hellen Bereichen eintreten.

Aber ich verstehe durchaus, dass der Aufwand angemessen sein muss.
Und natürlich ist eine Lösung bei der Lichtsetzung meist vorzuziehen.
Aber wenn die Inszinierung nun einmal das blaue Licht verlangt, ...



Antwort von Mantas:

pillepalle hat geschrieben:

Ich verstehe aber immer noch nicht worum es Dir bei Deinen Beispielen eigentlich geht? Bei szenischen Filmen kann ich mir doch die Bedingungen schaffen die ich brauche, auch in einer Schwimmhalle. Bei dir klingt das immer so wie ein Soloshooter, der jede Situation so nehmen muss wie sie kommt. Und wenn das Licht miserabel ist, dann muss man eben damit leben und auf die Post hoffen. Das hat doch nichts mit Filmemachen im eigentlichen Sinne zu tun? Selbst bei einer Doku kann man sich Situationen zurecht legen, oder zumindest etwas Einfluß darauf nehmen.
videofilmer :)



Antwort von Darth Schneider:

Iasi
Dann gäbe es immer noch die klassischen uralten Bühnen Scheinwerfer,/Verfolger (keine LEDs) die zwar heiss werden und Strom brauchen ohne Ende. Wo man ganz einfach eine blaue Folie drauf klemmen könnte…;)

Wir haben damals selber fürs Ballettstudio 4 grosse Scheinwerfer angeschafft, die machen so schönes warmes, dimmbares Licht das ich sie gerne auch zum filmen oder fotografieren nutze.
Sind aber leider mindestens 20kg schwer und nur die Glühbirnen kosten 300 Pipen….
Gruss Boris



Antwort von prime:

pillepalle hat geschrieben:
Bei dir klingt das immer so wie ein Soloshooter, der jede Situation so nehmen muss wie sie kommt. Und wenn das Licht miserabel ist, dann muss man eben damit leben und auf die Post hoffen.
Das ist das iasi-System. In der Argumentation immer zwischen Soloshooter (low/zero-budget) und Deakins LKW-Licht rumspringen.



Antwort von roki100:

iasi hat geschrieben:
So etwas fordert das Aufnahmematerial z.B. schon sehr:

zum Bild https://assets.cdn.moviepilot.de/files/ ... -ronin.jpg
Also soweit ich weiß würde RedRaw da mit red clipping Channel nicht gut aussehen, also ähnlich wie BRAW+Gen4?



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
So etwas fordert das Aufnahmematerial z.B. schon sehr:

zum Bild https://assets.cdn.moviepilot.de/files/ ... -ronin.jpg
Also soweit ich weiß würde RedRaw da mit red clipping Channel nicht gut aussehen, also ähnlich wie BRAW+Gen4?
Wenn Red clippt, sieht das bei keiner Kamera gut aus.
Daher ist dies auch korrekt belichtet und nichts clippt.



Antwort von Darth Schneider:

Wie denn auch ? Licht strahlt doch überall hin….und die Leute bewegen sich da noch da rein und auch wieder raus…;)
Das heisst in einem FrameFrame im Glossar erklärt kann es noch clippen, im nächsten schon nicht mehr….
Film ist eben kein Standbild.
Gruss Boris



Antwort von roki100:

iasi hat geschrieben:
Wenn Red clippt, sieht das bei keiner Kamera gut aus.
Mit CDNG kein Problem ;)



Antwort von Darth Schneider:

@roki
Träume mal schön weiter. ( also jetzt nur auf die Bühne bezogen)
In einem schnellem Tanzstück wo die Lichtstimmung sehr schnell wechselt, würde sogar ein Frank mit der Ursa, oder ein Kluster mit seiner FX6 heftig ins schwitzen kommen….;)
Da kann man dann nur ein Mittelweg finden in der Belichtung und das was nachher etwas zu dunkel ist in Post dem Rest versuchen so gut wie möglich, ganz fein anzupassen.
Und wenn dann noch was clippts, dann ist und bleibt das so…..
Gruss Boris



Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:


Hast du Quellen hierzu?
Deine Beiträge hier auf Slashcam.
Etwas genauer bitte?

Nein natürlich nicht ..

Und jetzt darfst du weiter "polarisieren". Die Bühne gehört dir. 😉



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Träume mal schön weiter.
Gruss Boris
Wieso das? Informiere dich mal über "red clipping channel"... da gibt es zwar Lösungen (nicht ganz optimal aber immerhin), wie z.B. für deine P4K+BRAW in Verbindung mit "RED IPP2 Gamut Mapping" usw.



Antwort von Funless:

Ihr wisst aber schon, dass der obige Screenshot aus Avengers: Endgame stammt und diese Szene vor einem Greenscreen unter absolut kontrollierten Lichtbedingen gedreht wurde, oder etwa nicht?



Antwort von Darth Schneider:

Und das was ich oben geschrieben habe war immer noch auf das clipping bei dem für Video immer problematischen schmalbandigen Licht bezogen.
Nicht auf, grundsätzlich clipping bei farbigem Licht….
Das was du meinst liegt nur an der Belichtung in Kamera.
Gruss Boris



Antwort von klusterdegenerierung:

Was habt ihr eigentlich alle mit eurem clipping und Raw, ihr filmt doch garnicht. :-)



Antwort von Darth Schneider:

Nun ja, jetzt gerade nicht, aber sehr bald. Wenn nicht dann liegt’s nicht an mir, sondern an den vielleicht noch kommenden Corona Massnahmen.:)
Gruss Boris



Antwort von klusterdegenerierung:

Übrigens, ohne meine Erlaubnis als Besitzer des roten Video Threads, dürfen hier ohne zu Fragen weder rote Videos noch Screenshots daraus gepostet werden. :-) Hallloooo



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Wie denn auch ? Licht strahlt doch überall hin….und die Leute bewegen sich da noch da rein und auch wieder raus…;)
Das heisst in einem FrameFrame im Glossar erklärt kann es noch clippen, im nächsten schon nicht mehr….
Film ist eben kein Standbild.
Gruss Boris
Es kommt dabei auf den Kontrast an.
Mit ETTR würde man auf die Leute im Licht gehen und eventuell notgedrungen die Mittentöne etwas unterbelichten.
Der Vorteil bei Raw ist dann eben, dass man die Mitten hochziehen kann, während man die Lichter belässt.

Natürlich hat dies auch seine Grenzen, denn zu tief darf man die Mitten natürlich auch nicht absacken lassen.



Antwort von roki100:

iasi hat geschrieben:
Natürlich hat dies auch seine Grenzen, denn zu tief darf man die Mitten natürlich auch nicht absacken lassen.
wie tief genau darf man die Titten absacken lassen?



Antwort von Darth Schneider:

Einfach besser nicht soweit absacken lassen das die Damen nicht darüber stolpern.
Gruss Boris



Antwort von Darth Schneider:

@roki
Das wäre doch was für Blender ?
Die Frage ist nur welche Dame macht da freiwillig mit ?
Ich frag mal herum.
Gruss Boris



Antwort von srone:

roki100 hat geschrieben:
wie tief genau darf man die Titten absacken lassen?
geschmacklos und sexistisch, geht gar nicht...
;-(

lg

srone



Antwort von Darth Schneider:

Natürlich geht das…


Anhang:

Gruss Propellerman



Antwort von roki100:

ich meinte natürlich die Mitten. :D



Antwort von klusterdegenerierung:

:-)



Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Natürlich hat dies auch seine Grenzen, denn zu tief darf man die Mitten natürlich auch nicht absacken lassen.
wie tief genau darf man die Titten absacken lassen?
Das kommt auf die Körpchengröße an. :)



Antwort von iasi:

roki100 hat geschrieben:
ich meinte natürlich die Mitten. :D
Bei linearem Raw ist der Rauschteppich die Grenze.

Man kann es wohl auch daran festmachen, wie weit man bei einem Videocodec mit der ISO-Einstellung gehen würde. Der Unterschied zur nativen Empfindlichkeit kann dann als Orientierungswert dienen.



Antwort von Mantas:

iasi hat geschrieben:
...
Der Vorteil bei Raw ist dann eben, dass man die Mitten hochziehen kann, während man die Lichter belässt.
...
Dieser "Vorteil" geht bei rec709 nicht, bei log schon gar nicht.



Antwort von klusterdegenerierung:

Man braucht kein Raw, nur irgendeine Cam und ne Story!






Antwort von iasi:

Mantas hat geschrieben:
iasi hat geschrieben:
...
Der Vorteil bei Raw ist dann eben, dass man die Mitten hochziehen kann, während man die Lichter belässt.
...
Dieser "Vorteil" geht bei rec709 nicht, bei log schon gar nicht.
Nicht in dem Maße.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
Man braucht kein Raw, nur irgendeine Cam und ne Story!

... und schon kann man ein Video bei youtube hochladen. ;)



Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Man braucht kein Raw, nur irgendeine Cam und ne Story!

... und schon kann man ein Video bei youtube hochladen. ;)
Und deswegen wirst Du & Jörg in Deinem Leben keines mehr hochladen.



Antwort von Jörg:

ich ganz sicher nicht.



Antwort von srone:

...wär aber schon klasse, jörgs cinematic fuji vlog, da könnten einige noch was lernen...;-)

lg

srone



Antwort von pillepalle:

Das was ich aus diesem Thread lerne, ist das man sich um's Clipping und den DR keine Sorgen machen muss, solange man nichts filmt :)

Der Kameratest als Selbstzweck. Ein ganz neues Filmgenre das brennende Fragen klärt. Wie stark rauscht meine Farbkarte wenn ich sie 5 Blendenstufen unterbelichte? Und was machen die Skintones, wenn mir am Set nur eine 5 Euro Baumarktleuchte zur Verfügung steht? Wenn man keine Ahnung hat was man filmen möchte, braucht es natürlich immer die maximale Flexibilität. Denn wer weiß... irgendwann steht er plötzlich vor mir, der Eisbär im schwarzen Pelzmantel. Und ich grinse nur, denn mit der richtigen Kamera gelingt mir auf Anhieb hollywoodreifes Material. Also, immer schön Datenblätter auswendig lernen.

VG



Antwort von Jott:

Du bist böse! :-)



Antwort von klusterdegenerierung:

pillepalle hat geschrieben:
Das was ich aus diesem Thread lerne, ist das man sich um's Clipping und den DR keine Sorgen machen muss, solange man nichts filmt :)

Der Kameratest als Selbstzweck. Ein ganz neues Filmgenre das brennende Fragen klärt. Wie stark rauscht meine Farbkarte wenn ich sie 5 Blendenstufen unterbelichte? Und was machen die Skintones, wenn mir am Set nur eine 5 Euro Baumarktleuchte zur Verfügung steht? Wenn man keine Ahnung hat was man filmen möchte, braucht es natürlich immer die maximale Flexibilität. Denn wer weiß... irgendwann steht er plötzlich vor mir, der Eisbär im schwarzen Pelzmantel. Und ich grinse nur, denn mit der richtigen Kamera gelingt mir auf Anhieb hollywoodreifes Material. Also, immer schön Datenblätter auswendig lernen.

VG
Slascam, könnten wir dies bitte als wichtigstes Zitat der letzten 10 Jahre oben in den orangenen header einbauen?

Ich bin es auch leid, denn jede halbwegs bezahlbare Kamera bietet ein Bild, welches mit Resolve Studio und etwas skills mehr bietet als eine Privatperson oder der gemeine Kunde braucht.
Andersrum, wer nicht damit auskommt und "Filme" mit Alexa dreht, der ist in slashcam nicht zu finden, weil A keine Zeit und B nur Theoretiker mit Technik Neurose hier! :-)



Antwort von Darth Schneider:

Auch ein sehr effizientes Mittel gegen clipping ist, eine auf der Innenseite verspiegelte Sonnenbrille.;)
Gruss Boris



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:


... und schon kann man ein Video bei youtube hochladen. ;)
Und deswegen wirst Du & Jörg in Deinem Leben keines mehr hochladen.
Nicht deswegen. ;)

Es gibt ja schließlich reichlich Leute wie dich, die dies tun. :)



Antwort von iasi:

pillepalle hat geschrieben:
Das was ich aus diesem Thread lerne, ist das man sich um's Clipping und den DR keine Sorgen machen muss, solange man nichts filmt :)

Der Kameratest als Selbstzweck. Ein ganz neues Filmgenre das brennende Fragen klärt. Wie stark rauscht meine Farbkarte wenn ich sie 5 Blendenstufen unterbelichte? Und was machen die Skintones, wenn mir am Set nur eine 5 Euro Baumarktleuchte zur Verfügung steht? Wenn man keine Ahnung hat was man filmen möchte, braucht es natürlich immer die maximale Flexibilität. Denn wer weiß... irgendwann steht er plötzlich vor mir, der Eisbär im schwarzen Pelzmantel. Und ich grinse nur, denn mit der richtigen Kamera gelingt mir auf Anhieb hollywoodreifes Material. Also, immer schön Datenblätter auswendig lernen.

VG
Tja.
Ein Pillepalle geht einfach mal raus und dreht seine youtube-Hits.
Da kommt es schließlich vor allem darauf an, in Slow-Motion zu drehen, ein Anamorph in Lichter zu halten und ein schönes LUT zu suchen.
Mehr ist nicht nötig. ;)

Wobei er natürlich beim obligatorischen Making off nicht vergisst zu erwähnen, dass er in Hollywood natürlich erstmal alles abgedunkelt und dann kontrolliert das Licht gesetzt hätte. Dort haben die Studios für Außendrehs Schalter an jeder Lichtquelle angebracht - auch der Sonne. Dies vermisst unser Pillepalle in Deutschland natürlich. ;)



Antwort von Frank Glencairn:

klusterdegenerierung hat geschrieben:
Man braucht kein Raw, nur irgendeine Cam und ne Story!
Sehr schön - Forest Gump trifft Edgar Wright - großartige Mischung, alles richtig gemacht.

Und ja, man kann es nicht oft genug sagen, die Kamera ist auf der Liste von wichtigen Zutaten für einen guten Film recht weit unten.

1. Story
2. Story
3. Story
4. Schauspieler, die diese Story rüber bringen können
5. Location/Set Design
6. Licht/Schatten
7. Schnitt
8. Ton

...und erst jetzt kommen wir langsam in den Kamera/Linsen Bereich.



Antwort von Mantas:

Und erst bei 143 kommen die minimal ausgebrannten Lichter.



Antwort von klusterdegenerierung:

Und dann iasi. ;-)))



Antwort von pillepalle:

iasi hat geschrieben:

Tja.
Ein Pillepalle geht einfach mal raus und dreht seine youtube-Hits.
Genau, wegen des großen Erfolges braucht es immer neue. Und in 8K sind die viermal besser als in 2K :)
iasi hat geschrieben:
Wobei er natürlich beim obligatorischen Making off nicht vergisst zu erwähnen, dass er in Hollywood natürlich erstmal alles abgedunkelt und dann kontrolliert das Licht gesetzt hätte. Dort haben die Studios für Außendrehs Schalter an jeder Lichtquelle angebracht - auch der Sonne. Dies vermisst unser Pillepalle in Deutschland natürlich. ;)
Tse... bist Du altmodisch. Hast wohl noch eine Handkurbel an Deiner Kamera ;) Ich drehe doch nicht mehr mit Menschen die ständig ihren Texte vergessen und launen haben. Interne AF-Motoren sind mir auch viel zu ungenau für meine Arbeit. Ich drehe nur noch virtuell mit Deep-Fake-Schauspielern. Das spart teure Drehzeit am Set und die Sonne geht unter wann ich will.

VG



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
klusterdegenerierung hat geschrieben:
Man braucht kein Raw, nur irgendeine Cam und ne Story!
Sehr schön - Forest Gump trifft Edgar Wright - großartige Mischung, alles richtig gemacht.

Und ja, man kann es nicht oft genug sagen, die Kamera ist auf der Liste von wichtigen Zutaten für einen guten Film recht weit unten.

1. Story
2. Story
3. Story
4. Schauspieler, die diese Story rüber bringen können
5. Location/Set Design
6. Licht/Schatten
7. Schnitt
8. Ton

...und erst jetzt kommen wir langsam in den Kamera/Linsen Bereich.
Wenn nur nicht die Häfte fehlen würde, dann wär"s ja gut.

Denn nach
1. Story kommt erstmal
2. Planungsbeginn
3. Drehbuch
4. Planung zur filmischen Umsetzung
5. Organisation der Departments
6. Detailierte Planung der filmischen Umsetzung
7. Technische Vorbereitungen
...

Eine Story macht noch lange keinen Film.

Planung und Vorbereitung - darauf kommt es an.
Dazu gehört eben, dass man sich fähige Leute zusammensucht.
Und natürlich muss man die filmsprachlichen Ausdrucksmittel beherrschen.

Licht/Schatten sagt zunächst mal gar nichts aus.
Schau dir z.B. mal die Einstellung am Ende von Sergant Waters an, die die Hauptfigur am verregneten Fenster zeigt.

Licht ist ein Ausdrucks- und Gestaltungsmittel - nicht das Einzige der Filmsprache.
Man sollte schon überlegen, wie man es im Sinne des Films einsetzt.







Antwort von klusterdegenerierung:

iasi hat geschrieben:
1. Story kommt erstmal
2. Planungsbeginn
3. Drehbuch
4. Planung zur filmischen Umsetzung
5. Organisation der Departments
6. Detailierte Planung der filmischen Umsetzung
7. Technische Vorbereitungen
Vielleicht andere Kunden suchen oder als Deinstleistung selbst anbieten, hat den Vorteil Du bekommst zusätzlich Kohle und sparst noch Geld für die nicht mehr benötigte RED.



Antwort von Jott:

8. Personelle Vorbereitung

Wo zum Geier kriegt man kompetentes Personal her, wenn es weder Honorar noch was zu essen gibt? Wer mit Honorarforderungen kommt oder überhaupt an Geld denkt, der ist dem Iasi zu beamtig.

Ist aber egal, jede Idee scheitert ja sowieso an den ungeeigneten Kameras auf dem Markt.



Antwort von iasi:

Jott hat geschrieben:
8. Personelle Vorbereitung

Wo zum Geier kriegt man kompetentes Personal her, wenn es weder Honorar noch was zu essen gibt? Wer mit Honorarforderungen kommt oder überhaupt an Geld denkt, der ist dem Iasi zu beamtig.

Ist aber egal, jede Idee scheitert ja sowieso an den ungeeigneten Kameras auf dem Markt.
Leute, die es nur wegen dem Geld machen und denen zudem das Selbstvertrauen und der Glaube in das Projekt fehlt, dass nämlich mit dem Film am Ende Geld verdient werden kann, sollen sich lieber bei ÖR-Produktion verdingen, die ein OK von den Filmfördergremien erhalten haben.

Lieber Kreative statt Tarifarbeiter.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
1. Story kommt erstmal
2. Planungsbeginn
3. Drehbuch
4. Planung zur filmischen Umsetzung
5. Organisation der Departments
6. Detailierte Planung der filmischen Umsetzung
7. Technische Vorbereitungen
Vielleicht andere Kunden suchen oder als Deinstleistung selbst anbieten, hat den Vorteil Du bekommst zusätzlich Kohle und sparst noch Geld für die nicht mehr benötigte RED.
Du kannst auch aktuell mit Reifenwechseln Geld verdienen.
Jedenfalls sind das Worte einer Krämerseele. :D



Antwort von pillepalle:

iasi hat geschrieben:

Leute, die es nur wegen dem Geld machen und denen zudem das Selbstvertrauen und der Glaube in das Projekt fehlt, dass nämlich mit dem Film am Ende Geld verdient werden kann, sollen sich lieber bei ÖR-Produktion verdingen, die ein OK von den Filmfördergremien erhalten haben.

Lieber Kreative statt Tarifarbeiter.
Ich würde eher sagen, dass den Leuten die umsonst arbeiten das Selbstvertrauen fehlt. Man kann auch mal freie Projekte machen, aber ein ungewisses Einkommen für die Crew zum Prinzip zu erklären, ist ziemlich realitätsfern. Die meisten 'Kreativen' die ich kenne sind sogar noch motivierter, wenn sie gut dafür bezahlt werden ;)

VG



Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:

Vielleicht andere Kunden suchen oder als Deinstleistung selbst anbieten, hat den Vorteil Du bekommst zusätzlich Kohle und sparst noch Geld für die nicht mehr benötigte RED.
Du kannst auch aktuell mit Reifenwechseln Geld verdienen.
Jedenfalls sind das Worte einer Krämerseele. :D
Auf jeden Fall wird so einer mit 8Bit bessere Aufnahmen produzieren als Du mit Deinem Raw und das wahrscheinlich sogar während er Dir die Winterreifen an Deinen Proloporsche schraubt.



Antwort von Mantas:

sind wir jetzt hier soweit, dass Kreative lieber es für die Liebe und Anerkennung tuen sollten?



Antwort von Jott:

Wir brauchen einen würdigen Nachfolger für den so geliebten historischen Camera Shootout aus dem Pleistozän. Powered by slashcam, unbedingt mit lustigem Kameraraten im Blindvergleich, angeregte Diskussion im angemieteten Kino. Alles muss ran: RED, Arri, iPhone und die üblichen Verdächtigen dazwischen. Das wäre ein Spaß!



Antwort von Jott:

Mantas hat geschrieben:
sind wir jetzt hier soweit, dass Kreative lieber es für die Liebe und Anerkennung tuen sollten?
Klar, die wohnen ja alle gelangweilt im Hotel Mama, haben keine Kosten und aus irgendwelchen Gründen auch nichts zu tun, kriegen sogar Mamas Auto und obendrein eine Tupperbox mit Schnittchen für den kreativen 12-Stunden-Tag.



Antwort von iasi:

Mantas hat geschrieben:
sind wir jetzt hier soweit, dass Kreative lieber es für die Liebe und Anerkennung tuen sollten?
Nein.
Sie arbeiten aber eben nicht nur für Kunden und Auftraggeber, um Geld und Kohle zu machen. ;)



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Mantas hat geschrieben:
sind wir jetzt hier soweit, dass Kreative lieber es für die Liebe und Anerkennung tuen sollten?
Nein.
Sie arbeiten aber eben nicht nur für Kunden und Auftraggeber, um Geld und Kohle zu machen. ;)
Ich war davon ausgegangen das Du das machst, wofür müßtest Du Deine Technikverliebtheit sonst ausleben?



Antwort von iasi:

Jott hat geschrieben:
Mantas hat geschrieben:
sind wir jetzt hier soweit, dass Kreative lieber es für die Liebe und Anerkennung tuen sollten?
Klar, die wohnen ja alle gelangweilt im Hotel Mama, haben keine Kosten und aus irgendwelchen Gründen auch nichts zu tun, kriegen sogar Mamas Auto und obendrein eine Tupperbox mit Schnittchen für den kreativen 12-Stunden-Tag.
Es gibt eben auch Leute, die denken nicht nur ständig ans eigene Auto, an das schöne Eigenheim und an die neue Einbauküche.

Wer davon überzeugt ist, dass er auch kann, was er macht, der wird eben auch mal ein unternehmerisches Risiko eingehen und nicht immer nur auf die Überweisungen vom Kunden oder Chef warten.

Und wer es wirklich ernst meint mit einem Filmprojekt, der setzt auf das Ergebnis und nicht auf den Spaß, mal raus zu gehen und zu darauflos zu filmen.
Ja - der investiert eben auch die notwendige Zeit - reichlich Zeit.

Wem ein tolles Catering über alles geht, dem weise ich den Weg in seine heimische Küche. Soll er lieber dort versuchen kreativ tätig zu sein. ;)

Wer hingegen diesen Spruch auf das gemeinsame Filmprojekt übertragen kann, der bringt die richtige Einstellung mit:
Frage nicht, was dein Land für dich tun kann. Frage, was du für dein Land tun kannst. :)



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:


Nein.
Sie arbeiten aber eben nicht nur für Kunden und Auftraggeber, um Geld und Kohle zu machen. ;)
Ich war davon ausgegangen das Du das machst, wofür müßtest Du Deine Technikverliebtheit sonst ausleben?
Du scheinst eben nur die Technik zu sehen.
Ich sehe immer die neuen Möglichkeiten, die sich für Filmprojekte eröffnen.



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Und wer es wirklich ernst meint mit einem Filmprojekt, der setzt auf das Ergebnis und nicht auf den Spaß, mal raus zu gehen und zu darauflos zu filmen.
Ja - der investiert eben auch die notwendige Zeit - reichlich Zeit.
https://vimeo.com/174267953
https://vimeo.com/130589638
https://vimeo.com/230048051
https://vimeo.com/70065253
https://vimeo.com/118605994

Kein Problem, mache ich am liebsten, danach fahre ich mit meinem alten Auto in meine alte Küche und mach mir meinen Kaffee vom Vortag warm.
Und wo sind Deine Projekte, ach sorry, mir fehlen ja die Schauspieler, die Story, das Catering etc. etc.

Ach iasi, Du findest immer wieder was neues, wird es Dir denn nicht irgendwann selbst zu peinlich?



Antwort von MrMeeseeks:

iasi hat geschrieben:

Ich sehe immer die neuen Möglichkeiten, die sich für Filmprojekte eröffnen.
Ist es dann nicht umso frustrierender nichts daraus zu machen? Du siehst all diese neuen technischen Wunderwaffen und entscheidest dich doch lieber dazu hier tagtäglich darüber zu plaudern.

Was hindert dich denn nun? Geld kann es nicht sein, Kameras sind so günstig wie nie. An der Zeit scheitert es ja auch nicht, denn die hast du offensichtlich. Beethoven hat 5 Jahre für seiner fünfte Sinfonie gearbeitet und du bist hier seit mehr als 10 Jahren angemeldet.

Wann können wir dein Meisterwerk betrachten? Seit 10 oder mehr Jahren in Arbeit, wir erwarten großartiges!



Antwort von Mantas:

iasi hat geschrieben:
Mantas hat geschrieben:
sind wir jetzt hier soweit, dass Kreative lieber es für die Liebe und Anerkennung tuen sollten?
Nein.
Sie arbeiten aber eben nicht nur für Kunden und Auftraggeber, um Geld und Kohle zu machen. ;)
Ja das tuen wir, du auch?



Antwort von Darth Schneider:

@Kluster
Hast du es nicht ev ein wenig zu gut gemeint mit dem SloMo Knopf deiner Kamera bei dem Salsa Film ? ;)
Die Aufnahmen und den Schnitt finde ich toll jedoch sehr, sehr gelungen.

@iasi
Komm lad halt mal bitte etwas hoch, dann geben die Jungs endlich Ruhe…
Es muss doch kein Blockbuster sein.;)

Wobei ich denke schon ihr seit ein wenig hart mit dem iasi, vielleicht würde er ja noch so gerne was drehen.
Hat aber aus irgend einem Grund den wir nicht kennen, einfach nicht die Möglichkeit dazu.
Oder er traut sich ganz einfach nicht was hier hochzuladen.
We just dont know.
Gruss Boris



Antwort von Axel:

"Darth Schneider" hat geschrieben:
Wobei ich denke schon ihr seit ein wenig hart mit dem iasi, vielleicht würde er ja noch so gerne was drehen.
Hat aber aus irgend einem Grund den wir nicht kennen, einfach nicht die Möglichkeit dazu….
We just dont know.
Was war eigentlich mit der Ursa 12k? Die hat Grant Petty doch ganz klar mit dem iasi vor Augen entworfen. Oder ist das Problem, dass das Raw nicht 16-bit ist und sich so ein von Blaulichtstrobos beleuchteter Darsteller nicht mehr komplett naturalistisch korrigieren lässt? Und das ein nicht hinnehmbarer Einschnitt in die kreative Freiheit ist?



Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
Hat aber aus irgend einem Grund den wir nicht kennen, einfach nicht die Möglichkeit dazu.
Du kennst doch den Grund, er konnte sich bislang zu keiner Cam durchringen.
Red zu teuer, Sony bwauha lassen wir das, BMD nee keine Red Kopie im Schafspelz, Canon falscher Formfaktor und zu günstig. :-)

Ja, bin ja Slomo Fan, da darf man es ja auch mal übertreiben, jetzt hab ich selbst die faxen dicken, wobei mit faxen konnte ich mich nie anfreunden. ;-)



Antwort von Darth Schneider:

Das kann auch ganz andere Gründe haben wie was wir meinen.
Ich dachte iasi lebt in Rumänien….Hmm..Nicht grad das reichste Land der Welt…
Aber ich verstehe dieses Geheimnis volle Getue von vielen Leuten im Netz ja eh nicht wirklich.
Wenn jemand etwas herausfinden will kann man das doch so oder so…..
Gruss Boris



Antwort von klusterdegenerierung:

Axel hat geschrieben:
"Darth Schneider" hat geschrieben:
Wobei ich denke schon ihr seit ein wenig hart mit dem iasi, vielleicht würde er ja noch so gerne was drehen.
Hat aber aus irgend einem Grund den wir nicht kennen, einfach nicht die Möglichkeit dazu….
We just dont know.
Was war eigentlich mit der Ursa 12k? Die hat Grant Petty doch ganz klar mit dem iasi vor Augen entworfen. Oder ist das Problem, dass das Raw nicht 16-bit ist und sich so ein von Blaulichtstrobos beleuchteter Darsteller nicht mehr komplett naturalistisch korrigieren lässt? Und das ein nicht hinnehmbarer Einschnitt in die kreative Freiheit ist?
Grant wollte iasis Wunsch die Ursa Weapon zu nennen, nicht nachkommen, dann lieber keine Cam.



Antwort von Darth Schneider:

Auch eine Art von Konsequenz..;)
Mann, ich hätte meine Oma, oder den linken Arm verkauft, für eine Ursa…
Nun ja jetzt sie’s eh zu spät…Und mein Arm will niemand..

An der Kamera liegt es bei iasi bestimmt nicht, so eine Ursaula ist ja nicht mal mehr sooo teuer.
(Damals meine Sony Hi8Hi8 im Glossar erklärt, war gleich teurer)
Gruss Boris



Antwort von iasi:

klusterdegenerierung hat geschrieben:

Kein Problem, mache ich am liebsten, danach fahre ich mit meinem alten Auto in meine alte Küche und mach mir meinen Kaffee vom Vortag warm.
Und wo sind Deine Projekte, ach sorry, mir fehlen ja die Schauspieler, die Story, das Catering etc. etc.

Ach iasi, Du findest immer wieder was neues, wird es Dir denn nicht irgendwann selbst zu peinlich?
Da hast du also Videos gedreht.
Für wen?
Warum?

Peinlich wird es immer dann, wenn man sich diese Fragen nicht mehr stellt.



Antwort von iasi:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:


Was war eigentlich mit der Ursa 12k? Die hat Grant Petty doch ganz klar mit dem iasi vor Augen entworfen. Oder ist das Problem, dass das Raw nicht 16-bit ist und sich so ein von Blaulichtstrobos beleuchteter Darsteller nicht mehr komplett naturalistisch korrigieren lässt? Und das ein nicht hinnehmbarer Einschnitt in die kreative Freiheit ist?
Grant wollte iasis Wunsch die Ursa Weapon zu nennen, nicht nachkommen, dann lieber keine Cam.
Bezeichnend, dass auch hier wieder zuerst mal deine Gedanken darum Kreisen, wo man seinen Namen zu sehen bekommt.
Selbstdarstellung ist für dich offensichtlich sehr wichtig.

Und:
Du drehst deine Videos wohl auch in erster Linie für dich.
Das ist eben wie der Tagebuchschreiber und der Romanautor. ;)



Antwort von Darth Schneider:

@iasi
Kluster lebt doch vom filmen und fotografieren….Er muss doch also drehen…
Und Axel dreht wenigstens und lernt dabei, egal ob für sich selber oder für die Queen von England.
Gruss Boris



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Das kann auch ganz andere Gründe haben wie was wir meinen.
Ich dachte iasi lebt in Rumänien….Hmm..Nicht grad das reichste Land der Welt…
Aber ich verstehe dieses Geheimnis volle Getue von vielen Leuten im Netz ja eh nicht wirklich.
Wenn jemand etwas herausfinden will kann man das doch so oder so…..
Gruss Boris
Viele Schriftsteller schreiben unter Pseudonym.
Weshalb machen sie dies wohl?

Für manche ist es aber eben wohl vor allem wichtig, ihren Namen groß geschrieben zu sehen.

Wenn die Person mehr zählt, als das Projekt, dann stimmt etwas nicht.



Antwort von Darth Schneider:

Also ich finds schon praktisch zu wissen wer etwas gemacht hat, sonst ist’s doch irgendwie auch sinnlos.
Und natürlich ist die Person hinter einem Werk immer genau so wichtig wie das Werk selber.
Gruss Boris



Antwort von iasi:

MrMeeseeks hat geschrieben:
iasi hat geschrieben:

Ich sehe immer die neuen Möglichkeiten, die sich für Filmprojekte eröffnen.
Ist es dann nicht umso frustrierender nichts daraus zu machen? Du siehst all diese neuen technischen Wunderwaffen und entscheidest dich doch lieber dazu hier tagtäglich darüber zu plaudern.

Was hindert dich denn nun? Geld kann es nicht sein, Kameras sind so günstig wie nie. An der Zeit scheitert es ja auch nicht, denn die hast du offensichtlich. Beethoven hat 5 Jahre für seiner fünfte Sinfonie gearbeitet und du bist hier seit mehr als 10 Jahren angemeldet.

Wann können wir dein Meisterwerk betrachten? Seit 10 oder mehr Jahren in Arbeit, wir erwarten großartiges!
Es würde dir natürlich ähnlich sehen, dass du hier mit stolz schwellender Brust dein Meisterwerk präsentierst.
Betonung liegt - wie du schon siehst - auf dein.

Manchen geht es eben aber vor allem um das Ergebnis und nicht um die Selbstdarstellung der Macher.



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Also ich finds schon praktisch zu wissen wer etwas gemacht hat, sonst ist’s doch irgendwie auch sinnlos.
Und natürlich ist die Person hinter einem Werk immer genau so wichtig wie das Werk selber.
Gruss Boris
Die Nibelungen-Sage ist wohl ziemlich bekannt.
Den Autor kennt niemand.

Das Werk sollte für sich allein sprechen.
Das Werk sollte im Mittelpunkt stehen.



Antwort von pillepalle:

iasi hat geschrieben:
Das Werk sollte im Mittelpunkt stehen.
Hier stehen aber immer nur Kameras im Mittelpunkt 😋

VG



Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:

Kein Problem, mache ich am liebsten, danach fahre ich mit meinem alten Auto in meine alte Küche und mach mir meinen Kaffee vom Vortag warm.
Und wo sind Deine Projekte, ach sorry, mir fehlen ja die Schauspieler, die Story, das Catering etc. etc.

Ach iasi, Du findest immer wieder was neues, wird es Dir denn nicht irgendwann selbst zu peinlich?
Da hast du also Videos gedreht.
Für wen?
Warum?

Peinlich wird es immer dann, wenn man sich diese Fragen nicht mehr stellt.
Hast Du irgendwie son "Video" Ding am laufen, das ist ja schon patalogisch, Video ist doch nur ein Begriff, den Du mit Deinen Animusitäten füllst, mehr nicht.
Iasi, Du bekommst mich mit dieser Nummer übrigens nicht zu packen, ist doch völlig egal wie man footage am Ende nennt, meinetwegen auch Mettendchen.

Starwars ist auch ein Video, wenn es im Fernseh oder auf DVD läuft.



Antwort von Darth Schneider:

Video ?
Das Wort geht heute gar nicht mehr…;)
Nicht mal denken darf man das !
Wo zum Teufel habe ich meine Wollmütze wieder verlegt….?
Gruss Boris



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:


Da hast du also Videos gedreht.
Für wen?
Warum?

Peinlich wird es immer dann, wenn man sich diese Fragen nicht mehr stellt.
Hast Du irgendwie son "Video" Ding am laufen, das ist ja schon patalogisch, Video ist doch nur ein Begriff, den Du mit Deinen Animusitäten füllst, mehr nicht.
Iasi, Du bekommst mich mit dieser Nummer übrigens nicht zu packen, ist doch völlig egal wie man footage am Ende nennt, meinetwegen auch Mettendchen.

Starwars ist auch ein Video, wenn es im Fernseh oder auf DVD läuft.
Offensichtlich hab ich dich doch schon längst "gepackt".
Wenn jemand persönlich wird, ist er "gepackt". :)



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Video ?
Das Wort geht heute gar nicht mehr…;)
Nicht mal denken darf man das !
Wo zum Teufel habe ich meine Wollmütze wieder verlegt….?
Gruss Boris
Es gibt aber immerhin noch Definitionen dazu:

... Aufzeichnung einer Fernsehsendung o. Ä. oder deren Wiedergabe auf dem Bildschirm eines Fernsehgeräts ...
Definitionen von Oxford Languages



Antwort von Mantas:

nichts ist richtig was und wie man es dreht. drehen und sterben.



Antwort von Funless:

Ganz ehrlich Leute, ich verstehe wirklich nicht weshalb Ihr immer und immer wieder in die iasi-Falle tappt.

Der will einfach nur polarisieren. Indem er permanent sowohl subtil beleidigend ist, als auch mit Stammtischphrasen um sich wirft ohne auch nur ein einziges Mal mit konkreten Argumenten zu kommen. Nur schwammige nicht greifbare Beispiele aus der Filmgeschichte werden zum Besten gegeben in denen man zudem sofort merkt, dass er sich bei diesen Beispielen nicht einmal die Mühe gibt diese im korrekten Zusammenhang zum Thema wiederzugeben.

Es existiert kein einziger Thread im slashCAM Forum in dem er auch nur ein einziges Mal konstruktiv diskutiert hätte. Er debattiert ja nicht einmal (was ja okay wäre), sondern triggert euch mit seinen ständig wiederholenden Phrasen ... und sorry Leute, aber offensichtlich lässt Ihr euch auch herzlich gerne von ihm triggern.



Antwort von dienstag_01:

iasi hat geschrieben:
"Darth Schneider" hat geschrieben:
Also ich finds schon praktisch zu wissen wer etwas gemacht hat, sonst ist’s doch irgendwie auch sinnlos.
Und natürlich ist die Person hinter einem Werk immer genau so wichtig wie das Werk selber.
Gruss Boris
Die Nibelungen-Sage ist wohl ziemlich bekannt.
Den Autor kennt niemand.

Das Werk sollte für sich allein sprechen.
Das Werk sollte im Mittelpunkt stehen.
Reiner Volksmund?
Oder wars doch ne Frau?



Antwort von mash_gh4:

abgesehen davon, dass mich die sehr oft völlig unhaltbaren dogmen, die der iasi ständig auftischt, natürlich auch fürchterlich nerven können, kann ich es ehrlich gestanden nicht verstehen, wenn die ganze filmerei von anderen hier gleich wieder auf ein naives geschichtenerzählen od. unrereflektiertes praktisches tun reduziert wird.

ich persönlich teile in dieser hinsicht die sichtweise von vilem flusser, der dem apparat selbst bzw. dem darin eingeschriebenen programm immer weit mehr bedeutung zugeschrieben hat als es vielen von uns lieb od. bewusst ist. natürlich kann man das einfach ausklammern und ignorieren, oder aber eben auch in die auseinandersetzung und gestaltung mit derartigen arbeitsmitteln einfließen lassen -- sich also durchaus auch mit den apparaten selbst beschäftigen.





Antwort von Frank Glencairn:

Bissl arg kurz gegriffen.



Antwort von Darth Schneider:

Ich weiss nicht,
ich finde das Thema viel zu vielseitig, somit zu komplex um es nur so zu sehen. Das grenzt doch einem irgendwie dann ein, oder ?
Es ist und bleibt ja schlussendlich einfach ein Werkzeug.
Der Maler wird auch nicht stundenlang über seinen neuen Pinsel nachdenken, sondern einfach damit ein Bild malen…
Gruss Boris



Antwort von prime:

"Darth Schneider" hat geschrieben:
Der Maler wird auch nicht stundenlang über seinen neuen Pinsel nachdenken, sondern einfach damit ein Bild malen…
Stundenlang sicherlich nicht, aber ein Jahrzehnt sollte schon drin sein ;-)



Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:


Hast Du irgendwie son "Video" Ding am laufen, das ist ja schon patalogisch, Video ist doch nur ein Begriff, den Du mit Deinen Animusitäten füllst, mehr nicht.
Iasi, Du bekommst mich mit dieser Nummer übrigens nicht zu packen, ist doch völlig egal wie man footage am Ende nennt, meinetwegen auch Mettendchen.

Starwars ist auch ein Video, wenn es im Fernseh oder auf DVD läuft.
Offensichtlich hab ich dich doch schon längst "gepackt".
Wenn jemand persönlich wird, ist er "gepackt". :)
Persönlich wurdest doch nur Du, zudem spricht man sich doch die ganze Zeit persönlich an, oder geht es bei dem ganzen Thema etwa garnicht um iasi the Red Raw master und weltberümter Filmemacher desse Werke nur einem erlesenem Publikum zugänglich gemacht wird?



Antwort von roki100:

srone hat geschrieben:
"you have to made a decision!", diese entscheidungsfindung sehe ich als entscheidenden schritt meiner kameraarbeit und habe kein problem meine gh-2"s für die grossen einzusetzen (empfehlenswert mit canon fd 50 1,4, 85 1,8 oder 135 2,5, mit oder ohne speedbooster), wenn wir bei art vs film ein multicam setup benötigen, da kommt eh beauty drüber...;-)
Habe ich gerade bei eoshd entdeckt, GH2 + Anamorphic x2:

https://www.youtube.com/watch?v=4azCEsaQdmE



Antwort von klusterdegenerierung:

Cinema Cam! ;-)



Antwort von MrMeeseeks:

iasi hat geschrieben:
MrMeeseeks hat geschrieben:


Ist es dann nicht umso frustrierender nichts daraus zu machen? Du siehst all diese neuen technischen Wunderwaffen und entscheidest dich doch lieber dazu hier tagtäglich darüber zu plaudern.

Was hindert dich denn nun? Geld kann es nicht sein, Kameras sind so günstig wie nie. An der Zeit scheitert es ja auch nicht, denn die hast du offensichtlich. Beethoven hat 5 Jahre für seiner fünfte Sinfonie gearbeitet und du bist hier seit mehr als 10 Jahren angemeldet.

Wann können wir dein Meisterwerk betrachten? Seit 10 oder mehr Jahren in Arbeit, wir erwarten großartiges!
Es würde dir natürlich ähnlich sehen, dass du hier mit stolz schwellender Brust dein Meisterwerk präsentierst.
Betonung liegt - wie du schon siehst - auf dein.

Manchen geht es eben aber vor allem um das Ergebnis und nicht um die Selbstdarstellung der Macher.
Würde ich tatsächlich an einer großen Sache arbeiten, hätte ich keine Zeit mit so einem Scharlatan wie dir zu diskutieren. Irgendwas hindert dich überhaupt mal eine Kamera in die Hand zu nehmen, ob du nun im Rollstuhl sitzt oder an Agoraphobie leidest würde hier niemanden interessieren. Also sei einfach mal ehrlicher.

Die meisten wollen doch nur über Videografie plaudern und das ist völlig in Ordnung. Anstatt einfach mal hier ehrlich zuzugeben dass du auch nur ein Hobbyfilmer mit viel Zeit bist, ist deine Art der Selbstdarstellung folgende:

- Kerl mit jeder Menge Zeit um ewige Diskussionen in einem popeligen Forum zu führen.
- Mr. Big Filmemacher.



Welche von den beiden Personen bist du denn nun wirklich? Nennen wir doch mal die Fakten. Nie was gezeigt aber stets online bereit um hohle und abgedroschene Phasen rauszuhauen die du zuvor irgendwo gelesen hast.

Also ein Filmemacher bist du daher sicherlich nicht. :)



Antwort von iasi:

klusterdegenerierung hat geschrieben:
iasi hat geschrieben:


Offensichtlich hab ich dich doch schon längst "gepackt".
Wenn jemand persönlich wird, ist er "gepackt". :)
Persönlich wurdest doch nur Du, zudem spricht man sich doch die ganze Zeit persönlich an, oder geht es bei dem ganzen Thema etwa garnicht um iasi the Red Raw master und weltberümter Filmemacher desse Werke nur einem erlesenem Publikum zugänglich gemacht wird?
Dir fällt es gar nicht mehr auf.
Aber frag dich mal, weshalb in deinen Kommentaren ständig iasi vorkommt. ;)

klusterdegenerierung liest du hier in meinen Kommentaren nun das erste Mal.
Liegt wohl auch daran, weil"s mich schlicht nicht interessiert, was du machst - im Gegensatz
zu deinem offensichtlich brennenden Interesse an iasi. :) :D



Antwort von iasi:

MrMeeseeks hat geschrieben:
iasi hat geschrieben:


Es würde dir natürlich ähnlich sehen, dass du hier mit stolz schwellender Brust dein Meisterwerk präsentierst.
Betonung liegt - wie du schon siehst - auf dein.

Manchen geht es eben aber vor allem um das Ergebnis und nicht um die Selbstdarstellung der Macher.
Würde ich tatsächlich an einer großen Sache arbeiten, hätte ich keine Zeit mit so einem Scharlatan wie dir zu diskutieren.
Im Gegensatz zu dir, juckt es mich nicht, was du machst.

Dich hingegen treibt es ja mächtig um, was andere so machen.
Aber wenn du deine Zeit gerne mit Tratsch und Klatsch verbringst, soll es eben so sein. ;)

Ich denke da immer an die Frau, die ihr Fenster am Bürgersteig öffnet, ein Kissen auf die Fensterbank legt und es sich dann darauf gemütlich macht, während direkt unter ihr, Leute miteinander diskutieren. :)



Antwort von iasi:

"Darth Schneider" hat geschrieben:

Der Maler wird auch nicht stundenlang über seinen neuen Pinsel nachdenken, sondern einfach damit ein Bild malen…
Gruss Boris
Gutes Beispiel.

Denn der Maler fertigt meist zunächst Skizzen an, wählt sehr genau den passenden Pinsel und beginnt erst dann, das Bild zu malen.

https://de.m.wikipedia.org/wiki/Datei:L ... _Jesus.jpg



Antwort von klusterdegenerierung:

iasi hat geschrieben:
Ich denke da immer an die Frau, die ihr Fenster am Bürgersteig öffnet, ein Kissen auf die Fensterbank legt und es sich dann darauf gemütlich macht, während direkt unter ihr, Leute miteinander diskutieren. :)
Wow, da hast Du aber mal richtig einen rausgehauen.



Antwort von prime:

iasi hat geschrieben:
Ich denke da immer an die Frau, die ihr Fenster am Bürgersteig öffnet, ein Kissen auf die Fensterbank legt und es sich dann darauf gemütlich macht, während direkt unter ihr, Leute miteinander diskutieren. :)
iasi hat geschrieben:
Warum nur muss ich gerade wieder an die Frau denken, die das Erdgeschossfenster öffnet, vor dem sich auf dem Gehweg einige Leute unterhalten, ein Kissen auf das Fensterbrett legt und sich gemütlich darauf abstützt, um dem Gespräch der Fremden zu folgen.
iasi hat geschrieben:
... erinnert mich an die alte Dame, die das Erdgeschossfenster öffnete, ein Kissen auf die Fensterbank legte und sich dann gemütlich darauf abstützte, um in aller Ruhe den Gesprächen der Leute vor ihrem Fenster lauschen zu können.
iasi hat geschrieben:
Du erinnerst mich an ein Frauchen, das am geöffneten Erdgeschossfenster auf einem Kissen lehnt und sich sehr für die Gespräche anderer Leute interessiert.
Schreib doch mal was neues...



Antwort von roki100:

iasi ist ansonsten nett :)



Antwort von Darth Schneider:

Was ist das jetzt hier ? Alle gegen iasi ?
Muss doch nicht sein.
Lasst doch die Menschen einfach Menschen sein.
Niemand ist perfekt.
Gruss Boris



Antwort von roki100:

https://www.youtube.com/watch?v=pxJops55CEc




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen:
Best cinema camera of 2021? - FX3, FX6, Pocket 6K Pro, Zcam E2-F6 und Red Komodo im Blindvergleich
Zcam E2 und BMPCC - Aufnahmen farblich zusammenschneiden
Sony FX6 Zubehör: Shape stellt umfangreiche Rig-Optionen für die Sony FX6 vor
BMPCC 6K Pro IR-Cut
BMPCC 6K Pro - Akkukompatibilität ?
Bmpcc 6K pro speichert falsch
BMPCC 6K Pro gewinnt Design-Preis
(DIY) diffusion filter for bmpcc 6k pro
BMPCC 6k pro und MFT- Objektive
BMPCC 6K - Remote-Steuerung per Atem mini pro
BMPCC 6K Pro vs. Sony Alpha 7S III Dynamik
BMPCC 6K Pro & Samsung T5 (Blitzer im RAW)
Wooden Camera mit umfangreichem BMPCC 6K Pro Zubehör
Pixelpitch URSA mini Pro G1 und BMPCC classic
Neue Firmware für DJI RS2/RSC2 Gimbals bringt Unterstützung für BMPCC 6K Pro und weitere Kameras
ZCam eND
ZCam F6 vs Amira
ZCam Viewfinder
CANON C70
Zcam E2 - Batterie Anzeige
Atomos Ninja V + ZCam E-2 - Einstellungen
ZCam - Zlog2 in Resolve (Luts etc)
Zcam - Dateien wieder herstellen
ZCam E-2 - Fokus Peaking Frage
ZCam - 4K60fps und 6K30fps ZRaw
Komodo Preise

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom