Logo Logo
/// 

RAW im Bewegtbild... warum eigentlich so selten?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Camcorder allgemein -- 4K / UHD / FHD-Forum

Frage von rush:


Warum setzt sich RAW eigentlich nur so schleppend durch im Bewegtbildbereich?

Liegt es eher an der schieren Datengröße? Der Komplexität der verschiedenen Sensoren und des Auslesens? Dem fehlen von Standards? Oder gar dem Unwillen der Hersteller?

Wieso kann man die Hersteller die RAW-Video anbieten beinahe an einer Hand abzählen? Und dann i.d.R. auch nur bei den teuren Modellen?
Und warum machen es einem Hersteller wie Sony extra-schwer RAW-Signale abzugreifen? Wo besteht die Sinnhaftigkeit? Melken Melken Melken?

Würde es irgendwann vielleicht keinen Sinn mehr machen überhaupt verschiedenste Kameras zu verwenden? Weil eigentlich nur noch der Sensorblock mit seinen Aufnahmefähigkeiten und dem Speichermedium von Interesse ist und der Rest sowieso in der Post gemacht wird? Internes Kameraprocessing = überflüssig?

Ich gehe da jetzt bewusst blauäugig und übertrieben an diese Fragestellung heran, aber meine sie dennoch Ernst.

Warum setzt sich sowas wie CinemaDNG nicht konsequenter durch? Wegen mir soll ja auch jede Bude sein eigenes RAW-Format haben, im Fotobereich konnte man sich ja auch zu keinem gemeinsamen RAW-Standard durchringen, auch wenn sowas die DNG ja theroetisch sicherlich machbar wäre. Liegt es am eigenen Image der Hersteller? Den Lizenzkosten?

Woran meint ihr hapert es an der Umsetzung dem Endkunden auch mal etwas breitgefächerter RAW an die Hand zu geben und nicht nur bei den teureren Modellen oder in Verbindung mit komplizierten externen Möglichkeiten? In der Hinsicht muss ich BMD natürlich durchaus positiv erwähnen, keine Frage... aber tut sich da allgemein auch was? Kann man irgend einen Trend beobachten? Die Chinesen scheinen ja nun preislich gesehen auch etwas tiefer ansetzen zu wollen und RED hatte doch auch was?

Aber nochmal ein paar Etagen darunter? Im Maschinenraum? Also bei Kameras für den "kleinen" Mann? :D RAW auf SD-Karten oder zumindest SSD's scheint doch definitiv nicht unmöglich zu sein wie BMD gezeigt hat...



Antwort von srone:

es scheint, dass raw für die hobby-vimeo-fraktion, overkill ist, ebenso für die - ich mach ein bischen werbung-fraktion, im sinne von image-filmen, im amateurbereich divergiert das können von set-design und ausleuchtung drastisch, wozu dann raw? wenn man es ohnehin nicht beherscht, ich zb bin ultraglücklich mit 10bit pro-res aus der pocket, mehr brauche ich idr nicht, oftmals sind 8bit aus der gh2 genug, "axel" hatte das mal so treffend mit production value umschrieben, david la chapelle als fotograf agiert genauso, dessen sets lassen sich mit dem handy fotografieren, das licht stimmt, der ort stimmt, das setting stimmt, dann ist 8bit oftmals mehr als genug. ;-)

lg

srone



Antwort von TheBubble:

Ich würde es auch gut finden.

Aus Herstellersicht gibt es sicher viele Gründe dies zu "vermeiden". Leider. Ein paar, die mir einfallen:

- Eine direkte Abspielmöglichkeit in der Kamera selbst ist vermutlich bisher mit kostengünstigen Bauteilen nicht nicht machbar. Die übichen MPEG-Codecs kann man fertig dazukaufen, für ein eigenens RAW-Format incl. Echtzeit-Wiedergabe als vorzeigbares Resultat müsste Entwicklungsaufwand getrieben werden.

- Viele Elektronik-Komponeten sind am Markt verfügbar und müssen quasi nur noch mit der übrigen Hardware kombiniert und zusammengebaut werden. Klar, große Hersteller haben eigene Chips, aber auch für diese kann man fertige (Teil-)Schaltungs-Designs einkaufen und integrieren. Daher liegt es nahe, das Kameras maximal das können, was zugelieferte Komponenten beherrschen und der Hersteller selbst entwickelt hat.

- Die Karte per Kartenleser oder zumindest die Dateien einfach kopiert direkt am TV oder von einer Disc abspielen geht ohne Konvertierung nicht mehr.

- Er müsste eine Konverter-Software beilegen, um Kunden nicht zu verärgern, das kostet jedoch Geld und Supportaufwand. Die Kunden werden nicht verstehen (wollen), warum das plötzlich nötig ist.

- Die Kunden werden nicht verstehen, warum ihre alte Schittsoftware mit den Daten ohne Konvertierung nicht klar kommt.

- Er könnte manuelle Einstellmöglichkeiten und ein paar weitere Features nicht mehr so flexibel fein dosiert verteilen und damit Kameras unterschiedlicher Preisstufen untereinander differenzieren.

Letztlich sehe ich in einer nötigen Format-Umwandling vor dem Schnitt kein großes Problem. Wer will, muss ja auch keine besonderen Einstellungen tätigen und bekommt dann eben ein Resultat, wie es es auch sonst direkt erhalten hätte - allerdings mit der Option, bei Bedarf dennoch eingreifen zu können.

Aber man sieht es doch auch hier am Forum: Ein intermediate CodecCodec im Glossar erklärt wird als nicht zeitgemäß bezeichnet, man will alles einfach durcheinander direkt vom Speichermedium in die TimelineTimeline im Glossar erklärt werfen dürfen und erwartet wie durch Magie perfekte Ergebnisse.





Antwort von srone:

wie schön, durcheinandergewürfelt, aber getroffen. ;-)

lg

srone



Antwort von cantsin:

Man muss sich doch nur ansehen, wieviel Frust und Prügel Blackmagic von seinen Kunden dafür einsteckt, dass es sehr enge Vorgaben für die Speichermedien gibt.

Die Foren sind voll von Leuten, die es nicht kapieren und trotzdem irgendwelche Billigkarten zum Laufen bringen wollen. Gerade BM Pockets kriegt man einfach und preiswert auf dem Gebrauchtmarkt, weil zuviele Leute am Workflow scheitern.

- Ich hab' mal ein Perl-Skript zum Reparieren von CinemaDNG-Ordner mit Framedrops geschrieben und kriege regelmäßig verzweifelte Anfragen von Leuten (gerade auch aus Produktionsfirmen...), die die Kommandozeile nicht beherrschen, aber ganz dringend mein Skript zum Laufen kriegen müssen. Das lässt schon tief blicken.

Ich schätze mal, dass BM auch wegen dieser Erfahrungen den Prosumer-Markt gerade aufgibt (mit den aktuellen Modellen wie URSA und Micro Cinema Camera, die sich klar an andere Zielgruppen richten).



Antwort von Jörg:

dann ist 8bit oftmals mehr als genug. ;-)

um Himmels willen, srone...



Antwort von DenK:

Das Angebot von Raw ist doch garnicht so klein. Red, Arri, Blackmagic, sogar Canon mit Magic Lantern, und alle anderen eben über externe Rekorder. Wo fehlt da das Angebot?

Der andere grosse limitierende Faktor ist oft natürlich die Datenmenge. 4k Raw schreibt man halt einfach nicht auf SD Karten, schon garnicht mit mehr als 50 Frames.

Und zu guter letzten müssen Herstellers eben auch eine Nachfrage bedienen. Und wenn diese außerhalb des Profi-Sektors nicht vorhanden ist, wird es eben auch nicht angeboten.

Wenn man hier im Forum mal liest mit was für fragwürdigen Hard-und Software Kombinationen die Leute arbeiten, können die wohl froh sein dass RAW nicht der Standard ist.



Antwort von WoWu:

Die Industrie ist ja nicht mal in der Lage RAW zu definieren.
Aus den unterschiedlichsten Kameras kommt alles mögliche raus, nur eben ganz selten das, was der Sensor als Datenpaket abgibt.
Insofern könnte man jede beliebige flache Kurve als RAW bezeichnen (wie es auch gemacht wird).
Wonach rufen wir also ?
Definier doch mal RAW und dann Vergleich mal mit dem, was Hersteller so alles an den Ausgang stellen .... und dann schau Dir mal an, was ADOBE in seinem Container damit macht ... und dann sag mir mal, was das noch mit einem Sensorsignal zu tun hat.
Dann schau Dir mal die ganzen "Entwickler" an, was die mit einem 14 oder 12 BitBit im Glossar erklärt Signal veranstalten, weil es sowieso keiner sehen kann.
Wer monitort schon in 12 BitBit im Glossar erklärt oder sogar mehr ?
Insofern können die Teile machen, was sie wollen .... und tun das auch.
Stellt sich nur die Frage, warum man dann vorne mit soviel Aufwand arbeitet.
Übrigens ist das mit den Datenmengen gar nicht so schlimm, pwie immer behauptet.
Schließlich bekommt man bei richtigem RAW nur einen Wert pro Pixel.
Die Datenmengen sind's also nicht.
Warum aber sollten Hersteller sich auf so ein Kuddelmuddel einlassen, es sei denn, sie haben ihren "Wallet Garden" an Usern, denen man einen überschaubaren Workflow anbieten und zumuten kann.
Und so erklärt sich auch die Situation, wie sie ist und sich vermutlich auch nicht ändern wird.
Lass uns mal abwarten, wer von den Herstellern alles ACES unterstützt .... so wie es bisher aussieht, auch nur wieder dieselben üblichen Verdächtigen ... und nix für die breite Anwenderschar.



Antwort von nachtaktiv:

raw ist so ne sache. beim filmen isses ja so, das die thematik eh schon unglaublich komplex ist. und selbst bei profi produktionen im kino kann man dauernd fehler sehen, weil sogar ein mehrhundertköpfiges team es nicht schafft, 100% fehlerfrei zu arbeiten. das sind dann die fehler, die hier im forum gern und viel diskutiert werden.

raw erweitert das filmen um möglichkeiten, die die meisten 1 mann filmproduktionen überfordern, mich eingeschlossen. ich habe schon mit dem sony log schon so meine probleme. ich sehe mir stundenlange tutorials auf youtube an und checks dann immer noch nicht richtig. und zwei tage später hab ich das schon wieder vergessen. weil ich kein profi bin, der es jeden tag anwendet. mir als hobbyfilmer reichts, wenn ich ein bisl die farben und kontraste schubse.

und ich denke, das dürfte den meisten consumer/prosumern so gehen. das sieht man ja auch an den massenweisen vermurksten gradings auf youtube. raw macht doch nur sinn (imho), wenn hinterher ein colorist am werke ist. und das sind die meisten leute nicht. die meisten verhalten sich beim grading so, wie beim parfüm shoppen. man sagt, nach dem dritten probeschnüffeln is der geruchssinn erst mal nicht mehr zu gebrauchen, weil übersättigt.

neulich hab ich wieder von einem kollegen so ein grading beispiel bekommen, wo ich mir dachte, das sieht echt nach nix aus. er meinte, er hat den ganzen tat an dem ding rum geschraubt, um den heiligen gral "filmlook" hinzukriegen.

und die hersteller merken das wohl mittlerweile. das es keinen sinn macht, ne günstige kamera mit features voll zu stopfen, die die user eh nicht nutzen können.

das könnte ein grund sein, warum canon und nikon sich vornehm zurück halten beim ausplustern der knipsen zur filmkamera. die lassen sony sich in ner materialschlacht verausgaben, und liefern vielleicht nicht dasselbe, weil sie ihre kunden besser kennen, und eine ahnung haben, wo es nach dem hype hin gehen wird.

und natürlich ist der speicherplatz ein thema. jeder KÖNNTE flac alben hören, statt mp3. macht aber keiner. die leute bleiben bei mp3, weil sie nun mal viel mehr musik auf ihre tablets und smartphones kriegen.

das is dasselbe wie schon vor 30 jahren. da haben auch die wenigsten eine gute hifi anlage mit nem hochwertigen tapedeck besessen. es reichte die tchibo anlage für die küche, und die kompaktanlage fürs wohnzimmer. das plus an klang einer hochwertigen bausteinanlage hat immer nur die freaks interessiert. der großteil der masse, dem reichte für nena, major tom und ein bißchen frieden ihr billiger plastikschrott.

und deswegen glaube ich auch, das wir früher oder später auch wieder ein schrumpfen der features sehen werden. der urknall 5DII hallt noch nach, hat auch viel bewegt - aber den meisten consumern kann man z.b. eine sony a6300 oder eine RX100IV nicht verkaufen. die sehn nur, das sich preise verdoppeln für sachen, die sie gar nicht brauchen, verstehen oder haben wollen.

/edit: thema nachträgliche belichtungskorrektur hab ich mal bewusst ausgelassen, weil ich mich da nicht so gut auskenne.



Antwort von Darth Schneider:

Man muss sich doch nur ansehen, wieviel Frust und Prügel Blackmagic von seinen Kunden dafür einsteckt, dass es sehr enge Vorgaben für die Speichermedien gibt.

Die Foren sind voll von Leuten, die es nicht kapieren und trotzdem irgendwelche Billigkarten zum Laufen bringen wollen. Gerade BM Pockets kriegt man einfach und preiswert auf dem Gebrauchtmarkt, weil zuviele Leute am Workflow scheitern.

- Ich hab' mal ein Perl-Skript zum Reparieren von CinemaDNG-Ordner mit Framedrops geschrieben und kriege regelmäßig verzweifelte Anfragen von Leuten (gerade auch aus Produktionsfirmen...), die die Kommandozeile nicht beherrschen, aber ganz dringend mein Skript zum Laufen kriegen müssen. Das lässt schon tief blicken.

Ich schätze mal, dass BM auch wegen dieser Erfahrungen den Prosumer-Markt gerade aufgibt (mit den aktuellen Modellen wie URSA und Micro Cinema Camera, die sich klar an andere Zielgruppen richten).

Ich denke es ist eher so das der Workfow an den Leuten scheitert, weil dieser wirklich als eher Mühsahm zu bezeichnen ist bei BM Kameras. Ein Fehler finde ich das bei einer Pocket der Workflow derselbe ist wie bei einer Ursa, das müsste bei einer Pocket auch ohne externen Audio Recorder, mit einer anständigen Automatik, anständigen Batterien, einem Sucher und einem Display auf dem man etwas erkennen kann, draussen und auch ohne Color Correction gehen wenn man das wünscht. Aber es gibt ja zum Glück auch noch Firmen wie Sony oder Panasonic. Ich denke Black Magic sollte lernen das der Hobbymarktanteil zig mal grösser ist wie der Prosumer/Profimarktanteil.
Canon, Panasonic und Sony haben das schon vor 30 Jahren begriffen und für Alle Zielgruppen genügend Geräte mit eigenem angepasstem Workflow und Eigenschaften auf dem Markt.



Antwort von iasi:


Wer monitort schon in 12 BitBit im Glossar erklärt oder sogar mehr ?

Niemand.
Wozu auch?
Wer RAW dreht, schaut nicht auf einen Vorschaumonitor, wenn es nicht um Bildausschnitt oder Schärfeeinstellung geht.

RAW ist eine relativ simple Sache, bei der man sich, wie eben auch beim Filmnegativ auf die Belichtung und den Bildinhalt konzentriert. Dabei genügt dann zumeist sogar das HistogrammHistogramm im Glossar erklärt, um die Belichtung vorzunehmen.
Man kann den DR bestmöglich ausnutzen und in der Post das RAW-Material "entwickeln".

S-log ist dagegen ein kompliziertes FormatFormat im Glossar erklärt, das einen während des Drehs weit mehr belastet.
Und je mehr man an der Kamera einstellen muss, umso mehr kann dann eben auch schief gehen.



Antwort von iasi:

Warum setzt sich RAW eigentlich nur so schleppend durch im Bewegtbildbereich?

Weil die Leute eben schon am Drehort das fertige Bild auf dem Vorschaumonitor sehen wollen (und dann aber ständig von Film-Look reden) :)



Antwort von Darth Schneider:

Warum setzt sich RAW eigentlich nur so schleppend durch im Bewegtbildbereich?

Weil die Leute eben schon am Drehort das fertige Bild auf dem Vorschaumonitor sehen wollen (und dann aber ständig von Film-Look reden) :)

Das geht schon, sogar mit einem schwarz-weiss Sucher wenn man eine Ahnung vom Licht setzen und von Filtern hat, früher wurden viele Filme ohne Colorkorrection gedreht und haben Oscars gewonnen.



Antwort von Jost:

Ob Raw oder nicht, ist doch völlig wurscht.

Es liegt einfach an der Software.

Ein DNG-Raw aus einer BM ist in Lightroom schließlich ruckzuck bearbeitet und in welche Richtung auch immer optimiert.

Wer jahrelang mit Lightroom Raw-Fotos bearbeitet hat, stöhnt anfangs ganz tief, wenn er RAW-Colorgrading mit Resolve erledigen soll.

Mit Resolve scheint das ein Endlos-Gefrickel.

Hat man den Bogen raus, ist es egal, in welchem FormatFormat im Glossar erklärt der Clip vorliegt.



Antwort von rush:

Warum setzt sich RAW eigentlich nur so schleppend durch im Bewegtbildbereich?

Weil die Leute eben schon am Drehort das fertige Bild auf dem Vorschaumonitor sehen wollen (und dann aber ständig von Film-Look reden) :)

Wozu gibt es denn bspw. LUT's? Und gegen ein "normales" reduziertes Videosignal am Sucherweg spricht doch auch nichts, wenn parallel ein RAW DatenstromDatenstrom im Glossar erklärt generiert wird.

Nein aber mal im Ernst...
ich fotografiere seitdem meine Fotoapparate RAW-fähig sind ausschließlich in RAW... das jpeg landet zwar nebenbei auch noch auf den Kameras, ist aber wirklich ein zeitkritisches Backup und dient halt der Vorschau.

Der Workflow in LR oder PS ist super simpel und entspannt und man kann einfach eine Menge aus den RAW-Dateien herausarbeiten die im jpeg so nicht mehr möglich sind.

Vielleicht sind auch wirklich die Hersteller der NLE's in Zugzwang einen gescheiten und breiteren RAW-Support anzubieten?
Letztlich wird ja niemand gezwungen RAW verwenden zu müssen... im Bekannten und FReundeskreis wird auch weiterhin in jpeg fotogarfiert, weil viele der "unbekannte" RAW-Workflow abschreckt.



Antwort von Darth Schneider:

Ob Raw oder nicht, ist doch völlig wurscht.

Es liegt einfach an der Software.

Ein DNG-Raw aus einer BM ist in Lightroom schließlich ruckzuck bearbeitet und in welche Richtung auch immer optimiert.

Wer jahrelang mit Lightroom Raw-Fotos bearbeitet hat, stöhnt anfangs ganz tief, wenn er RAW-Colorgrading mit Resolve erledigen soll.

Mit Resolve scheint das ein Endlos-Gefrickel.

Hat man den Bogen raus, ist es egal, in welchem FormatFormat im Glossar erklärt der Clip vorliegt.

Wenn diese Raw Entwicklerei so umständlich bleibt wird es sich nur auf dem Profimarkt teilweise durchsetzen und somit immer nur (nicht böse gemeint) ein Randgruppen Dasein führen.



Antwort von Spacemans Assistent:

Mein Meister sagt dass der einzige Grund warum RAW noch nicht in jedem Camcorder installiert ist die Rückständigkeit der Filmbranche gegenüber der Fotografie ist. Die Hersteller wollen die Anwender nicht überfordern und können Sie so gleichzeitig mit unausgereiften Lösungen ausnehmen wie eine Weihnachtsgans. Das geht da die Videobranche im Gegensatz zur Fotobranche an Kompromisslösungen gewöhnt ist und damit Glücklich ist.



Antwort von Spacemans Assistent:

Wobei ich dazu Anmerken muss dass mein Meister über einen sehr großen Weitblick verfügt, heutige Entwicklungen in der Filmbranche schon vor 10 Jahren vorausgesagt hat und damals ungläubige Blicke auf seinen Seminaren geerntet hat. Er ist vom Typ her jemand wie Steve Jobs bzw. Alan Musk von Tesla der die Sachen von hinten denkt.



Antwort von Frank Glencairn:



Wenn diese Raw Entwicklerei so umständlich bleibt wird es sich nur auf dem Profimarkt teilweise durchsetzen und somit immer nur (nicht böse gemeint) ein Randgruppen Dasein führen.

Was ist denn da umständlich?

Wenn man sich absolut nicht mit seinen Werkzugen auseinander setzen will, macht man in Resolve halt die entsprechenden 709 voreinstellungen für die TimelineTimeline im Glossar erklärt, schmeißt das Material rein und fertig.

Raw ist vor allem für die Generation iPhone, der sowieso alles zu kompliziert ist, was über einen selbsterklärenden Konopfdruck hinaus geht, und für Posthäuser, die Millionen an altem Gerfaffel zu stehen haben, daß sie immer noch abzahlen ein Problem.

Ich dreh seit Jahren ausschließlich raw, und es ist zumindest für mich und meinen Workflow (your mileage may vary), das schnellste, einfachste und effizienteste.

Ein Fehler finde ich das bei einer Pocket der Workflow derselbe ist wie bei einer Ursa, das müsste ... draussen und auch ohne Color Correction gehen wenn man das wünscht.

geht doch einfach auf ProResProRes im Glossar erklärt und Video stellen

...oh sorry, ich vergaß - Handbuch lesen is ja ne Zumutung



Antwort von Jott:

Er ist vom Typ her jemand wie Steve Jobs bzw. Alan Musk von Tesla der die Sachen von hinten denkt.

Elon, nicht Alan. Aber du bist ja nur der Assistent.



Antwort von Spacemans Assistent:

@Jott, und Du ein Erbsenzähler? Ich glaube dass meint mein Meister mit in Detaillösungen glücklich sein und den Blick fürs Große Ganze verlieren.



Antwort von Spacemans Assistent:

@Frank G., da hast Du vermutlich den Pudels Kern mit den Posthäusern getroffen. Unser Meister lehrt uns auch dass Begriffe wie Proxies, ProResProRes im Glossar erklärt usw. in Zeiten von RAW fehl am Platze sind.
Bei einem Punkt muss ich allerdings widersprechen: die IPhone Generation. Dazu gehöre ich nämlich auch, und die ist recht fortschrittlich was das hinterfragen von althergebrachtem angeht und im Optimieren. Unser Meister fördert diese Denkweise immer indem er sagt: Ihr seid jung, bringt Schwung in die Videobranche und müsst immer hinterfragen ob Sachen Sinn machen. Nur weil etwas immer so gemacht wurde heißt das noch lange nicht dass es zum heutigen Stand der Technik auch noch Sinn macht. Und da ist die IPhone Generation sehr pfiffig. Ich denke die haben verstanden wenn man mit den automatischen Belichtungsfunktionen und Autofokus der Kameras umgehen kann so komische altbackenen Waveformanzeigen und externe Monitore keinen Sinn machen. Dazu kam bei uns nämlich letztens die Frage auf was diese Werkzeuge sollen. Der Meister sagte nur: Jungs, kurzer Blick über den Tellerrand: Nutzen das die Profifotografen? In Zeiten von Integralmessungen sind solche Tools Quatsch.



Antwort von wolfgang:

Also ich weiss zuwenig warum hier so gesudert wird. Raw ist nicht jedermanns Sache, x-log auch nicht, obwohl ja gerade Sony das neuerdings in seine 8bit Kisten reihenweise verbaut, aber viele damit natürlich gar keine Erfahrung haben und die Frage ist ob und wie überhaupt das angenommen wird. Nur wem störts eigentlich? Auf jeden Fall fliesst es in neuere NLE Entwicklungen wie etwa Edius ein, und dann wird man ja sehen was daraus wird.



Antwort von Spacemans Assistent:

Ich denke mal dass sich RAW langsam durchsetzten wird. Da führt vermutlich kein Weg vorbei.
Mein Meister sagt immer:

Wenn Du Geld verdienen willst um Deinen Lebensunterhalt einigermaßen zu bestreiten mache was der Mainstream macht. Wenn Du viel Geld verdienen willst sei dem Mainstream immer einen Schritt voraus. Also wenn der Mainstream in 10Bit ProResProRes im Glossar erklärt und mit Proxies arbeitet, arbeitest Du im RAW Workflow.



Antwort von Goldwingfahrer:

Wenn Du Geld verdienen willst um Deinen Lebensunterhalt einigermaßen zu bestreiten mache was der Mainstream macht. Wenn Du viel Geld verdienen willst sei dem Mainstream immer einen Schritt voraus. Also wenn der Mainstream in 10Bit ProResProRes im Glossar erklärt und mit Proxies arbeitet, arbeitest Du im RAW Workflow.

möchte ja nicht unhöflich sein,wenn man als Angestellter solchen Unfug erzählt kann ichs ja noch verstehen.
Als Unternehmer oder als Selbstständiger würde er es ganz sicher anders beschreiben.

Jetzt die einfache Frage...ist der besagte "Meister" ein kleines Rädchen in einem grösseren Verbund oder ?



Antwort von klusterdegenerierung:


Definier doch mal RAW

Das ist eigentlich die beste Ausgangsposition für diese Fragestellung, deswegen wäre ich zb. für die integration von ACR als Filter in Premiere, sowie in es dies in Photoshop gibt,
ein guter Anfang, bis die Hersteller bereit sind wenigstens das in der Cam als raw aufzuzeichnen, was die Cam und die Karte schaffen könnten.

Also eine 4K A6300 oder GH4 müßten ja nicht unbedingt 4k raw 60fps können, aber fhd in 24 wäre schon ein klasse alternative.
Da meine alte 5D das schon konnte, sollte einer A6300 da nichts im Wege stehen.

Die integration von ACR in Premier als Filter wäre für mich der erste Schritt SLog Material wie ein CinemaDNG zu bearbeiten und sich an den Workflow zu gewöhnen.
Ich verwende ab und an, auch wenns lange dauert, das ACR im Photoshop für Filme, da hier das bearbeiten von Spitzlichtern und tiefen einfach vielbesser funktioniert als in SG oder PR, auch wenn PR mit seiner neuen Lumetriengine schon ähnliche features wie ACR bietet, aber eben nur annähernd.

Als totaler Fan von FotoRaw und FilmSlog, wäre Raw für alle das erstrebenstwertiste, vielleicht aber auch nur, weil ich seit ca. 20 raw fotografiere und mir ein jpg nie in die Tüte käme! ;-))
Ist ist sicherlich für andere wieder ganz anders.

Ich schätze wenn auch nur einer diese option als goody intergrieren würde und dies von der Fangemeinde gefeiert würde, würden die anderen Hersteller sicherlich nachziehen, naja vielleicht auch nicht ;-))



Antwort von Spacemans Assistent:

Er ist selbständiger Unternehmer und wenn ich mal sage äußerst erfolgreich untertreibe ich vermutlich.



Antwort von rush:

Raw ist nicht jedermanns Sache, x-log auch nicht, obwohl ja gerade Sony das neuerdings in seine 8bit Kisten reihenweise verbaut, aber viele damit natürlich gar keine Erfahrung haben und die Frage ist ob und wie überhaupt das angenommen wird.

Das ist ja das Problem... in 8bit 420 machen Geschichten wie Log und Co relativ wenig Sinn... warum man diess "Konstrukt"" als Mehrwert verkauft und vermarktet ist mir nicht schlüssig, zumindest nicht bei den kleinen 8bit beschränkten Kameras.

Der Sprung auf ein halbwegs zähmbares und genormtes RAW-Format dagegen würde viele dieser Probleme sofort beseitigen. Und wer etwa mit dem RAW-Import Fenster von Photoshop nicht umgehen kann, dem ist sowieso nicht zu helfen, denn der würde auch in jeder gängigen NLE per se scheitern, spätestens bei 8bit Log.



Antwort von wolfgang:

Also ich glaube, hier wird was verlangt was es einfach nie geben wird: weder werden jetzt alle in raw filmen (egal mal in welchem), noch werden alle in ProResProRes im Glossar erklärt mit x-log filmen, noch werden alle in XAVC und noch alle in XAVC-S/anderen mp4 Derivaten filmen.

Dafür sind die Wünsche und Bedürfnisse einfach zu unterschiedlich, das wird man nicht über einen Kamm scheren können.

Und alleine die hier verwendeten Begrifflichkeiten/Werkzeuge zeigen schon den Unterschied auf: ich beispielsweise nutze die Adobe Familie nicht - was interessiert mich daher das Importfenster von Photoshop? Ob ich dann damit umgehen könnte - vermutlich schon, wenn ich es mir mal angesehen hätte. Oder ACR in Premiere. Oder ich nutze auch kein CinemaDNG.

Ich fahre derzeit etwa mit v-log l unter ProResProRes im Glossar erklärt, verarbeite das bisher (eher mühsam) in Vegas als Cineform mit Nutzung des Looks3 Plugins. Wieder ein exotischer Einzelweg.

Und ich warte mal was Edius 8.2 für x-log bringen wird, teste auch mal Catalyste Edit/Prepare und überlege auch auf XAVC zu gehen - aber die FS7 ist halt ein teurer Weg wenn man daraus kein Einkommen erzielt.

Und ich vermute ich bin mit diesen Rahmenbedingungen wieder ganz anders positioniert als jemand, der halt nur noch auf raw gehen will und die Zeit für eine kommerzielle Nachberbeitung hat. Oder als jemand der halt nur seine kleinen Filmchen mit AVCHDAVCHD im Glossar erklärt oder XAVCS von einem fallweise stattfindenden Familientreffen machen will und nicht mal schneiden will. Oder der VJ dem raw wieder gar nicht interessiert, dem 4K am Hintern vorbei geht - der rasch sendefähiges Material braucht. Und das sind nur ein paar Beispiele.



Antwort von rush:

Ich verlange nichts... ich wundere mich und frage mich nur wie Eingangs erwähnt warum es so ist.

Natürlich wird jeder seinen Worklfow haben, der eine ist logischer und konsequenter, der andere komplexer und noch weniger nachvollziehbar. Soll ja auch so sein und würde doch nichts ändern, wenn nebenbei noch eine Rohdatendatei auf der Kamera landen würde. Wer die nicht mag oder nichts mit anzufangen weiß ignoriert oder deaktiviert sie wie beim Fotoapparat. Und wer Lust an Materialverbiegungen hat könnte eben am RAW ansetzen.

Der Sensor von Pocket und 2.5er ist mir halt zu klein plus ein paar andere Unwegbarkeiten.. die 4k hat wiederum weniger DR und die 4.6er hat noch keiner wirklich an der Hang gehabt... abgesehen davon ist sie preislich mit Sucher und Batterie etc schnell wieder in einem Bereich der für den ambitionierte Amateur uninteressant wird. Aber das ist auch nicht der Punkt... der Laden hat zumindest gezeigt das es technisch offenbar machbar ist RAW auch in Kleinen Kisten zu realisieren und mit gängigen Speichermedien wegzuschreiben. Der Restmarkt scheint dies gekonnt zu ignorieren und uns stattdessen 8bit log geschichten aufdrücken zu wollen mit denen ich eben immer latent leichte Bauchschmerzen habe. Nicht das man damit nicht auch arbeiten könnte, aber als ambitionierter sucht man eben doch das gewisse extra quäntchen an MehrWert ;-)



Antwort von Peppermintpost:


Mein Meister sagt immer:

Wenn Du Geld verdienen willst um Deinen Lebensunterhalt einigermaßen zu bestreiten mache was der Mainstream macht. Wenn Du viel Geld verdienen willst sei dem Mainstream immer einen Schritt voraus. Also wenn der Mainstream in 10Bit ProResProRes im Glossar erklärt und mit Proxies arbeitet, arbeitest Du im RAW Workflow.

tja, dein meister scheint nicht die aller hellste kerze auf der torte zu sein. evtl sollte er bei der photografie bleiben.



Antwort von Spacemans Assistent:

Hatte eben mit meinem Meister telefonischen Kontakt um ihm zu berichten dass es hier im Forum hoch her geht zum Thema RAW und dass der ein oder andere wohl anfängt RAW zu nutzen. Er meinte, dass er positiv erstaunt sei und sich über diese späten Einsichten freue. In der Vergangenheit hatte wohl nur einer namens Iasi die Vorteile von RAW frühzeitig geschnallt. Wer auch immer das ist, lustiger Name.



Antwort von Jott:

Der schnallt aber bis heute nicht, dass Alternativen ebenfalls Vorteile haben. Dogmatiker haben selten die Weisheit gepachtet, egal ob mit lustigem Namen oder Raumfahrer.

Der Trick, Geld zu verdienen, ist die jeweils wirtschaftlichste Wahl der Mittel, bezogen auf das Ziel. Deswegen sind Kameras, die wahlweise raw oder durch bieten, wunderbar flexibel und undogmatisch. Und dass sich Dogmatker über solche Kameras aufregen, halte ich für einen der wundersamsten Auswüchse eines Kameraforums. Draußen in der echten Welt gibt es diesen Dogmatismus definitiv nicht, da sind die meisten erwachsen.

Abgesehen davon: raw ist doch nicht selten, wie die Überschrift meint?



Antwort von Jommnn:

><((((°>



Antwort von Axel:

ich habe schon mit dem sony log schon so meine probleme. ich sehe mir stundenlange tutorials auf youtube an und checks dann immer noch nicht richtig.

Kann ich gut nachvollziehen. Aber glaub mir, mit S-Log hast du zehnmal mehr Kopfschmerzen als mit Raw.

Um ein Bild zu kriegen, das auf jeden Fall schöner ist als alles, was da sonst an etepetete Log-Murks hochgejubelt wird, brauchst du in Raw eigentlich* nur Farbtemperatur (links/rechts-Regler) und Belichtung (links/rechts-Regler) zu verstellen. Noch nie Raw fotografiert? Einmal gemacht, fotografierst du hinterher höchstens noch Verkehrsunfälle in Jpeg ...

(* Immer mehr Leute kommen auf den Trichter, dass "Grading" nicht heißen muss, dass man alles bis zur Unkenntlichkeit verstellt. Deshalb sehen wir zum Beispiel von BM-Kameras inzwischen generell bessere Videos als noch vor zwei Jahren)



Antwort von Spacemans Assistent:

Habe auch nochmal gefragt warum sich RAW so langsam durchsetzt obwohl es ja offensichtlich nur Vorteile hat und kinderleicht in der Weiterverarbeitung ist.

Der Meister sagte dazu: Es ist nicht einfach alte Zöpfe abzuschneiden. Stell Dir mal vor wieviele Menschen im Filmbereich von komplizierten Workflows leben, die haben alle ein Interesse daran die Einführung von simplem RAW zu vezögern:

Postverabeitungsfirmen die keiner mehr bräuchte
Da gibt es teure Gradingsuites die dann obsolet sind
Teure Software und Konvertierungsprogramme die wegfallen
Viele haben Videobücher geschrieben, teilweise richtig und auch falsch, die nur noch Altpapierwert haben
Usw....

Er vergleicht das mit der Automobilindustrie die derzeit alles versucht um die Elektromobilität möglichst lange rauszuzögern. Schließlich liegt das Know-how im Verbrenner den man sich dann sparen könnte.

Da ist wohl auch viel Lobbyarbeit dabei. Mein Meister rät: selber nachdenken und nicht nur nachplappern was die Industrie vorkaut. Da gibt es genügend die das machen. Als gute Beispiel die hier im Forum selbst nachdenken nannte er mir den besagten Iasi und den Frank G.



Antwort von Jott:

Welches Post House kann denn nicht mit raw umgehen? Also bitte. Jeder iMac mit fcp x, jeder bessere PC mit Adobe verarbeitet heute RedRaw mit links. Und RED-Kameras gibt es seit 8 Jahren, wenn ich nicht irre. Irgendjemand wird das Zeug ja wohl geschnitten haben die ganze Zeit, oder?



Antwort von Spacemans Assistent:

@Jott, ich glaube es ging nicht darum ob Posthäuser mit RAW umgehen können. Es ging darum dass RAW so simpel ist dass 80% der Leistungen eines Posthauses nicht mehr benötigt werden.



Antwort von Jott:

@Jott, ich glaube es ging nicht darum ob Posthäuser mit RAW umgehen können. Es ging darum dass RAW so simpel ist dass 80% der Leistungen eines Posthauses nicht mehr benötigt werden.

Die werden aber auch für alles andere, egal ob XAVC, DNxHDDNxHD im Glossar erklärt, ProResProRes im Glossar erklärt, AVC Ultra oder sonst was nicht mehr zwingend benötigt wie noch vor wenigen Jahren. Deren klassische Kundschaft (Agenturen) hat längst gemerkt, dass vieles auch am Desktop-Rechner geht, sofern man nicht gerade den Praktikanten dran setzt. Wenn regelmäßig sechsstellige Software über Nacht kostenlos wird, ist der 1.000-Euro-pro-Stunde-Spaß halt selten geworden. Das hat aber nichts mit raw oder durch zu tun. Für beides braucht es fähige Coloristen, sofern mit "Grading" nicht wie so oft nur das Retten verkackter Aufnahmen gemeint ist.



Antwort von Jörg:

oder durch "grading" gute Aufnahmen erst verkackt werden...



Antwort von wüdara:

der "Meister" versteckte sich immer hinter dem Mond,nun verbirgt er sich hinter seinem Assi-ist ihm zu kalt geworden draußen im All?

Tja,man wird nicht jünger.



Antwort von rush:



Abgesehen davon: raw ist doch nicht selten, wie die Überschrift meint?

Naja, sehr viel mehr als eine Handvoll Hersteller sind es letztlich dann aber doch nicht... und ARRI und RED haben sich im ambitionierten Hobbybereich nun noch nicht allzu sehr durchsetzen können um das Kind mal beim Namen zu nennen.

Jetzt kann man wieder eingrätschen in Form von ABER.... ja... ist ja gut... in der Summe an Camcordern und videofähigen Fototapparaten oder wegen mir auch CineCameras ist die RAW-Verbreitung aber doch eher in homöopathischen Dosen voran geschritten wenn man mal fernab der großen Filmproduktionen auf der anderen Seite des Kontinents schaut. Denn auch hierzulande wird RAW selbst im Spielfilmbereich teilweise noch immer gemieden und hat sich kaum etabliert.

Aber mir gehts letztlich auch viel eher um den bezahlbaren Semiamateur-Bereich der vielleicht nicht zwangsweise seine Brötchen mit der Filmerei verdient aber trotzdem Bock am Hobby hat und dann entsprechend auch etwas dran schrauben würde.

Aber die Diskussion zeigt ja ganz offensichtlich das die Bedürfnisse weiterhin sehr unterschiedlich sind und sich vieles vermengt... wo früher noch eine klare Abgrenzung zwischen Profi und Amateur bestand.

Vielleicht ist die Zeit auch einfach noch nicht reif um mach RAW in bezahlbaren Kameras zu rufen.... ? Andererseits... was soll noch kommen? Will man 8K oder HDR auch noch in einen 420 8Bit Container bereits aufnahmeseitig pressen?

Letztlich isses mir Wumpe... ich dreh auch mit einer kleinen nicht raw-fähigen Kamera meinen Krempel... aber nett wäre es trotzdem hier und da etwas mehr Luft zu haben, so wie es seit eh und je in der Fotografie möglich ist. Analog konnte man doch auch durch viele Einflüsse von Film und Entwicklung das Ergebnis beeinflussen... es wird Zeit das RAW auch im Videobereich breiteren Anklang findet... auch wenn das wohl nicht eintreten wird.



Antwort von Jott:

Hier wurde schon geschrieben, mit raw müsse man nicht mehr ausleuchten, das sei das Tolle daran. Gruselig. Was bringt mehr: eine raw-Kamera kaufen oder stattdessen gutes Licht und leuchten lernen? Was genau bringt den "Filmlook"?

Zum Schmökern:

http://www.technicolor.com/download/fil ... nnibal.pdf

Raw ist nicht per se der Schlüssel zu tollen Bildern. Die befinden sich vor der Kamera. Nichts spricht gegen raw, wenn der Workflow zum Job passt - aber nochmal: das Dogma, ohne raw wird's nichts, ist eine Forenerfindung (und natürlich auch gutem Marketing des raw-Pioniers geschuldet).

Blackmagic bietet die Möglichkeit, sich für wenig Geld in beiden Welten auszutoben und zu lernen. NLE und Grading-Suite geben sie obendrein kostenlos dazu. Was will man mehr, gerade als engagierter Privatfilmer?



Antwort von Frank Glencairn:

Hier wurde schon geschrieben, mit raw müsse man nicht mehr ausleuchten, das sei das Tolle daran.

Wer sowas schreibt hat weder raw, noch das Filmen verstanden



Antwort von rush:

Hier wurde schon geschrieben, mit raw müsse man nicht mehr ausleuchten, das sei das Tolle daran. Gruselig. Was bringt mehr: eine raw-Kamera kaufen oder stattdessen gutes Licht und leuchten lernen? Was genau bringt den "Filmlook"?

Diese Aussagen wird man vermutlich immer mal wieder irgendwo lesen/finden... aber wir wissen doch eigentlich (alle) wie es ist und das es Schmarn ist.

Und im Umkehrschluss: An einem Set wo der OB seinen Job gut macht und auch ein Team mitdenkt, würde man auch ohne RAW-fähige Kamera wunderbare Ergebnisse erzielen können und am ehesten darauf verzichten können... das ist ja der Punkt ;)

Nur hat man allein selten ein ganzes Team dabei um alles perfekt in Szene setzen zu können... und an dem Punkt wird RAW interessant.



Antwort von klusterdegenerierung:

Der Meister sagte dazu:

Wann bist Du denn mit dieser alberen Psychonummer durch?
Wie lange sollen wir uns den Kindergarten noch reinziehen?

Ist Dir das selber jetzt nicht mal langsam zu blöd, oder bist Du erst 12?



Antwort von Spacemans Assistent:

Woher die schlechte Laune? Ich tippe mal auf einen klassischen Fall von:

den Industrieversprechen auf den Leim gegangen, die falsche Kamera gekauft und sich jetzt grün und blau ärgern über die schlechte Bildqualität.



Antwort von Jommnn:

><((((*>



Antwort von iasi:

Hier wurde schon geschrieben, mit raw müsse man nicht mehr ausleuchten, das sei das Tolle daran. Gruselig. Was bringt mehr: eine raw-Kamera kaufen oder stattdessen gutes Licht und leuchten lernen? Was genau bringt den "Filmlook"?

Diese Aussagen wird man vermutlich immer mal wieder irgendwo lesen/finden... aber wir wissen doch eigentlich (alle) wie es ist und das es Schmarn ist.

Und im Umkehrschluss: An einem Set wo der OB seinen Job gut macht und auch ein Team mitdenkt, würde man auch ohne RAW-fähige Kamera wunderbare Ergebnisse erzielen können und am ehesten darauf verzichten können... das ist ja der Punkt ;)

Nur hat man allein selten ein ganzes Team dabei um alles perfekt in Szene setzen zu können... und an dem Punkt wird RAW interessant.

Hat man dank der größeren Datenmenge mehr Spielraum in der Post, kann man durchaus auf das eine oder andere Lämpchen verzichten - mein immer genanntes Beipiel: Der Camera-Shootout 2012.
Wo bei den 8-bit-Cams mehr Lampen und Ausleuchtungszeit notwendig waren, hatte man die Feinarbeit bei RAW eben in der (billigeren und weniger knappen) Postzeit erledigt.
Die Schatten im Gesicht kann man mit einer zusätzlich Lampe oder eben durch ein Node in Resolve um 1 Blendenstufe anheben- wenn das Material es zulässt.



Antwort von Jott:

Schatten im Gesicht kannst du selbst bei popeligem AVCHD-Quellmaterial straflos anheben. Du meine Güte. Dafür braucht man nun wirklich kein raw. Aber wenn's der Kreativität hilft ... schadet ja nicht.

Und wenn man eine Kamera besitzt, die nur raw kann (aussterbende Gattung), gibt es ja sowieso nichts abzuwägen. Sich entscheiden zu können je nach Job und Ziel halte ich aber für wertvoll, daher finde auch gut, dass RED seine strikte Philosophie inzwischen aufgegeben hat. "ProRes is awesome!" (J.Jannard auf reduser). Horses for courses.

Zum Beispiel ProResProRes im Glossar erklärt HD/2k direkt aus einer RED-Kamera, nicht mehr durch Sensorcropping (Tunnelblick), sondern durch Skalierung, also ohne eingeschränkten Bildwinkel: prima Erweiterung des Einsatzgebiets für Owner/Operator, die sonst immer geweint hatten, wenn der Auftraggeber genau dafür diese blöde Alexa vorgezogen hatte. Wegen der Ignoranten die Haare raufen kann man sich heute immer noch im stillen Kämmerlein, aber wenigstens gibt's Geld für die Qual. Die Macht der Wahlfreiheit!



Antwort von Peppermintpost:

Hier wurde schon geschrieben, mit raw müsse man nicht mehr ausleuchten, das sei das Tolle daran.

Wer sowas schreibt hat weder raw, noch das Filmen verstanden

genau so ist es, ausleuchten ist was anderes als das bild hell machen.
und wenn ich die belichtung so halbwegs getroffen habe, dann kann ich auch ein prores in jede richtung verbiegen. ausgebrannte highlights sind auch in raw ausbegrannt und zeichnung in den schatten geht auch im raw im rauschen unter.
deswegen bin ich nicht gegen raw, im gegenteil, raw hat seine stärken. z.b. bei greenscreen aufnahmen. aber wenn ich sowas wie z.b. einen tatort drehe und mein kameraman halbwegs ne ahnung von lichtsetzen und belichtung hat dann brauche ich raw so nötig wie ein loch im kopf.
sich in so einem fall dann dennoch für raw zu entscheiden bedeutet man hat einen hauch mehr spielraum in der post, aber auch einen etwas höheren aufwand in der post. mehr aufwand bedeutet zwingend, es wird teurer.
wenn ein produzent bereit ist dieses mehr an aufwand auszugeben, dann bin ich der letzte der was dagegen hat, ich behaupte aber auch nicht, ohne raw geht es nicht. in 99% der fälle wird man keinen unterschied sehen, immer vorausgesetzt der kameraman kann seinen job.
die kameraleute die behaupten bei raw muss man nicht mehr ausleuchten gehören aber nicht zu der fraktion, da bekommt man grundsätzlich nur schrott angeliefert an dem man dann ewig rum frikkelt und am ende sieht es immer noch nicht gut aus, troz raw.



Antwort von iasi:

Hier wurde schon geschrieben, mit raw müsse man nicht mehr ausleuchten, das sei das Tolle daran.

Wer sowas schreibt hat weder raw, noch das Filmen verstanden

genau so ist es, ausleuchten ist was anderes als das bild hell machen.
und wenn ich die belichtung so halbwegs getroffen habe, dann kann ich auch ein prores in jede richtung verbiegen. ausgebrannte highlights sind auch in raw ausbegrannt und zeichnung in den schatten geht auch im raw im rauschen unter.
deswegen bin ich nicht gegen raw, im gegenteil, raw hat seine stärken. z.b. bei greenscreen aufnahmen. aber wenn ich sowas wie z.b. einen tatort drehe und mein kameraman halbwegs ne ahnung von lichtsetzen und belichtung hat dann brauche ich raw so nötig wie ein loch im kopf.
sich in so einem fall dann dennoch für raw zu entscheiden bedeutet man hat einen hauch mehr spielraum in der post, aber auch einen etwas höheren aufwand in der post. mehr aufwand bedeutet zwingend, es wird teurer.
wenn ein produzent bereit ist dieses mehr an aufwand auszugeben, dann bin ich der letzte der was dagegen hat, ich behaupte aber auch nicht, ohne raw geht es nicht. in 99% der fälle wird man keinen unterschied sehen, immer vorausgesetzt der kameraman kann seinen job.
die kameraleute die behaupten bei raw muss man nicht mehr ausleuchten gehören aber nicht zu der fraktion, da bekommt man grundsätzlich nur schrott angeliefert an dem man dann ewig rum frikkelt und am ende sieht es immer noch nicht gut aus, troz raw.

Den feinen Unterschied siehst du scheinbar nicht - oder willst du nicht sehen:
RAW spart Zeit beim Dreh (und diese Zeit ist extrem knapp und eben sehr teuer) - wenn man RAW auch richtig nutzt.
Mehr Zeit in der Post könnte dann eben auch mal einen Tatort auf internationales Niveau heben - vor allem in Verbindung mit dem Zeitgewinn während des Drehs.
In 99% sieht man eben nun mal den Unterschied zwischen einem Tatort und einer US-Produktion.

Diese "das reicht mir schon"-Einstellung was ProResProRes im Glossar erklärt betrifft, kann ich eh nicht nachvollziehen. Weshalb sollte ich nicht den maximalen Gestaltungsspielraum wählen, den mir Raw bietet? Welchen Grund kann es denn noch heute geben?



Antwort von Jott:

Du könntest zum Beispiel die Producer von "Hannibal" nach den Gründen fragen (Link oben). Oder einen Haufen andere aus der amerikanischen Top-Liga. Und denen bei der Gelegenheit gleich mal richtig die Leviten lesen.

Gruselig, diese Dogmen.



Antwort von Peppermintpost:


RAW spart Zeit beim Dreh

genau das sagt du immer wieder, das stimmt nur leider nicht.
wenn du zeit beim dreh sparen willst, dann hilft gute vorbereitung, oder eine gute crew, von mir aus sogar ein gutes catering. aber scheisse licht setzen, oder alles nur hell machen spart zeit eben nur auf kosten der qualität. raw macht am set genau garnichts schneller. wenn ich will das der darsteller noch ein licht in den augen haben soll, dann muss ich schon die lampe hin stellen. das ich das natürlich auch in der post machen kann ist klar, aber es sieht halt nicht so aus wie wirklich eine lampe mehr, sondern es sieht aus wie in der post hin gefuscht. wenn ein bild richtig belichtet ist, dann kann ich das mit prores genau so wie mit raw und es führt zu genau dem gleichen ergebniss.

aber zeig uns doch mal ein beispiel wo raw mehr kann als prores. da kommt dann immer das gleiche, eine aufnahme im dunkelen zimmer und dann wird der blick aus dem fenster der überstrahlt ist wieder sichtbar gemacht. gähn.
genau der scheiss führt dazu das alles aussieht wie video. alles was gut aussieht und sinn macht geht mit prores genau so. der einzige echte vorteil von raw ist das die kompression meistens viel geringer ist und damit alles was negativ auf kompression reagiert, z.b. keying besser funktioniert. falsch belichtet oder schlecht geleuchtet bleibt schlecht, raw oder nicht.



Antwort von Spacemans Assistent:

Hoppla, ich glaub mein Meister hat recht. Der Einzige der RAW verstanden hat ist der Iasi. Kaum zu glauben was hier so "alte Hasen" von sich geben. Ohne jetzt mit meinen jungen Jahren anmaßend klingen zu wollen, na da mach ich mir um meine Zukunft keine Sorgen, da stecke ich Euch alle locker in die Tasche.
Ich empfehle mal das Niveau der Diskussion anzuheben und ins DSLR Forum rüber zu schauen. Da arbeiten alle mit RAW, keiner würde auf die Idee kommen in Prores zu fotografieren ;-)



Antwort von Jott:

Manche kommen durchaus auf die Idee, wenn auch nicht in einem Forum, sondern draußen im realen Leben. Hat dein Meister hinter'm Mond Wifi? Leit ihm das mal weiter:

http://petapixel.com/2015/11/18/reuters ... aw-photos/

""Speed is also very important to us. We have therefore asked our photographers to skip labour and time consuming processes to get our pictures to our clients faster."

Auch in der Fotografie gibt es keine Dogmen. Horses for courses.



Antwort von Goldwingfahrer:

keiner würde auf die Idee kommen in Prores zu fotografieren ;-)

ProRes ist ein Intermediate CodecCodec im Glossar erklärt,bis auf ein paar kleine Einschränkungen fast ebenbürtig mit dem Canopus HQX und eigentlich "nur für laufende Bilder" gedacht,nicht für ein einzelnes Bild.



Antwort von wolfgang:

Verstehen? Ich meine du verstehst da was nicht.

Denn du übersiehst die beim bewegten Bild anfallenden Datenmengen, wenn man eben in raw filmt - und selbst die raw Anbieter beginnen heute stärker zu komprimieren (z.B. 3:1). Natürlich wird raw seine Berechtigung bei höchstem Qualitätsanspruch haben. Aber höhere BandbreiteBandbreite im Glossar erklärt kostet auch immer Geld - denn die Datenmenge muss verwaltet werden, und das gilt noch immer auch wenn Speicher immer billiger geworden sind.

ProRes oder XAVC oder DNxHD/HR mit so Dingen wie x-log haben sehr wohl ihre Berechtigung - weil qualitativ nur unwesentlich schlechter, dafür aber von der BandbreiteBandbreite im Glossar erklärt her doch sparsamer. Und damit in der Produktionskette in Wahrheit billiger. Und selbst das wird für den Anspruch mancher Produktionen noch zu teuer und zu arbeitsintensiv sein. Oder mach mal einen (selbst gehobenen) Hochzeitsfilm als next-day-production mit x-log - viel Spaß dabei.

Ansonst geht deine "Meister-Parodie" hier inzwischen vielen auf die Nerven. War ja eine ganz lustige Verarsche - am Anfang. Aber das nutzt sich ab. Also komm mal wieder runter - oder lass dir was Anderes einfallen was gut ist! ;)



Antwort von rush:



Denn du übersiehst die beim bewegten Bild anfallenden Datenmengen, wenn man eben in raw filmt

Das ist doch aber Schmarn... wie bekommt dann bitte BMD sein RAW auf handelsübliche SSD's oder gar SD Karten gepresst wenn die Datenmengen ach so immens sind... das sind doch Geister die seit Ewigkeiten durch Foren fliegen und immer wieder verbeitet werden. Die Schnittstellen und Speichermedien packen RAW heute schon, wenn es denn gewollt wäre von den Herstellern.



Antwort von Jott:

Yep, die Datenmengen sind kein Nachteil von raw, verglichen mit anderen Intraframe-Formaten.

Der riesige Unterschied besteht nur bei der Gegenüberstellung zu Interframe-Codecs - die kommen zum Zug, wenn man aus welchen Gründen auch immer ohne Datenberge auskommen will oder muss.



Antwort von leonhard dy kabrio:

ein Äpfel und Birnen-most Beitrag?

Wir sollten eig mit einer Statistik anfangen. Dann in die üblichen Gruppen einteilen.
Dann homöopathisches Halbwissen vermeiden ( was hat VFX oder Post mit Raw nicht-Raw
zu tun?- was haben Winterreifen oder nicht mit einer Lawine zu tun??). Dann welcher Aufwand, wo für was, der übliche Skill und Workflow und am Ende.

Haben wir Computer von 1769? eher nicht. Aber ein Kreiserldiskussion ist immer gut,weil Hersteller (Computerindustrie) lieber 3 Jahre länger den alten Scheiß verkaufen als....
Was wäre, wenn es dann für den " normalen Konsumenten"..ja du da ( er wird rot in seinen grausigen Gartenshorts..:) ein Raw/ Workflow gäbe, der schon in einer Kamera beginnt und auch die große Change wieder mal alles richtig zu machen ( alle ziehen AN EINEM CODECSTRANG!!) und es gäbe halt ein gutes RAW-CUSTOM ( egal wie) das von der Kamera bis in die Programme kann, auch, weil wir 2019 wh nur noch smartphoenartige Geräte und Software haben werden und anderes beim sog. Amateur weitgehend ausgestorben ist. Wenn er oder sie oder es, daran noch Interesse findet.

Der Rest staffelt sich doch eh nach Budget und Aufwand und Ziel. Wird schon mehr werden.
Bei der Überlegung dem Konsumenten etwas zu gutes in die Hände zu legen, sträubt sich die ganze Industrie.... die wollen weiter verarschen. 8 bit reicht ja noch locker 90 Jahre!
Also 345 Sony ---generationen..



Antwort von Frank Glencairn:

Leute ganz ehrlich, SR-Bänder oder DigibetaDigibeta im Glossar erklärt Bänder (von Film ganz zu schweigen) waren deutlich teurer als Festplatten/Medien heute, und die muss ich nur einmal zahlen, und kann sie immer wieder verwenden, bei Bändern früher war mehr als 2 mal schon grenzwertig.

Es ist also so billig wie nie zuvor, bestmögliche Qualität aufzunehmen.

Möge sich die gut-genug Fraktion mit weniger begnügen, ich nehm in der besten Qualität auf, die mein Equipment hergibt.



Antwort von Jott:

High End ist eine Seite, Smartphone die andere. Dazwischen wird alles aussterben. Der nächste Schub in dieser Richtung kommt im Herbst, ahne ich deutlich.

Andere auch. Aus dem Newsletter einer Firma für Grading-Software:

"At first, it seems like a strange idea - why create professional film emulation for the iPhone? Who would turn to the iPhone to create a beautiful looking film? We believe that soon enough, all of us will."

Wer weiß, vielleicht sogar in raw ...



Antwort von Peppermintpost:

naja, zum einen ist raw ja nicht gleich raw. es gibt verschiedene hersteller mit unterschiedlichen raw formaten, manche sind einfacher zu nutzen als andere. aber was alle gemeinsam haben ist doch, das sie im editing verglichen mit anderen formaten wie z.b. prores oder dnxhd sehr viel mehr leistung benötigen, bzw den rechner immer in die knie zwingen. das bedeutet nicht man kann z.b. redraw nich nativ schneiden, natürlich geht das, aber sinnvoll ist es halt nicht.
der klassische raw workflow sieht doch so aus das man raw erst einmal in irgend ein proxi format konvertiert um flüssig schneiden zu können, dann wird ein conform und grading von original gemacht, oft wird sogar erst ein conform fürs grading gemacht, dann das gegradete footage nochmal in einer anderen software fürs finishing conformt.
das übersteigt die fähigkeiten fast aller hobby anwender und semi-profis. selbst profis zum beispiel editoren bekommen diesen workflow alleine oft nicht geregelt (was kein vorwurf ist, es ist schlicht nicht teil ihres berufes).

wenn ich einen rec709 workflow habe, idealerweise auch direkt in prores oder dnxhd aufzeichne, dann nehme ich das footage, schmeisse es in mein editing system, schnibbel das hintereinander und drücke auf export. feddich.
das bekommt so ziemlich jeder geregelt.

ich sage nicht das raw raketenwissenschaft ist, ich sage auch nicht das es nicht sinn machen kann. aber der aufwand den man betreiben muss, der ist doch schon deutlich höher und das wissen das man bei der verarbeitung mitbringen muss und entsprechend die fehlerquellen sind auch deutlich höher.



Antwort von Frank Glencairn:


der klassische raw workflow sieht doch so aus das man raw erst einmal in irgend ein proxi format konvertiert um flüssig schneiden zu können, dann wird ein conform und grading von original gemacht, oft wird sogar erst ein conform fürs grading gemacht, dann das gegradete footage nochmal in einer anderen software fürs finishing conformt
.

Und genau diesen Blödsinn meine ich.

2016 gibt es absolut keinen Grund mehr so zu arbeiten.

Ich schmeiß die DNGs einfach so wie sie sind in die Resolve TimelineTimeline im Glossar erklärt, und fang an zu schneiden. Das Grading und das Finishing mach ich ohne Resolve jemals verlassen zu müssen (abgesehen von VFX, wenn man das braucht) Das geht absolut flüssig und butterweich, selbst auf einer älteren i7 Workstation, mit einer halbwegs aktuellen GPU und einem Software Raid0.



Antwort von Peppermintpost:

naja, aber das würde ja bedeuten ich kann nur maximal 1 film pro jahr machen, weil ich dazu ja den frank buchen müsste, und wenn das alle in deutschland machen dann bekomme ich dich ja max 1x im jahr ;-)

ne jetzt ernsthaft. wenn resolve das butterweich macht ist ja gut. aber ich kenne keinen einzigen ernstzunehmenden cutter der freiwillig im resolve schneiden möchte. wirklich niemanden. die meisten wollen avid, ein paar premiere. mit beidem kann ich leben. beide handhaben bmd raw oder red raw oder arri raw oder halligalliwasweisich raw aber nicht besonders flüssig. gerade red raw finde ich in der beziehung zwar sehr gut, aber selbst das würde ich wandeln.

die challenge ist doch nicht: finde die software die alles kann
sondern: finde die leute die in ihrer disziplin sehr gut sind.
ich, bzw mein chef will doch nicht das unsere color graderin den film schneidet, noch will er das ich das colorgrading mache, noch das unser editor die vfx macht. jede disziplin hat ihre tools. ein 100meter läufer tritt ja auch nicht in fussballschuhen an.
nur weil man es kann bedeutet das nicht das es auch sinn macht.



Antwort von iasi:


RAW spart Zeit beim Dreh

genau das sagt du immer wieder, das stimmt nur leider nicht.

doch - tut es.

Und ich brauche auch nicht lange Texte, sondern kann auf den Camerashootout 2012 verweisen - das ist dann eben der Beleg.

Wenn weniger lange auf die Kameraeinstellereien gewartet werden muss, da die Belichtung schnell und einfach per BlendeBlende im Glossar erklärt und ND-FilterND-Filter im Glossar erklärt vorgenommen wird und dann das Bild steht, haben die Schauspieler nun mal mehr Zeit - dann brauch ich auch nicht ständig Häppchen reichen.

Da muss dann eben auch nicht noch ein Lämpchen aufgestellt werden, weil die Vase im Eck dem Regisseuer etwas zu dunkel erscheint - das kann er dann in der Post schnell und ohne Aufwand geliefert bekommen - und die ganze Crew muss dann eben nicht warten, bis das Ding herangeschleppt, aufgetellt und verkabelt ist.



Antwort von Frank Glencairn:

IMHO sind die funktionalen Unterschiede in den verschiedenen Standard NLEs quasi vernachlässigbar, und jeder gestandene Editor sollte in der Lage sein innerhalb von max. 2 Tagen, von Avid auf Premiere, oder von Premiere auf Resolve umzusteigen.



Antwort von iasi:

IMHO sind die funktionalen Unterschiede in den verschiedenen Standard NLEs quasi vernachlässigbar, und jeder gestandene Editor sollte in der Lage sein innerhalb von max. 2 Tagen, von Avid auf Premiere, oder von Premiere auf Resolve umzusteigen.

Bis man alle Feinheiten richtig drauf hat und es richtig flutscht, dauert es dann doch etwas länger - deshalb steigt man doch auch so ungern um.



Antwort von wolfgang:

Also das weiss sogar ich dass es einige Arten von raw gibt - und das mit unterschiedlichen Kompressionen (etwa 3:1). Und auch ich weiss dass es Werkzeuge gibt - sei es Resolve oder Catalyst - wo man die Files einfach rein wirft und schneidet.

Nur natürlich brauchts dann entsprechend viel Speicherplatz am Schnittplatz - war doch mein SSD Raid mit nur 1.3 TB auch mit ProResProRes im Glossar erklärt von 6 Stunden Material recht flott voll. Und noch kostet ein derartiges Raid entsprechend, und ich selbst habe daher auch noch ein konventionelles Raid basierend auf HDs. Sicher sind Speichermedien in der Akquise billiger geworden - aber trotzdem nicht geschenkt, wenn ich mir ansehe was man so für eine Uras mini oder FS7 braucht.

Für mich als Privatperson noch immer teuer, in Summe. Für eine Produktionsfirma natürlich kein Geld mehr. Aber das ist der Punkt: das ist eben relativ zu sehen. Es muss nicht immer Kaviar äh raw sein.



Antwort von Spacemans Assistent:

Schönes Beispiel die Diskussion, nehme ich mit in unseren Unterricht:
2 Vordenker gefolgt von einer Horde die sich an alte Zöpfe klammert.



Antwort von Jan:

Gibt es hier neuerdings einen Diskussionsleiter oder was soll das ? Oder handelt es sich hier um den zweiten Trollaccount von Iasi ?

VG
Jan



Antwort von Frank Glencairn:



Nur natürlich brauchts dann entsprechend viel Speicherplatz am Schnittplatz - war doch mein SSD Raid mit nur 1.3 TB auch mit ProResProRes im Glossar erklärt von 6 Stunden Material recht flott voll. .

Selber schuld. wer für die absolut lächerlichen Datenraten von ProResProRes im Glossar erklärt, sein Geld für ein SSD Raid rauschmeißt, dem ist nicht mehr zu helfen.



Antwort von Jan:

Um noch einmal zum Thema zu kommen, für den Normalsterblichen macht das keinen Sinn. Rechnet mal 7-8 MB pro Einzelbild (4K) bei RAW je nachdem ob es unkomprimiert oder verlustfrei komprimiert ist. Dazu noch mindestens 24 Bilder pro Sekunde, dann kommt man auf 170MB pro Sekunde. Die A6300 arbeitet bei 4K da mit 100 MBit, also 12,5 MB pro Sekunde. Diese 13-Fache größere Datei muss sich im Bereich Verwaltung (Speicher) und Wärmeentwicklung negativ auswirken. Ob jeder User den Vorteil von 12 oder 14 BitBit im Glossar erklärt erkennt, also besonders unser Qualitätsfernsehen, ist auch zweifelhaft.

VG
Jan



Antwort von rush:

Diese 13-Fache größere Datei muss sich im Bereich Verwaltung (Speicher) und Wärmeentwicklung negativ auswirken.
VG
Jan

Bist du sicher das dem so wäre?
Ich würde das bezweifeln... denn wenn die Kamera die Daten nur stupide wegschreiben müsste gäbe es wohl nicht allzu viel thermische Probleme.
Das Groß der Hitzeentwicklung entsteht ja aufgrund der krassen internen Codierung/Kompression der Daten.. das stresst die kleinen Kameras extrem alles in einen h 264 CodecCodec im Glossar erklärt zu pressen... das reine wegschreiben erledigen sie dann eher nebenbei.



Antwort von wüdara:

Gibt es hier neuerdings einen Diskussionsleiter oder was soll das ? Oder handelt es sich hier um den zweiten Trollaccount von Iasi ?

VG
Jan

Wie gehabt-Space-Männer eben...



Antwort von Rudolf Max:





Antwort von didah:

die meisten produktionen können sich sich zeitaufwand, der mit raw verbunden ist, nicht leisten... wennst jetzt am tag 3 stunden material sammelst, am abend ins hotel gehst und das ganze dann backupen willst - wann willst dann schlafen um am nächsten drehtag fit zu sein? und das ist ja nur der anfang, jetzt bist 2, 3 tage onlocation und dann soll das ganze natürlich möglichst schnell geschnitten werden, weil nächster dreh, nächster schnitt, nächster abgabetermin steht an...

alle anderen produktionen, bei denen zeit eine weniger wichtige rolle spielt, können sich doch aus einem breiten spektrum an raw kameras und rekordern bedienen - die nötige speicherlösung und den dazugehörigen pc vorausgesetzt. und vorallem den kunden, der bereit ist die paar stunden, die raw einfach länger dauert, zu bezahlen...

raw kameras kosten nicht die welt, jeder der will, kann eine haben. (bmpcc, um was geht die wohl gerade auf ebay second hand weiter?). auch olaf, der oma fridas 80er in raw festhalten möchte....
lg



Antwort von Frank Glencairn:

Können wir endlich mal mit dem Märchen aufhören daß "raw länger dauert" ?

Das ist nur der Fall wenn einer nicht weiß was er da tut, oder anfängt irgenwelche schwachsinnigen Proxy Roundtrips zu machen.



Antwort von iasi:



Was ich sagen will: RAW geht mir am Arsch vorbei... oder so... *smile

Rudolf

Und wen bitte interessiert dein Arsch? :)



Antwort von iasi:

die meisten produktionen können sich sich zeitaufwand, der mit raw verbunden ist, nicht leisten... wennst jetzt am tag 3 stunden material sammelst, am abend ins hotel gehst und das ganze dann backupen willst - wann willst dann schlafen um am nächsten drehtag fit zu sein? und das ist ja nur der anfang, jetzt bist 2, 3 tage onlocation und dann soll das ganze natürlich möglichst schnell geschnitten werden, weil nächster dreh, nächster schnitt, nächster abgabetermin steht an...

alle anderen produktionen, bei denen zeit eine weniger wichtige rolle spielt, können sich doch aus einem breiten spektrum an raw kameras und rekordern bedienen - die nötige speicherlösung und den dazugehörigen pc vorausgesetzt. und vorallem den kunden, der bereit ist die paar stunden, die raw einfach länger dauert, zu bezahlen...

raw kameras kosten nicht die welt, jeder der will, kann eine haben. (bmpcc, um was geht die wohl gerade auf ebay second hand weiter?). auch olaf, der oma fridas 80er in raw festhalten möchte....
lg

3 Stunden Material am Tag?
Da wundert"s mich natürlich nicht mehr, wenn"s bei dem Handkameragefilme immer derart wackelt ... da muss der Arm ja lahm werden :)



Antwort von Spacemans Assistent:

Hehe, good Point!



Antwort von srone:

wie schon eingangs erwähnt, es gibt einfach zu viele unterschiedliche anforderungen, im dokumentatorischen mehrkamerabetrieb, kann schon prores hq der overkill sein, in einer lichtgesetzten situation, sind 8bit avchd oftmals völlig ausreichend, ich kann in diesem kontext immer wieder nur darauf hinweisen, raw ersetzt kein lichtdesign, kein setdesign und keine schauspielerische/moderatorische leistung, von der story mal ganz abgesehen, macht also den film nur begrenzt besser.

lg

srone



Antwort von iasi:

Gibt es hier neuerdings einen Diskussionsleiter oder was soll das ? Oder handelt es sich hier um den zweiten Trollaccount von Iasi ?

VG
Jan

Meint VG bei dir "verzweifelt grölend" ?

Leute wie du ziehen leider jede Diskussion so richtig runter - eben wie ein beleidigtes Kind wird nach der Mama (Diskussionsleiter) geschrien und dann rumgepöpelt.

Geh doch nach Hause zu Mama und wein dich dort aus.



Antwort von iasi:

wie schon eingangs erwähnt, es gibt einfach zu viele unterschiedliche anforderungen, im dokumentatorischen mehrkamerabetrieb, kann schon prores hq der overkill sein, in einer lichtgesetzten situation, sind 8bit avchd oftmals völlig ausreichend, ich kann in diesem kontext immer wieder nur darauf hinweisen, raw ersetzt kein lichtdesign, kein setdesign und keine schauspielerische/moderatorische leistung, von der story mal ganz abgesehen, macht also den film nur begrenzt besser.

lg

srone

... und ich kann immer nur betonen, dass Raw kein Lichtdesign ersetzt, sondern die zeitaufwendige Feinarbeit in Post verlegt.

Bei Eventaufnahmen wo es darum geht alles zu archivieren, was sich da abspielt - vielleicht sogar aus verschiedenen Blickwinkeln - kann man ja Kompromisse eingehen, um die Datenflut zu verhindern.
Aber: Gerade bei Doku-Sachen ist der maximale Spielraum eben oft sehr hilfreich. Zudem muss man eben z.B. nicht auf ISO und Farbtemperatureinstellungen achten - die Lichtsituation kann durchaus wechseln.



Antwort von Rudolf Max:





Antwort von Spacemans Assistent:

Die 2 Visionäre haben sich ordentlich Vorsprung vor der Horde verschafft da taucht plötzlich ein Hinterwäldler aus dem Nichts auf...



Antwort von iasi:

Die 2 Visionäre haben sich ordentlich Vorsprung vor der Horde verschafft da taucht plötzlich ein Hinterwäldler aus dem Nichts auf...

hä? Ist das ein Rennen?
Wo soll denn das Ziel sein?



Antwort von srone:

wie schon eingangs erwähnt, es gibt einfach zu viele unterschiedliche anforderungen, im dokumentatorischen mehrkamerabetrieb, kann schon prores hq der overkill sein, in einer lichtgesetzten situation, sind 8bit avchd oftmals völlig ausreichend, ich kann in diesem kontext immer wieder nur darauf hinweisen, raw ersetzt kein lichtdesign, kein setdesign und keine schauspielerische/moderatorische leistung, von der story mal ganz abgesehen, macht also den film nur begrenzt besser.

lg

srone

... und ich kann immer nur betonen, dass Raw kein Lichtdesign ersetzt, sondern die zeitaufwendige Feinarbeit in Post verlegt.

Bei Eventaufnahmen wo es darum geht alles zu archivieren, was sich da abspielt - vielleicht sogar aus verschiedenen Blickwinkeln - kann man ja Kompromisse eingehen, um die Datenflut zu verhindern.
Aber: Gerade bei Doku-Sachen ist der maximale Spielraum eben oft sehr hilfreich. Zudem muss man eben z.B. nicht auf ISO und Farbtemperatureinstellungen achten - die Lichtsituation kann durchaus wechseln.

im spontanen one kamera dokubereich gebe ich dir recht, nicht im geplanten multicam betrieb, da wäre es irrsinn 5 kameras aufzubauen, welche 6h material am tag erzeugen sollen in raw, da leuchte ich einen halben tag ein und bin glücklich mit 8bit avchd, der kunde auch. ;-)))

lg

srone



Antwort von DenK:

Merkt Ihr eigentlich nicht dass Ihr hier von vollkommen verschiedenen Produktionen redet?
Die einen reden von Ihren One-Man Jobs, die Ihr ganzes Material direkt beim Dreh selbst handhaben müssen und dann eventuell mit relativ schwacher Hardware schneiden. Die Anderen reden von großen Drehs, mit einem großen Team. So kommmt es mir zumindest vor.
Und Fakt ist, dass bei jedem größeren (teuren, szenischen...) Dreh ein DIT sitzt, der das Raw Material schneller einlädt, doppelt kopiert und gleichzeitig konvertiert, als manchmal überhaupt das Objektiv gewechselt wurde.

Man kann ja gerne für sich entscheiden dass man Raw und 4K nicht braucht, aber bitte nicht mit so blödsinnigen Argumenten kommen wie "Raw dauer zu lange, Datenmengen kann man nicht handhaben" etc. Die Vorteile von RAW oder diversen Log Codecs kann man einfach nicht von der Hand weisen. Man kann nur entscheiden dass man es nicht benötigt.

Wie war das eigentlich beim Umstieg von SD zu HD? Da waren die Datenmengen ja auch plötzlich riesig, und Speicher war damals noch viel teurer als heute.



Antwort von iasi:



im spontanen one kamera dokubereich gebe ich dir recht, nicht im geplanten multicam betrieb, da wäre es irrsinn 5 kameras aufzubauen, welche 6h material am tag erzeugen sollen in raw, da leuchte ich einen halben tag ein und bin glücklich mit 8bit avchd, der kunde auch. ;-)))

lg

srone

Ich verstehe, was du meinst.
Es gab aber eben auch schon Produktionen mit Multicam-Raw-Betrieb - die eben eine bestimmte Größenordnung haben und bei denen die Lichtsetzung anderen Prioritäten folgt.



Antwort von Jott:

Wie war das eigentlich beim Umstieg von SD zu HD? Da waren die Datenmengen ja auch plötzlich riesig

Nö. Eben weil die Speicher vor zehn Jahren noch sehr teuer waren, hatten die Hersteller erträgliche Wege gesucht.

IMX (SD): 50 Mbit/s
XDCAM 422 (HD): 50 Mbit/s
DVCORO 50: 50 Mbit/s

DV (SD): 25 Mbit/s
HDV (HD): 25 Mbit/s

AVC Intra und DVCProHD mit jeweils 100 Mbit/sMbit/s im Glossar erklärt die übelsten Plattenfüller. Heute lächerlich, damals ein Grund für viele Sender, die Finger weg zu lassen davon.

Heute sind große Datenmengen kein finanzielles Thema mehr.



Antwort von srone:

@ denk

du vermischst die anforderungen, es geht nicht um grosses oder kleines team, es geht darum, kostenrelevant zu agieren, und das nicht nur im sinne des kunden sondern auch für sich selbst, was kann ich an preis/leistung anbieten, was ist benötigt, zb selber endpreis 2 raw kameras vs 6 avchd 8bit kameras mit einleuchten, wo liegt der benefit für den kunden der ein web video seiner veranstaltung will?

lg

srone



Antwort von iasi:



Wie war das eigentlich beim Umstieg von SD zu HD? Da waren die Datenmengen ja auch plötzlich riesig, und Speicher war damals noch viel teurer als heute.

Damals ging die Diskussion in Richtung HD-geeignetem Make-up. :)



Antwort von Frank Glencairn:

wie schon eingangs erwähnt, es gibt einfach zu viele unterschiedliche anforderungen, im dokumentatorischen mehrkamerabetrieb, kann schon prores hq der overkill sein, in einer lichtgesetzten situation, sind 8bit avchd oftmals völlig ausreichend, ich kann in diesem kontext immer wieder nur darauf hinweisen, raw ersetzt kein lichtdesign, kein setdesign und keine schauspielerische/moderatorische leistung, von der story mal ganz abgesehen, macht also den film nur begrenzt besser.

lg

srone

Dann versuch mal mit 8bit AVCHDAVCHD im Glossar erklärt ne Doku für Arte zu drehen, und schau was die dir erzählen.

Wir haben für gewöhnlich ne RED und diverse BMCs dabei. Meistens wird mit mindestens 2 Kamera gleichzeitig gedreht. Nach nie waren Backup oder raw Datenmengen in irgendeiner Form ein Problem.

Gerade bei einer Produktion die 50.000 aufwärts kostet, wird man sicher nicht mit extrem verlustbehafteten AVCHDAVCHD im Glossar erklärt drehen - da werden über 80% aller Bildinformation wegkomprimiert.



Antwort von Jan:

Über wieviel Daten sprechen wir den bei einer Sekunde RAW-Video ? Ich verbinde es mit dem Einzelbild-RAW, von RAW-Video habe ich keine Ahnung. Hier muss doch ein User dabei sein, der mal mit RAW-Video gearbeitet hat.

VG
Jan



Antwort von srone:



im spontanen one kamera dokubereich gebe ich dir recht, nicht im geplanten multicam betrieb, da wäre es irrsinn 5 kameras aufzubauen, welche 6h material am tag erzeugen sollen in raw, da leuchte ich einen halben tag ein und bin glücklich mit 8bit avchd, der kunde auch. ;-)))

lg

srone

Ich verstehe, was du meinst.
Es gab aber eben auch schon Produktionen mit Multicam-Raw-Betrieb - die eben eine bestimmte Größenordnung haben und bei denen die Lichtsetzung anderen Prioritäten folgt.

wir können aber nicht nur von high-end produktionen reden, sondern vielmehr von dem, mit dem sich täglich gutes geld verdienen lässt.

lg

srone



Antwort von srone:

wie schon eingangs erwähnt, es gibt einfach zu viele unterschiedliche anforderungen, im dokumentatorischen mehrkamerabetrieb, kann schon prores hq der overkill sein, in einer lichtgesetzten situation, sind 8bit avchd oftmals völlig ausreichend, ich kann in diesem kontext immer wieder nur darauf hinweisen, raw ersetzt kein lichtdesign, kein setdesign und keine schauspielerische/moderatorische leistung, von der story mal ganz abgesehen, macht also den film nur begrenzt besser.

lg

srone

Dann versuch mal mit 8bit AVCHDAVCHD im Glossar erklärt ne Doku für Arte zu drehen, und schau was die dir erzählen.

Wir haben für gewöhnlich ne RED und diverse BMCs dabei. Meistens wird mit mindestens 2 Kamera gleichzeitig gedreht. Nach nie waren Backup oder raw Datenmengen in irgendeiner Form ein Problem.

davon rede ich nicht, ich rede von firmenkunden, wo sowieso alles im netz landet, aber doch bitte alles dabei sein soll. ;-)

lg

srone



Antwort von DenK:

@ srone:
Man sieht es doch schon an den letzten 3 Beiträgen: Frank Glencairn redet von Arte Dokus mit Red und Blackmagic, du redest von einem Webvideo von einer Veranstaltung. Lassen wir das Team mal beiseite, das sind einfach vollkommen verscheidene Ansprüche. Das wollte ich damit sagen.



Antwort von Spacemans Assistent:

Guten Morgen Jan, dass kannst Du Dir doch selbst ausrechen. Das lernt man im Grundkurs. Wieviel MB hat denn ein 8 Megapixel Raw Bild? Das nimmst Du dann mal 24.



Antwort von Jan:

RAW ist nicht eine Rohdatei wie jeder denkt, wenn man sich in der Fotografie auskennt, wo es teilweise drei bis fünf RAW-Varianten je nach Hersteller gibt. Dort gibt es beispielsweise verschiedene Komprimierungsvarianten. Mir sind RAW-Größen einiger Hersteller von 16,20, 24 oder 36 Millionen bekannt, aber dort gibt es auch einige Größenunterschiede unter den Firmen. Meine 6-8 MB pro Bild sind mein Schätzwert, da ich nicht mit 8 Megapixel-RAW arbeite, hätte ich gern mal die genauen Werte von den Filmkameras gehört.

VG
Jan



Antwort von DenK:

Über wieviel Daten sprechen wir den bei einer Sekunde RAW-Video ? Ich verbinde es mit dem Einzelbild-RAW, von RAW-Video habe ich keine Ahnung. Hier muss doch ein User dabei sein, der mal mit RAW-Video gearbeitet hat.

VG
Jan

Bei der FS7 in 4k 60p XAVC-I sind es 600Mb / s, also um die 5 Gig pro Minute.

Blackmagic Cinema Camera in 4k RAW sind 256MB / s, müssten dann ca. 15Gig pro minute sein.

Arri gibt bei der Alexa für Arri Raw im "Open Gate" Modus 11,3 MB / FrameFrame im Glossar erklärt an. Das wären bei 25p 282,5 MB / s, in der Minute also kanpp 17Gig.

Ich habe die Werte eben gegoogelt, Sony gibt wohl Mega bit an, die andere Mega Byte, wenn Ich das richtig gesehen habe. Von den Zahlen her klingt das richtig so, aber nagelt mich bitte nicht drauf fest.



Antwort von Jott:

Musst du individuell nachschauen. RED zum Beispiel bietet eine große Spanne von Kompressionsstufen. Riesige oder recht kleine Dateien, ganz wie es beliebt. Auch innerhalb der Raw-Kundschaft will nicht jeder die größtmöglichen Datenberge. Die eine "raw"-Datenrate gibt es nicht.



Antwort von srone:

@ srone:
Man sieht es doch schon an den letzten 3 Beiträgen: Frank Glencairn redet von Arte Dokus mit Red und Blackmagic, du redest von einem Webvideo von einer Veranstaltung. Lassen wir das Team mal beiseite, das sind einfach vollkommen verscheidene Ansprüche. Das wollte ich damit sagen.

und da bin ich ja auch bei dir, rede ich von einem 6-stelligen oder 5-stelligen produktionsbudget?

lg

srone



Antwort von DenK:

Eben nicht. Aber andere hier wohl schon. Nichts anderes habe Ich gesagt



Antwort von Spacemans Assistent:

Macht eine Unterscheidung nach Produktionsbudget überhaupt Sinn?
In der Fotografie arbeitet Oma Inge bei ihrer 5 Euro Familienproduktion mit RAW, genauso wie der Starfotograf bei der 100"000 Euro Produktion.

Jetzt sind wieder die Checker und Visionäre hier im Forum gefragt!



Antwort von cantsin:

Man kann auch die Kirche im Dorf lassen. Um mal nur ein Szenario zu nennen: Wenn man mit der BM Pocket einen Konzertmitschnitt in Raw macht und das Konzert dauert eine Stunde, fallen ungefähr 256 GB Daten an. Die entsprechende Extreme Pro-Karte kostet mittlerweile nur noch 150 Euro, auf der Festplatte ist diese Datenmenge sowieso kein Thema.

Man könnte zwar auch in ProResProRes im Glossar erklärt aufzeichnen, aber CinemaDNG bringt in Verbindung mit Neat Video mindestens eine BlendeBlende im Glossar erklärt mehr nutzbaren Belichtungsspielraum, und ausserdem kann am Weiss-/Farbabgleich mehr drehen, um ggfs. störende Farbstiche durch Bühnenbeleuchtung zu korrigieren.

Im simpelsten und faulsten Anwendungsfall rechnet man das Material nur einmal mit draufgelegtem Neat Filter aus Resolve in ProResProRes im Glossar erklärt (oder DnX, Cineform, XAVC...) um, schneidet ab dann in diesem CodecCodec im Glossar erklärt, hat dann immer noch deutlich höherwertiges Material als ProResProRes im Glossar erklärt direkt aus der Kamera. Meinetwegen schmeisst man sogar die CinemaDNG-Kameradateien weg und archiviert nur die ProRes-Dateien, wenn der Festplattenplatz ein Flaschenhals sein sollte.

Für ProRes-Aufnahme spräche in so einem Szenario nur noch extremer Zeitdruck bei ENG-/Blogging-ähnlichen Anwendungen.



Antwort von rush:

Spannend wie weit es hier auseinander geht und in welche Richtungen teilweise abgedriftet wird ;)

Haltet bitte den Eingangsthread zumindest leicht im Hinterkopf :D Es ging mir in erster Linie um Raw-Fähigkeiten bei Kameras für den "kleinen Mann" und nicht für Langspielfilmproduktionen mit ordentlich Budget ;)

Natürlich hängt das alles ein wenig zusammen und vor vielen Jahren kamen die Innovationen des "kleinen Mannes" auch eher aus dem Professional-Bereich.... aber in Zeiten eines Blackmagic-Würfels sieht die Sachlage doch ein wenig anders aus und Innovationen kommen hier und da auch von "unten"...

Kurzum: Es soll hier nicht um 5 oder 6 stelliges Budget gehen... eher unteres 4stelliges! :)

@Den K: Man könnte den Spieß der Datenmengen auch umdrehen wenn ich mir die BMD Seite ansehe:

RAW komprimiert: CinemaDNG RAW 3:1 – 180 MB/s
Apple ProResProRes im Glossar erklärt 444 XQ - 250 MB/s

So gesehen kann RAW doch auch halbwegs platzsparend, und wenn es eine quasi verlustfreie Komprimierung ist spricht doch auch nichts dagegen?!

Bei den DSLR's und Co gibt es im Fotobereich teilweise auch verlustbehaftete genauso wie verlustfreie RAW-Komprimierung.

Ich denke nicht das der Datendurchsatz hier wirklich DAS Problem sein sollte bei unseren heutigen pfeilschnellen Speichermedien...



Antwort von Spacemans Assistent:

Warnung:

Aufpassen wenn bei Euch am Set nächstes mal Oma Inge mit ihrer BM Pocket für die B-Kamera oder fürs Making-off eingeteilt ist.

Es kann nämlich passieren dass die Regie später Eure minderwertigen Prores Aufnahmen komplett durch Oma Inges hochwertigen B-Mittschnitt ersetzt.

;-)



Antwort von DenK:

Ich habe immer die größtmögliche Datenmenge angegeben, damit es sich besser vergleichen lässt. Mir fällt aber gerade auf dass Ich nicht auf die fps geachtet habe. Also wieder nix mit vergleichen. Aber man bekommt eine ungefähre Ahnung.

Das heißt ja noch lange nicht dass es immer unkomprimiert sein muss.

Und zu Foto vs. Video muss man ja wohl nichts sagen.



Antwort von iasi:

Gerade wenn die Mittel begrenzt und die Drehzeit knapp ist, hat Raw Vorteile.

Die Feinarbeit am Bild kann in der Post erledigt werden.

Und natürlich kann ich z.B. bei einer Kirchenszene den Altar aufhellen ohne dass ich mir eine Totale durch viele Leuchten verbaue.

Datenmenge?
Raw kann ebenfalls komprimiert werden - und da kann dann ProResProRes im Glossar erklärt plötzlich die dickeren Dateien erzeugen.



Antwort von Frank Glencairn:

R3D mit seinen zig verschiedenen Kompressionsstufen und Wavelet ist was völlig anderes als DNGs aus ner BM. Das kann man nicht direkt vergleichen.

Die Ursa macht bei open gate (4608 x 2592) und 25fps/3:1 ca 150 MB/s



Antwort von wolfgang:

Schönes Beispiel die Diskussion, nehme ich mit in unseren Unterricht:
2 Vordenker gefolgt von einer Horde die sich an alte Zöpfe klammert.
Na ich würde mal versuchen im Unterricht was zu lernen bevor ich Menschen derart abkanzle. ;)

Selber schuld. wer für die absolut lächerlichen Datenraten von ProResProRes im Glossar erklärt, sein Geld für ein SSD Raid rauschmeißt, dem ist nicht mehr zu helfen.
Wer sagt den dass das nur für ProResProRes im Glossar erklärt angeschafft worden ist?

die meisten produktionen können sich sich zeitaufwand, der mit raw verbunden ist, nicht leisten... wennst jetzt am tag 3 stunden material sammelst, am abend ins hotel gehst und das ganze dann backupen willst - wann willst dann schlafen um am nächsten drehtag fit zu sein?
Schlaf wird überbewertete.... :) .... aber natürlich hast du recht. Alleine diese Kopierschritte laufen zwar scheinbar nebenher - aber sie blockieren einfach die Maschinen, kosten Zeit weil man sich doch darum kümmern muss. All diese Schritte werden halt im Zeitaufwand gerne übersehen, treiben dann aber halt die Stunden in Summe hoch.

Natürlich muss man sich das optimieren - bei dem ProResProRes im Glossar erklärt handhabe ich das halt so dass ich das nicht kopiere sondern ich oft nicht - sondern zeichne gleich auf SSDs auf und hänge die einfach ans System an. Auch ohne Raid. Geht wohl auch mit Sony QD-G64 XQD Karten - grundsätzlich.

Merkt Ihr eigentlich nicht dass Ihr hier von vollkommen verschiedenen Produktionen redet?
Die einen reden von Ihren One-Man Jobs, die Ihr ganzes Material direkt beim Dreh selbst handhaben müssen und dann eventuell mit relativ schwacher Hardware schneiden. Die Anderen reden von großen Drehs, mit einem großen Team. So kommmt es mir zumindest vor.

Genau das ist der Punkt - verschiedene Produktionen, verschiedene Settings, verschiedene Werkzeuge. Eigentlich ist das nicht schwer zu verstehen.

AVC Intra und DVCProHD mit jeweils 100 Mbit/sMbit/s im Glossar erklärt die übelsten Plattenfüller. Heute lächerlich, damals ein Grund für viele Sender, die Finger weg zu lassen davon.

Heute sind große Datenmengen kein finanzielles Thema mehr.
Schön wenn du es dir leisten kannst und willst. Aber für den Kleinunternehmer, der für so eine FS7 Sony QD-G64 XQD Karte 390 Euro zahlt, nicht die Vorsteuer abziehen kann, und dafür - wieviel? Zirka 10 Minuten aufzeichnen darf, geht sowas durchaus ins Geld. Über die Zahl der erforderlichen Karten etwa. Und auch CFast für eine Ursa ist zwar billiger aber nichtmal um soviel biliger.

Und klar kommt der Zeitaufwand fürs Umspielen dazu - was in Wirklichkeit natürlich in die Kosten einzurechnen wäre.

Schön wenn es sich um große Produktionen handelt wo das absolut keine Rolle spielt - nur Kleinstproduktionen einer Einmann-Produktion zahlen sowas halt leider nicht immer. Zumindest nicht, so wie der Markt am Boden liegt.

Und daher Fazit: es ist sehr wohl auf diese Dinge zu achten weil sonst sitzen diese Einzelunternehmer rasch in der Falle.



Antwort von Jott:

Das ist eine Frage des Backgrounds. 1992 hatte eine Gigabyte (nicht Terabyte)-Festplatte für den AVID 10.000 DM gekostet. Also 10 Millionen (!) Mark für ein Terabyte. Heute unter 50 Euro, Tendenz weiter fallend.

Natürlich kann man immer über Preise jammern und alles, auch Kameras, für nahe Null einfordern, aber auf dem Teppich bleiben sollte man vielleicht trotzdem können. Wer ein Problem mit vielleicht 20 Euro hat, um sein Tageswerk zu speichern/sichern, der sollte vielleicht doch nicht versuchen, sein Einkommen hauptberuflich aus Medienproduktion zu beziehen.

Und wenn's wirklich zu teuer ist, weil das Geld für Zigaretten oder Kaugummis gebraucht wird: muss es 4k sein? Muss es raw sein? Muss es ProResProRes im Glossar erklärt sein? Blödsinn. In dem A6300-BBC-Test wird nebenher mal wieder festgestellt, dass die testweise externe Aufzeichnung via Shogun keinen sichtbaren Unterschied bringt, nur das Leben unnötig kompliziert. Schade, wenn Pixelzählen und Codecgeraune wichtiger sind als in den Frühling rauszugehen und sich filmisch auszutoben. Das Leben ist kein Testchart. Storytelling geht auch mit "kleinen" Codecs. Die raw-Geschichten erzählenden Raumfahrer filmen die Erde derweil grinsend mit einem iPhone. Und andere raw-Verfechter filmen erkennbar gar nichts.



Antwort von cantsin:

In dem A6300-BBC-Test wird nebenher mal wieder festgestellt, dass die testweise externe Aufzeichnung via Shogun keinen sichtbaren Unterschied bringt, nur das Leben unnötig kompliziert. Schade, wenn Pixelzählen und Codecgeraune wichtiger sind als in den Frühling rauszugehen und sich filmisch auszutoben.
Der Vergleich hinkt ja nun arg, da die A63000 auch nur ein 8bit-Signal an den Shogun herausgibt. Natürlich ist dann eine externe Aufzeichnung vergebliche Liebesmüh (und erzeugt vor allem leer Nullen im 10bit-Video.)



Antwort von Jott:

In diesem Thread hier hinkt alles! :-)



Antwort von wolfgang:

Das ist eine Frage des Backgrounds. 1992 hatte eine Gigabyte (nicht Terabyte)-Festplatte für den AVID 10.000 DM gekostet. Also 10 Millionen (!) Mark für ein Terabyte. Heute unter 50 Euro, Tendenz weiter fallend.

Stimmt natürlich - aber trotz historischer Entwicklung kanns halt noch immer zu teuer und aufwendig sein.

Und gerade weil der Background unterschiedlich ist muss sich die Sache vor dem jeweiligen Background halt noch immer ökonomisch darstellen lassen. Oder es ist halt ein Hobby!



Antwort von Starshine Pictures:

Ich habe ja bei den RAW Diskussionen hier im Forum immer wieder gefragt wie ihr denn dessen Potential tatsächlich ausnutzt, aber nie eine Antwort bekommen. Ich denke dass der Grossteil der BM Nutzer nur in Raw filmt weils hip und cool ist und um überall rum zu posaunen dass es voll easy und krass geil zu händeln ist. So lange man nicht mindestens so etwas hier veranstaltet ist Raw nix anderes als Angeberei.





Antwort von Frank Glencairn:

Ich habe ja bei den RAW Diskussionen hier im Forum immer wieder gefragt wie ihr denn dessen Potential tatsächlich ausnutzt, aber nie eine Antwort bekommen. Ich denke dass der Grossteil der BM Nutzer nur in Raw filmt weils hip und cool ist und um überall rum zu posaunen dass es voll easy und krass geil zu händeln ist.

..und ich denke, daß du offensichtlich (gibst du ja selber zu) weder Ahnung, noch Erfahrung mit raw hast (du weißt noch nicht mal wie man es richtig schreibt).

Warum du dann hier irgendwelche steilen Thesen erfindest ist mir jedoch rätselhaft.



Antwort von Peppermintpost:

hey Stefan,

schönes grading beispiel. der witz ist aber, auch wenn das hier raw ist was er gradet, genau für die art von grading brauchst du raw nicht. du siehst ja beim ausgangsbild das das alles korrekt belichtet ist und beim dreh ein leichtes flat profil benutzt wurde. dann hat er alle schwärzen aufsetzen lassen und die highlights leicht clippen lassen. alle qualifier hat er gesoftet. also so ein grading kannst du sogar mit einer intern totkompremierten dslr datei realisieren, solage richtig belichtet wurde.

verstehe mich nicht falsch, ich finde das grading klasse. das ist auch genau das was man in den meisten fällen haben will, nur hat das alles mit raw so garnichts zu tuen.

ich würde gerne mal ein beispiel sehen wo raw wirklich besser ist, ausser bem besagten überbelichtetem fenster.



Antwort von DenK:

Mindestens genauso hip und cool wie sich irgendeinen Blödsinn aus den Fingern zu saugen. Bergründen und Fakten hingegen sind scheinbar garnicht so krass geil.

Hier ist ein Vergleich zwischen Raw Cinema DNG von der BM CC2.5 und ProResProRes im Glossar erklärt HQ:



Antwort von Skeptiker:

...Hier ist ein Vergleich zwischen Raw Cinema DNG von der BM CC2.5 und ProResProRes im Glossar erklärt HQ:
Wurde schon mal irgendwo verlinkt.
Ihr seid die Experten, ich der neutrale Betrachter.
Es sind subtile Unterschiede da, aber ich finde nun nicht, dass Welten dazwischenliegen.

Aber damit man weiss, welcher RAW-Banause diese Aussage macht: Ich habe es mit meiner GH2 auch irgendwann aufgegeben, in raw (oder schreibt man: RAW?) und JPEG abzuspeichern - HQ-JPEG genügt mir (und spart preiswerten Speicher).

Aber wie Spacemans Assistent schon treffend erwähnte: Die rawstige Oma Inge mit ihrer BM Pocket ist mir da bereits Lichtjahre voraus!



Antwort von DenK:

Ich habe jetzt nicht den ganzen Thread gelesen, aber Ich glaube niemand hat gesagt dass man immer alles Raw drehen muss. Aber wenn man die Möglichkeit hat, von Speicher, Zeit, Aufwand... her, dann hat man am Ende das bestmögliche Material. Was man damit anzufangen weiß ist wieder eine andere Frage.



Antwort von wolfgang:

Es sind subtile Unterschiede da, aber ich finde nun nicht, dass Welten dazwischenliegen.
Im finalen Produkt vielleicht nicht mal sonderlich, im Beabeitungsspielraum lasse ich es mir aber sehr wohl einreden dass dort viel mehr drinnen ist als z.B. bei ProRes. Das ist aber ok finde ich - nur brauchts halt nicht jeder.

Aber wie Spacemans Assistent schon treffend erwähnte: Die rawstige Oma Inge mit ihrer BM Pocket ist mir da bereits Lichtjahre voraus!
Na wenns der Oma Spaß macht - dann ist das ja ok. Es gibt viele Leute die Lust nach mehr mit der Pocket bekommen haben. Warum auch nicht? Nur es ist halt nicht so dass das immer so sein muss.

Egal, ob man raw nun "raw" oder "RAW" oder "WAR" oder "war" schreibt. ;)



Antwort von Skeptiker:

... aber Ich glaube niemand hat gesagt dass man immer alles Raw drehen muss. ...
Doch, Meister Spaceman bringt die Mission durch seinen Assistenten unters Volk.

... Aber wenn man die Möglichkeit hat, von Speicher, Zeit, Aufwand... her, dann hat man am Ende das bestmögliche Material. ...
Das ist sonst auch mein Credo (Ausgangsmaterial so gut wie möglich - unter den Rahmenbedingungen).

... Was man damit anzufangen weiß ist wieder eine andere Frage.
Daran scheitert's bei mir als Grading-Banause.

...mehr Beabeitungsspielraum...
Das ist der springende Pnkt - man merkt es erst später (falls überhaupt). Und sollte wirklich von Anfang an wissen, was man sich zutrauen kann und will.

('Oma Inge') ... Es gibt viele Leute die Lust nach mehr mit der Pocket bekommen haben. Warum auch nicht? ...
Und das muss man bei aller Kritik über Lieferprobleme und Terminverschiebungen Blackmagic zugute halten: Sie haben es unter die Leute und in die breite Diskussion gebracht - und so eine ganze Filmlook-versessene Branche sensibilisiert und professionalisiert (mal abgesehen von denen, die sowieso schon wussten, wie es geht).
Ich glaube, CEO Grant Petty kommt doch von 'Color Grading' her, oder nicht?



Antwort von mash_gh4:

was mich bei solchen debatten immer wieder überrascht, ist die zufriedenheit der raw-liebhaber mit den gegenwärtig dafür verfügbaren video-spezifischen verarbeitungsprogrammen.

meines erachtens nach hinken die entsprechenden lösungen den alternativen im foto-bereich derart weit hinterher, dass sehr viele mögliche vorteile entsprechenden ausgangsmaterials in wahrheit gar nicht wirklich ausgenutzt werden können. die entsprechende unterstützung beschränkt sich meist auf jene ganz elementare dekodierung, wie sie mittlerweile auch die einfachsten bildbetrachter mitbringen, um zur not ein icon für raw dateien im filebrowser zu rendern. resolve ist ein ganz wunderbares beispiel dafür. wenn man die dortigen raw-bearbeitungsmöglichkeiten mit dem vergleicht, was selbst bei freien foto-raw-entwickler heute als geradezu selbsbtverständlich erscheint, ist das ganze wirklich ein witz. von all den feinheiten, die notwendig sind, um einzelne sensoren wirklich sauber zu unterstützen (die gut dokumentierten kleinen fortschritte im apertus-projekt legen davon zeugis ab) und gefinkelteren kalibrierungsmöglichkeiten, highlight recovery etc. einmal ganz abgesehen.



Antwort von Frank Glencairn:


resolve ist ein ganz wunderbares beispiel dafür. wenn man die dortigen raw-bearbeitungsmöglichkeiten mit dem vergleicht, was selbst bei freien foto-raw-entwickler heute als geradezu selbsbtverständlich erscheint, ist das ganze wirklich ein witz. von all den feinheiten, die notwendig sind, um einzelne sensoren wirklich sauber zu unterstützen (die gut dokumentierten kleinen fortschritte im apertus-projekt legen davon zeugis ab) und gefinkelteren kalibrierungsmöglichkeiten, highlight recovery etc. einmal ganz abgesehen.

Welche raw Bearbeitungsmöglichkeiten genau fehlen dir denn in Resolve, die in Foto-raw Software selbstverständlich sind?



Antwort von mash_gh4:

Welche raw Bearbeitungsmöglichkeiten genau fehlen dir denn in Resolve, die in Foto-raw Software selbstverständlich sind?

steht eh schon da -- vergleich es einfach mit darktable od. rawtherapee



Antwort von Frank Glencairn:

Resolve is ein Programm für Leute, die wissen was sie tun, die brauchen keine 200 Deppen-Slider um zum selben Ergebnis zu kommen. Die Möglichkeiten sind die aber selben.



Antwort von mash_gh4:

Resolve is ein Programm für Leute, die wissen was sie tun, die brauchen keine 200 Deppen-Slider um zum selben Ergebnis zu kommen. Die Möglichkeiten sind die aber selben.

naja -- ich hab leider manchmal das gefühl, das die "deppen" immer mehr die hauptzielgruppe des blackmagic maketings bilden -- jedenfalls sicher nicht die linux user, die sie ja ganz bewusst regelmäßig ignorieren...
aber, wie du weißt, verwende ich resolve ja selber regelmäßig

im gegensatz zu vielen anderen usern weiß ich halt aus eigener erfahrung, was technisch notwendig ist, um solche features wie eine automtische audio-synchronisation od. eine automatisches kalibrieren per test chart zu implementieren, weil ich genau solche dinge für andere anwendungen bereits selbst programmiert habe. deshalb getrau ich mich auch wirklich ohne langes zögern über die ausgesprochen mangelhafte qualität der entsprechenden features im resolve zu äußern.

und was die fehlenden freiheiten/features/qualitäten im resolve raw processing betrifft, würde ich bspw. auf folgende dinge verweisen:

zur anspruchsvolleren kalibrierung bzw. nutzung entsprechender profile:

http://www.ludd.ltu.se/~torger/dcamprof.html

noise profiles:

http://www.darktable.org/2012/12/profil ... ton-noise/

highlight reconstruction:

https://www.darktable.org/2015/03/color-reconstruction/
https://www.apertus.org/magic-lantern-g ... e-feb-2016

zu den vielfältigen debayer varianten fällt mir augenblicklich kein passender link ein.

das alles hat jedenfalls sehr wenig mit lustigen reglern zu tun, die irgendwelche unbedarften user zu ihrem vergnügen wild durch die gegend schieben dürfen, sondern mit features, die durchaus sinn machen, wenn man einen sensor wirklich zur gänze ausnutzen will bzw. durch nachträgliches aufbereiten der raw daten auf leistungsfähigeren maschinen aus dem aufgezeichneten material mehr herausholen möchte als es gewöhnliche cameras in der internen verarbeitung heute erlauben.



Antwort von cantsin:

Welche raw Bearbeitungsmöglichkeiten genau fehlen dir denn in Resolve, die in Foto-raw Software selbstverständlich sind?

steht eh schon da -- vergleich es einfach mit darktable od. rawtherapee

Sorry, das ist doch Unsinn. Ich vermisse bei Raw Therapee und DxO Optics Pro (die zwei Raw-Konverter, die ich am meisten nutze) die Möglichkeiten von Resolve extrem und hatte mir schon mal überlegt, ob ich nicht auch meine Digitalfotos in Resolve entwickeln sollte.

Der einzige Grund, weshalb die Fotoprogramme als einfacher empfunden werden ist, weil sie analoge Dunkelkammer-Werkzeuge emulieren und dem Nutzer nicht mit Digital/Sensor/Videokonzepten wie Lift/Gamma/Gain verschrecken, kein Vektorskop und RGB-Paraden, sondern nur simple Histogramme anzeigen etc.etc.



Antwort von mash_gh4:

Sorry, das ist doch Unsinn. Ich vermisse bei Raw Therapee und DxO Optics Pro (die zwei Raw-Konverter, die ich am meisten nutze) die Möglichkeiten von Resolve extrem und hatte mir schon mal überlegt, ob ich nicht auch meine Digitalfotos in Resolve entwickeln sollte.

Der einzige Grund, weshalb die Fotoprogramme als einfacher empfunden werden ist, weil sie analoge Dunkelkammer-Werkzeuge emulieren und dem Nutzer nicht mit Digital/Sensor/Videokonzepten wie Lift/Gamma/Gain verschrecken, kein Vektorskop und RGB-Paraden, sondern nur simple Histogramme anzeigen etc.etc.

da beziehst dich aber eher auf color grading spezifische features und die dort üblichen messinstrumente.

ich würde zwar auch sagen, dass resolve speziell darin wirklich stark ist bzw. ausgesprochen übersichtliche und effiziente mittel bietet, um das größere ganze zu erfassen, aber die angesprochenen technischen schwächen und einengungen bzgl. des eigentlichen raw processings bzw. der sensor-spezifischer kalibrierung berührt das leider nicht. dort ist das programm bestenfalls mittelmäßig.

dass mich an div. foto-raw-bearbeitungungsprogrammen auch ständig irgendetwas stört, das besser gelöst sein könnte, ist wieder eine andere geschichte. trotzdem sind diese programme bzgl. ihrer eigentlichen schwerpunktsetzung meiner einschätzung nach resolve oft deutlich überlegen.



Antwort von WoWu:

Sensorspezifische Kalibrierungen sind aufgrund des RAW Formates gar nicht (im RAW Format) vorgesehen.
Was also sollt Resorve da tun ?



Antwort von mash_gh4:

Sensorspezifische Kalibrierungen sind aufgrund des RAW Formates gar nicht (im RAW Format) vorgesehen.
Was also sollt Resorve da tun ?

ganz ohne kalibierung kommt man nicht aus -- gerade bei raw.
DNG bzw. adobe hat schon recht klare vorstellungen darüber, wie das genau zu geschehen hat. trotzdem, wenn man es wirklich ganz bewusst optimieren will, damit es eben nicht gleich aussieht, wie es die einzelnen kamerahersteller in ihren fertig gebackenen files liefern, aber auch bspw. adobe mit internen korrekturen vorgibt, braucht man entsprechende eingriffsmöglichkeiten, die eben resolve leider in keiner vernünftigen weise anbietet.



Antwort von WoWu:

Dann sprechen wir aber ein völlig anderes RAW Format.
RESOLVE hat da leider keine Wahl, bei dem, was ihm angeboten wird, was soll also die Kritik an Resolve ?



Antwort von mash_gh4:

Dann sprechen wir aber ein völlig anderes RAW Format.

die debatte hatten wir ja schone einmal in einem anderen thread -- es ist wirklich schwer anzugeben, wo hier die grenze genau verläuft bzw. wie unverfälscht die RAW daten alleine den ausgaben am sensor entsprechen.

tatsache ist, dass sich resolve bei sehr vielem ausgangsmaterial ohnehin nur auf fremde libraries/sdks stützt und erst auf relativ hoher ebene die aufbreiteten resulate übernimmt. deshalb funktioniert vieles zumindest im zusammenspiel mit den großen herstellern einigermaßen so, wie man es auch von anderen programmen her kennt. anpruchsvollere eingriffsmöglichkeiten sind damit aber verstellt.

und wie gesagt, ich kritisiere hier wirklich speziell die kontrolle über das raw processing, nicht die der nachfolgenden stufen konventioneller farbkorrektur.

RESOLVE hat da leider keine Wahl, bei dem, was ihm angeboten wird, was soll also die Kritik an Resolve?

natürlich hat man diese wahl! darktable hat sich z.b. in manchen punkten ganz bewusst gegen die adobe konventionen entschieden und handhabt manches im hinblick auf die farbprofile und kamerakalibrierung anders (ich getrau mich nicht wirklich zu beurteilen, ob es tatsächlich notwendig/zielführend ist, dafür fehlt mir in diesen esoterischen details der einblick). genau solche freiheiten sind es, die den unterschied zwischen FREIER software und programmen ausmachen, die nur gratis verteilt werden, um das betrefffende publikum weiter mit unfreiheit und bevormundung zu beglücken bzw. für möglichst dumm zu verkaufen. ;)



Antwort von WoWu:

Sofern Du damit die gesamte Auswahl des "pseudo.RAW" von Blackmagic, also Kameras und Nachbearbeitung meinst, bin ich bei Dir.
Nur nutzen auch andere RAW Formate herzlich wenig, wenn die Hersteller nicht mitspielen, und das tun die meisten nämlich nicht.
Und das bezieht sich in erster Linie nämlich genau auf das, was Du ansprichst, die Sensorkalibrierung, denn die geben -sinnvollerweise- die Hersteller gar nicht aus der Hand, weil sie dann viele Dinge mitteilen müssten, die gerade ihr Alleinstellungsmerkmal ausmachen.
Und genau das hat ja ADOBE versucht mit eigenen Interpretationen auszugleichen ... dass das ziemlich in die Hose geht, darin sind wir uns auch einig.



Antwort von iasi:

Sofern Du damit die gesamte Auswahl des "pseudo.RAW" von Blackmagic, also Kameras und Nachbearbeitung meinst, bin ich bei Dir.
Nur nutzen auch andere RAW Formate herzlich wenig, wenn die Hersteller nicht mitspielen, und das tun die meisten nämlich nicht.
Und das bezieht sich in erster Linie nämlich genau auf das, was Du ansprichst, die Sensorkalibrierung, denn die geben -sinnvollerweise- die Hersteller gar nicht aus der Hand, weil sie dann viele Dinge mitteilen müssten, die gerade ihr Alleinstellungsmerkmal ausmachen.
Und genau das hat ja ADOBE versucht mit eigenen Interpretationen auszugleichen ... dass das ziemlich in die Hose geht, darin sind wir uns auch einig.

Red kooperiert deshalb ja mit Software-Herstellern.



Antwort von mash_gh4:

hier stimme ich dem WoWu weitestgehend zu.



Antwort von merlinmage:

Toll, dann haben wir ja jetzt einen der wertvollsten User zufrieden gestimmt. Bin ganz aus dem Häuschen.



Antwort von WoWu:

Sofern Du damit die gesamte Auswahl des "pseudo.RAW" von Blackmagic, also Kameras und Nachbearbeitung meinst, bin ich bei Dir.
Nur nutzen auch andere RAW Formate herzlich wenig, wenn die Hersteller nicht mitspielen, und das tun die meisten nämlich nicht.
Und das bezieht sich in erster Linie nämlich genau auf das, was Du ansprichst, die Sensorkalibrierung, denn die geben -sinnvollerweise- die Hersteller gar nicht aus der Hand, weil sie dann viele Dinge mitteilen müssten, die gerade ihr Alleinstellungsmerkmal ausmachen.
Und genau das hat ja ADOBE versucht mit eigenen Interpretationen auszugleichen ... dass das ziemlich in die Hose geht, darin sind wir uns auch einig.

Red kooperiert deshalb ja mit Software-Herstellern.
RED gibt genausowenig Infos raus, was auch nichts bringen würde, weil man bei RED gar nicht an die Sensordaten kommt, sondern ebenfalls ein JPEG (Tiff) als RAW angeboten wird.

Da gibt es nix mehr zu kooperieren.



Antwort von Frank Glencairn:


ganz ohne kalibierung kommt man nicht aus -- gerade bei raw.

JA natürlich...

In Hollywood reicht es für die üblichen Blockbuster und Oskar-Gewinner, aber für das was du machst reicht es nicht aus. Schon klar.



Antwort von WoWu:

Mir ist auch nicht so ganz klar, was er mit Kalibrierung meint.
Wenn es nämlich darum geht, die Sensorspezifischen Hardwarekalibrierungen vorzunehmen, dann wird er das nur bei Kamerabastlern finden.
Firmen nehmen das nämlich bereits in ihren Kameras vor und das sogar abhängig vom Zustand der Hardware, Wärme z.B.
Auch die Linearität der Pixels. Auch eventuelle Verzerrungsfehler werden bereits AUF dem Sensor korrigiert.
Was also soll so eine Kalibrierung des Sensors außerhalb der Kamera bewirken ?



Antwort von mash_gh4:

In Hollywood reicht es für die üblichen Blockbuster und Oskar-Gewinner, aber für das was du machst reicht es nicht aus. Schon klar.

nein -- ich begnüge mich gewöhnlich mit ziemlich einfachen mitteln...

trotzdem geht's hier um eine ganz andere frage:

es macht nämlich keinen so großen unterschied, ob das bild gleich bei der verarbeitung in der kamera in irreversibler weise verändert wird, oder ob das ein bisserl später auf deiner workstation passiert. so lange du genauso wenig eingriffsmöglichkeit in den prozess zugestanden bekommst und von den tatsächlichen vorteilen und freiheiten einer kontrollierten raw entwicklung weitestgehend ausgesperrt bleibst, läuft es sich auf das selbe hinaus.

kannst du mir darin folgen?

in der gegenwärtigen raw-fotografie ist das wirklich anders. dort bekomme ich tatsächlich daten, wie sie der sensor liefert, und kann zwischen verschiedenen softwarelösungen wählen, die mir in unterschiedlich leistungsfähiger weise tlw. ziemlich anspruchsvolle verbesserungen bzw. korrekturen bei der aufbereitung erlauben. das hat noch überhaupt nichts mit kreativem grading zu tun, sondern betrifft vorerst einmal eine möglichst saubere und neutrale wiedergabe.

ich hab kein problem damit, wenn manche leute mit dem damit verbundenen aufwand gar nicht erst in berührung kommen wollen und sich statt dessen lieber damit begnügen, von der wunderbaren wiedergabe der hautfarben ihres lieblingsherstellers zu schwärmen.
wenn einem das reicht, sind allerdings die vorteile eines derart eingeengten raw-workflows auch beinahe vernachlässigbar -- außer natürlich, dass die berechnungen auf der workstation ein klein wenig rechenintensiver implementieren werden können als in echtzeit auf der kamera und das ein paar elementare einstellungen (bspw. der weißabgleich) nachträglich festgelegt werden können. mit dem vollen umfang der gestaltungsspielräume bzw. bewusst gewählten aufbereitungschritten und tatsächlicher kontrolle über den entwicklungsprozess, wie wir das von der raw-fotografie her kennen, hat das aber nicht mehr viel zu tun. in dieser hinsicht erinnert es mich dann doch eher wieder an ein simples: "you press the button, we do the rest".

wie gesagt: in vielen fällen kann das ja durchaus genügen, aber man muss es nicht unbedingt gleich als idealzustand verklären.



Antwort von mash_gh4:

Wenn es nämlich darum geht, die Sensorspezifischen Hardwarekalibrierungen vorzunehmen, dann wird er das nur bei Kamerabastlern finden.

die sensoren, die du bspw. in den axiom-kameras findest, sind ganz genau die gleichen, die auch von kommerziellen herstellern verbaut werden... und dementsprechend auch die ganz realen probleme, mit denen man sich dort gerade herumschlägt...



Antwort von WoWu:

Ja, nur dass Du Hardwareprobleme, wie sie im Betrieb anfallen (z.B.)Wärme, auch nur in dem Augenblick beheben kannst, in dem Sie auftreten und nicht hinterher in der Post.

Allerdings bin ich insoweit bei Dir, als ich auch die RAW Lösung favorisiere, die tatsächlich das Sensorsignal an den Ausgang stellt, also noch vor dem Bayering.
Das hat aber nichts mit Sensorkalibrierung zu tun, weil die von den unterschiedlichsten Parametern im Sensorbetrieb abhängig ist, an die man hinterher gar nicht mehr rankommt.
Das Stück Firmware gehört auch weiterhin in die Sensorumgebung und ich kenne auch keinen Kamerahersteller, der die Kalibrierung jemals rausgegeben hat.
Mit solchen Problemen befassen sich außer den Herstellern nur noch Bastler, die Kameras zusammenstricken ... auf gar keinen Fall aber Softwarehersteller für die Post.



Antwort von didah:

die meisten produktionen können sich sich zeitaufwand, der mit raw verbunden ist, nicht leisten... wennst jetzt am tag 3 stunden material sammelst, am abend ins hotel gehst und das ganze dann backupen willst - wann willst dann schlafen um am nächsten drehtag fit zu sein? und das ist ja nur der anfang, jetzt bist 2, 3 tage onlocation und dann soll das ganze natürlich möglichst schnell geschnitten werden, weil nächster dreh, nächster schnitt, nächster abgabetermin steht an...

alle anderen produktionen, bei denen zeit eine weniger wichtige rolle spielt, können sich doch aus einem breiten spektrum an raw kameras und rekordern bedienen - die nötige speicherlösung und den dazugehörigen pc vorausgesetzt. und vorallem den kunden, der bereit ist die paar stunden, die raw einfach länger dauert, zu bezahlen...

raw kameras kosten nicht die welt, jeder der will, kann eine haben. (bmpcc, um was geht die wohl gerade auf ebay second hand weiter?). auch olaf, der oma fridas 80er in raw festhalten möchte....
lg

3 Stunden Material am Tag?
Da wundert"s mich natürlich nicht mehr, wenn"s bei dem Handkameragefilme immer derart wackelt ... da muss der Arm ja lahm werden :)

sorry wenn das deinen ansprüchen nicht genügen mag, aber ja, 3 stunden am tag... easy... es soll leute geben, die fürs fernsehn arbeiten ;)



Antwort von Jott:

Wär doch mal ein Spaß, am Ende des Tages drei Stunden raw abzugeben - oder auch nur 30 Minuten. Sie wollen doch immer das Beste und die Tollsten sein, die Broadcaster.



Antwort von iasi:



sorry wenn das deinen ansprüchen nicht genügen mag, aber ja, 3 stunden am tag... easy... es soll leute geben, die fürs fernsehn arbeiten ;)

scheint, wir haben heute zu viele Sender und Programme - da gilt dann wohl "Quantität statt Qualität" - du würdest wohl auch besseres Material abliefern können, wenn es 3 Minuten statt den 3 Stunden sein dürften.



Antwort von Axel:

scheint, wir haben heute zu viele Sender und Programme - da gilt dann wohl "Quantität statt Qualität" - du würdest wohl auch besseres Material abliefern können, wenn es 3 Minuten statt den 3 Stunden sein dürften.

Ich finde es ja super, dass Broadcast - nicht nur hierzulande - gleichbedeutend mit schlechter Bildqualität und ästhetischer Ahnungslosigkeit ist. Wäre schade, wenn jeder banale Alltagsmist plötzlich nach sorgfältig entwickeltem und auf höchste sichtbare Dynamik gegradetem Raw präsentiert würde.

Aber nicht nur Sendezeitfüller haben diesen öffentlich-rechtlichen Mindestanforderungs-Stil (bei den Privaten geschmacklos aufgepeppt durch Looks und Billo-Effekte), auch bei vielen Industriefilmen spiegelt sich der Nivellierungs-Frust der Macher im immergleichen Plastiklook - muss halt alles problemlos und effizient mit Stockfootage kombinierbar sein.

So gut wie keiner von denen kann leuchten. Das habe ich oft mitgekriegt. HMI gilt dort schlicht als "Tageslicht" und mischt sich schmerzbefreit mit dem lieben Himmelslicht. Flach leuchten geht im Zweifelsfall schneller. Eine Farbtemperatur-Verschiebung von, sagen wir, 500°K, könnte auch Raw nicht mehr retten. Also wozu überhaupt drüber nachdenken? Diese Logik wird schnell zum Selbstläufer und Bestandteil des Berufsethos. Typisch ist dann, dass natürlich trotzdem dauernd ein WeißabgleichWeißabgleich im Glossar erklärt gemacht wird: Professionelle.

Mehr Willen zu Qualität sieht man in Autoren-Dokus, wie dieser, die kürzlich hier verlinkt war. Red Dragon, BMPC und - GoPro!

Es ist nicht nur die Kamera ...



Antwort von domain:

Eine Farbtemperatur-Verschiebung von, sagen wir, 500°K, könnte auch Raw nicht mehr retten...

Gerade das könnte in Raw aber leicht gerettet werden, denn dort gibt es bei der Aufnahme ja keinen Weißabgleich.



Antwort von Axel:

Eine Farbtemperatur-Verschiebung von, sagen wir, 500°K, könnte auch Raw nicht mehr retten...

Gerade das könnte in Raw aber leicht gerettet werden, denn dort gibt es bei der Aufnahme ja keinen Weißabgleich.

Das ist ein Missverständnis. Bei Raw kannst du den WeißabgleichWeißabgleich im Glossar erklärt - was für ein doofes Wort, Weiß ist nur was für Kochwaschmittel - im Nachhinein machen. Das führt dazu, dass du sehr genau einstellen kannst (relativ genauer als mit eingebackener WB), wie sich Mischlicht auf dein Bild auswirkt. Der Resolve-Guru Alexis van Hurkman fordert in seinem "Color Correction Handbook" dazu auf, Licht grundsätzlich nicht von der Farbtemperatur der (wenn es eine wäre!) Lichtquelle her zu sehen. In seinen Ripple-Tuts demonstriert er, dass es in der wirklichen Welt keine reinen Farben gibt. Zum Glück, denn Farbvielfalt ist Lebendigkeit.

Der Unterschied zwischen Raw und Nicht-Raw ist nicht absolut, nur graduell. Und lieber ein Jpeg-Fotograf, der sich der Wirkung von Farben bewusst ist als einer, dem "alles egal" ist, weil er Raw in der Post fixen kann.



Antwort von Jott:

Wahrscheinlich auch deshalb das Raw-Verbot von Reuters! :-)



Antwort von mash_gh4:

Bei Raw kannst du den WeißabgleichWeißabgleich im Glossar erklärt - was für ein doofes Wort, Weiß ist nur was für Kochwaschmittel - im Nachhinein machen.
...
Der Unterschied zwischen Raw und Nicht-Raw ist nicht absolut, nur graduell.

normalerweise wird der weißabgleich in kameras ziemlich einfach umgesetzt. es werden dabei tlw. wirklich nur die verstärkungsgrade für die drei grundfarben verändert. wenn man es so einfach hält, macht es auch keinen großen unterschied, ob man dazu nun tatsächlich die ausgangsdaten vom sensor zur verfügung hat, oder sich mit irgendeiner aufbereiteten log variante begnügt.

man muss es aber nicht unbedingt so simpel halten. in der raw fotografie ist es heute durchaus üblich, die tatsächliche spektrale sensibilität der verschiedenfarbigen sensel in entsprechende berechnungen einzubeziehen, statt von vereinfachten modellen der farbwiedergabe auszugehen. und in diesen gefielden macht es dann auch einen unterschied, an welcher stelle in der verarbeitungskette entsprechende korrekturen durchgeführt werden. manches ist einfach in späteren verarbeitungsschritten prinzipiell nicht mehr umkehrbar bzw. isoliert und eindeutig herauszulösen.

von denjenigen, die sich intensiver mit solchen fragen beschäftigen, kann man zwar regelmäßig vernehmen, dass die entsprechende kalibirierung bzw. ganz spezifische profilerstellung individueller kameras bzw. sensoren fast genauso sinnvoll wäre wie bei monitoren, aber das ist natürlich anbetrachts der dafür nötigen mittel reichlich unrealistisch. man wird sich also im normalfall fast immer mit kompromissen begnügen, die im besten fall die charakteristiken des betreffenden bauteils bzw. typs einigermaßen korrekt berücksichtigen.

und dass die hersteller entsprechender kameras und sensoren das nicht selber könnten, bestreite ich ohnehin nicht -- im gegenteil!

gleichzeitig sehe ich sehr wenig tatsächliche berechtigung für übermäßige geheimniskrämerei und paranoia in diesen fragen. weder auf seiten der hersteller, die sich auf firmengeheimnisse und entwicklungsvorsprung berufen, noch auf seiten der benutzer, die sich über künstliche hürden der produktdiffernzierung und erzwungene herstellerbindung ärgern. entsprechende forschung wird ja nicht nur und in den geheimen küchen der hersteller vorangetrieben, sondern auch von unzähligen forschern im akademischen betrieb. so gesehen verfließen die grenzen -- sie alle sind bis zu einem gewissen grad nur als "kamera-bastler" mit unterschiedlichen zielsetzungen anzusehen.



Antwort von iasi:

- du würdest wohl auch besseres Material abliefern können, wenn es 3 Minuten statt den 3 Stunden sein dürften.

Es ist nicht nur die Kamera ...

natürlich nicht - deshalb sage ich ja: 3 Minuten statt 3 Stunden Material pro Tag.

Raw kann aus meiner Sicht vor allem knappe Drehzeit sparen helfen und die Feinarbeit in die doch üppiger vorhandene (weil viel billigere) Post-Zeit verlagern.

Es kostet nun einmal mehr Zeit, ein Bild am Drehort zu erzeugen, das dem Ausgabebild schon weitgehend entsprechen soll/muss.



Antwort von wolfgang:

Raw kann aus meiner Sicht vor allem knappe Drehzeit sparen helfen und die Feinarbeit in die doch üppiger vorhandene (weil viel billigere) Post-Zeit verlagern.

Es kostet nun einmal mehr Zeit, ein Bild am Drehort zu erzeugen, das dem Ausgabebild schon weitgehend entsprechen soll/muss.
Stimmt sicherlich für große Produktionen, aber eben nicht mehr für die 1-Mann-Show. Dort ist Stundensatz beim Filmen natürlich gleich dem Stundensatz in der Postpro.



Antwort von domain:

So selten ist Raw ja nun wieder nicht und entspricht auch dem Retrotrend: zurück zu den Wurzeln, also letzten Endes zum unkomprimierten Analogmaterial (Bilder müssen entwickelt werden), das ja wieder stark im Kommen ist (Ruessel und ich haben das ja längst erkannt).
Dabei waren bzw. sind die div. Kompressionsverfahren inkl. Interlace ja großartige Erfindungen der Menschheit.
Speziell von H.265 war WoWu eine Zeit lang mal sehr angetan, dann wurde er diesbezüglich verdächtig ruhig und heute ist es nur mehr ein minderwertiges Aufzeichnungsverfahren für ihn und viele andere :-)
Dabei erkenne ich nicht direkt Welten dazwischen, aber bitteschön ich bin auch kein Pixeltüpferlreiter.



Antwort von Frank Glencairn:

Zwischen unkomprimiert und einem CodecCodec im Glossar erklärt, der über 85% aller Bildinformation aus dem Fenster wirft, sehe ich schon einen Unterschied.



Antwort von TheBubble:

So selten ist Raw ja nun wieder nicht und entspricht auch dem Retrotrend: zurück zu den Wurzeln, also letzten Endes zum unkomprimierten Analogmaterial (Bilder müssen entwickelt werden),
Ich sehe darin eher die Fortsetzung des Trends, möglichst viele Parameter selbst festlegen zu können und nicht generell auf Automatiken oder feste Vorgaben zu setzen. Das man sich damit auch Optionen bis zur Nachbearbeitung offenhält, ist ein angenehmer Nebeneffekt.

Man muss für Film/Video aber nicht unbedingt auf so unverarbeitete Formate setzen, wie es raw Formate von Fotoapparaten sind. Ein Mittelweg würde sich dabei auch besser komprimieren und verarbeiten lassen.

Dabei waren bzw. sind die div. Kompressionsverfahren inkl. Interlace ja großartige Erfindungen der Menschheit.

Habe ich eben "Interlace" und "großartige Erfindung" in einem Satz gelesen? :-O Interlacing war schon damals eher ein Mittel zum Zweck, inzwischen ist es jedoch zu einer bestenfalls nervenden, tatsächlich aber eher problematischen Altlast geworden.

Nebenbei: Warum soll es sich für 1-Personen-Filemmacher nicht lohnen, für die Nachbearbeitung mehr Optionen zu haben, auch wenn man sie vielelicht nur sehr selten nutzt?



Antwort von domain:

Na klar, zwischen Hubble-Teleskop und dem Kryoelektronenmikroskop, mit dem neulich die Struktur des Zika-Virus sichtbar gemacht werden konnte, gibt es einen Zusammenhang: es zeigt Dinge, die mit normalen Sinnesorganen nicht wahrnehmbar sind.
Gilt auch für unsere Weinlagen und Jahrgangsverkoster in der Steiermark, welche die fragwürdige französische Philosophie der sortenreinen Hang- und Jahrgangsphilosophie analysieren und blumig beschreiben (idR bekannte Allerweltsfrüchte und -Gewürze speziell im Abgang).
Aber wen interessieren diese kaum noch zu differenzierenden Unterschiede überhaupt noch, zumal im Videobereich für den Laien schon derzeit echte Qualität schwer von Handyaufnahmen zu unterscheiden ist.
Und da wird sich noch einiges tun.
Es geht mehr und mehr um die emotionale Aussage einer Aufnahme und nicht ob man lt. Iasi einen pflügenden Bauer oder gar Kacheln noch aus 300m Entfernung erkennen kann.



Antwort von WoWu:

So selten ist Raw ja nun wieder nicht und entspricht auch dem Retrotrend: zurück zu den Wurzeln, also letzten Endes zum unkomprimierten Analogmaterial (Bilder müssen entwickelt werden), das ja wieder stark im Kommen ist (Ruessel und ich haben das ja längst erkannt).
Dabei waren bzw. sind die div. Kompressionsverfahren inkl. Interlace ja großartige Erfindungen der Menschheit.
Speziell von H.265 war WoWu eine Zeit lang mal sehr angetan, dann wurde er diesbezüglich verdächtig ruhig und heute ist es nur mehr ein minderwertiges Aufzeichnungsverfahren für ihn und viele andere :-)
Dabei erkenne ich nicht direkt Welten dazwischen, aber bitteschön ich bin auch kein Pixeltüpferlreiter.

Nee, nee, Domain, irgendwas hast du nur partiell wahrgenommen.
Ich war solange zurückhaltend, wie es die Revision 10 erst gab, weil die noch erhebliche Echtzeitprobleme hatte, die in den unteren Rates noch gab.
Dazu kommt, dass HEVC zunächst (wie auch schon H.264) in den Rates 1-5 für die Ausstrahlung bis 10MBit optimiert wird.
Meine Zurückhaltung besteht also darin, dass die Vorzüge von H.264 zunächst in den verfügbaren Rates gar nicht nutzbar sind und dass im Augenblick auch nicht erkennbar ist, ob es weiterreichende Tools in Höhen Rates geben wird, die eine Optimierung Dr Bildqualität weiter vorantreibt.
Es bleibt also lediglich abzuwarten, inwieweit sich der CodecCodec im Glossar erklärt nicht nur im Hinblick auf die Übertragungsoptimierung entwickelt sondern auch bei erweiterten Rates im Hinblick auf die verwendeten Tools zur Bildoptimierung.
Solange es noch Leute gibt, die vor MÜEG2 in ihren Kameras nicht zurück schrecken, besteht noch reichlich Zeit, HEVC ausreifen zu lassen.
Selbst Microsoft hat 8 Jahre gebraucht, bis sie H.264 unterstützt haben ... aber mittlerweile sind sie ja wenigstens so weit. Da müssen einige Kamerahersteller und Anwender erst noch hin.
Reden wir also über HEVC, wenn es soweit ist.
Was mich allerdings schon heute überzeugt, ist das Skalierungskonzwpt und der Umstand, dass wir dann endlich die unterschiedlichen ÜBertragungsraten in die Tonne treten können.
Insofern hab ich nichts gegen HEVC ... es ist nur noch nicht so weit, dass es im Üroduktionsumfeld eine vergleichbare Rolle spielen könnte.
Schließlich wird da nicht einfach ein Schalter umgelegt ... und alles ist gut.
Deswegen gibt es ja so wenig Codecs ...
Aber, wie gesagt ... lass erst mal die MPEG2ler als Tageslicht kommen. Und da funktioniert dann auch noch Interlace.

Und was die 300m betrifft ...(es ist übrigens weniger). es geht da aber um die Aussage über eine Bildauflösung, die bei den meisten Kameras nicht erreicht wird, aber im Verkaufsprospekt steht und von vielen Anwendern blind geglaubt wird, weil sie sich nicht trauen zuzugeben, dass sie auf Marketingsprüche reingefallen sind.



Antwort von domain:

Das stimmt sicher, allerdings kommt mir manchmal vor, dass neben dir einige von uns auch nur mehr partiellen Bezug zur relevanten Realität haben.
Erinnert mich an einen HiFi-Nerd vor 25 Jahren.
Die erst vor einem halben Jahr angeschafften sündteueren Bose-Boxen bezeichnete er bei der Präsentation der neuen Vollbereichsmagnetostaten nur mehr als Hintergrundboxen.
Hatten einen echt guten Klang, aber lieber hörte ich unserem Nachbarn beim Schuhputzen im Vorhaus mit dem simplen Grammophon aus den 60-er Jahren zu, wenn er Karuso-Arien mitsang.
Da war Leidenschaft und Sehnsucht vorhanden, also Gefühl und keine kalte Diagnostik über Pixel-Auflösungen etc.



Antwort von WoWu:

Das war schon so, als wir 2007 über H.264 gesprochen haben, dass das als nicht relevante Realität bezeichnet wurde.

Du magst recht damit haben ... einige sind da stehen geblieben und bezeichnen heute H.265 als solches.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Camcorder allgemein -- 4K / UHD / FHD-Forum

Antworten zu ähnlichen Fragen:
Warum kann man RAW-Video nicht wie RAW-Fotos bearbeiten
Messevideo: Blackmagic RAW - warum besser als CDNG RAW? Inkl. Sidecarfile, unterstütze Kameras uvm. // IBC2018
Wer braucht eigentlich Profi-Geräte und warum zahlt man solche Preise (TV)
Warum RAW?
ISO2000 in slog2 Sony FS700 4K/Raw Warum?
Warum gibt es keine GH4 raw Unterstützung für Windows?
Suche jemanden für Bewegtbild-Logo und Templates
Selten so ein gutes Loopcover Video/Version gehört/gesehen
Sony AXS-R7 Raw Recorder: 120 fps 4K Raw für F55
Osmo Raw -- Handgimbal jetzt mit X5R 4K-Raw Kamera kompatibel // NAB 2016
RAW WARS - Wachsende ProRes RAW Unterstützung, aber noch kein Durchbruch // NAB 2019
Magic Lantern RAW in CineForm RAW konvertieren
RAW Wars - ProRes RAW gegen CinemaDNG
Wann ist 3D eigentlich 3D?
Was ist eigentlich Magic Lantern ?
Was machen eigentlich .... die HyperChargeBatteries?
Was ist eigentlich AUDIO-BITRATE?
Was ist jetzt eigentlich mit Speedgrade?
Was ist eigentlich aus V-Log geworden?
Diskussionen im TV: Was ist eigentlich diese Digitalisierung!?
Was ist eigentlich Eure immerdrauf Blende?
Ist GoPro eigentlich garnicht Patentiert?
Welche Gimbal benutzt eigentlich die Tagesschau ?
Welche TV Karte ist eigentlich nicht scheisse ?
Hat Kino eigentlich noch was mit Kamera zu tun?
Wofür braucht man eigentlich einen 3 Achs Gimbal...

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
18-22. September / Münster
Filmfestival Münster
19-22. September / Bremen
Filmfest Bremen
22. September / Essen
Essener Video Rodeo | Kurzfilme aus dem Ruhrgebiet
4-5. Oktober / Espelkamp
Filmfestival SPITZiale
alle Termine und Einreichfristen


update am 16.September 2019 - 18:02
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*