Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic URSA / PYXIS / Pocket Cinema Cameras-Forum

Infoseite // Update 1.8.2 für Blackmagic Cameras bringt ProRes 422 Support



Newsmeldung von slashCAM:


Das Blackmagic Camera Utility 1




Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Update 1.8.2 für Blackmagic Cameras bringt ProRes 422 Support


Space


Antwort von joey23:

Ok, nett. Aber braucht man das bei so einer Kamera? Egal. Haben ist besser also brauchen. Also danke BM. Aber fasst mal auch die anderen, wichtige(re)n Baustellen an!

Space


Antwort von Gregott:

Doch doch, kann ich brauchen. Wenn man doch mal eine als Zusatz für ne Veranstaltung aufstellen will!

Space


Antwort von RUKfilms:

ich brauchs nicht...zumindest nicht bei der cam

Space


Antwort von Moritz Janisch:

Das hat aber gedauert. Besser spät als nie!

Space


Antwort von molch:

Ich find's klasse. Gerade für kleinere Aufträge, bei denen man in der Post sowieso lediglich schnell mit RGBKurven Farbkorrigiert, spart die niedrigere Datenrate nerven :-)

Space


Antwort von cantsin:

Wow - wenn ich richtig rechne, gehen jetzt ca. 100 Minuten BM Pocket-Video auf eine 64 GB-Karte bei ProRes LT. Noch weniger Gründe, meine alte GH2 zu behalten.

Space


Antwort von MIIIK:

Also jetzt hauen sie ja ein Update nach dem anderen raus.

Das klingt doch gut :)

Mike

Space


Antwort von Manuell:

Naja, wenn sich mal was in Richtung FPN und Black Dots ändern würde wäre ich erfreut. Eine niedrigere Datenrate brauch ich bei der Kamera nun wirklich nicht, aber es tut sich was. Positiv denken :-)

Space



Space


Antwort von sottofellini:

Wenn das so weitergeht, findet sich bestimmt bald ein Marketing Profi, der diese Bastelbude mit all ihren genialen Rohprodukten so richtig in die verdiente Position hievt ;-) Denn grosses Poztenzial hat sie, ganz klar!

Space


Antwort von rush:

Wow - wenn ich richtig rechne, gehen jetzt ca. 100 Minuten BM Pocket-Video auf eine 64 GB-Karte bei ProRes LT. Noch weniger Gründe, meine alte GH2 zu behalten. Ich suche noch immer den Sucher an der Pocket... für mich einen der Hauptgründe die GH2 noch länger zu behalten ;)

Eine Pocket mit eingebautem EVF dagegen wäre doch mal eine feine Sache...

Space


Antwort von ruessel:



Space


Antwort von iasi:

super - endlich kann man gleich im Proxy-Format aufnehmen und spart sich das Wandeln.
Und die Datenrate ist dabei geringer, als bei einer Canon-DSLR ...

Und das Restspeicherplatzanzeigeproblem hat sich dadurch auch erübrigt - jetzt fasst die SSD gleich Stunden, wo es beim Raw Minuten waren.

Jedes neue Update bringt uns weiter voran ...

Space


Antwort von Optiker:

Hallo,
Wozu ist denn der Proxy Codec gut? Kann jetzt einmal ein Raw und gleichzeitig ein Proxy File erstellt werden? Oder ist das einfach nur so zum rumspielen und für schnell drauf los Spontanvideos gedacht?

Space


Antwort von Jott:

Berechtigte Frage. ProRes Proxy macht in einer Kamera eigentlich keinen Sinn - mit Fantasie findet man vielleicht eine Anwendung, wo lange ununterbrochene Aufnahmezeit unerläßlich und Qualität zweitrangig ist.

Aaaber: ProRes 422 und HQ als sinnlos zu verhöhnen ist - sorry - hirnverbrannt. Siehe Arri Amira, die mit just diesen Codecs Leute, die tatsächlich drehen und produzieren zum Geld verdienen (ja, so was gibt's auch!), zu Begeisterungsstürmen hinreißt.

Die Weltfremdheit nimmt so langsam haarsträubende Formen an! Ich wüßte echt auch gerne, was der Iasi so filmt mit seiner Raw-Obsession, was anders um's Verrecken nicht ginge.

Space


Antwort von rush:

@ruessel: bei solch einem extrem dynamischen Motiv wird ein codec natürlich ziemlich gefordert.... ;-)

Was mit Viel Bewegung im Bild wäre sicherlich interessanter um zu sehen wie sich die anderen Komprimierungen schlagen

Space


Antwort von Axel:

Für "Longplay" (cantsin) wäre ProResLT akzeptabel, ich würde vermuten, dass die umfangreiche Post, wie sie bei BM ja oft nötig ist, früher zum Kaputtgehen der Bilder führt.

ProRes422 werde ich ausgiebig mit der Pocket testen.

Space


Antwort von thsbln:

Ich hab hier mal ein paar milde wackelnde Äste mit den versch. Codec-Varianten gefilmt:


Passwort: pass

Space



Space


Antwort von iasi:

Berechtigte Frage. ProRes Proxy macht in einer Kamera eigentlich keinen Sinn - mit Fantasie findet man vielleicht eine Anwendung, wo lange ununterbrochene Aufnahmezeit unerläßlich und Qualität zweitrangig ist.

Aaaber: ProRes 422 und HQ als sinnlos zu verhöhnen ist - sorry - hirnverbrannt. Siehe Arri Amira, die mit just diesen Codecs Leute, die tatsächlich drehen und produzieren zum Geld verdienen (ja, so was gibt's auch!), zu Begeisterungsstürmen hinreißt.

Die Weltfremdheit nimmt so langsam haarsträubende Formen an! Ich wüßte echt auch gerne, was der Iasi so filmt mit seiner Raw-Obsession, was anders um's Verrecken nicht ginge. Ursprünglich hatte ich gepostet, dass für Leute, die Raw filmen, die FW-Updates nichts gebracht haben.
Aber ganz so wie religöse Fanatiker wird das gleich zum Glabenskampf zwischen Raw und ProRes hochstilisiert.
Und nun bemühen wir also auch noch die hohen Abgesandten "Arri" und deren geheiligten Priester.
Weltfremd sind doch diejenigen, die einen Unterschied zwischen Raw und ProRes mit fanatischer Inbrunst verneinen.

Wenn ihr wirklich meint, ihr müsst ProRes nutzen, dann macht das doch - aber es ändert eben nichts daran, dass die FW-Updates für Raw-Nutzer NICHTS gebracht haben.

Und ihr könnt euch ja nun freuen, denn jetzt bietet BMD sogar Proxy als Aufnahmeformat ... also wenn das nicht weltfremd ist, weiß ich auch nicht ... aber du, Jott, kannst das ja Bejubeln und BMD dafür preisen ... währenddessen warten wir Raw-Verrückte auf solche überflüssigen Dinge, die diese Magic-Laterna-Verrückten in mühevoller Arbeit in Fotokameras implementiert haben ... und jetzt mach ich es mal ganz schwer für dich, Jott: Was sind das wohl für Sachen, die den ML-Leuten so wichtig erscheinen?

Space


Antwort von CameraRick:

Ich hab hier mal ein paar milde wackelnde Äste mit den versch. Codec-Varianten gefilmt:


Passwort: pass Ich bin eigentlich sehr zufrieden damit, zwischen HQ und 422 sind nicht so viele Unterschiede, wie man meinen mag; für "unwichtigere" Dinge, wo man den Codec nicht in der Post missbrauchen muss sondern ein einfaches Grading haben kann (einfacher Dialog o.ä.), ist das doch eine nette Sache.

hui, der iasi ist unzufrieden mit der neuen eMail. ganz was neues :)

Space


Antwort von CameraRick:

habs gestern übrigens mal durchgerechnet;
ziemlich genau ist ProRes 422 2/3 Größe von HQ, und LT wiederum 2/3 von der Grüße 422s.
Grad für Pocket Nutzer ist das schon etwas.

Proxy halte ich auch für Unfug, aber da rauf jetzt so abzugehen... wenn man schon dabei ist alle anderen zu implementieren, würde ich da nun auch keinen Bogen machen. Schade, dass 4444 nicht drin ist (ich vermute da nen teuren Preis; wirklich nur die teureren Geräte zeichnen das auf).
Vielleicht bringen se mal DNxHD 444, das wäre auch was :)

Space


Antwort von masterseb:

warum sollte ProRes 4444 sinn machen? das signal der BMCC ist 422 und der zusätzliche alpha channel des 4444 bleibt auch leer. viele betiteln den 4444 auch als neuen "animations" codec, nicht zu unrecht. könnte die BMCC 12 bit in den 4444 schreiben?

p.s. ich verstehe die angegebenen bitraten in der meldung nicht. meines wissens sind HQ+444 220, Standard 145 und LT 100. sagt auch das hier: https://documentation.apple.com/en/fina ... tasks=true

Space


Antwort von Paralkar:

Das stimmt nicht,

http://de.wikipedia.org/wiki/Farbuntera ... 1.2C1x1.29

Ein ProRes oder DNXHD 444(4) hat ne 50% bessere Farbunterabtastung, bzw. garkeine Farbunterabtastung, ein 422 ist nurnoch 50% der Farben da, Rest ist Interpolation

Abgesehen davon hat der Codec ne höhere Datenrat und 12 bit Farbtiefe, laut nem Whitepaper, das ich hier mal gepostet hab, ist der Prores 4444 12 bit, auch wirklich 12 bit pro RGB, also hat eine höhere Farbtiefe.

Demensprechend, als zwischen Ding zwischen Raw und nem gescheiten Codec, hät ich damit auch kein Problem, wenn dieser Implementiert wäre, man darf nicht vergessen, das Raw einfach deutlich mehr Arbeit und Daten produziert (in einem profesionellen Film bzw. Werbespot projekt), klar ist es schön, aber wie oft ist die Notwendigkeit gegeben.

Wäre man in der Post soviel eingeschränkter gewesen in Skyfall mit nem 4444 12 bit ProRes? Es ging da doch hauptsächlich um die mehr Auflösung

Space


Antwort von Christian Schmitt:

Wer sich hier ernsthaft über ProRes aufregt vergisst wohl, dass die C300 mit ihrem kümmerlichen 50Mbit/s Codec der Broadcast-indie-image-dauerbrenner schlechthin ist.
ProResLT ist für viele, die mit komprimierten Codecs in der Camera arbeiten, der Schnittcodec der Wahl.
Das jetzt ist direkt mit der Kamera aufzeichnen zu können - perfekt.

Aber klar, ist nicht so kuhl wie seinen Kurzfilm in RAW zu drehen oder unnötig Kontrastreiche Szenen zu filmen um zu zeigen, wie viel sich in der Post durch RAW retten lässt.

Aber was weiß ich schon vom Leben eines RAW Flimmers, der sitz gerade bestimmt in seinem Privatjet, fliegt zum nächsten Shoot und vertreiben sich die Zeit damit, den Pöbel auf Slashcam über dessen jämmerliches, komprimiertes Dasein zu informieren...

Space


Antwort von CameraRick:

warum sollte ProRes 4444 sinn machen? das signal der BMCC ist 422 und der zusätzliche alpha channel des 4444 bleibt auch leer Wieso sollte es nur 422 sein? Im Zweifel wird dabei ja was weggeschmissen, an Information. Selbst wenn es nachher nur so etwas wie 4:3:3 werden würde (ich weiß dass das Quatsch ist, nur zur Veranschaulichung), wäres doch nicht verkehrt. Mir gehts aber eher um die höhere Bitrate.

p.s. ich verstehe die angegebenen bitra ... tasks=true
Das gilt bei 30p, bei 25p siehts da anders aus.

Abgesehen davon hat der Codec ne höhere ... arbtiefe.
Da schneiden sich ja nach wie vor die Geister; in div. Newsgroups etc von Ffmpeg lässt sich nach lesen, dass viele Dateien von Alexa und auch dem Gemini (Sound Devices) geprüft wurden, und "in Wirklichkeit" da nur 10bit anlagen, auch wenn 12 drauf steht. Wenns nun 12bit sind - toll! Wenn nicht - sieht trotzdem ganz nett aus :)

Space


Antwort von iasi:

Die Dinger nehmen Raw auf - z.T. sogar komprimiertes Raw - und dennoch wollt ihr ProRes4444 ??????

Damit ihr euch in Resolve das Einstellen von Farbtemperatur und ISO ersparen könnt? Was ja auch nicht mal nötig wäre, da dies per Metadaten ja mitgeliefert wird.

Space


Antwort von Paralkar:

Hmm, ich denke Apple als Softwarehersteller und als Codechersteller werden nicht lügen

"Apple ProRes 4444 XQ and Apple ProRes 4444 support image sources up to 12 bits
and preserve alpha sample depths up to 16 bits."

Quelle:http://images.apple.com/final-cut-pro/d ... _Paper.pdf

Ob ne Alexa, das macht, keine Ahnung, gemessen hab ich sowas noch nie,

so oder so schaut das Signal sauber aus, und Prores 4444 hat ne Datenrate von 340-380 mbit/s

Space



Space


Antwort von iasi:

Hmm, ich denke Apple als Softwarehersteller und als Codechersteller werden nicht lügen

"Apple ProRes 4444 XQ and Apple ProRes 4444 support image sources up to 12 bits
and preserve alpha sample depths up to 16 bits."

Quelle:http://images.apple.com/final-cut-pro/d ... _Paper.pdf

Ob ne Alexa, das macht, keine Ahnung, gemessen hab ich sowas noch nie,

so oder so schaut das Signal sauber aus, und Prores 4444 hat ne Datenrate von 340-380 mbit/s 25p RAW on Pocket = 2.5MB/frame = 62.5MB/sec plus audio

Was also sollte es bringen?

Space


Antwort von CameraRick:

Hmm, ich denke Apple als Softwarehersteller und als Codechersteller werden nicht lügen Ich kenne die Whitepaper, aber wenn jedes aufgenommene Material einfach nur 10bit nutzt ists schon merkwürdig. 12 bit hatter (wird ja auch mit MediaInfo etc angeben), aber werden die genutzt, das ist die Frage.

In meinen persönlichen Tests konnte ich mit ProRes 4444 in etwa die gleichen Ergebnisse erzielen wie mit DNxHD 444 in 10bit, was Banding etc angeht. Mit generiertem Material, versteht sich; ich sehe da also nicht so das Problem :)

iasi, Du bist wie das dicke Mädchen auf der Party die niemand küssen will. Akzeptier halt dass nicht jeder so denkt, wie Du. Danke Dir :)

Space


Antwort von Klose:

Aus dem BMD Forum:
In order of best to worst:
25p RAW on BMCC = 5MB/frame = 125MB/sec plus audio
25p RAW on Pocket = 2.5MB/frame = 62.5MB/sec plus audio
ProRes data rates for 1080p25:
ProRes 422 HQ = 26.1MB/sec
ProRes 422 = 17.5MB/sec
ProRes 422 LT = 12.2MB/sec
ProRes 422 Proxy = 5.6MB/sec

25p RAW on BMPC4K =
8.5MB/frame = 212.5MB/sec plus audio
ProRes data rates for UHD 25p:
ProRes 422 HQ = 103.5MB/sec
ProRes 422 = 69.1MB/sec
ProRes 422 LT = 48.1MB/sec
ProRes 422 Proxy = 21.6MB/sec

ProRes 422 Proxy = 5.6MB/sec immer noch besser als AVCHD von Consumer Camcorder top

Space


Antwort von Paralkar:

Kein Debayering in der Post, keine Proxy Umrechnung, weniger Kompressionsartefakte (vergleich Prores 4444 zu 4444 XQ), einfacher Intermediate Standard für die gesamte Postpro.

Bei Raw, bist du immer gleich bei solch höheren Datenmengen und dann Zeit und Geld, das ist ja alles schön und gut, aber die Notwendigkeit ist von Fall zu fall zu unterscheiden.


Und jetzt bitte nicht deine Gegenargument mit der, die Datenmenge ist doch fast gleich,

Eine komplette Postpro mit Raw, und notwendigem Tiff bzw. OpenEXR oder DPX Sequenzen mit 16 bit, ist weitaus weitaus aufwendiger, als wenn man mit ProRes oder DNXHD als Intermediate arbeitet

Space


Antwort von CameraRick:

Er ist halt der größte Fan von komprimiertem RAW weils ihm sonst zu groß ist, aber wenns dann nimmer RAW ist, ists eben der Teufel.

Mir its im Grunde ja Latte, worauf das Projekt gefilmt ist, solang ich gescheite Intermediates zum Arbeiten kriege die das bringen, was man erwartet. RAW kann ich ja ohnehin nicht verarbeiten.
Wenn man immer alles Material backupped und nicht löscht, lernt man dann Prores doch zu schätzen. Ich stöhne da bei einer RED, wo das proxy-rechnen lange dauert und die Auflösung hier sowieso niemand braucht. Aber wir produzieren auch nur für TV und Kino, nicht für die Marsmenschen die uns beobachten und nen tolles Bild wollen :)

Space


Antwort von Jott:

Und nun bemühen wir also auch noch die hohen Abgesandten "Arri" und deren geheiligten Priester. Die muss man nicht bemühen. Alle gehobenen Kamerahersteller außer RED haben inzwischen ProRes lizensiert, neben Sony und Panasonic kürzlich auch Vision Research (Flex). BM und AJA sind schon lange im Boot, alle externen Recorderhersteller sowieso. Bei den NLE-Herstellern sind es AVID, Adobe und Quantel. Und es gibt noch einen Haufen weiterer illustrer und weniger bekannter Firmen aus dem Highend-Bereich. Alles ebenfalls heilige Priester.

Man kann sich jetzt hinstellen und sagen, das ist alles Kinderkram für Omageburtstage. Predigen hier ja einige. Immer wieder lustig.

Dein Raw nimmt dir doch keiner weg, darf und soll dir Freude bringen, aber die Welt da draußen tickt nun mal oft anders als du: Zeit ist Geld, und wenn man mit gutem, nicht verkacktem und reparaturbedürftem Material (es gibt noch Kameraleute, die so was können) direkt aus der Kamera in den Schnitt gehen und alle Wege inclusive Anhübsch-Grading ohne jegliche Wandlungen ruckzuck durchlaufen kann, das passt das nun mal exakt in die Zeit. Fast turnaround, that's it.

Jetzt verstanden? Nein, wohl nicht. Ist aber auch egal. Echte Männer drehen Raw. Das hat jetzt wirklich jeder verstanden. Das Fußvolk kniet ehrfürchtig im Staub.

Space


Antwort von iasi:

Kein Debayering in der Post, keine Proxy Umrechnung, weniger Kompressionsartefakte (vergleich Prores 4444 zu 4444 XQ), einfacher Intermediate Standard für die gesamte Postpro. Ach so - die Kamera kann das Debayering also besser als Software in der Post.
Dem widerspricht ja schon mal die BMD-Cam Vergangenheit, denn nun erst erhielten die Cams die "besseren" Debayer aus Resolve.
Bei Raw, bist du immer gleich bei solch höheren Datenmengen und dann Zeit und Geld, das ist ja alles schön und gut, aber die Notwendigkeit ist von Fall zu fall zu unterscheiden. Stimmt schlicht nicht.
Wenn ich RedRaw nehme, habe ich geringere Datenmengen als bei ProRes.
Und jetzt bitte nicht deine Gegenargument mit der, die Datenmenge ist doch fast gleich,

Eine komplette Postpro mit Raw, und notwendigem Tiff bzw. OpenEXR oder DPX Sequenzen mit 16 bit, ist weitaus weitaus aufwendiger, als wenn man mit ProRes oder DNXHD als Intermediate arbeitet Ich kann Raw direkt in Premiere schneiden und ausgeben, wie das auch mit ProRes nicht besser geht.

Deine Tiff etc. hättest du auch mit ProRes oder DNxHD, wenn du z.B. einen Workflow mit Grading in Resolve machst. Denn ohne Rendern bekommst du auch bei ProRes dein schönes Resolve-Grading nicht ins Schnittprogramm.

Nebenbei: Wenn du in Speedgrade gradest, musst du noch nicht mal Zwischenrendern, sondern bekommst aus deinen Raws in der Timeline direkt dein fertiges Filmchen gerendert.

Space


Antwort von Paralkar:

Nein aber, die Zeit und somit auch das Geld für das Debayering fällt weg in der Post.

Nochmal nur Redraw drehen in 5 oder 6k ist nicht die Aufgabe, ein komplettes DI damit durchzuziehen (selbst jetzt mal nur 2k) ist eifnach was anderes.

Nein genau das nicht, weil du wenn du auf ProRes gedreht hast, gleich in ProRes bleiben kannst für die weitere Postpro, auch für die farbkorrektur bzw. das Grading, das ist was anderes als die Raw Quali mittels DPX Sequenz oder sonst was beizubehalten, im gleichen Zuge verliert man auch die direkten Vorteile von Raw, den WB einstellen zu können.

(Da wird in nem Postpro Haus teils auch die Philosophie gefahren, Prores hq Quellmaterial würde niemals in Prores hq encodiert werden, minmal ein uncompressed 422 10 bit, da man sonst Kompressionsfehler auf Kompressionsfehler draufrechnet, das sind aber auch die Menschen, die nur ein Clipster zum rendern nehmen, und ein Adobe Media Encoder mit bösen Augen anschauen)


Zeig mir ein Postpro Haus, das Speedgrade ernsthaft als Gradingsystem hernimmt, nichts gegen das damalige Iridas, aber mittlerweile ist es entweder Davinci oder sehr viel Scratch

Sonst in den ganz großen Häusern, ist es Baselight, komplettes Davinci System, Lustre, Mistika, Pablo und Nocuda

Space


Antwort von CameraRick:

Das ist eben der Schulmädchen Post-Weg, alles direkt nativ in RAW zu schneiden und dann ohne Probleme in Speedgrade zu gehen usw, also Dinge, die wenig Firmen machen, oder nur die Kleinen.

Proxys rechnen ist auch 2014 normal, seis TV Kino oder Werbung. Wenn man aber "alles so einfach wie Möglich" haben will in der Post, sollte der Schuster einfach mal bei seinen Leisten bleiben.
Wer nie Proxys rechnet und meint alle Welt schneidet in Premiere und FCP-X (und glaubt Avids AMA wäre funktionabel), der sollte vieleicht auch einfach bei Speedgrade bleiben und weiter schmollen

Space



Space


Antwort von Paralkar:

Ich musste schon als DIT Alexa Prores 4444 in Dnxhd 36 mbit 8 bit transcodieren, für den Avid Schnitt. Geschweige den von jedem Rawformat mit dem ich jemals arbeiten durfte.

Space


Antwort von Jott:

Mal am Rande gefragt: können es sich Post-Häuser, egal welcher Größe, wirklich erlauben, nicht mit ProRes umgehen zu können? Da muss doch wirklich inzwischen einiges reinkommen und es wird immer mehr werden (neben Alexa/Amira auch bald von vielen anderen Verdächtigen, Vision Research Flex, AJA Cion, vielleicht irgendwann mal aus einer BM Ursa, dann auch Sony F, plus Files aus Atomos- und anderen Recordern etc.).

Ich meine, wenn zum Beispiel eine Agentur damit anlatscht, wird sie doch wohl nicht naserümpfend rausgeschmissen, nur weil durch statt roh gedreht wurde? Und wird denen wirklich erzählt, dass man das ganze Zeug für AVID erst mal zu DNxHD oder sonst was umwandeln muss? Klar, Agenturen glauben alles, so lange der Service teuer genug ist - aber im Ernst?

Space


Antwort von Paralkar:

Hmm, das bekommt der Kunde nicht zwangsläufig mit, das sind interne Workflows

Klar könnte man bei Avid über AMA Volume, obwohl ja CameraRick meinte das das zu vergessen ist (Bin kein Avid User und kein Editor, deshalb hab ich keine Praxiserfahrungen)

Aber das sind halt eingefleischte Workflows, die funktionieren und werden auch so oft vollzogen, nachdem Motto "Never Change A Running System"

Ein Baselight hat bei uns immer eine Anlieferung als Tiff-Sequenz mit 16 bit bekommen, egal ob Alexa, Red etc.

Bei solch komplexen Workflows zwischen Schnitt - VFX/ CGI - Color Grading- Finishing, mit etlichen verschiedenen Menschen die an den verschiedenen Systemen sitzen, wäre das auch gefährlich sowas nicht kontrolliert und sehr gut getestet umzustellen.

Also im Moment ist noch so,


Allein schon, weil du bei nem DNXHD Proxy nicht ansatzweise soviel Rechenleistung brauchst, wie für Raw, wenns mal um ein wirklich komplexes Schnittprojekt geht mit etlichen Videolayers etc.


Da gehts auch einfach darum, wenn ein Editor dran sitzt, der gegebenfalls keine Ahnung von Formaten und Codecs hat, da läuft alles mit DNXHD. Ich kannte ne Cutterin, die meinte, sie will mov, wenn man sie nachdem Codec gefragt hab, versuch sojemandem zu erklären wie man ein AMA Volume Red Schnitt macht.

Das kriegen schon auch viele Leute nicht aus dem Stehgreif auf die Reihe, die etwas mehr Ahnung von der Postpro haben

Und es gibt nicht zuwenige Cutter, die keine Ahnung von Technik haben, und trotzdem Tatort oder Aktenzeichen XY schneiden.

Im Grading und VFX müssen dann Leute dasitzen, die Ahnung haben, weil sonst kompletter Müll bei Farbräumen etc. rauskommen kann.

Space


Antwort von CameraRick:

Kann sein dass AMA jetzt in Avid 8 besser läuft, aber so richtig nutzbar war das bisher nicht. Zumindest nicht in der Geschwindigkeit und Einfachheit. Lieber Proxys, das ist auch super portabel. Die Editor können alles auf ner kleinen FW800 Platte haben, die man immer über all mitnehmen kann.
Ein Schnittplatz ist eben nicht immer der selbe. Und nicht immer potent. Wieso einen neuen MacPro anschaffen, wenns doch der von 2007 auch noch tut? In einem großen Umfeld, wo nicht alles auf einer Maschine passiert (Stichwort Adobe, Premiere zu Speedgrade), ist das gerne mal der Fall. So what.

Keiner verurteilt Dich für Prores. Es gibt Sachen wo man sich RAW wünschen würde, klar, aber wenns das Budget nicht her gibt ists eben so. Da meckert man auch nicht rum.
Wir handeln da VFX-seitig auch nur mit DPX. Wenn es RAW ist, wird es entsprechend entwickelt und uns geben, wenns Prores ist genau so.

Wird halt auch immer so dargestellt, als sei der Kameramann auch nachher der Editor oder der Colorist. Ich kenne solche Umfelder nun nicht so gut, bei uns bleibt jeder bei seinen Leisten, das klappt ganz gut dann. So, Qualitäts/Endergebnis-mäßig. Auch auf ProRes
(drehen quasi in diesem Moment was auf ARRIRAW in Anamorph, ein Projekt was es auch "benötigt"; geht auch so, und codieren tut es auch schneller als das Footage vom roten Phantom)

Space


Antwort von Paralkar:

Ne besonders im Werbebereich, ist der DOP selten bei dem Color grading dabei, bei Spielfilm ist das schon eher Gang und gebe

Space


Antwort von CameraRick:

Ja, der sitzt dabei.

Aber der sagt ja nicht, "hier, wieso klickst Du nicht den Highlight-Button, das geht doch viel schneller und braucht nicht so viel Arbeit, um Highlights zu recovern, weil ich Dich für eine Pfeiffe halte die das nicht kann"

Space


Antwort von iasi:

Nein aber, die Zeit und somit auch das Geld für das Debayering fällt weg in der Post. Resolve und Adobe verarbeiten Raw ohne vorheriges Debayering. Ob ich nun ProRes oder Raw in Resolve grade, macht keinen Unterschied.

Mag ja sein, das manche Post-Häuser noch ihre Hard- und Software abschreiben müssen und daher nicht umstellen wollen/können, aber ich sehe keinen Unterschied zwischen ProRes und Raw in der Post.
Du kannst ja sogar die Metadaten während der Aufnahme so einstellen, dass in Resolve dasselbe wie bei ProRes herauskommt - wenn du die Zeit dafür während des Drehs hast bzw. nehmen willst.

Ein XML-Workaround erfordert so oder so ein Zwischenrendern.

Space


Antwort von iasi:

Wer sich hier ernsthaft über ProRes aufregt vergisst wohl, dass die C300 mit ihrem kümmerlichen 50Mbit/s Codec der Broadcast-indie-image-dauerbrenner schlechthin ist.
ProResLT ist für viele, die mit komprimierten Codecs in der Camera arbeiten, der Schnittcodec der Wahl.
Das jetzt ist direkt mit der Kamera aufzeichnen zu können - perfekt.

Aber klar, ist nicht so kuhl wie seinen Kurzfilm in RAW zu drehen oder unnötig Kontrastreiche Szenen zu filmen um zu zeigen, wie viel sich in der Post durch RAW retten lässt.

Aber was weiß ich schon vom Leben eines RAW Flimmers, der sitz gerade bestimmt in seinem Privatjet, fliegt zum nächsten Shoot und vertreiben sich die Zeit damit, den Pöbel auf Slashcam über dessen jämmerliches, komprimiertes Dasein zu informieren... nein - der wahre Luxus des Raw-Filmers ist ZEIT

und wenn ProResLT für ein bestimmtes Sendeformat ausreicht, so mag dies eben so sein - so zu tun, als ob Raw jedoch überflüssiger Luxus sei, ist wirklich fragwürdig.

... und dass nun sogar ProRes HQ schon zu viel des Guten sei und man gar ProRes Proxy braucht, ist bemerkenswert.

Viel Geld für all die schönen Anhängsel ausgeben und dann beim Codec sparen - toll.

Wenn"s schon eine großformatige ENB-Camera sein soll, warum dann nicht gleich die C300? Auch die Sony F3 war und ist gut.

Nun bieten die BMD-Cams also 6 verschiedene Auswahlmöglichkeiten für das Aufnahmeformat, aber gerade mal Zebra und keine Restlaufzeitanzeige ... toll.
Ich nehm jetzt nur noch ProRes Proxy auf, dann passen mehr Minuten pro GB auf"s Speichermedium, als bei einer Canon-DSLR ... awesome ...
War der Canon-Codec nicht etwas effizienter bei der Komprimiererei? Ach egal - juckt ja nicht.

Space


Antwort von Jott:

Nun bieten die BMD-Cams also 6 verschiedene Auswahlmöglichkeiten für das Aufnahmeformat Und was genau ist daran jetzt so schlimm, dass du schier durchdrehst?

Space



Space


Antwort von srone:

Nun bieten die BMD-Cams also 6 verschiedene Auswahlmöglichkeiten für das Aufnahmeformat Und was genau ist daran jetzt so schlimm, dass du schier durchdrehst? nun ja, es ist schon erniedrigend, wenn eine kamera gleichzeitig raw und pro res proxy kann. ;-)))

lg

srone

Space


Antwort von Jott:

Das wird's wohl sein.

Space


Antwort von Paralkar:

"Resolve und Adobe verarbeiten Raw ohne vorheriges Debayering. Ob ich nun ProRes oder Raw in Resolve grade, macht keinen Unterschied. "

Ich glaub du hast das Prinzip von Raw nicht so recht verstanden, doch auch diese debayern, währrend du was auf deinem Monitor siehst, und auch wenn du dann aus Speedgrade oder Premiere, oder Resolve rausrenderst, wird nochmal komplett neu debayered (meist in voller Debayer-Auflösung). Und danach wird noch Encodiert. Das bedeutet ein sauberes gutes full debayering kostet Zeit und in dem Fall Geld.

Ein Kamera internes Debayering bedeutet nur Encodieren.



"Mag ja sein, das manche Post-Häuser noch ihre Hard- und Software abschreiben müssen und daher nicht umstellen wollen/können, aber ich sehe keinen Unterschied zwischen ProRes und Raw in der Post."

Genau das meinte ich, ist ja komplett legitim diese Meinung zu haben, aber sie ist halt nicht auf den professionellen Bereich zu adaptieren, deswegen solltest du mit dieser Meinung nicht haussieren gehen, bzw. ein Standpunkt in einem Forum, so oft immer wieder aufs neue stur durchsetzen. Besonders weil 99% des Marktes das ganze anders sehen, und deine Philosophie keinesfalls nachvollziehen können gegebenfalls das ganze eher belächeln.



"Du kannst ja sogar die Metadaten während der Aufnahme so einstellen, dass in Resolve dasselbe wie bei ProRes herauskommt - wenn du die Zeit dafür während des Drehs hast bzw. nehmen willst. "

Was das genau zu bedeuteten hat, hab ich nicht verstanden, du meinst ne LUT drauflegen bzw. die Gamakurve ändern, das es nach log aussieht?




"Ein XML-Workaround erfordert so oder so ein Zwischenrendern."
Das erfordert es immer wenn du von nem Grading Tool in ein Finishing gehst (und jetzt nicht speedgrade, das ist nicht normal und nicht Gang und Gebe)

Space


Antwort von motiongroup:

Ich glaub du hast das Prinzip von Raw nicht so recht verstanden, doch auch diese debayern, Danke...!!!!!!

Space


Antwort von Axel:

Weder mit der Camera Raw-Methode (egal ob Adobes ACR aus AAE oder Resolves CR-Tool) noch mit LUTs noch ohne beides mit Color und Gamma als "BMD Film" und bei Null angefangen, will es mir gelingen, aus einem DNG ein besseres Bild hervorzukitzeln als aus einem ProRes (Voraussetzungen hier: Halbwegs passender Weißabgleich, Belichtung auf 95% ETTR, Filmlog, also nicht rec709).

Man muss bei dem Vergleich berücksichtigen, dass ein Pocket-DNG in ACR unter >Schärfen >Betrag >25 stehen hat, standardmäßig, in Resolve sind es unter Clip Decoder Settings "10". Dreht man diese Werte auf 0, hat das Bild eine ähnlich weiche Anmutung wie ProRes. Bzw. umgekehrt, schärft man ProRes leicht nach, verschwindet der Unterschied.

Unabhängig von dieser Nachschärfung ist die erheblich stärkere Neigung in Raw, farbiges Moire zu erzeugen. Dies trifft offenbar auch auf das Raw der BMCC zu, denn es gibt zahlreiche Moire-Clips im Netz, und Brawleys legendärer "Pool Shark" zeigt es schon (es scheint, beim BMCC-ProRes wurde hier mit FW 1.8 nachgebessert).

Es folgt der Witz, dass es ja nichts heißt, dass es *mir* nicht gelingt, da ich ja kein erfahrener Colorist bin, einen lediglich so gut es geht kalibrierten Monitor habe, den auch nur in 8-bit und da ich (Pantone-Test) nur mittelmäßig korrektes Farbsehen habe.

Wie wär's denn, wenn mal jemand jeweils ein DNG- und ProRes-Frame desselben Motivs zum Download böte, damit jemand mal konkret beweisen kann, wieviel mehr in Raw schlummert?

Space


Antwort von Paralkar:

Darum ging es ja nicht zwangsläufig, der Vorteil von Raw ist schon da

- 12 bit linear ( außerdem mehr Abstufungen in den Highlights) statt 10 bit log
- Prores kann schon zu Kompressionsartefakten führen in schwierigen Situationen
- Einfluss aufs Debayering in Raw



Es ging nur darum, das man ein log Videosignal (ala Prores) nicht zu überflüssig erklären kann, wenn das die komplette Welt anders sieht und hand habt und das vehement in einem Forum immer und immer wieder fest vertritt.


Apropo ich bin mir bei der Kurve nicht sicher, ob ETTR bei Prores sinnvoll ist, also klar bevor du etwas ausbrennen lässt,

Aber falls du jetzt in Raw die Skintones auf 95% belichten könntest, würde ich es in Prores nicht gleich tun, da du "nur" 10 bit hast und ne andere Kurve, sprich mehr Tonwerte in den Mitten vorgesehen sind.

Space


Antwort von Axel:

- Einfluss aufs Debayering in Raw Ich bin noch dabei, die Befreiung des Freistaats in mein Weltbild zu integrieren. Bisher sehe ich, alles in allem, nur konventionelle Methoden, Farben in Raw zu manipulieren. Ich sehe schon Vorteile, aber auch Nachteile. Ich bin froh, eine billige (nun richtig billige) Kamera zu haben, die mich Raw noch entdecken lässt.
Apropo ich bin mir bei der Kurve nicht sicher, ob ETTR bei Prores sinnvoll ist, also klar bevor du etwas ausbrennen lässt,

Aber falls du jetzt in Raw die Skintones auf 95% belichten könntest, würde ich es in Prores nicht gleich tun, da du "nur" 10 bit hast und ne andere Kurve, sprich mehr Tonwerte in den Mitten vorgesehen sind. Natürlich nicht die Skintones. Seien wir ehrlich: Ich kann ohnehin nicht unterbelichten, da sonst alles unbrauchbar wird. Nun steht ein Mensch vor dem blauen Himmel. Ich belichte sowohl in Raw wie in ProRes auf den Himmel, die Haut hat zuverlässig genug Werte (und zumindest die Pocket hat kein lineares 12-bit, wie ein französischer Fotograf mal demonstriert hat, 13 Blenden genauso wenig). Hat die Person die Sonne im Rücken, muss ich den Himmel hie wie da entweder clippen lassen, das Gesicht bouncen (das!) oder mit einer abgesoffenen Halbsilhouette leben.

Vielleicht steckt einfach nur der Groschen, aber den wesentlichen Unterschied vermag ich nicht zu sehen.

Space


Antwort von Spaceman:

Hallo Zusammen,

Es ist ganz einfach: kein RAW - keine Hollywood Qualität!

Essentiell ist das Color grading. Bitte legt hier mehr Wert drauf. Hier wird das Material der Kamera von Silber zu Gold.

Wenn man sich im Internet umschaut macht die Mehrheit inkl. Der bekannten Blogger aus ihrem silber Material Kupfer.
Teilweise grauenhaft anzuschauen, im Standardmodus der Kamera häts sicher besser ausgesehen.

Vergesst so nen Quatsch wie filmconvert oder wie die Plugins alle heißen. Sieht immer Mist aus, aus wie gewollt und nicht gekonnt.

Also nen sauberes grading aus Linearen Raw material und ihr habt Hollywood Qualität.
Komprimiert in Log 10 Bit geht evtl. Auch noch wobei dann die hellen Partien nicht mehr so ganz wie Gold aussehen.

Space


Antwort von Spaceman:

Deutsche Fernsehproduktionen sind mit Color grading auch komplett überfordert.

Krassestes Negativbeispiel ist der Tatort. Das Bild - Würg.

Wirkt immer so wie " Ey Günni, dreh mal nen bissen blau und Grün rein dann siehts schon fast wie Hollywood aus"

Space



Space


Antwort von funkytown:

Vergesst so nen Quatsch wie filmconvert oder wie die Plugins alle heißen. Sieht immer Mist aus, aus wie gewollt und nicht gekonnt. Ich tendiere in Deine Richtung. Du machst es Dir da aber zu einfach. Mit Filmconvert und der Blackmagic habe ich sehr gute Ergebnisse erzielt.

Das Problem der PlugIns ist, dass die meisten es einfach über den kompletten Film legen. Allerdings hat jede Szene andere Lichtverhältnisse. Man muss also jeden Clip einzeln anpassen. Das gilt vor allem für 8-Bit-Material, welches wenig Spielraum in den Höhen und Tiefen lässt. Dreht man an den Farben, ist man schnell im "roten" Bereich.

Space


Antwort von Axel:

Also nen sauberes grading aus Linearen Raw material und ihr habt Hollywood Qualität. Hör mal, klasse!

Ich bin an Bord. Klingt, als brauche man nur das nötige alchemistische Feingefühl, damit nicht alles, was man anfasst, zu Katzengold wird.

Space


Antwort von CameraRick:

Mag ja sein, das manche Post-Häuser noch ihre Hard- und Software abschreiben müssen und daher nicht umstellen wollen/können, aber ich sehe keinen Unterschied zwischen ProRes und Raw in der Post. Weil Du offenbar nur alleine in Deinem eigenen Workflow arbeitest, aber nie in einer Großproduktion wie das aussieht.
iasi Du bist Kameramann (und das kannst Du bestimmt, auch wenn Du nie was zeigst), aber bleib doch mal bei Deinen Leisten. Geh mal in einen Laden wie ARRI oder sonst wen und schau Dir an, wie die da nativ RAW im Premiere schneiden und sich fragen wieso das nicht alle machen. Tip: sie tun es nicht. Wie dutzende Werbeklitschen das Material von vor drei Jahren innerhalb von 10min raus suchen, und froh sind, wenns dann doch kein riesiges RAW ist, sondern ein bequemes ProRes.
Ja Du hast recht, etwa REDRAW ist kleiner als Prores - wenn man in 4K gedreht hat. Was Du gerne vergisst ist, dass das nicht jeder macht, und nicht jeder will, weils ja nachher doch in 1080p oder 2K ausgegeben wird (sei es für Kino oder TV) lohnt sichs auch einfach nicht. Und auf einmal ist das RAW doch wieder erschreckend groß, und ekelhaft zu händeln weil man es in intermediates wandeln muss.
Klar, man kanns an so vielen Orten nativ lesen. Aber der Artist oder Editor entscheidet nicht darüber, wie das Material auszusehen hat, das macht der Colorist oder DIT, der das alles vorbereitet. Und da wird dann lieber mal vorher korrekt entwickelt, als das da irgendwer nativ liest und die Settings verhaut, wenn die Metadaten dann doch nicht recht eingestellt waren (man hat am Set ja bekanntlich immer viel Zeit)

Es ist ganz einfach: kein RAW - keine Hollywood Qualität! So Hollywood Produktionen, bzw solche auf dem Niveau (ich weiß ja nie genau, wo die her kommen), die auf Prores gedreht wurden vergessen wir dann schnell wieder, oder was? :-)
Mit deutschem TV kann man noch und nöcher kommen, da vergleicht man ein Einrad mit einem Passat.

Space


Antwort von Spaceman:

Ja solche Produktionen vergessen wir - aber ganz schnell.

Es wurde sogar mal Kinomaterial in DV gedreht, bei "28 days later", da wurde mir aber noch im Kino schlecht - nicht wegen der Zombies.

Leute, wir haben 2014!
Also nix mehr mit Filmscannn und 10 Jahre altem Cineon Standard rummachen.

Und macht nicht aus einer einfachen Sache so nen Riesenzauber. DOP, DIT, Director Kabelschlepper, Director für Kaffee holen, Director für Wollmützen Stricken,...

Hier der Workflow:

Drehen in Raw, rein damit in Resolve oder Quantel Pablo oder wat weis ich graden, schneiden, waschen fertig!
Linear raw passt super mit Vfx zusammen.

Simpler Workflow den auch Tante Erna um die Ecke mit Ihrer BMC verwendet....

Space


Antwort von CameraRick:

Ich glaub da sind mehr Dinge im prores produziert, die Du gesehen und gemocht hast, als Du vielleicht auf dem Schirm haben magst :)
28 days later ist eine Nummer für sich, und total ekelhaft. Aber das hat ja nichts mit der Diskussion zu schaffen :)

Aber ist schon alles richtig, den Durchblick dacht ich hat sonst nur Mr i :)

Space


Antwort von Paralkar:

@ Axel

"Ich bin noch dabei, die Befreiung des Freistaats in mein Weltbild zu integrieren. Bisher sehe ich, alles in allem, nur konventionelle Methoden, Farben in Raw zu manipulieren. Ich sehe schon Vorteile, aber auch Nachteile. Ich bin froh, eine billige (nun richtig billige) Kamera zu haben, die mich Raw noch entdecken lässt. "

Ja, die Notwendigkeit von Raw, ist auch immer wieder ne Frage für sich, schlussendlich muss richtig belichtet werden und geleuchtet und dann kann man auch mit Prores 4444 oder hq auch noch einiges machen, also Looktechnisch. Auch Raw hat seine Grenzen, wenn was anderes verhauen wurde.

Zu der anderen Sache, meinte ich, ich würde (nehmen wir an, der Kontrast ist gering, blaue Stunde, oder nebliger Tag, regnerischer Tag), dann solltest du trotzdessen aufpassen die Skintones zu hoch zu belichten, bei ProRes. Da sonst bei 75-90% (nehmen wir an es brennt nix aus), sicherlich nicht mehr soviele Tonwerte genutzt werden.

ETTR ist ja bei Raw gut, da man normalerweise ein 14-16 bit linear Raw hat, und das ganze dank der massigen Tonwerte, ohne Probleme korrigieren kann. Deshalb glaub ich auch das es ein 12 bit linear Raw ist. sonst müsste ja der analog digital Wandler die 12 bit mit irgendeiner Art von Kurve wandeln, ob das überhaupt geht, müsste mir jetzt mal Wowu beantworten.


@Spaceman, nicht bös gemeint, aber das ist absoluter nonsens, eine Genesis oder F35 haben auch nur 4444 Signale gezeichnet und sind für Hollywood Produktionen der letzten 8 Jahre verantwortlich (und das sind qualitativ hochwertige Filme, und nicht sowas wie 28 days later, wo es um das Stilmittel und die Möglichkeiten geht)

Verbessert mich, aber bei der Digitalisierung eines Super35 mm Films kommt doch auch "nur" ein 4444 oder 422 Videosignal bei rum?

Also deine Aussage macht so defintiv kein Sinn, klar kann Raw Sinn machen.

Aber bei sowas wie bsp. Skyfall, hat das sicherlich auch mit der Auflösung zutun und den Luxus, das sich eine Großproduktion wie diese die letzten Prozent an Quali nehmen können.

Space


Antwort von Spaceman:

Doch genau das meine ich. vergleich mal Produktionen der letzten "8 Jahre" die teilweise auch auf 35mm Film gedreht wurden ( und dann gescannt in log) oder auf der alten F35, mit aktuellen sauberen RAW Produktionen.

Das ist ein Unterschied wie Tag und Nacht in der Bildqualität!

Space


Antwort von CameraRick:

Und Du glaubst, die arbeiten da alle mit den RAW files?
Bei einem Hobbit nimmt man die, rechnet die den Artists in DPXen um, und dann arbeiten die genau wie immer. Genug schöne Produktionen sind nur auf Prores entstanden; klar, RAW ist besser, aber sicher nicht immer nötig. Das wissen die auch drüben. Mal ab davon, ob man wirklich sagen wollte, dass heutzutage die ganzen RAW Produktionen besser ausschauen als jede F35 oder 35mm Film Produktion. Da dreht sich ja einem fast der Magen um

"RAW Produktionen", weils ja auf einmal magisch alles besser wird. So polemisches Elite-Gelaber, was auch noch wenig Bestand hat. Es nicht alles RAW, was glänzt.

Space


Antwort von iasi:

Und Du glaubst, die arbeiten da alle mit den RAW files?
Bei einem Hobbit nimmt man die, rechnet die den Artists in DPXen um, und dann arbeiten die genau wie immer. Genug schöne Produktionen sind nur auf Prores entstanden; klar, RAW ist besser, aber sicher nicht immer nötig. Das wissen die auch drüben. Mal ab davon, ob man wirklich sagen wollte, dass heutzutage die ganzen RAW Produktionen besser ausschauen als jede F35 oder 35mm Film Produktion. Da dreht sich ja einem fast der Magen um

"RAW Produktionen", weils ja auf einmal magisch alles besser wird. So polemisches Elite-Gelaber, was auch noch wenig Bestand hat. Es nicht alles RAW, was glänzt. Nein - weil"s schlicht möglich geworden ist.

So etwas nennt man technische Entwicklung.

Raw hat nun einmal Vorteile - und bietet die besten Möglichkeiten für die PostPro.
Raw kommt auch vom Workflow und von der Drehpraxis dem guten alten Filmnegativ am nächsten.

Elite-Gelaber?
Heute kannst du dir Resolve runterladen und auf deinem Laptop 4k-Raw bearbeiten - überleg mal, wie das noch vor wenigen Jahren war.
BMD hat gerade für weniger als 500€ eine Raw-Kamera heraus. Elite?
Der HDD-Preis pro TB geht beständig zurück.

Und zudem hast du bei ProRes4444, das ja manche sich wünschen höhere Datenraten, als bei manchem Raw-Format.
Also mein Rechner tut sich mit RedRaw leichter als mit ProRes. Statt Proxy-Berechnungen stelle ich die Qualität bei der Vorschau runter auf 1/2 oder 1/4 und schon läuft"s.

Und Studios benötigen nun einmal größere Vorlaufzeiten und können nicht von heute auf morgen ihre Produktionskette umstellen. Aber sie tun es - Fox hatte sich z.B. den ehemaligen Marktschreier von Red als Berater für den Aufbau einer 4k-Produktionskette ins Boot geholt.

In D wird man sich die Amira holen und in HD mit ProRes drehen, da man denkt es sei günstiger. Tja - oft wird da eben nicht wirklich alles durchdacht.
Je mehr ich z.B. vom Dreh in die PostPro verlagern kann, umso kostengünstiger ...

Space



Space


Antwort von Spaceman:

Genau, was soll auch an RAW "Elite" sein? Das ist nix besonderes.

Im Fotobereich seit Jahren Standard, jeder Rentner Foto-Club arbeitet damit. Dort würde wahrscheinlich jeder bei Cameraricks Äußerungen ungläubig staunen... 10Bit 422 ???... wo kommt denn der her?...

Space


Antwort von CameraRick:

Raw hat nun einmal Vorteile - und bietet die besten Möglichkeiten für die PostPro. Das streitet niemand ab. Ist trotzdem keine Notwendigkeit, und darum geht es.
Elite-Gelaber?
Heute kannst du dir Resolve runterladen und auf deinem Laptop 4k-Raw bearbeiten - überleg mal, wie das noch vor wenigen Jahren war.
BMD hat gerade für weniger als 500€ eine Raw-Kamera heraus. Elite?
Der HDD-Preis pro TB geht beständig zurück. s.o.
Es geht darum, dass es nicht RAW sein muss, um gut sein zu können. Das anderes einfach reichen kann. Das ganze Gelaber, es sei das einzig Richtige, es sei immer besser (im großen Ganzen, nicht was die Qualität des Materials angeht), das ist elitemäßiges Dummgeschwätz
Und zudem hast du bei ProRes4444, das ja manche sich wünschen höhere Datenraten, als bei manchem Raw-Format. Ja, und bei manchen nicht.
Also mein Rechner tut sich mit RedRaw leichter als mit ProRes. Statt Proxy-Berechnungen stelle ich die Qualität bei der Vorschau runter auf 1/2 oder 1/4 und schon läuft"s. Jetzt komm doch mal bitte aus dieser Anschauung weg, dass es sinnvoll wäre, dass jeder in der Pipeline auf rohen Daten arbeitet. Du bist DER Hengst dass Du das einfach runterstellst, dann schau Dir mal an wie andere arbeiten. Nicht an einer Maschine. Nicht in nur in Premiere oder FCP-X. Nicht allein an einer Maschine. Manche Dinge gehen nativ auf RAW auch einfach nicht, oder ergeben keinen Sinn.
Ich weiß nicht wie oft ich das sage, und Du mir immer mit Qualität-Runterstellen kommst.
In D wird man sich die Amira holen und in HD mit ProRes drehen, da man denkt es sei günstiger. Tja - oft wird da eben nicht wirklich alles durchdacht.
Je mehr ich z.B. vom Dreh in die PostPro verlagern kann, umso kostengünstiger ... Ja, Du hast das durchschaut; vielleicht solltest Du mal den deutschen Film retten, und ihnen das nahe legen.
Bei Dir spart das vielleicht Geld, aber darfst gern auch mal einen Blick auf andere werfen, die nicht alles alleine machen, wo der Kameramann kein Editor ist und auch kein Colorist.

Im Fotobereich seit Jahren Standard, jeder Rentner Foto-Club arbeitet damit. Dort würde wahrscheinlich jeder bei Cameraricks Äußerungen ungläubig staunen... 10Bit 422 ???... wo kommt denn der her?... Äpfel und Birnen, und dreht mir nicht die Worte im Mund um.
Von 422 hat keiner gesprochen, wenn es um Filmscans geht. DPXen kriegst in 12 wie 10bit, genau wie Prores (aufgepasst iasi: einer der Gründe, wieso man Prores 4444 auch haben können möchte).
Wie stellst Du Dir denn so einen Workflow vor, hm? Würde ich gerne mal wissen, was Du so meinst, wie das genau abgeht.

Die hier haben ihre nativen RAW files sicher alle über AMA drin und laden dann alle ihre RAWs in die Comper ein.

Space


Antwort von iasi:

Raw hat nun einmal Vorteile - und bietet die besten Möglichkeiten für die PostPro. Das streitet niemand ab. Ist trotzdem keine Notwendigkeit, und darum geht es.
Elite-Gelaber?
Heute kannst du dir Resolve runterladen und auf deinem Laptop 4k-Raw bearbeiten - überleg mal, wie das noch vor wenigen Jahren war.
BMD hat gerade für weniger als 500€ eine Raw-Kamera heraus. Elite?
Der HDD-Preis pro TB geht beständig zurück. s.o.
Es geht darum, dass es nicht RAW sein muss, um gut sein zu können. Das anderes einfach reichen kann. Das ganze Gelaber, es sei das einzig Richtige, es sei immer besser (im großen Ganzen, nicht was die Qualität des Materials angeht), das ist elitemäßiges Dummgeschwätz
Und zudem hast du bei ProRes4444, das ja manche sich wünschen höhere Datenraten, als bei manchem Raw-Format. Ja, und bei manchen nicht.
Also mein Rechner tut sich mit RedRaw leichter als mit ProRes. Statt Proxy-Berechnungen stelle ich die Qualität bei der Vorschau runter auf 1/2 oder 1/4 und schon läuft"s. Jetzt komm doch mal bitte aus dieser Anschauung weg, dass es sinnvoll wäre, dass jeder in der Pipeline auf rohen Daten arbeitet. Du bist DER Hengst dass Du das einfach runterstellst, dann schau Dir mal an wie andere arbeiten. Nicht an einer Maschine. Nicht in nur in Premiere oder FCP-X. Nicht allein an einer Maschine. Manche Dinge gehen nativ auf RAW auch einfach nicht, oder ergeben keinen Sinn.
Ich weiß nicht wie oft ich das sage, und Du mir immer mit Qualität-Runterstellen kommst.
In D wird man sich die Amira holen und in HD mit ProRes drehen, da man denkt es sei günstiger. Tja - oft wird da eben nicht wirklich alles durchdacht.
Je mehr ich z.B. vom Dreh in die PostPro verlagern kann, umso kostengünstiger ... Ja, Du hast das durchschaut; vielleicht solltest Du mal den deutschen Film retten, und ihnen das nahe legen.
Bei Dir spart das vielleicht Geld, aber darfst gern auch mal einen Blick auf andere werfen, die nicht alles alleine machen, wo der Kameramann kein Editor ist und auch kein Colorist. Überlege doch mal, wer hier so grob pauschalierend behauptet, Raw wäre nur etwas für eine elitäre Gruppe, die es sich leisten könnten - und vor allem, dass Raw so enorm aufwändig sei.
Bei dir ist es doch so, dass gar kein Abwägen mehr möglich ist, wenn du eh davon ausgehst, dass Raw
Schau dir doch mal deutsche Produktionen an und frag dich dann, warum sie international so erfolglos sind - es ist zwar sicherlich nicht der einzige Grund, aber das Bild ...
Interessant ist auch diese Vorstellung, man müsse schon am Set das endgültigen Bild auf dem Monitor sehen - das gibt es bei Produktionen mit Filmnegativ nicht, weshalb will man es so dringend bei digitalen Kameras? Ich rate mal: Weil man denkt, man müsse Zeit und Geld in der Post sparen.
Und vielleicht auch, weil man sich über die gestalterischen Möglichkeiten der Post gar nicht bewußt ist und eigentlich immer nur an einen globalen "Look" und vor allem an "fix it in Post" denkt.
Bei digitalen Cinema-Cameras bzw Raw sollte der Kameramann anhand des Histogramms den DR ausreizen und die Bildkadrierung anhand des Monitorbildes vornehmen - "entwickelt" wird dann später. Und damit ist dann auch sein Job erledigt und die Leute in der Post übernehmen.
Der Kameramann konzentriert sich auf die optimale Belichtung und den Bildinhalt - das ist ja eigentlich auch sein Job.
Die Rechnung ist dann auch simpel und einfach: Wenn eine Minute am Set mit Crew, Technik aud Ausstattung mehr kostet, als eine Minute vor dem Rechner in der Post, dann ist eben Zeit und Geld gespart, wenn Dinge in die Postpro verlagern kann.

Zudem gilt für mich grundsätzlich: Je mehr das Ausgangsmaterial an Spielraum bietet, desto größer sind auch die Gestaltungsmöglichkeiten.

Ich bin kein Raw-Verfechter, der behauptet, selbst jeder Hochzeitsfilm oder jede Reportage müsse mit Raw gedreht werden, aber ich wehre mich gegen die Behauptung Raw wäre übermäßig teuer und aufwändig.
Und ich wehre mich gegen dir Einstellung, man müsse bei szenischem Dreh schon möglichst auf dem Monitor am Set das zu sehen bekommen, was dann auf der Glotze oder Leinwand zu sehen sein wird. Damit degradierst du die Leute in der Post zu ...

Ich sag"s mal drastisch:
Wer als Verantwortlicher zulässt, dass bei einem szenischen Dreh mit einer Raw-Kamera nicht auch Raw genutzt wird, dem gehört ein Tritt in den Ars...

Space


Antwort von Axel:

@ Axel

Zu der anderen Sache, meinte ich, ich würde (nehmen wir an, der Kontrast ist gering, blaue Stunde, oder nebliger Tag, regnerischer Tag), dann solltest du trotzdessen aufpassen die Skintones zu hoch zu belichten, bei ProRes. Da sonst bei 75-90% (nehmen wir an es brennt nix aus), sicherlich nicht mehr soviele Tonwerte genutzt werden. In Wirklichkeit verwende ich Zebra nur als Überbelichtungs-Warnung. Geclippte Bereiche, auch noch so kleine, können in Raw beim Versuch einer manuellen Highlight-Recovery zu grellen Neon-Pfützen werden, gegen die eine Black Sun (Black hole sun, won't you come?) geradezu dezent ist.

Die Entdeckung dieses Raw-Clipping-Effekts führte mich gestern zu einer Raw-farbiges-Moire-Theorie. Pepita-Hemd? Minimales Moire: Ja, aber nicht regenbogenfarben, eigentlich kaum auffällig. Das extrem auffällige farbig flimmernde Moire entsteht immer an Kontrastkanten, die wahrscheinlich zu fein sind, um Zebra anzuzeigen, bzw. bei denen das Zebra vom Peaking überdeckt wird.

Strengstes Anti-Clipping zugleich Anti-Moire in Raw? Neue Tests ...

Tatsächlich, darauf wollte ich hinaus, belichte ich intuitiv. Das habe ich eigentlich immer gemacht, mit allen Kameras, zumal mit meiner der Pocket irgendwie vergleichbarsten Ex-Kamera, der Bolex. Ist vielleicht keine allgemeingültige Empfehlung.

Space


Antwort von iasi:

@ Axel

Zu der anderen Sache, meinte ich, ich würde (nehmen wir an, der Kontrast ist gering, blaue Stunde, oder nebliger Tag, regnerischer Tag), dann solltest du trotzdessen aufpassen die Skintones zu hoch zu belichten, bei ProRes. Da sonst bei 75-90% (nehmen wir an es brennt nix aus), sicherlich nicht mehr soviele Tonwerte genutzt werden. In Wirklichkeit verwende ich Zebra nur als Überbelichtungs-Warnung. Geclippte Bereiche, auch noch so kleine, können in Raw beim Versuch einer manuellen Highlight-Recovery zu grellen Neon-Pfützen werden, gegen die eine Black Sun (Black hole sun, won't you come?) geradezu dezent ist.
und deshalb sollten Tools wie ein ordentliches Histogramm eben weit weit höher in der Prioritätenliste stehen, als zusätzliche ProRes-Varianten.

Space


Antwort von Axel:

... und deshalb sollten Tools wie ein ordentliches Histogramm eben weit weit höher in der Prioritätenliste stehen, als zusätzliche ProRes-Varianten. BM zieht nicht, wie die stocksteifen Canon und Panasonic, die Hacker an. Hacker sind exakt so, wie sie in Hollywoodthrillern immer dargestellt werden. Kam letzte Woche eine TV-Doku drüber. Die stehen mit dem Tablet auf der Straße und hacken dein verdammtes Auto, lassen es losfahren, während du daneben stehst und ein dummes Gesicht machst.

Als ob die Firmware der BM-Kameras für solche Nerds ein Problem wäre! Das machen die zwischen dem Red Bull zum Frühstück und dem Chop Suey zum Mittag. Interessiert sie bloß nicht.

BMD hat solche Leute nicht unter Vertrag. Die sind heilfroh, dass sie noch ein paar Betthupferl in petto haben, die sie demnächst als FW-Updates veröffentlichen können. Das Menu-Layout könnte ja doch etwas schöner sein.

Zur Ehrenrettung sage ich, Raw ist offensichtlich für die geballte Manpower internationaler Hackgemeinschaften keine Banalität. ML-Raw zum Beispiel ist wirklich zickig. Es gibt zig Tools, um es zunächst zu CinemaDNG zu entpacken, und die meisten dieser Entpacker fügen den Dateien Artefakte hinzu (unterschiedliche Ausprägungen desselben Effekts, der sich vertical banding nennt und meist aussieht wie Projektion auf Packpapier, dropped frames, die, richtig entpackt, gar keine sind, korrupte Clips u.v.m.).

Space


Antwort von Spaceman:

Die Angst vor RAW die einige hier noch haben wird sich schnell legen.
Das geht nicht von heute auf morgen sondern läuft in einem mehrstufigem Prozess. Parallelen zu der Umstellung auf HD sind nicht von der Hand zu weisen:

Stufe 1: Hmh jetzt ist Full HD rausgekommen aber mir reicht weiter SD Auflösung weil man ja keinen großen Unterschied sieht.

Stufe 2: Ups, vielleicht ist HD doch besser und man sieht Unterschiede. Aber Full HD braucht keiner, 720p als halbgare Lösung reicht völlig für die nächsten hundert Jahre. Wegen Speicherplatz, Rechner blablabla - lüg sich selber in die Tasche....

Stufe 3: okok, Full HD ist doch besser, ich stell um!
Verflucht mein ganzes Material der letzten Jahre hab ich jetzt in SD und 720p obwohl 1080p schon Standard war.

... usw. weiter mit 4K - 8K - ....


Bei der Umstellung auf RAW das gleiche:

Stufe 1: Hmh es gibt jetzt günstig RAW Filmkameras , aber mir reicht weiter 8Bit 420. Muss ich nix machen und Bild ist Out of the box ok.

Stufe 2: Vielleicht bietet RAW doch Vorteile hinsichtlich Dynamik und Farben. Aber mir reicht 10 Bit 422 oder Prores 4444 hals halbgare Lösung die nächsten 100 Jahre. Das Speicheraufkommen ist ja ach so groß (Anmerkung: zur Gleichen Zeit werden einem die Terabytes hinterhergeworfen und beim Lidl gibt's Laptops auf denen Resolve läuft).

Stufe 3: okok, RAW macht doch mehr Sinn, der Workflow ist ja sogar einfacher - ich stell um.
Verdammt mein Material der letzten Jahre ... Mist!

Das war bestimmt bei der Umstellung von Schwarzweiss Fernsehen auf Bunt genauso. Da gabs sicher auch die ewigen Skeptiker die wild gegen Buntfernsehen argumentiert haben ;-)

Space


Antwort von Paralkar:

Bei fast jeder Produktion, die ich hatte, will der DP schon sehr genau darauf hinaus, was er vor Ort sieht und einstellt,

Außerdem gibts es ja dann Onset Coloristen oder DITs für Dallies und Looks, die schonmal die gewünschte Richtung an die Post weitergegeben werden.

Außerdem Iasi, ist Redraw, das einzige Format, das wirklich kleiner oder ebenso klein wie ein Prores ist, jedes andere Raw Format sprengt das. Außerdem ist die Frage, wieviel Raw ist Redraw noch wirklich, dazu hat ja Wowu schon Aufklärung gegeben on Mas, zum Thema Wavelet Komprimierung, die du sehr ignorant abgeschmettert hast. Nach dem Motto "Solang es noch Raw heißt ist es ja Raw für mich"

Euer Foto/ Film Vergleich macht einfach kein Sinn, weil es kein standard für 444 12 bit log Fotos gibt, da gibts nur jpg 8 bit oder Raw.



Also ich glaube das ganze macht kein Sinn mehr,

Iasi wird weiterhin denken das er den perfekten Workflow für die Welt hat, und das er das auch allen aufoktroyieren muss. Und kommt noch immer mit den gleichen Argumenten, die einfach das selbe waren wie am Anfang.

Spaceman behauptet, das super 35 film weniger Qualität und Möglichkeiten als digital raw hat, bzw. sogar schlechter aussieht.

Bei euch beiden hat man das Gefühl, das ihr nicht soviel über eine große Postproduction Facility wisst, und den Aufwand und die Arbeit die hinter Raw steckt und stecken kann, kein bisschen einschätzen könnt. Letzteres euch auch nicht wirklich mit dem Thema Codec, Komprimierung, Raw auseinandergesetzt habt.

Ich will euch damit echt nicht beleidigen, nichts ist mir ferner, aber solche Sprüche und Aussagen würd ich sehr, aber sehr vorsichtig an nem großen Filmset tätigen, sonst macht ihr euch lächerlich (besonders das mit dem 35 mm film)

Space


Antwort von cantsin:

Euer Foto/ Film Vergleich macht einfach kein Sinn, weil es kein standard für 444 12 bit log Fotos gibt, da gibts nur jpg 8 bit oder Raw. Stimmt nicht wirklich, es gibt auch 16bit TIFF.

Das Hauptproblem bei Raw-Formaten ist, dass sie bis auf DNG allesamt herstellerproprietär sind. Das gilt gerade auch für die stark komprimierten Raw-Bewegtbildformate von Red und Cineform.

Space



Space


Antwort von Spaceman:

@ Paralkar: noch jemand der es nicht begriffen hat:

Der RAW Workflow ist einfacher!!!

Die ganzen aufgeblähten "Facilities" gibt es doch nur wegen den komplizierten Zwischenlösungsworkflows. Film einscannen in Log, Konvertierung hier LUT da, Proxy hier usw.
So nen Workflow ist heutzutage noch was für Nostalgiker (wie körniges 35mm Material auch).

Stell Dir mal vor Du erzählst dem Fotoclub um die Ecke er müsse sein RAW erst in Log umwandeln um Platz zu sparen und später wieder mit ner LUT konvertieren.
Der hat nen großes Fragezeichen auf der Stirn und in der Zwischenzeit in Lightroom alle seine Fotos gegraded und ausgegeben.

P.S. Es gibt aber Hilfestellung für alle die noch nicht mit RAW klarkommen seitens der Kamerahersteller. Man kann sein RAW Material in Form einer Log Gamma Kurve darstellen lassen und mit seinem alten Workflow übergangsweise weiterarbeiten....

Space


Antwort von Paralkar:

Natürlich gibts Tiff 16 bit, das ist jedoch größer als ein Raw und letzteres schießt das keine Kamera,

Ich meinte ja, im Fotobereich, gibts als Ausgangsmaterial nur 8 bit jpg oder Raw aus der Fotokamera, da hat man sich nie die Mühe gemacht zu sagen, wir entwickeln jetzt mittels den Codecs, die schon im Film benutzt werden, ein 4444 12 bit log jpg standard.

Demensprechend kann man das ganze nicht adaptieren und die Aussage "In der Fotografie wird nur Raw geschossen" ist nichtig auf digital film bezogen.

Letzteres ist der Fotografiebereich auch nicht ansatzweise so weittragend, da gibt es nur Photoshop als Standard, vielleicht das eine oder andere Plugin, aber du zerlegst die Arbeit nach dem schießen von etwas nicht in 3 komplett verschiedene Arbeitsbereiche.


Und von Raw und was ein Debayering ist, haben mehr als genug professionelle Fotografen trotzdem keine Ahnung, geschweige den von Farbmanagement.

Space


Antwort von Paralkar:

Nein, genau das ist nicht der Fall, ich arbeite als DIT und ich hab lang genug in nem Postproduction Haus gearbeitet,

Als DIT, muss ich so gut wie immer Proxies rendern, egal ob für franzosen, deutsche, griechen, Norweger, Dänen oder sonst wen auf der Welt.

Diese Aussage ist absolut weltfremd und zeigt, das du noch nie in so ner Facility warst, Schnitt wird mit Avid zu 99% mit DNXHD Proxies (ob Red, Sony, oder Arri Raw, oder die ganzen 1000 anderen Formate) gemacht. Dann relinked etc. etc.

Und nein Raw ist nicht einfacher, oder weniger Arbeit, sobald man ein großes professionelles Projekt hat, bei dem etliche Leute in der Post miteinander arbeiten müssen. Da macht es einiges schwieriger. Keiner bestreitet das es nicht machbar ist, aber teils erheblich mehr Aufwand bedeutet.

Klar ist das was anderes, wenn man gemütlich die Wiesn draußen filmt, dann in sein Premiere geht, da rumschnipselt, das ganze überführt in Speedgrade, da rumdreht, so das es alles fürs eigene Auge schön aussieht, das ganze ausspielt und auf Youtube hochlädt, ist aber halt was anderes als ne Kino oder Werbefilmproduktion.


Das Fotografen Argument hab ich eins drüber schon erklärt, nonsense.


Aber wie gesagt, wo ist der Sinn, wenn hier jemand behauptet s35 film ist schlechter als raw, dann muss man sich nur an den Kopf fassen.

Space


Antwort von WoWu:

Ohne in die hitzige Debatte eingreifen zu wollen, aber: Es gibt aber Hilfestellung für alle die noch nicht mit RAW klarkommen seitens der Kamerahersteller. Man kann sein RAW Material in Form einer Log Gamma Kurve darstellen lassen und mit seinem alten Workflow übergangsweise weiterarbeiten.... Das betrifft leider nicht "Bewegtbild". Digitalkameras für die Fotographie sind da einen Schritt weiter und nutzen Metadatenformate wie Exchangeable Image File (EXIF), International Press Telecommunications Council (IPTC) und Extensible Metadata Platform (XMP), in denen standardisierte Werte der Kamera, übergeben werden.
Für Bewegtbild fehlen solche Standards noch.
Weil es sich aber bei RAW Daten nicht um Bilddaten sondern im Wesentlichen um beschreibende Daten handelt, ist die Darstellung in einem NLE zur Vorschau nur dann möglich, wenn die RAW-Dateien entweder ein eingebettetes MJPEG oder ein sonstiges Proxy-Video Format enthalten.
Dann aber, und da stimme ich Dir zu, unterscheidet sich die Verarbeitung nur unwesentlich von linearen Bilddateien.
So eine 3DLUT, wie Du angesprochen hast, funktioniert also nur dann, wenn sie die kompletten Metadaten erfasst, interpretiert und in Pixelwerte transportiert werden.
Das nennt sich dann zwar auch 3D LUT, aber die eigentliche LUT ist nur Teil eines, ziemlich rechenintensiven Prozesses.
Unser grösstes Problem ist heute noch, dass RAW keinen Standard hat und jeder Workflow, bis auf den Proxy Workflow, sehr individuell angelegt werden muss.

Natürlich gibts Tiff 16 bit, das ist jedoch größer als ein Raw und letzteres schießt das keine Kamera, Streng genommen ist das aber nur die "Transfers-range-Tack", also beschreibt die 2 Byte der Übertragung.
darin stecken aber nur 12 Bit. The TIFF implementation uses variable- length codes, with a maximum code length of 12 bits. TIFF ist also, wenn wir die Bildqualität meinen, maximal 12 Bit.
(Specifications TIFF 6.0)

Space


Antwort von CameraRick:

Überlege doch mal, wer hier so grob pauschalierend behauptet, Raw wäre nur etwas für eine elitäre Gruppe, die es sich leisten könnten - und vor allem, dass Raw so enorm aufwändig sei. Es ist so grob unverschämt wie Du hier Aussagen pauschalisierst. Ich sage nicht, RAW sei schwachfug oder generell unnötig, nur eben nicht immer von Nöten.
Und Du hast einfach kein Recht, anderen Leuten vorzuschreiben, dass sie sich über Prores LT freuen oder 4444 haben möchten, auch wenn Du ein Histogram lieber hättest als das. Auch wenn ich selbst ein Histogram lieber hätte (besser noch: ein Waveform). Aber das ändert doch nichts dran, dass man sich doch trotzdem über andere Benefits freuen kann?

Bei dir ist es doch so, dass gar kein Abwägen mehr möglich ist, wenn du eh davon ausgehst, dass Raw ...das RAW? Dein Satz endet da.
Ich weiß, wie ein RAW Workflow ist. Ich hab das schon dutzende Male durchgekaut, und zwar nicht nur einen Single-Workstation Workflow, den Du hier immer erwähnst. Und ich bin da auch nicht konsequent gegen. Aber freue mich nunmal mehr über andere Workflows.
Interessant ist auch diese Vorstellung, man müsse schon am Set das endgültigen Bild auf dem Monitor sehen - das gibt es bei Produktionen mit Filmnegativ nicht, weshalb will man es so dringend bei digitalen Kameras? Ich rate mal: Weil man denkt, man müsse Zeit und Geld in der Post sparen.
Und vielleicht auch, weil man sich über die gestalterischen Möglichkeiten der Post gar nicht bewußt ist und eigentlich immer nur an einen globalen "Look" und vor allem an "fix it in Post" denkt. Und wer hat diese Vorstellung? Ich glaub Dir ist langsam echt zu Kopf gestiegen, was Du da so sagst. Das behauptet doch hier niemand, oder verlese ich mich?
Zudem gilt für mich grundsätzlich: Je mehr das Ausgangsmaterial an Spielraum bietet, desto größer sind auch die Gestaltungsmöglichkeiten. ...die man nicht immer braucht. Wach mal auf.
Und ich wehre mich gegen dir Einstellung, man müsse bei szenischem Dreh schon möglichst auf dem Monitor am Set das zu sehen bekommen, was dann auf der Glotze oder Leinwand zu sehen sein wird. Damit degradierst du die Leute in der Post zu .... Das habe ich doch nie gesagt, Du Schelm.
Ich sag"s mal drastisch:
Wer als Verantwortlicher zulässt, dass bei einem szenischen Dreh mit einer Raw-Kamera nicht auch Raw genutzt wird, dem gehört ein Tritt in den Ars... Das lässt tief blicken, als ob Du scheinbar gar nicht weißt, wie solche Entscheidungen gefällt werden. Und warum sie das werden.


Und bitte hör auf einem irgendwelchen Quatsch in den Mund zu legen und vielleicht machst mal nen praktikum in einer großen Postproduktion um zu sehen, wie das Leben dort so spielt. Dann erklärste denen Deinen Premiere/Speedgrade Workflow und wirst zum König ernannt.

Space


Antwort von Spaceman:

@ Wowu, ja stimmt bei RAW Fotos ist das komfortabel.

Mit der "Hilfestellung" meinte ich allerdings die Log Gammas die mitgeliefert werden um dem RAW Filmer wieder seinen alten Workflow zu geben. Bei Red ist das zum Beispiel Redlogfilm was Cineon-Gamma simuliert (obwohl im Hintergrund RAW liegt).

Ansonsten bin ich voll bei iasi, mal einer der wenigen der weiter denkt und eingetretene Pfade hinterfragt.

Sonst sind ja eher die Lemminge am Start... warum was ändern, haben wir immer so gemacht...

Wenn wir mal ehrlich sind wird es bald keiner großen Posthäuser mehr geben. Überflüssig wegen Easyworkflow.

Bis vielleicht auf die alteingesessenen Branchengrößen wie z.B. Technicolor oder fixe Newcomer wie LightIron.

Space


Antwort von WoWu:

Bei den LOG Kurven handelt es sich aber nicht um RAW, denn das sind reine Übertragungskurven, also veränderte Wertetabellen, entlang einer anderen Gammafunktion.
Dass dafür LUTs zunächst mal die einzige richtige Behandlung sind, da bin ich gänzlich bei Dir.
Da gibt's aber auch andere Meinungen, die gern von der Grundlinie versuchen, in der Post komplexe Übertragungsfunktionen zu rekonstruieren und wenn sie es nicht so ganz hinbekommen, mit dem Argument "Geschmack" kompensieren.
Aber das ist ein anderes Thema.

Bei RAW muss man wirklich die Ausgangssituation unterscheiden, Ob ich ein RAW bekomme, das mir schon ein Bild zeigt oder ein RAW, in dem ich erst Wertebeschreibungen bekomme.
RED gibt ja bereits ein Videosignal heraus, das ich mit einer LUT ziemlich schnell linearisieren kann.
Andere Kameras geben die reinen (basiskorrigierten) Sensortasten incl. der beschreibenden Metadaten zum Farbfilter etc. heraus. Das Signal ist nicht sichtbar.
Wieder Andere Firmen geben nur die Rohdaten des Sensors heraus, mit denen man eigentlich gar nichts anfangen kann, weil alle beschreibenden Rahmenparameter fehlen.
Grapper wie cinemaDNG interpretiert jetzt einfach solche Daten und vergleicht sie mit eigenen Farbmodellen.
Das geht zwar, aber das Ergebnis muss nicht immer mit dem Original überein stimmen. Es ist eine Schätzung.

Du siehst also, RAW ist lange nicht gleich RAW und die Ergebnisse sind auch bei RAW nicht immer gleichgut mit Ergebnissen, die ein Hersteller kameraintern unter Kenntnis aller spezifischen Metadaten und der Erzeugung eines linearen Videosignals erstellt.

RAW ist nur so gut, wie es vom Hersteller nach aussen unterstützt wird und wie es vom Anwender sinnvoll genutzt wird.
Je "dilettantischer" dieser Nutzungsweg ist, umso weiter hat ein kamerinternes Videosignal, ob 10 oder 12 Bit, die Nase vorn.

RAW ist noch kein Garant für die Qualität des Endproduktes.

Mit ACES beginnt derzeit die SMPTE einen versuch, RAW Signale in einen Standard zu fassen. Aber das ist noch lange nicht fertig, könnte aber ein Ansatz sein, auch standardisierte Workflows zu erstellen und damit dem derzeitigen Durcheinander ein Ende zu setzen.

Kommt jetzt darauf an, was schneller ist ... Hollywood mit ACES oder MPEG mit einem hochwertigen 12 Bit Codec.

Space


Antwort von Jott:

"Natürlich gibts Tiff 16 bit, das ist jedoch größer als ein Raw und letzteres schießt das keine Kamera."

Doch, natürlich.

Space


Antwort von WoWu:

Siehe TIFF Spezifikation 6.0
16 Bit ist die Übertragungsbreite des Kanals (2Byte weil alles über 8 Bit mindestens 2 Byte gross ist.
So gesehen macht jede Kamera, die mehr als 8 Bit breit ist, 16 Bit.

Mal ganz abgesehen davon... wo gibt es den 16 Bit Sensor, ausser in der Astrologie und in der Raumfahrt ?
Und ohne Sensor bekanntlich kein Bild.
und letzteres schießt das keine Kamera. :-)) Hubble hatte einen.. aber da kamen keine TIFF Bilder raus.

Space



Space


Antwort von iasi:

Ich sag"s mal drastisch:
Wer als Verantwortlicher zulässt, dass bei einem szenischen Dreh mit einer Raw-Kamera nicht auch Raw genutzt wird, dem gehört ein Tritt in den Ars... Das lässt tief blicken, als ob Du scheinbar gar nicht weißt, wie solche Entscheidungen gefällt werden. Und warum sie das werden.


Und bitte hör auf einem irgendwelchen Quatsch in den Mund zu legen und vielleicht machst mal nen praktikum in einer großen Postproduktion um zu sehen, wie das Leben dort so spielt. Dann erklärste denen Deinen Premiere/Speedgrade Workflow und wirst zum König ernannt. Wenn ich sehe, was aus deutschen Landen heutezutage kommt, stelle ich nun mal fest, dass da irgendetwas absolut falsch läuft.
Auf der anderen Seite erinnere ich mich an deutsche Produktionen, die nach alter Schule produziert wurden ...

Was ich aber vor allem sehe, ist der Aufwand, den man während des Drehs betreibt, um ein Bild auf einem Vorschaumonitor zu erhalten, das dem Endergebnis möglichst nahe kommen soll. Dies halte ich für eine fatale Entwicklung.
Man beraubt sich letztlich selbst dem gestalterischen Potential, das in der PostPro steckt.
Ich erinnere mich an einen Bericht zu einem F65-Dreh, bei dem genau auf diesen Punkt eingegangen wurde.

Und ständig kommt mit das Camera-Shoot-out 2012 in den Sinn, bei dem ich ein sehr interessantes Ergebnis herausnehmen konnte:
Die Teams mit den Raw-Kameras verwendeten weniger Zeit am Set und mehr Zeit in der Post, als die anderen Teams.
Und wenn ich dann überlege, was mehr Geld pro Minute verschlingt - Drehzeit oder Postpro - ist das für mich ein logischer Schluss.

Eigentlich sollte der Kameramann den DR ausreizen und schöne Bildkompositionen zaubern - und auf dem Vorschaumonitor sollte nur das Raw-Bild zu sehen sein und eben nicht ein Videobild, das dem Endergebnis sowieso nicht entspricht.
Und die "Entwicklung" findet dann in der Post statt - der dann auch wieder die angemessene Bedeutung zukommt.
Eben wieder eine klare Trennung.

Space


Antwort von cantsin:

Eigentlich sollte der Kameramann den DR ausreizen und schöne Bildkompositionen zaubern - und auf dem Vorschaumonitor sollte nur das Raw-Bild zu sehen sein und eben nicht ein Videobild, das dem Endergebnis sowieso nicht entspricht. Offenbar unterliegst Du einem Total-Missverständnis dessen, was raw ist - und hast hier die ganze Zeit raw mit log verwechselt.

(Damit können wir diese Diskussion auch in die Tonne treten und wieder zum Thema zurückkehren.)

Space


Antwort von WoWu:

IASI vergleich doch nicht so ein Kamera Shootout mit einer Produktion.

Das shootout ist eine Hinterhofveranstaltung, deren Kosten von den Kameraherstellern uns Sponsoren bezahlt wird.

Eine Produktion ist eine geschäftliche Investition in erheblicher höhe, deren Scheitern auch daran hängt, welche Bilder man vom Set mitbringt.
Nicht umsonst wurden früher Sets teilweise über Tage "offen" gehalten, bis man die Muster abgenommen hatte.
Daher kann man heute bereits erheblich einsparen, wenn man die Bilder am Set abnehmen kann und nicht erst in der Post, weil man die Sets gar nicht solange unterhalten kann.

Sieh doch endlich einmal ein, dass Andere, als der Kameramann und erst Recht nicht der Colorist über das Gelingen einer Produktion entscsheiden.

und vergleich doch nicht immer eine Produktion mit solchen Werbeveranstaltungen.
Das nervt wirklich.

Space


Antwort von iasi:

IASI vergleich doch nicht so ein Kamera Shootout mit einer Produktion.

Das shootout ist eine Hinterhofveranstaltung, deren Kosten von den Kameraherstellern uns Sponsoren bezahlt wird.

Eine Produktion ist eine geschäftliche Investition in erheblicher höhe, deren Scheitern auch daran hängt, welche Bilder man vom Set mitbringt.
Nicht umsonst wurden früher Sets teilweise über Tage "offen" gehalten, bis man die Muster abgenommen hatte.
Daher kann man heute bereits erheblich einsparen, wenn man die Bilder am Set abnehmen kann und nicht erst in der Post, weil man die Sets gar nicht solange unterhalten kann.

Sieh doch endlich einmal ein, dass Andere, als der Kameramann und erst Recht nicht der Colorist über das Gelingen einer Produktion entscsheiden.

und vergleich doch nicht immer eine Produktion mit solchen Werbeveranstaltungen.
Das nervt wirklich. Warum sollte diese Testkonstellation nicht aussagekräftig sein, was die Punkte betrifft, die ich angesprochen habe.
Deine Gegenargumente gehen auf diese rein gar nicht ein - das nervt, wenn hier etwas nervt.

Was ich nicht herauslesen kann und will, ist eine Beurteilung der Qualität der Ergebnisse.
Was man aber sehen kann - wenn man sich mal mit den PDFs befasst, bei denen es um die jeweilige Ausleuchtung und eben die Zeitverteilung betrachtet, dann kommt dies eben durchaus einem belastbaren Testverfahren gleich, die einen Vergleich überhaupt zulassen.

Und was soll das denn wieder heißen:
"Andere, als der Kameramann und erst Recht nicht der Colorist über das Gelingen einer Produktion entscsheiden."
Natürlich sind sie in ihren Bereichen für das Gelingen einer Produktion entscheident - der Begriff "Crew" wird ja schließlich nicht grundlos bei einer Filmproduktion genutzt.

PostPro ist doch nicht nur Effekte, Zusammenschneiden und ein paar Titel - wer meint, er müsse schon während des Drehs die "Filmentwicklung" vorwegnehmen, beraubt die PostPro ihres wichtigsten Gestaltungsmittels.

Space


Antwort von WoWu:

Schau Dir einfach mal die Hierarchie einer kostspieligen Produktion an.
Dann wirst Du sehen, wem der Wind ins Gesicht bläst.
Und verwechsle irgendwelche Lichtsetzung in Reklamestudios nicht mit Licht an einem Set, ausserhalb eines Studios.

Ich glaube mittlerweile auch, dass Du noch nicht an einem Filmset warst, was kein Indi betrieben hat.

ich kann da wirklich nur sprachlos den Kopf schütteln.

Space


Antwort von Funless:

Auch ich schließe mich der Vermutung an, dass iasi offenbar wirklich noch nie bei einer großen (kostspieligen) Produktion dabei war, sondern (wenn überhaupt) an Indie- und/oder Rebel-Produktionen und daraus resultierend seine Ansichten entstanden sind.

Auch wenn ich des Öfteren schon klargestellt habe, dass ich persönlich nicht meinen Lebensunterhalt mit der Filmerei bestreite, darf ich dennoch behaupten, dass ich Dank vieler Freunde und Bekannte in der Filmbranche, an mehreren (großen) Filmproduktionen hier in Berlin dabei war um einfach zuzuschauen, solange ich dabei niemanden störe (das ist hier immer die Bedingung gewesen die mir dabei gestellt wurde).

Gerne kann ich die einzelnen Produktionen auch benennen:

"The International"

"Ninja Assassin"

"Inglorious Basterds"

"Wir sind die Nacht"

"Unkown Identity"

Und bevor jemand gleich schreit, dass es sich ja um Produktionen handelt, die schon einige Jährchen her sind, und sich der Workflow heutzutage anders darstellt, darf ich als letztes Beispiel das Remake von "Point Break" anführen, welches derzeit auch zum Teil in Berlin entsteht und auf dessen Set ich erst vor knapp zwei Wochen zugegen sein durfte.

Bei allen Produktionen (ja selbst bei Tarantino) zog sich eine Tatsache durch wie ein roter Faden, dass beim Dreh das Vorschaubild so möglichst Nahe wie nur irgend wie möglich am Endergebnis dargestellt werden musste, weil die Vision der Darstellung/des Looks des fertigen Films dem Regisseur obliegt. Nicht umsonst wird bei solchen Produktionen allein schon in der Pre-Pro alles bis ins kleinste Detail durchgeplant, Storyboards und Moods erstellt und was noch alles.

Weder ein DoP, noch ein Colorist tragen irgendeine Entscheidung dazu bei wie der fertige look auszusehen hat (hier liegt iasi bedauerlicher Weise aber sowas von falsch und daneben), sondern (wie oben bereits genannt) ausschließlich der Regisseur (ok bei manchen hat der Produzent, bzw. das Studio noch ein Wörtchen mitzureden - das noch für eventuelle Korinthenka**er, die hier vielleicht einen Ansatz zum gegenschießen entdecken mögen).

Der Regisseur bestimmt bei solchen Produktionen wo's lang geht und wohin die Reise gehen soll, Wurscht ob wir hier von Hollywood reden oder dem letzten Tatort. Der Job von allen anderen der "Crew" ist es die Wünsche und Anforderungen des Regisseurs umzusetzen. Und genau aus diesem banalen Grund ist es wichtig, dass u.a. das Vorschaubild beim Take dem gewünschten Endergebnis absolut nahe kommt.

In diesem Sinne eine gute Nacht und einen angenehmen sowie sonnigen Wochenstart ...

Space


Antwort von Jott:

Ist bei einer popeligen Werbeproduktion auch nicht anders: erklär mal einem Agenturmenschen, dass er am Set noch nicht gucken darf, wie das Bild aussieht. Lächerlich!

Und da man mit Licht und Schnickschnack alles schon bei der Aufnahme perfekt macht, fällt niemandem ein Zacken aus der Krone, wenn's nicht Raw ist. Bei der gängigen Alexa stellt sich die Frage in der Regel sowieso nicht.

Space


Antwort von CameraRick:

[
Wenn ich sehe, was aus deutschen Landen heutezutage kommt, stelle ich nun mal fest, dass da irgendetwas absolut falsch läuft.
Auf der anderen Seite erinnere ich mich an deutsche Produktionen, die nach alter Schule produziert wurden ... Ich kann Dir aus dem Stehgreif diverse Sat.1 FilmFilm und ARD-Schund Produktionen nennen, die auf RAW gedreht sind.
Und genau so kann ich Dir Hollywood Produktionen nennen, die auf Prores gedreht wurden. Das ist doch einerlei, was Du hier über einen Kamm scherst.

A geh, Du wirst den deutschen Film nicht retten, Du wirst live dabei sein und wie alle altklugen Mütter rufen: hab ich doch gesagt. Großer Kunst

Space


Antwort von Jott:

Noch ergänzend: beide Optionen - Raw oder ProRes und Konsorten - setzen Können voraus. Es gibt Verfechter von roh und durch, beides kann man auch problemlos verkacken (sh. Rauschthreads). Insofern ist das alles müßig, wozu missionieren? Wenn Kameras wie die BMs oder andere beides bieten, kann ich das nur positiv sehen. Viele Red-Owner-Operator haben externe ProRes-Recorder, um keine Jobs zu verlieren, wo das nun mal verlangt und sich niemand für Raw interessiert.

Space


Antwort von Spaceman:

Echt? Unglaublich.

Also nem Redfilmer der mit ProRes Recorder rumläuft gehören wahrlich die Löffel langezogen!

Das ist ja wie wenn man einen Porsche mit nem angebauten Moped Motor betreibt...

Verrückte Welt.

Space


Antwort von Jott:

Bist du auch so ein Weltfremder? Kannst du alles auf reduser nachlesen, wo die Owner-Operator verzweifelt rumheulen, dass sie ständig Jobs an die Alexa-Konkurrenz verlieren - weil Kunden nicht warten wollen, bis irgend jemand das Zeug debayert. Keine Zeit zu haben ist nun mal schwer in Mode. Deswegen auch über Jahre der laute Ruf nach einem ProRes-Modul für die Epic. RED hatte das sogar erwogen, aber dann doch nicht realisiert, weil der Markt an anhängbaren ProRes-/DNxHD-Recordern inzwischen explodiert war. Und natürlich wohl auch aus Prinzip.

Space


Antwort von CameraRick:

Wollt grad sagen, Herr Meizler ist ja vom Markt irgendwie verschwunden. Schade drum, denn es schadet sicher nicht, auch komprimiert aufnehmen zu können - nicht zu müssen.
Ist doch toll, die Wahl zu haben.

Space


Antwort von WoWu:

Na ja, wenn man mal vergisst, dass man im De-Bayering ganz wesentliche Qualitätsoarameter in der Hand hat, die man natürlich auch nutzen muss, um die Raw Vorzüge zu haben. RAW hat schon Vorteile. Daran ist gar nicht zu zweifeln, man muss sie nur nutzen.
Aber wer hindert RED Nutzer daran, ProRes als Proxy zu benutzen und aus RAW heraus zu produzieren ?
Es ist alles eine Frage des Workflows.

Space


Antwort von iasi:

Na ja, wenn man mal vergisst, dass man im De-Bayering ganz wesentliche Qualitätsoarameter in der Hand hat, die man natürlich auch nutzen muss, um die Raw Vorzüge zu haben. RAW hat schon Vorteile. Daran ist gar nicht zu zweifeln, man muss sie nur nutzen.
Aber wer hindert RED Nutzer daran, ProRes als Proxy zu benutzen und aus RAW heraus zu produzieren ?
Es ist alles eine Frage des Workflows. Der Punkt ist aber eben der, dass es doch fast schon nicht mehr nötig ist, Proxy zu nutzen.
Ein Raw-Workflow hat doch mittlerweile seinen Schrecken verloren - nur hält sich eben immer noch der Glaube, er wäre noch immer übermäßig aufwendig.

Wenn der Produktionsaufwand normalerweise schon so groß ist, verstehe ich nicht, weshalb man nicht das bestmögliche Ausgabeformat nutzen will, das die Kamera bietet. Stattdessen verwendet man schon während des Drehs Zeit auf Dinge, die man in der Post machen könnte.
Und nochmal: Drehzeit kostet meist mehr als Post-Zeit.

Space


Antwort von Jott:

Stattdessen verwendet man schon während des Drehs Zeit auf Dinge, die man in der Post machen könnte. Und nochmal: Drehzeit kostet meist mehr als Post-Zeit. Klingt wie: mit Raw darf man beim Dreh sorglos schlampen, wird dann ja sowieso alles in der Post gerettet. Und da sitzt dann nur ein unterbezahlter Typ, der viel Zeit hat. Das spart wie Sau.

Space


Antwort von WoWu:

Der Punkt ist aber eben der, dass es doch fast schon nicht mehr nötig ist, Proxy zu nutzen. Das wird sich mit zunehmenden spatialen und qualitativen Auflösungen wieder deutlich ändern. Ausserdem unterscheiden sich fast alle RAW Methoden voneinander - und damit auch der Aufwand, RAW Vorort darzustellen.
Die Proxylösung wird also zukünftig sehr an Attraktivität gewinnen.
Gute Kameras bieten ja schon heute die parallele Aufzeichnung eines Proxy Codecs an. Das wird im professionellen Bereich ganz sicher mehr werden.

Ich sehe die Notwenigkeit einer solchen Lösung eher als steigend, als im Fallen, gerade auch wegen der zusätzlichen Eingiffsmöglichkeit in Qualitäten, die bisher wenig oder noch gar nicht genutzt wurden.

Space


Antwort von Frank Glencairn:


Eigentlich sollte der Kameramann den DR ausreizen und schöne Bildkompositionen zaubern - und auf dem Vorschaumonitor sollte nur das Raw-Bild zu sehen sein und eben nicht ein Videobild, das dem Endergebnis sowieso nicht entspricht.
Und die "Entwicklung" findet dann in der Post statt... Ich denke du meinst das LOG Bild, weil das raw Bild kannste nicht wirklich sehen.

Aber ausnahmsweise bin ich mal deiner Meinung und an einem Set, wo ich das Sagen habe ist das auch so, weil ich das LOG Bild beurteilen kann und weiß, wie es aussehen wird, nachdem es durch die Post gegangen ist.

Leider rennen aber an vielen Sets Regisseure, Produzenten und Agenturtussis rum, die sich unter einem LOG Bild überhaupt nix vorstellen können, und ständig mit mir am diskutieren sind warum das so blass und milchig ist.
Wenn man an der Kamera also seine Ruhe haben will, stellt man halt einen extra Monitor mit ner LUT für diese Leute auf, einfach nur damit Ruhe ist.

Space


Antwort von Jott:

Viele TV-Werbespot sehen fast so aus wie ein belassenes Log-Bild: blass und milchig. Fanden die Agenturleute da vielleicht das schon prima, was sie live gesehen hatten?

Space


Antwort von Frank Glencairn:

LOL, ja, das war wurde mal ne Zeit lang "Avantgarde" angesehen, genauso wie super DOF, wo 99% des Bildes unscharf waren - ich erinnere mich da an einen grausigen Mode Spot wo beides im Spiel war.

Space


Antwort von Paralkar:

Hmm, ich finde der DIT, falls er mag der DP sollten ein Blick auf das log-Bild haben.

Aber Regisseur und Agentur, sollten immer ein Rec. 709 sehen, dafür gibts schlussendlich ein Videooperator oder die Rec 709 LUT Ausgabe über HD-SDI

Frank, warum schaust du dir das Log am Set an? Für Belichtungskontrolle hast du doch sicherlich n Waveformer, Histo etc. etc.?

Space


Antwort von motiongroup:

Die 1.9 ist online

Für die 4k Variante. ...

Space


Antwort von Jott:

Mit Features, die noch bis gestern von den Fans verbissen als völlig überflüssig gebrandmarkt wurden, da dem La-La-Land des Hobbyfilmers zugehörig. Keinesfalls aufspielen, Leute, das kratzt sonst an der Professionalität.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic URSA / PYXIS / Pocket Cinema Cameras-Forum

Antworten zu ähnlichen Fragen //


DJI Mavic 3: Neue Firmware bringt u.a. Aufnahme mit ProRes 422 und ProRes 422 LT
Asynchron mit Bmpc4k Apple ProRes 422 HQ
Green Screen MP4 oder ProRes, beides 422 10 Bit
Blackmagic Camera 7.9.1 Update mit Bugfixes für die Pocket Cinema Cameras
Neue Ninja V Firmware AtomOS 10.64 bringt Support für ProRes RAW Metadaten der Sony Alpha 7SIII
AtomOS 10.67 bringt Support für ProRes RAW Metadaten der Sony FX9/FX6 und FujiFilm GFX100
Adobe Premiere Pro Update 14.8 bringt Timecode Support für Non-Standard Frameraten
RØDECaster Pro Firmware-Update bringt MIDI-Support und neue Soundpad-Modi
RØDECaster Pro Firmware-Update 2.1.2 bringt MIDI-Support und neue Soundpad-Modi
Vegas Pro 19 Update bringt Alder Lake Support und mehr
Blackmagic DaVinci Resolve 17.2.2 bringt BRAW 2.1 Support sowie weitere Verbesserungen
Blackmagic Camera App 2.0 bringt u.a. Multicam, Fernsteuerung und iPad Support
Atomos kündigt Entwicklung von ProRes RAW Support von Ninja V für neue Sony FX3 und A1 an
Atomos kündigt ProRes RAW Support für Panasonic Lumix BGH1 und S1 per Ninja V an
The Cameras of Sundance 2021
The Most Popular Cinema Cameras
TV From the Moon - Apollo's Live TV cameras
RETRO: My 16mm Film Cameras




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash