Newsmeldung von slashCAM:Test: Test: Blackmagic Cinema Camera - Teil 1 von rudi - 21 Nov 2012 15:47:00
>Selten hat uns eine Kamera so gefesselt, dass wir vor Staunen überhaupt nicht zum Schreiben kamen. Und dieser Kamera in irgend einer Weise erst einmal gerecht zu werden, ist schwer, da sie so anders ist, als alle Kameras, die wir bisher in unserem Test hatten.
zum ganzen Artikel
Antwort von CameraRick:
Schöner Artikel, Danke dafür.
Ich kann Teil 2 gar nicht mehr erwarten :)
In der Prostproduktion (die wohl in 95 Prozent der Fälle im mitgelieferten Resolve stattfinden dürfte)
Ich hatte Resolve noch nie offen. Kann man in Resolve schneiden?
Ich fände es schade (unabhängig davon wie toll Resolve vielleicht auch ist) auf eine Software festgefahren zu sein.
Ich weiß immer noch nicht so recht, an welchem Punkt der Bearbeitung die Files in die VFX gehen; nach dem Grading erst? Üblicherweise macht man es ja anders rum (zumindest bei uns).
Der Frank geht ja, so wie ich das verstanden hab, nur anfangs durch Resolve. Vielleicht hat der da eine Idee.
Antwort von mav110:
Wenn jetzt die BMCC noch ankommen würde ...
Antwort von Jott:
"Bemerkenswerterweise gilt dies auch für die ProRes-Aufnahmen, die mit 10 Bit fast die gleiche Dynamik boten und sich mit einer Film-Log-Kurve kaum anders anfühlten, als die RAW-Aufnahmen. Will man nicht auch die höhere Auflösung des RAW-Modus nutzen (2400x1350 Pixel), so würden wir persönlich eigentlich immer in ProRes (DNxHD haben wir noch nicht getestet) filmen. Denn der reine 12Bit-Dynamik Zusatznutzen des Raw-Modus rechtfertigt unserer Meinung nach den zusätzlichen Speicherbedarf kaum."
Endlich merkt's mal jemand: die BMD ist auch eine Mini-Alexa, nicht nur eine Raw-Datenschleuder.
Antwort von rudi:
Ich hatte Resolve noch nie offen. Kann man in Resolve schneiden?
Ja, man kann mittlerweile sogar in Resolve schneiden (im Conform Raum), aber in erster Linie macht das Programm wirklich zum Finishing/Grading Sinn.
Es unterstützt aber auch schöne Roundtrips zu diversen anderen Schnittprogrammen. Wenn ich persönlich Resolve nicht wollte, würde ich von Anfang an ProRes/DNxHD filmen, dann spricht gar nix gegen Avid/FCP/Premiere oder sonstwas. Nur 10 Bit sollten in der Timeline schon möglich sein (und eine entsprechende Farbkorrektur).
Antwort von CameraRick:
Endlich merkt's mal jemand: die BMD ist auch eine Mini-Alexa, nicht nur eine Raw-Datenschleuder.
Das stimmt - jetzt müsste sie nur noch ProRes 4444 können.
Habe hier dutzende TV-Projekte gehabt, auf Alexa in ProRes gedreht (welches genau kann ich nun nicht sagen). Aber auch Kino-Projekte auf ProRes 4444, mit Alexa. Sieht traumhaft aus, und lässt sich stärker in der Post misshandeln als alles, was ich sonst kenne.
Wermutstropfen: die Alexa macht in ProRes auch nur 1080p.
Antwort von CameraRick:
Ich hatte Resolve noch nie offen. Kann man in Resolve schneiden?
Ja, man kann mittlerweile sogar in Resolve schneiden (im Conform Raum), aber in erster Linie macht das Programm wirklich zum Finishing/Grading Sinn.
Es unterstützt aber auch schöne Roundtrips zu diversen anderen Schnittprogrammen. Wenn ich persönlich Resolve nicht wollte, würde ich von Anfang an ProRes/DNxHD filmen, dann spricht gar nix gegen Avid/FCP/Premiere oder sonstwas. Nur 10 Bit sollten in der Timeline schon möglich sein (und eine entsprechende Farbkorrektur).
Danke für die Antwort!
Wie einfach ists denn, Proxys zu erstellen? Einen Offline-Schnitt im NLE und anschließendes Online im Resolve wäre doch eine akzeptable Sache für mich.
Antwort von rudi:
Endlich merkt's mal jemand: die BMD ist auch eine Mini-Alexa, nicht nur eine Raw-Datenschleuder.
So ist es. Die BMCC ist in meinen Augen eine viel größere Gefahr für ARRI und RED, als ich vor einn paar Monaten dachte.
Einfach nur, weil sich viele unabhängige Filmer diese Kamera kaufen werden, anstatt sich in Zukunft eine RED oder ARRI zu leihen.
Antwort von rudi:
Wie einfach ists denn, Proxys zu erstellen? Einen Offline-Schnitt im NLE und anschließendes Online im Resolve wäre doch eine akzeptable Sache für mich.
Proxy-Export ist wirklich leicht, der Rest auch:
The following steps detail one of the most common workflows.
Step 1. Shoot with Blackmagic Cinema Camera and record to CinemaDNG RAW files.
Step 2. Take the SSD out of the camera and dock it to your computer via an SSD dock with a fast
Thunderbolt, USB 3.0 or eSATA connection.
Step 3. Bring the media into Resolve 9.
Step 4. Apply a basic grade in Resolve 9 and render out to Apple ProRes, DNxHD or other formats.
Step 5. Edit the files in popular NLE software such as Apple Final Cut Pro, Avid Media Composer or
Adobe Premiere Pro.
Step 6. When finished editing, export an XML or AAF file.
Step 7. Import the XML or AAF file into Resolve 9 and conform with the original CinemaDNG images for
maximum creative control.
Step 8. Grade the edited timeline in Resolve 9 to complete the project.
If you have shot and recorded your clips in ProRes using the Film Dynamic Range, you can quickly turn it into
Video or REC709 using the built in 3D LUT in Resolve 9. Just right click on the clip in Resolve's timeline in the
Color page and select "Blackmagic Cinema Camera Film to Rec709" from the 3D LUT menu.
Antwort von CameraRick:
Das klingt doch sexy, vielen Dank. Jetzt nur noch ein Workaround für die VFX überlegen, und schon geht's ab.
Antwort von gast5:
Schenial Rudi......
Da gibt's gleich fuer die interessierten davincis ein Angebot..
http://www.fcp.co/hardware-and-software ... -for-89-99
Ich trug nie ne oakley Brille, ne red werd ich mir auch nie leisten aber bei ner BMCC's könnt ich schwach werden zumal das extrem gut mit fcx harmoniert..
Antwort von NEEL:
Danke für dieses Review! Ich war vor allem auf Eure Einschätzung zur Prores-Qualität gespannt. Das alles hört sich doch ziemlich gut an - DNxHD wird wohl ähnlich gut sein und Avid kann sowieso beides;-). Vielleicht gibts ja auch mal ein Firmwareupgrade auf 2K+ Prores?
Antwort von mav110:
Darf ich fragen, falls ihr die Kamera vorbestellt habt, wie viel euer Händler des Vertrauens für die BMCC gerne hätte?
Habe ziemliche Preisunterschiede feststellen können.
Gibt es Händler in Deutschland, die gegenüber einem Internetanbieter bevorzugt von Black Magic behandelt werden?
Antwort von WoWu:
Wermutstropfen: die Alexa macht in ProRes auch nur 1080p.
Und kein FullRange (weil man das erst gar nicht in der Alexa aktivieren kann), denn Profess unterstützt nicht alle Werte sondern nur "broadcast save"
Antwort von CameraRick:
Wermutstropfen: die Alexa macht in ProRes auch nur 1080p.
Und kein FullRange (weil man das erst gar nicht in der Alexa aktivieren kann), denn Profess unterstützt nicht alle Werte sondern nur "broadcast save"
Soll heißen, die BMCC wirds auch nicht können?
Hat der DNxHD hat ja einen RGB und einen REC709 Modus. Wäre ersterer in der Lage dafür?
Ich hatte die Alexa nie ausreichend in der Hand um das Menü zu durchstöbern, ich kriege nur das Footage rein.
Antwort von Tiefflieger:
Danke für den Test, da bin ich auf den 2. Teil gespannt.
Wenn nur nicht schon bald Januar 2013 wäre, dann gibt es bei der CES bestimmt neues.
Gruss Tiefflieger
Antwort von WoWu:
Endlich merkt's mal jemand: die BMD ist auch eine Mini-Alexa, nicht nur eine Raw-Datenschleuder.
So ist es. Die BMCC ist in meinen Augen eine viel größere Gefahr für ARRI und RED, als ich vor einn paar Monaten dachte.
Einfach nur, weil sich viele unabhängige Filmer diese Kamera kaufen werden, anstatt sich in Zukunft eine RED oder ARRI zu leihen.
Aber dann ist es weniger eine Gefahr für ARRI und RED als für die Verleiher, denn die kommen so oder so nicht umhin, ARRIs oder REDs zu kaufen und im Verleih anzubieten.
Und die Frage stellt sich, inwieweit die Semis (auch früher schon) solche Geräte geliehen haben oder ob sie nicht vielmehr von DSLRs kommen.
Die, die sich auch früher Profi-Kameras geliehen haben, werden bestimmt nicht auf solche Geräte umsteigen.
Und wenn, dann nur mal, um Spass zu haben.
Aber ganz sicher nicht, um ein Filmbudget in den Sand zu setzen. Mal ganz abgesehen davon, ob das Risiko überhaupt versicherbar ist.
Antwort von iasi:
wie zu erwarten war ... die bmc trumpft eben mit den codecs bzw raw auf - in der preisklasse gibt es nichts vergleichbares.
dennoch bleiben die verbesserungswünsche:
1. auswechselbarer interner akku
2. schwenkbares display
nimmt die bmc-cam nun eigentlich wie auch das hyperdeck shuttle windows-formatierte ssds entgegen?
sieht man die bmc neben den anderen cams, wird einem auch deutlich, dass es doch kein kompaktes und leichtes teil ist, wie man meinen könnte.
nun bleibt nur noch zu hoffen, dass die produktion endlich anläuft.
Antwort von div4o:
Wenn ich persönlich Resolve nicht wollte, würde ich von Anfang an ProRes/DNxHD filmen, dann spricht gar nix gegen Avid/FCP/Premiere oder sonstwas. Nur 10 Bit sollten in der Timeline schon möglich sein (und eine entsprechende Farbkorrektur).
was kann denn die Timeline von Premiere? In After Efects kann man nach beliebig die Farbtiefe ändern, in Premiere ist mir keine derartige Einstellung bekannt.
Antwort von handiro:
Ich kann beim besten Willen keine Begeisterung für dieses Ding aufbringen.
1. Formfaktor
2. Batterie
3. Sensorgrösse
Aber ich gebe zu, die in diesem Stadium gebotene Bildqualität ist schon toll.
Das pixelpeeping überzeugt.
Mal sehen was sich 2013 tut, ich warte mit Kauf.
Antwort von Skeptiker:
... Das pixelpeeping überzeugt. ...
Es ist das NATÜRLICHE Bild, das mich überzeugt.
Antwort von WoWu:
Für mich hat die Kamera nun endlich das 8/4:2:0 auch im Semi-Segment ausgeläutet und grenzt wieder einwenig zum Amteursegment ab.
Antwort von Thunderblade:
Wow!!! Das scheint ein echter Hit zu werden.
Wenn der Sensor doch nur 35mm bei ner Filmkamera (also. ca APS-C) entspräche... Dann wäre das Ding schon vorbestellt. So ist das Ding zusammen mit EF-Optiken ein bisschen unpraktisch.
BITTE BITTE BITTE bringt 2013 eine Version mit 35mm Sensor raus!!!
Dann wäre an der Kamera für mich nichts mehr auszusetzen!!!
Antwort von molch:
Ich freu' mich schon auf den zweiten Teil, schöner Artikel, danke!
Die Aufnahmen der Testcharts wirken etwas weich. Liegt das zum Teil am Objektiv (welches habt ihr denn verwendet?), oder ist das einfach Teil der natürlichen Bildwirkung der Kamera?
Antwort von Predator:
Die Kamera schärft nicht intern. Daher könnts minimal weich wirken aber die Auflösung ist voll da,vorallem weil der OLPF fehlt.
Antwort von Valentino:
Wermutstropfen: die Alexa macht in ProRes auch nur 1080p.
Und kein FullRange (weil man das erst gar nicht in der Alexa aktivieren kann), denn Profess unterstützt nicht alle Werte sondern nur "broadcast save"
Die Alexa kann ab dem SUP7.0 auch 2k in ProRes aufzeichnen und das in 16:9 und 4:3. Die zweite Beta Version der SUP7.0 ist seit ein paar Tagen online:
http://www.arri.de/camera/digital_camer ... no_cache=1
Warum sollte bei der Alexa bei Log-C auch Fullrange Sinnvoll sein, wenn das Signal bei ca. 10% sein Schwarz hat und bei ca. 95% clipt.
Die Einstellung Legal oder Extended-Range gilt bei der Alexa nur für den Rec-Out und HD-SDI Rekorder gib es ja wie Sand am Meer.
Zum Umwandeln gibt es ja dann den LUT Generator:
http://www.arri.de/camera/digital_camer ... rator.html
Antwort von iasi:
endlich eine eine (fast) 3k-Raw Kamera für 3k$
der Sensor ist gar größer als der den Red für die 3k$-Cam geplant hatte ...
mit einem Tokina 11-16 kommt man auf 25mm - ist doch wunderbar - ein 50/1.4 ist dann ein schönes 115mm ... sehr schön ...
Das Teil kommt wahrscheinlich her ...
Antwort von Thunderblade:
der Sensor ist gar größer als der den Red für die 3k$-Cam geplant hatte ...
Ja, aber das ursprungliche Scarlet-Konzept sah ja auch eine feste Optik und keine EF-Objektive vor.
Dass der Sensor, nicht die gleiche Tiefenschärfecharakteristik wie eine 35mm Kamera hat ist ja nicht das Hauptproblem (wobei das die BMCC als Alexa B-Kamera leider ausscheiden lässt) viel schlimmer ist halt der enorme Cropfaktor mit EF-Optiken.
Antwort von Frank Glencairn:
Wenn man nicht vom Filmen mit Fotoapperaten kommt, sondern von 35mm ist der Cropfaktor nicht soooo wild.
Ne 24er entspricht dann ungefäher einer 50er.
Und Optiken wie das Samjang 24mm 1.4 (t1.5) bietet dann auch genug DOF. Da muß man nicht mal Zeiss prime kaufen.
Wenn man unbeding weiter will, das Tokina 11-16 macht sich ganz hervorragend auf der BMC.
Also irgendeine ernsthafte Einschränkung kann ich hier nicht sehen.
Weitwinkel wird vor allem in Deutschland nicht nur völlig überschätzt sondern regelmäßig und dogmatisch bis zum abkotzen missbraucht, was dann den typisch miefigen, deutschen TV und Kino Look macht.
Antwort von Thunderblade:
Weitwinkel wird vor allem in Deutschland nicht nur völlig überschätzt sondern regelmäßig und dogmatisch bis zum abkotzen missbraucht, was dann den typisch miefigen, deutschen TV und Kino Look macht.
Also wenn ich an deutsche Kinfofilme (z.B die Til Schweiger Komödien Keinohrhasen, Zweiohrküken, Kokowääh, und Co.) denke kommt mir sofort der inflationäre Gebrauch von extrem langen Brennweiten in den Sinn. Das sieht dann als Gesamtwerk auch kacke aus.
Antwort von WoWu:
Warum sollte bei der Alexa bei Log-C auch Fullrange Sinnvoll sein, wenn das Signal bei ca. 10% sein Schwarz hat und bei ca. 95% clipt.
Weil Du dann keinen verschobenen Graupunkt hast.
Auch C-Log bezieht sich auf den vollen RGB- Wertebereich.
So werden sie Werte lediglich in die restlichen 876 Werte eingefügt, im FullRange wären es bekanntlich 1015 und wenn Du die Rauschanteile statt in die Werte um die Null legst, dann in die Werte ab 64, hast Du eben eine engere Dynamic, denn das Rauschen verschwindet ja nicht plötzlich, nur weil man andere Werte nimmt.
Damit liegt Dein 10% Schwarz entsprechend höher in der Wertetabelle und oben cipped es früher.
Antwort von iasi:
der Sensor ist gar größer als der den Red für die 3k$-Cam geplant hatte ...
Ja, aber das ursprungliche Scarlet-Konzept sah ja auch eine feste Optik und keine EF-Objektive vor.
Dass der Sensor, nicht die gleiche Tiefenschärfecharakteristik wie eine 35mm Kamera hat ist ja nicht das Hauptproblem (wobei das die BMCC als Alexa B-Kamera leider ausscheiden lässt) viel schlimmer ist halt der enorme Cropfaktor mit EF-Optiken.
die 3k-Red sollte ab 28mm haben ... die BMD kommt mit dem Tokina 11-16 auf 25mm - wo ist also das Problem?
Tiefenschärfecharakteristik ist ja zudem auch kein Ausschlußkriterium für eine Kombination mit einer Alexa ...
Antwort von WoWu:
Es ist bei solchen Crops ja weniger der "Brennweitenverlust" als vielmehr die, im Verhältnis (bei identischer Projektionsgrösse) anwachsenden Objektivfehler, die den Unterschied ausmachen.
Antwort von Paralkar:
Diese Sensorkritiken versteh ich nicht, ne C300 ist euch lieber mit super 35 der seine dynamik in 8 bit quetscht und trotz 422 schon stellenweise nach grütze ausschaut, letzteres wie man ja gesehen hat bei stärkeren Eingriffen in die Helligkeit zu Artefakten führt als der BMC Sensor, mit einem wirklich organischen Bild, 10 bit ProRes/DNXHD mit weitaus höherer Datenrate oder selbst Raw mit 13 Blenden DR?
Sorry aber selbst die Postproduction Argumente sind nichtig meiner Meinung nach, du hast selbst mit dem Rec 709 ein weitaus besseres Bild als DSLR, FS100/700, VG900; (C300 meiner Meinung nach), F3 (ohne S-log, 422, 444)
Das könnte man selbst mit nem guten Coloristen bei den andern trotzdem nicht qualitativ so ausschauen lassen wie die BMC, 420 bleibt halt 420
Und Optiken gibts ja jetzt wirklich genug, MFT Variante ist auch noch da, diese Kamera ist jetzt mal ehrlich und ohne zu übertreiben genial
technisch auf höchstem Niveau, scharf, wenig Moire Aliasing, 10-12 bit, 422 oder raw, 13 Blenden DR, 2.5k, gutes Rauschverhalten, keine teuren SSDs vom Hersteller, verschiedene Mounts zum Adaptieren von fast allem und ein Standardmount für Fotooptiken, moderne Anschlussmöglichkeiten (Thunderbolt), Peaking, Blendenkontrolle, Zebra (hoffenltich noch Waveformer), Focus Peaking, Touch (ob das gut ist, weiß cih nicht)
außerdem, professioneller Sound über 6,5 mm Klinke (ja es ist kein XLR drin, wir wissen es alle, aber erstens wärs sichelrihc nicht einfach geworden das unterzubringen und letzeres geht über die 6.5 von nem XLR Adapter rein, die meisten werden sowieso mit nem Rig arbeiten)
Akku, sorry das Ding war nie als Akku geplant, das is halt ein Hilfsakku, überbrücken und wenns doch mal schnell gehen soll, aber dafür gibts V-Mount Akkus on Mas, bei ner Red oder Alexa beschwert sich auch niemand das man extern ein Akku ranghängen muss (und die Kosten das 20 fache)
Außerdem gibts ein professionelles Color Grading Programm + ein Programm das als Live-Messgerät dient, man kann direkt über Thunderbolt auf Mac oder Raid zeichnen
Bildschirm, also entschuldigung ein Liliput für 250 Euro und über HD-SDI hat man ein Vorschaumonitor (dreh- und schwenkbar), und für bisschen mehr auch was besseres und gescheites
Depth of Field sollte doch bei ner offenblende von 1.4 oder 1.8 jedem reichen, wollt ihr jetzt alle diesen FF Look und dann nicht die Schärfe finden, das kann man ehrlich nciht zählen lassen
Mir fällt nix mehr ein, aber da wären sicherlich noch einpaar positive Sachen
Und das ganze für 2300 Euro, ihr kriegt eine Art mini-Alexa für 2300 Euro, die von manchen Sachen eine Epic schlägt, qualitativ höchstes Niveau bringt
Die C500 gibt 10 bit Raw extern raus, was man so nichtmal mit nem AJA Kipro Quad aufnehmen kann nur wieder weiter über Thunderbolt an ein Macbook mit Raid geben kann, diese Kamera kostet mehr als das 10fache, und bietet weniger Auflösung und Farbtiefe
Also irgendwo müssen wir mal die Kirche im Dorf lassen,
Abgesehen davon reagiert BM schnell auf Kundenwünsche, Meinungen und ist durchsichtig (viel Spaß bei Red)
Mich würde es interessieren ob der BRbeispielsweise ihre 5dm2/3s abgeben und sich lieber davon einpaar holen, sind sie zumindest mal Sendefähig
Zum Thema von CameraRick, ich würde behaupten
1. Insert
2. Pregraden
3. Proxy
4. Schnitt
5. Relink der Stellen fürs Compositing in AE, Flame, Smoke, Nuke
6. Weitergabe Davinci, Color Grading
gegebenfalls statt 5, Auspielung in DPX, Tiff-Sequenz...., Compositing, dan Danvinci...
Antwort von PeterM:
@wowu.
Das stimmt natürlich erst mal.
Glücklicherweise beziehen sich viele Objektivfehler auf die Randbereiche.
Abschattungen, Rand CA, Randunschärfen (teilweise nur in ein oder zwei Ecken z.B bei Sigma).
Die BMCC verwendet aber sozusagen nur die Sahnestückchen des Bildkreises.
Ich wage mal zu behaubten, dass selbst ein Lumix 7-14 das ja sehr auf elektronische
Korrektur in der Cam angewiesen ist, and der BMCC halbwegs gute Leistung erzielt, wenn man es denn nur sinnvoll an der BMCC verwenden könnte.
Des weiteren, wie ich schon früher gesagt hatte.
Es würde mich nicht wundern wenn irgend eine Linsenschleiferei ein 5 oder 6mm Glass
für die BMCC macht.
Antwort von RUKfilms:
mich als "leihe" wundert es trotzdem das sich fast keiner an den max 30fps stört?
Antwort von Jott:
Vielleicht wird Slow Motion von Laien überschätzt? Es gibt viele zehnmal so teure Kameras, die das nicht können (in 1080), die sich trotzdem hervorragend verkaufen. Wovon reden wir hier? Lächerliche 1.500 Euro (unter Anrechnung der Softwarebeilage).
Schlaflose Nächte sollte man aber trotzdem erst haben, wenn man die Kamera wie im richtigen Leben bestellen, bezahlen und erhalten kann. Was interessiert eine Kamera, bei der das nicht gegeben ist? Ich lebe und filme in der Gegenwart, jetzt.
Antwort von der_typ:
ist das Rolling Shutter schlimmer als z.b. das der 5DmkII?
Antwort von Frank Glencairn:
Ungefähr gleich, vielleicht etwas weniger.
Antwort von der_typ:
urks, schon viel, aber du hast ja selbst geschrieben das man im generellen nicht so herum rudert und mittlerweile gibts ja genug tools die das ausreichend gradebiegen.
hast du Frank als besitzer einer BMCC vielleicht noch ein paar rig bilder für uns? habe da mal ein bild in einem video von dir gesehen und würds mir gerne mal genauer anschauen
Antwort von Frank Glencairn:
Schau mal da (bisserl runter scrollen Day2 und Day8)
http://frankglencairn.wordpress.com/201 ... est-diary/
Antwort von RUKfilms:
Vielleicht wird Slow Motion von Laien überschätzt? Es gibt viele zehnmal so teure Kameras, die das nicht können (in 1080), die sich trotzdem hervorragend verkaufen. Wovon reden wir hier? Lächerliche 1.500 Euro (unter Anrechnung der Softwarebeilage).
Schlaflose Nächte sollte man aber trotzdem erst haben, wenn man die Kamera wie im richtigen Leben bestellen, bezahlen und erhalten kann. Was interessiert eine Kamera, bei der das nicht gegeben ist? Ich lebe und filme in der Gegenwart, jetzt.
das kann gut möglich sein. jemehr ich mich intensiv damit befasse desto weniger versteh ich es.
auf der RED page http://www.red.com/learn/red-101/high-f ... still-dark ist ein guter vergleich der fps. daraus schliesse ich für actionaufnahmen...je mehr desto besser - selbst wenn ich es nicht in slomo haben will. ok ist offtopic..
Antwort von CameraRick:
Weitwinkel wird vor allem in Deutschland nicht nur völlig überschätzt sondern regelmäßig und dogmatisch bis zum abkotzen missbraucht, was dann den typisch miefigen, deutschen TV und Kino Look macht.
Find ich immer noch annehmbarer als die vielen Leute die nur mit einer APS-C DSLR und dem 50mm f/1.8 filmen. Da ist einfach alles zu nah.
Inflationär ists in beide Richtungen, die Mitte (beziehungsweise die Abwechslung) machts.
Ich hab bislang in keinem Film versucht einen extremen oder unnatürlichen Weitwinkel darzustellen (obwohl, doch einmal, Szene beim Blick in den Spiegel aus Perspektive des Spiegels), sondern einfach viel aufs Bild zu kriegen. Eine gescheite Totale, ein Panorama, wo auch mal eine Kirche gesamt mit drauf geht, auch wenn ich nicht 1km weg stehe.
Zum Thema von CameraRick, ich würde behaupten
1. Insert
2. Pregraden
3. Proxy
4. Schnitt
5. Relink der Stellen fürs Compositing in AE, Flame, Smoke, Nuke
6. Weitergabe Davinci, Color Grading
gegebenfalls statt 5, Auspielung in DPX, Tiff-Sequenz...., Compositing, dan Danvinci...
Ähnliches dachte ich auch. Die CinemaDNGs kriege ich aber auch nur entwickelt in AE, wie es bei den anderen aussieht weiß ich gar nicht (vielleicht schieb ich mal eine daheim ins Nuke, wenn es das überhaupt schluckt...). Sprich, das Grading muss vorher stattfinden, bzw man müsste es zu DPXen machen (ich weiß nicht, inwiefern das ein Problem mit dem RAW-Eigenschaften macht; kann man das wohl gescheit zu Cineon wandeln?)
Antwort von CameraRick:
Vielleicht wird Slow Motion von Laien überschätzt? Es gibt viele zehnmal so teure Kameras, die das nicht können (in 1080), die sich trotzdem hervorragend verkaufen. Wovon reden wir hier? Lächerliche 1.500 Euro (unter Anrechnung der Softwarebeilage).
Schlaflose Nächte sollte man aber trotzdem erst haben, wenn man die Kamera wie im richtigen Leben bestellen, bezahlen und erhalten kann. Was interessiert eine Kamera, bei der das nicht gegeben ist? Ich lebe und filme in der Gegenwart, jetzt.
das kann gut möglich sein. jemehr ich mich intensiv damit befasse desto weniger versteh ich es.
auf der RED page http://www.red.com/learn/red-101/high-f ... still-dark ist ein guter vergleich der fps. daraus schliesse ich für actionaufnahmen...je mehr desto besser - selbst wenn ich es nicht in slomo haben will. ok ist offtopic..
Ich versteh schon, dass man sich an den "wenigen" FPS ggf stören könnte. Aber schauen wir doch mal auf Preis/Leistung der Kamera.
Das ist irgendwie auch etwas menschlich - wie viel soll es denn noch fürs Geld geben?
Es gibt doch nicht nur eine Kamera pro Projekt, ist doch ganz üblich mal was anderes für Speziel-Sachen zu nehmen. Will man einen Slowmotion-Film machen, ists natürlich die falsche Cam. Sollen einfach ein paar Slowmotions rein, dann mietet man eben eine Kamera die das kann (sei es nun RED, Alexa, Phantom oder FS700, da haben wir ja auch auswahl) - ist doch kein Problem.
Die Differenz, die Du ggf zu einer anderen Kamera die macht was Du brauchst sparst (gemäß dem Fall Du arbeitest nicht bei The Marmalade und brauchst Slowmotion jeden Tag), kriegst doch in Jahren (bzw bis zum nächsten Kamerakauf) durch Leihgeräte nicht erreicht.
Antwort von -paleface-:
Gibt es dafür eigentlich Display-Lupen? Und wenn ja wie bediene ich dann eigentlich die Kamera?
Ich stelle mir das zum Teil schwer vor, im Sommer bei Sonneneinstrahlungen, das Bild beurteilen zu können.
Hat auf den jetzigen DSLRs auch nie geklappt.
Oder haben die da irgend einen Clou drinnen?
Aber das liest sich sonst sehr gut.
Antwort von Predator:
Ne, im Sommer draußen kommst um einen EVF nicht rum. Achtung: Die Kamera hat nur einen SDI Ausgang, keinen HDMI.
Antwort von CameraRick:
Die Kamera hat nur einen SDI Ausgang, keinen HDMI.
Atomos hat doch diese netten neuen Adapter. Dürfte man an viele Bildschirme direkt dran kriegen können.
Antwort von WoWu:
@ PeterM
Hi Peter,
ich wollte damit auch gar nicht sagen, dass man die Gläser nicht benutzen. Es ist nur eben 2nd best, denn die ganzen Fehler, die sich nicht am Rand abspielen, sind natürlich voll sichtbar.
Insofern ist die Auswahl da schon einwenig kleiner.
Aber Preis-Leistungsverhältnis bei der Kamera scheint zu stimmen.
Also, mal abwarten, bis die Kamera lieferbar ist und dann mal selbst probieren, denn auf die Tests gebe ich nichts.
Antwort von -paleface-:
Ne, im Sommer draußen kommst um einen EVF nicht rum. Achtung: Die Kamera hat nur einen SDI Ausgang, keinen HDMI.
Ja und wie bediene ich die Cam dann? Läuft doch alles über den Screen!
Antwort von Frank Glencairn:
Ne, im Sommer draußen kommst um einen EVF nicht rum. Achtung: Die Kamera hat nur einen SDI Ausgang, keinen HDMI.
Ja und wie bediene ich die Cam dann? Läuft doch alles über den Screen!
Das geht schon (vor allem mit der Sonnenblende drauf), is ja dicke weiße Schrift auf dunkelgrau - nur fimen geht draußen oft nicht mit dem Monitor.
Preis und DSLR-artige Formgebung machen immer den Eindruck, das sei eine billige Hobby Kamera, die man - so wie sie ist - aus dem Rucksack nehmen, und im Touristenstil (mit vorgestreckten Armen) rumschwenken kann.
Is nich!
Das Teil heißt nicht umsonst "Cinema" Kamera - man braucht alles was man zu einer Red oder Arri auch braucht. Minimum V-Mount Akku, Monitor, Rig. Wenn man auch noch Ton will, einen Fieldmixer.
Antwort von Predator:
Ne, im Sommer draußen kommst um einen EVF nicht rum. Achtung: Die Kamera hat nur einen SDI Ausgang, keinen HDMI.
Ja und wie bediene ich die Cam dann? Läuft doch alles über den Screen!
http://www.br-online.de/bildung/databrd ... z01b01.jpg
Antwort von Frank Glencairn:
]
http://www.br-online.de/bildung/databrd ... z01b01.jpg
Oder so.
Antwort von WoWu:
Das Teil heißt nicht umsonst "Cinema" Kamera - man braucht alles was man zu einer Red oder Arri auch braucht. Minimum V-Mount Akku, Monitor, Rig. Wenn man auch noch Ton will, einen Fieldmixer.
Endlich einmal "gelassen" ausgesprochen.
Nur manche verwechseln es eben als DSLR (Ersatz) zu benutzen...
Antwort von CameraRick:
Ich verstehe halt nicht, wieso immer so viel rumgejuckelt wird, bei der Preis/Leistung.
Sensor, FPS, Handling - dann nimmt man doch einfach eine Kamera die das alles besser macht und kauft sich die stattdessen. Und bezahlt eben den entsprechenden Preis. Ist doch super - nicht jeder braucht/will RAW; das ist legitim. Wie ob man Schaltwagen oder Automatik fährt.
Die DSLR-Filmemacher wissen es entweder zu schätzen und entwickeln sich weiter (Kompromisse werden hier, genau wie bei DSLRs, dann gemacht), oder sie bleiben weiter bei ihrem Setup weil das ja viel mehr Unschärfe in den Hintergrund bringen kann (meine pessimistische Schätzung liegt hier bei 30:70).
Ich freu mich schon auf den Club derer die es kaufen, weil RAM ja immerhin RAW ist, und sich dann ärgern dass das im Workflow ja alles viel komplizierter und umständlicher geworden ist, als alles in eine Vegas-Timeline zu ziehen.
Antwort von iasi:
Das Teil heißt nicht umsonst "Cinema" Kamera - man braucht alles was man zu einer Red oder Arri auch braucht. Minimum V-Mount Akku, Monitor, Rig. Wenn man auch noch Ton will, einen Fieldmixer.
Endlich einmal "gelassen" ausgesprochen.
Nur manche verwechseln es eben als DSLR (Ersatz) zu benutzen...
so gesehen ist die bmd-cam aber eben auch ein krüppel: kommt mit display und batterie daher, kann damit aber eben doch nicht richtig filmen.
das stört dann eben doch ...
eine "fernbedienung" wie bei red wäre zudem ein echter gewinn.
hätte bmd den internen akku hinter einer klappe platziert, wäre ich begeistert.
Antwort von sentenza:
ich hab meine im juli vorbestellt..mal sehen ob es dieses jahr noch was wird.
aufjedenfall bin ich dermaßen heiss auf diese kamera, dass ich das derzeitige wetter gut aushalten kann. :)
ich versteh auch nicht genau warum hier bis ins kleinste detail versucht wird die kamera schlechter zu machen. da is mir oft zuviel technisches geplänkel dabei. auch wenn das schon wichtig sein kann für manche.
das bild find ich einfach geil. 16mm look ist genau mein ding.
und der grund das man alles braucht wie bei ner red oder arri (monitor, rig etc.) is für mich nicht ausschalggebend. das hab ich bei meiner dslr auch alles dran. aber ich bin ziemlich sicher wer mit der dslr aus der hand gefilmt hat wird auch damit es ohne probleme können.
die kamera ist einfach der wahnsinn.
Antwort von WoWu:
@iasi
Klar, wäre alles ein Zugewinn .... aber mir ist es lieber, ich bekomme einen Sensor mit einer halbwegs guten Verarbeitung und einer vernünftigen Docking-Software auf einer professionellen Schnittstelle, zu einem Preis, den ich morgen abschreiben kann (oder spätestens, wenn's etwas besseres gibt), als ein Geschütz, das zwar allen "Zauber" dran hat, aber das 10-oder20-fache kostet.
Monitore, Akkus und was man sonst so braucht, hat man meistens und kann es auch noch benutzen, wenn das Teil schon lange überholt ist.
Was die Bedienung betrifft, wird man sich entweder darauf einstellen können, oder das Ding wieder ad acta legen.
Das muss man halt sehen.
Für mich ist das jedenfalls ein Schritt in die richtige Richtung.
(Hoffentlich) gute Qualität, auf einem (halbwegs) standardisierten (Cine) Format, fast reduziert auf die Sensoreinheit und einer passenden Schnittstelle... mit dem Resultat eines angepassten Preises.
Was will man eigentlich mehr ?
Das ist das vernünftigste Minimum ... wenn's denn gute Bilder macht.
Antwort von CameraRick:
@iasi
Klar, wäre alles ein Zugewinn .... aber mir ist es lieber, ich bekomme einen Sensor mit einer halbwegs guten Verarbeitung und einer vernünftigen Docking-Software auf einer professionellen Schnittstelle, zu einem Preis, den ich morgen abschreiben kann (oder spätestens, wenn's etwas besseres gibt), als ein Geschütz, das zwar allen "Zauber" dran hat, aber das 10-oder20-fache kostet.
Monitore, Akkus und was man sonst so braucht, hat man meistens und kann es auch noch benutzen, wenn das Teil schon lange überholt ist.
Was die Bedienung betrifft, wird man sich entweder darauf einstellen können, oder das Ding wieder ad acta legen.
Das muss man halt sehen.
Für mich ist das jedenfalls ein Schritt in die richtige Richtung.
(Hoffentlich) gute Qualität, auf einem (halbwegs) standardisierten (Cine) Format, fast reduziert auf die Sensoreinheit und einer passenden Schnittstelle... mit dem Resultat eines angepassten Preises.
Was will man eigentlich mehr ?
Das ist das vernünftigste Minimum ... wenn's denn gute Bilder macht.
Amen.
Antwort von iasi:
@iasi
Klar, wäre alles ein Zugewinn .... aber mir ist es lieber, ich bekomme einen Sensor mit einer halbwegs guten Verarbeitung und einer vernünftigen Docking-Software auf einer professionellen Schnittstelle, zu einem Preis, den ich morgen abschreiben kann (oder spätestens, wenn's etwas besseres gibt), als ein Geschütz, das zwar allen "Zauber" dran hat, aber das 10-oder20-fache kostet.
Monitore, Akkus und was man sonst so braucht, hat man meistens und kann es auch noch benutzen, wenn das Teil schon lange überholt ist.
Was die Bedienung betrifft, wird man sich entweder darauf einstellen können, oder das Ding wieder ad acta legen.
Das muss man halt sehen.
Für mich ist das jedenfalls ein Schritt in die richtige Richtung.
(Hoffentlich) gute Qualität, auf einem (halbwegs) standardisierten (Cine) Format, fast reduziert auf die Sensoreinheit und einer passenden Schnittstelle... mit dem Resultat eines angepassten Preises.
Was will man eigentlich mehr ?
Das ist das vernünftigste Minimum ... wenn's denn gute Bilder macht.
Na also ein Batteriefach, wie es jede Kamera in dieser Preisklasse besitzt, hätten sie durchaus mit reinkonstruieren können, ohne dass sich gleich der Preis hätte vervielfachen müssen. Schließlich steckt ja schon ein Akku in der Kamera. Nach der 5dII kamen die DSRL auch darauf, dass man schwenkbare Displays an die Kamera machen könnte - auch dies wäre kein großer Akt gewesen.
Irgendwie sind das halbe Sachen, die nicht sein müssen.
Ein V-Mount ist eben gleich wieder ein ordentliche Brocken, der irgendwo angebracht und per Kabel mit der Kamera verbunden werden muss.
ICH WILL EIN AKKUFACH !!!!!!
Antwort von WoWu:
Frage ist eben nur, wo fängt es an und wo hört es auf.
Und ich teile da Franks Ansicht 100%ig, dass das Teil als CineCam gedacht ist und wer sie so einsetzt, braucht auch kein Schwenkdisplay.
Ich denke, das ist einfach nur eine Frage des Verständnisses.
Mir ist es lieber, das Teil hat kein Gedöhns drum rum und macht gute Bilder, als dass ich noch ein zusätzliches Akkuformat und jede Menge (dann zwangsläufig billige) Zusatzartikel habe, die ich entweder gar nicht benutze, aber bezahle .. oder, noch schlimmer, die ich benutzen muss, weil ich keine Alternativen habe.
Das Teil hat alles, was es braucht: ein halbwegs benutzbares Mount, scheinbar auch einen brauchbaren Sensor, ein gutes Cine Format und die bestmögliche Schnittstelle.
Bedienbar ist es auch, vielleicht nicht besonders komfortable, aber (ohne sie bisher in der Hand gehabt zu haben) denke ich mir, es wird schon gehen.
Bisschen bittere Pille ist, dass kein Proxy parallel aufzuzeichnen ist.
Mal sehn, was man da "on fly" machen kann.
Übrigens würde ich dem, was z.B. Frank hier zu dem Thema sagt, deutlich mehr Beachtung schenken und vertrauen, als den "Blog-Spezialisten".
Deswegen weiss ich gar nicht, was mache hier noch von solchen Tests erwarten. Das Wichtige ist eigentlich schon lange bekannt.
Antwort von iasi:
Frage ist eben nur, wo fängt es an und wo hört es auf.
Und ich teile da Franks Ansicht 100%ig, dass das Teil als CineCam gedacht ist und wer sie so einsetzt, braucht auch kein Schwenkdisplay.
Ich denke, das ist einfach nur eine Frage des Verständnisses.
Mir ist es lieber, das Teil hat kein Gedöhns drum rum und macht gute Bilder,
genau weil ich gerne ein kamera hätte, die ohne das Gedöhns drum rum auskommt, wünsche ich mir ja ein Akkufach ... Objektiv mit Gegenlichtblende vorn dran und los geht es.
Die Red Scarlet hat ebenfalls ein 5" Touchscreen - aber eben schwenkbar - das geht ganz gut damit - für die Bedienung ist mir das Redmote aber lieber - wäre schön, wenn es so etwas für die BMD auch geben würde.
Für die Red gibt es zudem den Handgriff mit Akkufach - wobei mir die 30 Minuten pro Akku dann doch zu kurz sind.
Die BMD soll 1h mit dem internen Akku arbeiten - das wäre doch schon mal was - diesen jetzt noch wechselbar und man wäre unabhängig von Verkabelungen und Anbauten.
V-Mount wären dann eine Option, aber eben nicht ständig notwendig.
Ansonsten ist das eine Kamera, die ich wohl längst hätte, wenn die Produktionsprobleme nicht wären.
Antwort von iasi:
Bisschen bittere Pille ist, dass kein Proxy parallel aufzuzeichnen ist.
Mal sehn, was man da "on fly" machen kann.
Ich dachte auch, dies wäre bei der Scarlet eine feine Sache und nehme mir auch dauernd vor ein Hypedeck Shuttle zu bestellen - in der Praxis vermisse ich es aber dann doch nicht.
Letztlich wäre es ein zusätzlicher Aufwand während des Drehs - ich drehe RAW und achte nur auf das Histogramm und den (grob) passenden Farbkorrekturfilter vor der Linse. Um Weißabgleich usw. kümmere ich mich nicht.
Antwort von WoWu:
Weissabgleich ist nicht das Problem, aber das, was am SET gemacht wird ist bei uns immer die Referenz in der Post.
Von der Grundlinie aus hochgraden ist bei uns verpönt, weil man alles das damit ignoriert, was die Leute am Set gemeint haben.
Für uns sind die Set-Vorgaben immer Ausgangspunkt und Referenz.
Nun weiss ich nicht, wie exakt die Reverse Kurven sind und wie gut damit die Rekonstruktionen.
Jedenfalls wäre ein Proxy schon ganz oben auf meiner Wunschliste.
Antwort von chackl:
Frage zum Crop Faktor:
Ich filme ja oft mit meiner Iscorama 36 auf Nikon Linsen - dabei kann ich bei meiner Nikon D7000 nicht unter ca. 40mm gehen, da es zu vignetieren anfängt.
Wie verhält es sich bei der BMCC?
Muss ich dann mit min. 90mm rumkrebsen, wenn ich den Anamorphoten verwenden möchte, oder "verschiebt" sich das Vignettierungsproblem aufgrund der Sensorgröße?
Antwort von iasi:
Weissabgleich ist nicht das Problem, aber das, was am SET gemacht wird ist bei uns immer die Referenz in der Post.
Von der Grundlinie aus hochgraden ist bei uns verpönt, weil man alles das damit ignoriert, was die Leute am Set gemeint haben.
Für uns sind die Set-Vorgaben immer Ausgangspunkt und Referenz.
Nun weiss ich nicht, wie exakt die Reverse Kurven sind und wie gut damit die Rekonstruktionen.
Jedenfalls wäre ein Proxy schon ganz oben auf meiner Wunschliste.
Schwierig bei RAW etwas am Set "festzulegen" - woran will man sich da orientieren, wenn nicht an den reinen Messwerten.
Die "Enwicklung" findet schließlich in der Post statt.
RAW hat bzgl. der Arbeitsweise etwas von Ansel Adams - das Ergebnis sieht man erst nach der Entwicklung.
Antwort von WoWu:
Darüber will ich nicht streiten, denn offenbar gibt es da mehrere Auffassungen, aber bei uns bestimmt immer das gesetzte Licht die Ausgangsbasis (so, wie auch beim Film) und die Kunstbezeichnung "digitales Negativ" gibt es bei uns auch nicht, denn das, was da aufgenommen wurde hat schon im Ansatz nichts mit einem negativ zu tun, denn dann würden die gesamten Dichtewerte (der Gammakurve) komplett auf den Kopf gestellt, denn ein negativ hat seine höchste Auflösung genau da, wo die E-Kamera sie nicht hat.
Insofern ist das ein Kunstwort für die, im Videogeschäft noch nicht richtig angekommen sind, oder es auch gar nicht wollen.
Aber streiten wir uns nicht drum ... wir erwarten in der Post zunächst das zu sehen, was wir am Set gefilmt haben. Das mag altmodisch sein, aber wir wollen in der Post nicht kreativ sein sondern reproduktiv. Die Kreativität findet bei uns zum grössten Teil am Set statt.
Daher ist RAW für uns auch lediglich eine erweiterte Übertragungsform und kein kreatives Mittel.
Aber das mag jeder sehen, wie er will.
Allerdings halte ich auch die Vorstellung, man könne mit RAW "alles in der Post" machen, für ziemlich dilettantisch, denn die Belichtung geschieht nach wie vor am Sensor und RAW ist lediglich die Wertetabelle, die das wiedergibt, was man der Kamera angeboten hat. Ob das nun Farbraumneutral ist oder nicht. Das Licht "beschädigt" man immer am Sensor und wer da nicht aufpasst kann auch nix mehr "entwickeln".
Antwort von Axel:
Wenn man sich die restaurierte Fassung von Hitchcocks "Vertigo" anguckt, dazu das making of eben dieser Restaurierung (natürlich digital) steigt die Erfurcht vor dem, was in puncto Farbwirkung in dieser grauen Vorzeit nur mit Licht und Ausstattung geleistet wurde (der Film hat jüngst Citizen Kane von Platz eins der besten Filme aller Zeiten - gewählt haben Filmschaffende und Kritiker - verdrängt). Aber: Wer glaubt, eine unkorrigierte Kopie des Negativs (Fachjargon: "Klatsche") sei damals schon schön gewesen, irrt. Raw ist bestimmt kein digitales Negativ, aber es sieht ungegradet genauso arm aus wie eine Klatsche. Und hat ein ebensolches Potential.
Antwort von WoWu:
Ja, aber wenn Du am Set kein Licht gesetzt hast, ist RAW auch nur Schwarz, bzw. Rauschen.
Du kannst zwar innerhalb des Farbraum freier hantieren, aber wenn keine Lumawerte da sind oder alle Pixels FullWell gemeldet haben, hast Du auf RAW auch nix mehr.
Licht ist das A&O (genau wie bei der Klatsche). Nicht die Post.
Antwort von Frank Glencairn:
Das Licht "beschädigt" man immer am Sensor und wer da nicht aufpasst kann auch nix mehr "entwickeln".
Für mich war die Belichtung mit der BMC am Anfang eine enorme Umgewöhnung, aber wenn man das nötige Vertrauen mal gefunden hat, ist es ein absoluter nobrainer.
Die Zebras der Kamera arbeiten immer auf Sensorebene, d.h. völlig unabhängig von irgendwelchen Einstellungen oder der Darstellung am Screen oder SDI out. Wenn der Sensor clipt tauchen sie auf.
Wenn ich die auf 100% stelle und so belichte, daß sie gerade so verschwinden (abgesehen von Autolichtern, Chromglanzpunkten oder wenn ich z.B. Fenster mit Absicht ausbrennen lassen will) hab ich immer die bestmögliche Belichtung der jeweiligen Szene. Eigentlich idiotensicher.
Anfangs hab ich immer versucht viel dunkler zu belichten, was dann jedes mal ein Desaster war. Irgendwann gibt man dann das "Besserwissen" auf und vertraut den Zebras.
Side Note: Immer wieder erstaunlich, daß sich sich niemand über fehlende Akkuklappen bei der Red, der Alexa oder den unzähligen ENG Schulter Camcordern beschwert hat. Die RED Bodies haben im übrigen ebenfalls keinen Bildschirm, den muß man genauso extra dazu kaufen - sagt auch keiner was.
Antwort von Tiefflieger:
Um Eckpunkte bei der RAW Verarbeitung zu haben finde ich den Canon Ansatzpunkt interessant.
https://www.slashcam.de/news/single/Ein ... 10258.html
.. Canon RAW Format RMF (Raw Media Format), ... Weisabgleich und das ISO in das File "einzubacken"... Das Debayering scheint hingegen immer noch in der Post zu geschehen.
Da auch der Weisspunkt im Farbraum REC.709 und REC.2020 gleich ist.
Gruss Tiefflieger
Antwort von WoWu:
Leider gibt es ja so um die 20 verschiedene RAW Verfahren und wir sind meilenweit von einer Standardisierung entfernt.
Daher ist auch nicht alles in allen verfahren möglich (und sinnvoll). Dazu kommt noch, dass Leute wie RED alles als Geheimnis verkaufen und man selbst kaum Möglichkeiten hat, das Verfahren zu beeinflussen.
Die sinnvollste und funktionierendste Art erscheint mir im Augenblick wirklich noch das Adobe Verfahren.
Und es funktioniert auch noch sehr gut und lehnt sich an andere Standards an.
Daran sollten sich andere Firmen mal ein Beispiel nehmen und es vielleicht auch unterstützen.
Antwort von iasi:
Darüber will ich nicht streiten, denn offenbar gibt es da mehrere Auffassungen, aber bei uns bestimmt immer das gesetzte Licht die Ausgangsbasis (so, wie auch beim Film) und die Kunstbezeichnung "digitales Negativ" gibt es bei uns auch nicht, denn das, was da aufgenommen wurde hat schon im Ansatz nichts mit einem negativ zu tun, denn dann würden die gesamten Dichtewerte (der Gammakurve) komplett auf den Kopf gestellt, denn ein negativ hat seine höchste Auflösung genau da, wo die E-Kamera sie nicht hat.
Insofern ist das ein Kunstwort für die, im Videogeschäft noch nicht richtig angekommen sind, oder es auch gar nicht wollen.
Aber streiten wir uns nicht drum ... wir erwarten in der Post zunächst das zu sehen, was wir am Set gefilmt haben. Das mag altmodisch sein, aber wir wollen in der Post nicht kreativ sein sondern reproduktiv. Die Kreativität findet bei uns zum grössten Teil am Set statt.
Daher ist RAW für uns auch lediglich eine erweiterte Übertragungsform und kein kreatives Mittel.
Aber das mag jeder sehen, wie er will.
Allerdings halte ich auch die Vorstellung, man könne mit RAW "alles in der Post" machen, für ziemlich dilettantisch, denn die Belichtung geschieht nach wie vor am Sensor und RAW ist lediglich die Wertetabelle, die das wiedergibt, was man der Kamera angeboten hat. Ob das nun Farbraumneutral ist oder nicht. Das Licht "beschädigt" man immer am Sensor und wer da nicht aufpasst kann auch nix mehr "entwickeln".
und hier unterscheiden sich eben Video- von Digital-Cinema-Produktionen
Man muss RAW schon als das sehen was es ist: Sensordaten, die erst in der Post zum endgültigen Resultat werden.
Alles, was man während des Drehs sieht, ist nicht mehr, als das was Anseln Adams mit den Augen durch den Sucher sah - das Ergebnis ensteht im Kopf und eben später in der Entwicklung.
Thomas Maier hat es in Film&TV Kameramann bzgl. seiner F65-Erfahrungen recht gut formuliert:
"Generell rate ich davon ab, on set nur das LOG-Signal anzuschauen ... man sollte sich eher auf echte Sensor-Raw-Histogramme verlassen als auf eine wie auch immer geartete Videovorschau. Das sind digitale Film- und keine EB-Kameras, das Bild entwickeln wir dann schon! Hauptsache, die Dynamik des Sensors wird optimal ausgenutzt ..."
Gerade wer sorgfältig arbeitet, nutzt Belichtungs- und Farbtemperaturmesser zusammen mit Filtern und eben nicht die Kameraelektronik.
Für "dilettantisch" halte ich es, wenn man an ISO und Weißabgleich herumdreht, statt den Sensor in jedem Farbkanal korrekt zu nutzen. Statt einen Korrekturfilter zu verwenden, schauen viele aufs Display, stellen auf "Kunstlicht" und lassen dann den Rotkanal clippen oder es blau rauschen wie am Meere.
Ein gutes RAW-Bild ist flat und zeigt Details in den Lichtern und auch in den dunkelsten Bildbereichen. Die bildwichtigen Bereiche liegen im idealen Bereich des Histogramms.
Und nun beginnt die "Entwicklung" ...
Wer hier dann versucht einfach nur die "Videovorschau" vom Set zu reproduzieren, hat die Möglichkeiten von Raw nicht verstanden.
Gerade Resolve ist fantastisch, wenn es darum geht, das Potential von Raw voll auszuschöpfen.
Deshalb ist ja auch das Angebot von BMD so verlockend: Raw-Kamera und Resolve zum echten Kampfpreis.
Antwort von iasi:
Side Note: Immer wieder erstaunlich, daß sich sich niemand über fehlende Akkuklappen bei der Red, der Alexa oder den unzähligen ENG Schulter Camcordern beschwert hat. Die RED Bodies haben im übrigen ebenfalls keinen Bildschirm, den muß man genauso extra dazu kaufen - sagt auch keiner was.
Red hat aber eben auch keinen Akku im Body eingebaut. Am optionalen Handgriff lassen sie sich wechseln.
Das 5"Red-Display ist wiederum sehr flexibel, auch wenn es bombenfest mit dem Body verbunden ist und eine Einheit bildet.
Da muss sich BMD schon den Vorwurf gefallen lassen, nur halbe Sachen gemacht zu haben.
Wie sieht denn das Raw-Histogramm der BMD aus?
Zebra ist gut, aber ein gutes Histogramm zeigt eben auch, wie es mit den anderen Bildteilen steht.
Antwort von WoWu:
Ich glaube, wir reden aneinander vorbei.
Nach deiner Auffassung gibt es niemanden mehr am Set, der Licht aufbaut, Farben bestimmt, Schatten ausleuchtet oder färbt usw.usw.
Kein mensch spricht davon, dass das RAW Signal (as it is) betrachtet werden soll. Da gehört immer ein entsprechender LUT drauf, um es am Set zu Monitoren.
Und Histogramme sind auch nur eine Messwiedergabe, die ohne natürliches Bild nur Schall und rauch sind, weil viele Bildinhalte kar nicht mit Histogrammen korrespondieren können und sollen.
Ausserdem tust Du so, als könne man bei einem "natürlichen" Arbeiten hinterher nichts mehr korrigieren ...
Für "dilettantisch" halte ich es, wenn man an ISO und Weißabgleich herumdreht, statt den Sensor in jedem Farbkanal korrekt zu nutzen. Statt einen Korrekturfilter zu verwenden, schauen viele aufs Display, stellen auf "Kunstlicht" und lassen dann den Rotkanal clippen oder es blau rauschen wie am Meere.
Das mag den Amateuren so gehen, ist aber Fehlbedienung.
Aber, wie ich schon sagte. Jeder soll nach seiner Fasson seelig werden.
Wir arbeiten mit Licht am Set und nicht mit Elektronik in der Post. Und Beleuchter haben bei uns noch den Stellenwert, den sie auch beim Film hatten. Und der Mann im Grading hat reproduzierende Aufgaben und ein Bild herzustellen, das nicht seiner Fantasie entspringt, sondern die Wiedergabe der Realität repräsentiert, wie die Leute am Set sie vorgefunden haben.
Aber das kann jeder halten, wie er will.
Ein gutes RAW-Bild ist flat und zeigt Details in den Lichtern und auch in den dunkelsten Bildbereichen. Die bildwichtigen Bereiche liegen im idealen Bereich des Histogramms.
Ich weiss ja nicht, was für ein RAW Du da benutzt, aber wir bekommen lediglich die Limawerte rausgereicht. Nicht De-Bayered. Das gibt uns die Möglichkeit eines der 5 Debayerverfahren einzusetzen, die uns hier zur Verfügung stehen, um ggf auch andere Farbgewichtungen zu realisieren.
Und was die Zeichnung in den dunklen Bereichen angeht, sind die auch nur da, wenn Du richtig ausgeleuchtet hat, sonst ist da nämlich auch bei RAW nur Rauschen.
Der Sensor funktioniert nämlich genauso wie in andern Kameras.
Und wenn die Kollegen schreiben:
das Bild entwickeln wir dann schon!
Dann spricht das Bänd.
Antwort von Frank Glencairn:
Red hat aber eben auch keinen Akku im Body eingebaut. Am optionalen Handgriff lassen sie sich wechseln.
Das 5"Red-Display ist wiederum sehr flexibel, auch wenn es bombenfest mit dem Body verbunden ist und eine Einheit bildet.
Da muss sich BMD schon den Vorwurf gefallen lassen, nur halbe Sachen gemacht zu haben.
Wie sieht denn das Raw-Histogramm der BMD aus?
Zebra ist gut, aber ein gutes Histogramm zeigt eben auch, wie es mit den anderen Bildteilen steht.
Richtig, die BMC ist meines Wissens die einzige Kamera, die einen Puffer Akku eingebaut hat, damit du im laufenden Betrieb den Kamera-Akku wechseln kannst ohne die Aufnahme zu stoppen (wenn es mal sein muß). Dafür war der interne Akku gedacht oder um in Sondersituationen mal ohne die normalen Anbauten damit zu drehen (Kamera im Kühlschrank, Stealth Shooting in der U-Bahn z.B.). Den V-mount Akku kannst du natürlich nach belieben wechseln, wie den in deinem Handgriff. Ich versteh den Punkt nicht.
Mein TV-Logic ist auch super flexibel und Bombenfest - allerdings kann ich ihn überall anschrauben wo ich will.
Histogramm gibt's vielleicht bald per Firmware, persönlich kann ich allerdings darauf verzichten, die False-Color Anzeige auf meinem Monitor ist viel effizienter und spart mir ne Menge Zeit und Arbeit am Set.
Antwort von iasi:
Ich glaube, wir reden aneinander vorbei.
Nach deiner Auffassung gibt es niemanden mehr am Set, der Licht aufbaut, Farben bestimmt, Schatten ausleuchtet oder färbt usw.usw.
Hab ich das eigentlich mit irgend einem Wort gesagt?
Nur gibt es dabei eben die Bauch- und die Kopfmethode.
Kein mensch spricht davon, dass das RAW Signal (as it is) betrachtet werden soll. Da gehört immer ein entsprechender LUT drauf, um es am Set zu Monitoren.
Und Histogramme sind auch nur eine Messwiedergabe, die ohne natürliches Bild nur Schall und rauch sind, weil viele Bildinhalte kar nicht mit Histogrammen korrespondieren können und sollen.
"Natürliches Bild"?
Wo hast du das denn am Set?
Du kannst letztlich nur mit Hilfe der "Messwiedergabe" das Bild beurteilen, das der Sensor letztlich "sieht" und aufzeichnet.
Ganz so wie beim Zonensystem oder auch bei der guten alten klassischen Arbeit mit Filmnegativ.
Wer nur nach dem blosen Auge oder gar den Monitorn am Set arbeitet, braucht wirklich kein RAW.
Wenn ein Bildteil nicht innerhalb des Histogramms liegt, hast du weiß oder schwarz - also kein Bild.
Was du immer mit der Ausleuchtung hast, verstehe ich übrigens nicht:
Wenn ich den Dynamikbereich ausnutze und alle Bildinformationen innerhalb des Histogramms habe, sind die dunklen Bereiche korrekt ausgeleuchtet, sonst liegen sie nämlich außerhalb des Histogramms.
Wer richtig ausleuchtet, macht das mit Messgeräten und eben nicht nur mit irgendeinem Monitorbild oder dem bloßen Augen.
Auf der neuen BD von "Lawrence of Arabia" ist auch ein Interview mit Peter O"Toole, in dem er begeistert von Freddie Young erzählt: Er habe sich etwas gebastelt, um die Abdrücke der Kamele im Sand nachzubilden, damit er die Schatten darin nachmessen konnte.
Ich rede auch dauernd von Ansel Adams, weil er mit dem Licht zeichnete - unter Verwendnung von Messgeräten und der "Entwicklung".
Antwort von iasi:
Histogramm gibt's vielleicht bald per Firmware, persönlich kann ich allerdings darauf verzichten, die False-Color Anzeige auf meinem Monitor ist viel effizienter und spart mir ne Menge Zeit und Arbeit am Set.
Dann arbeite mal mit Histogramm und du wirst sehen, wie effektiv das ist.
Antwort von WoWu:
Das ist es ja, was ich sage ...Du beschreibst gerade, bis auf Deine imaginäre Entwicklung auch unsern Belichtungsweg.
Wir haben immer ein 10 Bit-Proxy Bild am Set, das auch parallel aufgezeichnet wird und in der Post zur Korrektur dient, weil wir gar keine 12 Bit sehen können, also wurschteln wir darin auch nicht rum.
Der Beleuchter hat seine Messgeräte und der Kameramann seinen Geschmack und das, was die Kamera ihm an Sicht- und Messmöglichkeit bietet.
Insofern unterscheiden wir uns vielleicht nur im Proxy, den Du nicht hast.
Bei uns wird auch wird mehr in der Post entwickelt, weil alles sichtbar war, was man hinterher erwarten kann.
Unterschiedliches De-Bayering führt lediglich zu andern Gewichtungen und ggf. zu Korrekturen.
Da gibt es kein Rumgewurschtel in RAW Daten.
Die Parameter, die einzuhalten sind, liegen fest und die Reverse Kurve für die Übertragung ebenfalls.
Korrekturen werden zu den Metadaten vorgenommen und die Rechenarbeit am Originalfile macht die Belichtung.
Aber ich hab es schon mal gesagt .... das kann jeder machen, wie er will und wer ohne Proxy und die Beurteilung am Set auskommt ... der muss eben im trüben fischen. Umso grösser ist dann halt die Überraschung.
Das ist uns zu riskant und wir wollen beim Dreh sehen, was wir mindestens hinterher erwarten können, weil Nachdrehs nicht nur Geld, sondern vielmehr Zeit und Ruf kosten.
Antwort von Frank Glencairn:
Dann arbeite mal mit Histogramm und du wirst sehen, wie effektiv das ist.
Ich hab Jahre damit gearbeitet und bin mehr als froh, daß ich was habe, das für mich viel besser funktioniert - aber jedem das seine.
Antwort von iasi:
Das ist es ja, was ich sage ...Du beschreibst gerade, bis auf Deine imaginäre Entwicklung auch unsern Belichtungsweg.
Wir haben immer ein 10 Bit-Proxy Bild am Set, das auch parallel aufgezeichnet wird und in der Post zur Korrektur dient, weil wir gar keine 12 Bit sehen können, also wurschteln wir darin auch nicht rum.
Der Beleuchter hat seine Messgeräte und der Kameramann seinen Geschmack und das, was die Kamera ihm an Sicht- und Messmöglichkeit bietet.
Insofern unterscheiden wir uns vielleicht nur im Proxy, den Du nicht hast.
Bei uns wird auch wird mehr in der Post entwickelt, weil alles sichtbar war, was man hinterher erwarten kann.
Unterschiedliches De-Bayering führt lediglich zu andern Gewichtungen und ggf. zu Korrekturen.
Da gibt es kein Rumgewurschtel in RAW Daten.
Die Parameter, die einzuhalten sind, liegen fest und die Reverse Kurve für die Übertragung ebenfalls.
Korrekturen werden zu den Metadaten vorgenommen und die Rechenarbeit am Originalfile macht die Belichtung.
Aber ich hab es schon mal gesagt .... das kann jeder machen, wie er will und wer ohne Proxy und die Beurteilung am Set auskommt ... der muss eben im trüben fischen. Umso grösser ist dann halt die Überraschung.
Das ist uns zu riskant und wir wollen beim Dreh sehen, was wir mindestens hinterher erwarten können, weil Nachdrehs nicht nur Geld, sondern vielmehr Zeit und Ruf kosten.
Wozu brauchst du dann aber noch Raw?
Bei eurer Arbeitsweise nehmt ihr eh nur das Bild, das ihr auf dem Videomonitor am Set seht.
Damit verschenkt ihr jedoch viel Potentail.
Raw ist einerseits unkomplizierter, was den technischen Aufwand am Set betrifft, erfordert aber eben mehr gestalterische Vorstellungskraft und Arbeit mit Messgeräten, denn das fertige Ergebnis bekommst du am Set nicht vor Augen geführt - eben ganz so wie beim Filmen mit Negativ.
Nur eines ist auch klar:
Nachdrehs brauche ich bei Raw nicht, solange die Dynamik des Sensors optimal ausgenutzt wird.
Antwort von WoWu:
Ich glaube, Du verstehst gar nicht, wovon ich spreche.
Das RAW Signal ist das Nutzsignal und das Proxy Signal ist das Arbeitssignal.
Oder kannst Du 12/14 oder 16 Bit sehen ?
Dazwischen dienen LUTs als Arbeitsbrücke.
Das Proxysignal wird zu keinem Zeitpunkt Nutzsignal und wird erst zur Endfertigung, gemeinsam mit den Metadaten zum Endprodukt verarbeitet.
Wenn Du das anders macht, und 12 oder 14 Bit Equipment, NLE und alles, was man noch so braucht, stehen hast, mit dem Du dann auch präzise beurteilen und in halbwegs zeitlichen Rahmen auch bearbeiten kannst, sei froh.
Wir haben das leider nicht und haben auch keine sonderliche Lust, nur alle paar Minuten mal ein Bild zu sehen und dann noch eins, das der Monitor ohnehin wieder auf 10 Bit runter nudelt. Das kann man mal mit Fotos machen oder wenn man sonst nix besseres zu tun hat.
Aber, wie gesagt, wem es Spass macht, soll doch ruhig so arbeiten.
Antwort von iasi:
Dann arbeite mal mit Histogramm und du wirst sehen, wie effektiv das ist.
Ich hab Jahre damit gearbeitet und bin mehr als froh, daß ich was habe, das für mich viel besser funktioniert - aber jedem das seine.
Wie lange arbeitest du mit Raw?
Genau genommen schützt du bei deiner Arbeitsweise die Lichter - das Histogramm bietet darüber hinaus jedoch noch mehr Informationen - gerade bei Raw ist das ein echter Vorteil.
Du wirst wahrscheinlich wissen was ich meine - trotzdem den Link:
http://www.red.com/learn/red-101/red-ca ... sure-tools
und darüber hinaus sagt mir das Histogramm noch einiges mehr.
Gerade, weil man dem Monitorbild während des Drehs nicht "glauben schenken sollte", gibt einem z.b. das Histogramm die notwenige Kontrolle über das Bild.
Antwort von WoWu:
Warum sollte man einem 10 Bit REC709 Monitorbild nicht glauben, das aus den RAW Daten in der Kamera gewonnen wurde ?
Dann könnte man auch keiner ARRI Aufzeichnung in 10 Bit glauben und jede SONY Kamera würde nur Mist aufzeichnen.
Nun wird's aber wirklich ulkig.
Oder hat RED solche gravierenden Mänge ?
Antwort von Frank Glencairn:
Genau genommen schützt du bei deiner Arbeitsweise die Lichter - das Histogramm bietet darüber hinaus jedoch noch mehr Informationen - gerade bei Raw ist das ein echter Vorteil.
Das bezweifle ich auch gar nicht, persönlich komme ich aber mit False Color und Histogram (plus die Zebras für's Sensor Clipping bei der BMC), allgemein besser zurecht. Ist ja nur ne unterschiedliche Darstellungsweise der selben Daten.
Allerdings repräsentiert weder Waveform noch Histogram die raw Daten, deshalb verlass ich mich (bei der BMC) in erster Linie auf die Zebras, weil die erfahrungsgemäß einfach zuverlässig funktionieren.
Die RED Ampel ist allerdings sehr brauchbar, so was hätte ich auch gern im Monitor.
Antwort von iasi:
Ich glaube, Du verstehst gar nicht, wovon ich spreche.
Das RAW Signal ist das Nutzsignal und das Proxy Signal ist das Arbeitssignal.
Oder kannst Du 12/14 oder 16 Bit sehen ?
Dazwischen dienen LUTs als Arbeitsbrücke.
Das Proxysignal wird zu keinem Zeitpunkt Nutzsignal und wird erst zur Endfertigung, gemeinsam mit den Metadaten zum Endprodukt verarbeitet.
Wenn Du das anders macht, und 12 oder 14 Bit Equipment, NLE und alles, was man noch so braucht, stehen hast, mit dem Du dann auch präzise beurteilen und in halbwegs zeitlichen Rahmen auch bearbeiten kannst, sei froh.
Wir haben das leider nicht und haben auch keine sonderliche Lust, nur alle paar Minuten mal ein Bild zu sehen und dann noch eins, das der Monitor ohnehin wieder auf 10 Bit runter nudelt. Das kann man mal mit Fotos machen oder wenn man sonst nix besseres zu tun hat.
Aber, wie gesagt, wem es Spass macht, soll doch ruhig so arbeiten.
Ich kann 12/14/16 Bit genauso sehen, wie das Negaivfilmbild - aber deshalb nutzt man doch das Kontrollmonitorbild nicht als Arbeitsmaske in der Nachbarbeitung. Das Bild sehe ich zunächst nur indirekt an den Messwerten - z.B. dem Histogramm - oder den Belichtungsmessungen. Erst nach der "Entwicklung" erhalte ich das fertige Ergebnis - daher passt der Begriff auch bei Raw.
Proxys sind wie der Kontrollmonitor gut für den Bildinhalt - beim Bildaufbau und beim Schnitt - nicht mehr, aber auch nicht weniger.
Für die "Entwicklung" brauche ich sie aber nicht.
Antwort von iasi:
Das bezweifle ich auch gar nicht, persönlich komme ich aber mit False Color und Histogram (plus die Zebras für's Sensor Clipping bei der BMC), allgemein besser zurecht. Ist ja nur ne unterschiedliche Darstellungsweise der selben Daten.
Allerdings repräsentiert weder Waveform noch Histogram die raw Daten, deshalb verlass ich mich (bei der BMC) in erster Linie auf die Zebras, weil die erfahrungsgemäß einfach zuverlässig funktionieren.
Die RED Ampel ist allerdings sehr brauchbar, so was hätte ich auch gern im Monitor.
Wir stimmen durchaus überein.
Auch wenn es schon Diskussionen über das Red-Histogram gab, die mich aufschrecken ließen, hatte ich in der Praxis zum Glück noch keine schlechten Erfahrungen damit gemacht - bei mir hat alles wunderbar gepasst.
Was meinst du aber mit "Histogram repräsentiert die raw Daten" nicht?
Ich beschränke mich auch deshalb auf das Histogram und die Ampel, weil mich sonst die Infomationen erschlagen würden - auch weil es sich dann zum Teil doppelt.
Als Gewohnheitstier hoffe ich auf ein Histogramm ähnlich dem der Red bei der BMD.
Antwort von iasi:
Warum sollte man einem 10 Bit REC709 Monitorbild nicht glauben, das aus den RAW Daten in der Kamera gewonnen wurde ?
Dann könnte man auch keiner ARRI Aufzeichnung in 10 Bit glauben und jede SONY Kamera würde nur Mist aufzeichnen.
Nun wird's aber wirklich ulkig.
Oder hat RED solche gravierenden Mänge ?
Auf dem Monitor erscheint ein bearbeitetes Bild und eben nicht das Raw-Bild, das dir später zur Verfügung steht.
Thomas Maier habe ich zitiert, obwohl er sich über Red-Kameras nicht sonderlich positiv äußert - er rät beim Dreh mit der Sony F65 davon ab, "on set das LOG-Signal anzuschauen und auf Rec709 zu gehen."
Was die Red am HDMI oder SDI liefert, ist sehr ordentlich - aber es ist eben nur eine von unzähligen Bildvarianten, die ich aus den Raw-Daten erzeugen kann.
Warum sollte ich mich auf diese eine beschränkte Variante festlegen?
Warum diese Beschneidung der Möglichkeiten?
In der Post habe ich viel mehr und bessere Möglichkeiten als während des Drehs mit der Kameraelektronik.
Antwort von Frank Glencairn:
Was meinst du aber mit "Histogram repräsentiert die raw Daten" nicht?
Aus deinem Link: "...since the live histogram doesn’t represent raw image data."
Aber prinzipiell hast du schon recht, das ist ähnlich wie mit 12 und mehr bit die man nicht auf dem Monitor sieht, das ist alles richtig - aber nach ner Weile hat man genug Erfahrung diese groben Daten, Vereinfachungen, Abstraktionen und Darstellungen trotzdem richtig zu interpretieren und (fast) jedes mal ein brauchbares Bild zu machen. Das menschliche Gehirn - vor allem das von DPs ;-) ist recht gut bei sowas.
Antwort von iasi:
Was meinst du aber mit "Histogram repräsentiert die raw Daten" nicht?
Aus deinem Link: "...since the live histogram doesn’t represent raw image data."
ah ja - stimmt - wobei sich das wohl auf den Live-Mode bezieht - da werden dann u.a. ISO-Einstellungen berücksichtigt.
Im RAW-Mode passt es aber recht ordentlich.
Antwort von CameraRick:
Frage zum Crop Faktor:
Ich filme ja oft mit meiner Iscorama 36 auf Nikon Linsen - dabei kann ich bei meiner Nikon D7000 nicht unter ca. 40mm gehen, da es zu vignetieren anfängt.
Wie verhält es sich bei der BMCC?
Muss ich dann mit min. 90mm rumkrebsen, wenn ich den Anamorphoten verwenden möchte, oder "verschiebt" sich das Vignettierungsproblem aufgrund der Sensorgröße?
Sollte deutlich runter gehen. Beim Crop der BMCC solltest bei etwa 26mm die Vignette kriegen, wenn ich mich jetzt nicht verrechnet hab.
Antwort von WoWu:
@iasi
Ich kann 12/14/16 Bit genauso sehen
Ich bin raus aus der Diskussion, denn Ihr habt offensichtlich Equipment, das wir uns nicht leisten können, denn wir haben nicht mal 12/14 oder gar 16 Bit Monitore.
Insofern siehst Du Dinge, die wir nicht sehen und diskutieren daher über verschiedenen Vorgehensweisen. (Mal abgesehen davon, dass wir auch nicht die Leute haben, die 14Bit sehen können).
Ich find, jeder soll es machen, wie seine Möglichkeiten es zulassen.
Nur stelle ich mir natürlich die Frage, nach dem Sinn von RAW, wenn ich entweder nur noch nach Histogramm ein Bild ansehen muss oder Equipment brauche, dass sowohl auf der HW Seite ein 12/14 Bit Signal darstellt als auch die Frage, welches NLE wohl 14 Bit-fähig ist und noch zu erschwinglichen Preisen erhältlich.
Vielleicht verrätst Du uns ja mal, mit welchem 14/16 Bit Monitor und welchem NLE du arbeitest ?
Antwort von chackl:
Frage zum Crop Faktor:
Ich filme ja oft mit meiner Iscorama 36 auf Nikon Linsen - dabei kann ich bei meiner Nikon D7000 nicht unter ca. 40mm gehen, da es zu vignetieren anfängt.
Wie verhält es sich bei der BMCC?
Muss ich dann mit min. 90mm rumkrebsen, wenn ich den Anamorphoten verwenden möchte, oder "verschiebt" sich das Vignettierungsproblem aufgrund der Sensorgröße?
Sollte deutlich runter gehen. Beim Crop der BMCC solltest bei etwa 26mm die Vignette kriegen, wenn ich mich jetzt nicht verrechnet hab.
Danke.
D.h. ich könnte eine 26mm KB Scherbe nehmen, die dann effektiv ca. 55mm Brennweite bei der BMCC ergeben?
Oder verbuxwuxel ich da was?
Antwort von CameraRick:
Crop liegt bei 2.3, also würdest auf um die 60mm raus kommen (FoV-equiv versteht sich).
Diese Brennweite mal den Faktor des Anamorphoten, und schon hast die quasi-Brennweite. Sollte auf einem Niveau mit der D7000 liegen.
Aber das ist blanke Theorie, wie sich das "in echt" verhält ist eine andere Sache. Aber es sollte bei 25-30mm keine großen Probleme machen.
Antwort von Skeptiker:
... D.h. ich könnte eine 26mm KB Scherbe nehmen, die dann effektiv ca. 55mm Brennweite bei der BMCC ergeben?
Oder verbuxwuxel ich da was?
Ja. Crop-Faktor der BMCC knapp 2.4, ergäbe 2.4 mal 26 = sogar rund 60.
Du kannst es Dir so vorstellen: Jedes Objektiv leuchtet ein bestimmten Bildkreis aus. Bei Kleinbild-Optiken ist er relativ gross - es muss ja ein Format 36 x 24 mm hineinpassen.
Wenn Du in diesen grossen Bildkreis nun einen kleinen Sensor, wie den der BMCC mit 15.81 x 8.88 mm (active sensor size, gemaäss BMCC-Website) hineinstellst, wird eben nur ein kleiner Ausschnitt des ausgeleuchteten Bildkreises erfasst - der mittlere Teil.
Das wirkt dann aufgrund des eingeschränkten Bildwinkels so, als ob Du mit einer Kleinbildkamera durch ein Teleobjektiv schaust (ebenfalls engerer Bildwinkel). Daher der Crop-Faktor (die Tele-Wirkung) von kleinen Sensoren gegenüber grösseren.
Die Brennweite ändert sich aber in Wirklichkeit nicht, sie ist fix mit dem Objektiv verbunden. Nur der Bildausschnitt und damit die WIRKUNG des Objektivs ändert sich mit der Sensorgrösse.
Hinweis:
Hatte den Beitrag von CameraRick noch nicht gesehen.
Antwort von chackl:
Wie es aussieht verlöre ich dann doch einiges an Weitwinkel. Mal sehen, wenn es das Teil wirklich mal gibt, ob ich es mir irgendwo leihen kann um zu testen.
Jedenfalls danke für die Info.
Antwort von CameraRick:
Wie es aussieht verlöre ich dann doch einiges an Weitwinkel. Mal sehen, wenn es das Teil wirklich mal gibt, ob ich es mir irgendwo leihen kann um zu testen.
Jedenfalls danke für die Info.
Theoretisch zumindest eben nicht.
Die Brennweite wird sich nie verändern, nur das FoV (Field of View). Dein 40er an der Nikon hat quasi die gleiche Bildwirkung (vom Weitwinkel) wie das besagte 26er auf der BMCC.
Schraubst nun an eines von den beiden den Anamorphoten, wird es mit dem Faktor eben gestretched - das Field of View sollte identisch bleiben. Aber ggf würde das besagte 26er durch den generell stärkeren Weitwinkel früher vignettieren, aber das kann man nur raten - ist von Objektiv zu Objektiv unterschiedlich. Aber, theoretisch, hast keinen Verlust im Winkel - nur eine höhere Schärftentiefe.
btw, ich bin ja etwas neidisch auf Deinen Isco... :)
Antwort von chackl:
Ich verstehe was du meinst - stimmt mich positiv!
Ja, bin happy eine 36er Isco ergattert zu haben, hat zwar ein klein wenig Lens Separation, allerdings hat es keine Auswirkung in der Bildqualität, und das Teil ist wirklich sehr scharf. Rackfocussing funktioniert butterweich und kein Vergleich zu dem ganzen anderen Ramsch der da umgeht.
Wollte noch eine 2. Isco 36 kaufen, allerdings ging mir die durch die Lappen.
Antwort von iasi:
@iasi
Ich kann 12/14/16 Bit genauso sehen
Ich bin raus aus der Diskussion, denn Ihr habt offensichtlich Equipment, das wir uns nicht leisten können, denn wir haben nicht mal 12/14 oder gar 16 Bit Monitore.
bitte Sätze ganz lesen lernen ...
"Ich kann 12/14/16 Bit genauso sehen, wie das Negaivfilmbild"
... muss ich die Aussage des Satzes etwa noch erklären?
Nur stelle ich mir natürlich die Frage, nach dem Sinn von RAW, wenn ich entweder nur noch nach Histogramm ein Bild ansehen muss oder Equipment brauche, dass sowohl auf der HW Seite ein 12/14 Bit Signal darstellt als auch die Frage, welches NLE wohl 14 Bit-fähig ist und noch zu erschwinglichen Preisen erhältlich.
Man arbeitet eben wie beim guten alten Film - da hatte man während des Drehs das Bild auch nicht direkt vor Augen, sondern eben nur im Kopf. Beim Lichtsetzten braucht es eben noch immer einen Belichtungsmesser - wer nur seine Augen nutzt, der fischt im Trüben.
Antwort von CameraRick:
Ich verstehe was du meinst - stimmt mich positiv!
Ja, bin happy eine 36er Isco ergattert zu haben, hat zwar ein klein wenig Lens Separation, allerdings hat es keine Auswirkung in der Bildqualität, und das Teil ist wirklich sehr scharf. Rackfocussing funktioniert butterweich und kein Vergleich zu dem ganzen anderen Ramsch der da umgeht.
Wollte noch eine 2. Isco 36 kaufen, allerdings ging mir die durch die Lappen.
Bei den Preisen wird einem ja auch schwindelig. Ich habe vor "kurzem" ein Sankor 16D gekauft; sicher nicht DER Hit, aber ih wollt einfach mal was anamorphes haben, zum rumspielen+testen. Kam ich bis heut noch nicht zu - als ich es gekauft hatte war es noch Sommer...
Antwort von CameraRick:
Man arbeitet eben wie beim guten alten Film - da hatte man während des Drehs das Bild auch nicht direkt vor Augen, sondern eben nur im Kopf. Beim Lichtsetzten braucht es eben noch immer einen Belichtungsmesser - wer nur seine Augen nutzt, der fischt im Trüben.
Korrigiere mich wenn ich falsch liege, aber hat man früher nicht auch einen Film entsprechend der Farbtemperatur benutzt?
Da war ja schon arg viel vorher beschlossen -
Antwort von iasi:
Man arbeitet eben wie beim guten alten Film - da hatte man während des Drehs das Bild auch nicht direkt vor Augen, sondern eben nur im Kopf. Beim Lichtsetzten braucht es eben noch immer einen Belichtungsmesser - wer nur seine Augen nutzt, der fischt im Trüben.
Korrigiere mich wenn ich falsch liege, aber hat man früher nicht auch einen Film entsprechend der Farbtemperatur benutzt?
Da war ja schon arg viel vorher beschlossen -
verstehe ich jetzt nicht ganz ...
eigentlich sollte man einen Sensor auch entsprechend der Farbtemperatur benutzen - da sehe ich also keinen Unterschied.
Film ist zudem auch nicht absolut festgenagelt, was z.B. die Empfindlichkeit betrifft - da kann man während der Entwicklung an sehr viele Stellschrauben drehen. Während des Drehs siehst du es nicht, hast es aber im Kopf.
Mit Raw ist das doch nicht anders.
Antwort von WoWu:
@ iasi
Beim Lichtsetzten braucht es eben noch immer einen Belichtungsmesser - wer nur seine Augen nutzt, der fischt im Trüben.
Du musst auch wirklich alles lesen und nicht nur selektiv, was Dir gerade ins Konzept passt.
Ich habe oben beschrieben, dass der Beleuchter seine Instrumente benutzt und nicht nur allein den Belichtungsmesser, und das er Kameramann sehr wohl die Instrumente benutzt, die er zur technischen Einschätzung braucht.
Dass aber auf den Bildeindruck nach wie vor nicht verzichtet werden kann.
Und red nicht so einen Mist, dass es wie beim Film sei. Auch Filmkameras hatten nicht nur Sucher sondern auch noch TV Ausgänge für die verschiedensten Belange.
Weder die Filmleute arbeiten blind, noch die Videoleute, nicht mal in Rumänien.
Wozu sollten sonst Kameras (vielleicht nicht die RED, das mag ja sein) sonst überhaupt Monitore (oder Sucher) bereit stellen, wenn Spezialisten wie Du, sowieso nur am gerät vorbei gucken und die Wundertüte lieber in der Post aufmachen.
Ich glaube, Du hast noch nie am Set gearbeitet. Aber vielleicht solltest Du mal den Kameraherstellern den Vorschlag machen doch einfach den Monitor weg zu lassen, weil man ihn ohnehin nicht braucht. Dann wird die HW billiger.
Antwort von iasi:
@ iasi
Beim Lichtsetzten braucht es eben noch immer einen Belichtungsmesser - wer nur seine Augen nutzt, der fischt im Trüben.
Du musst auch wirklich alles lesen und nicht nur selektiv, was Dir gerade ins Konzept passt.
Ich habe oben beschrieben, dass der Beleuchter seine Instrumente benutzt und nicht nur allein den Belichtungsmesser, und das er Kameramann sehr wohl die Instrumente benutzt, die er zur technischen Einschätzung braucht.
Dass aber auf den Bildeindruck nach wie vor nicht verzichtet werden kann.
Und red nicht so einen Mist, dass es wie beim Film sei. Auch Filmkameras hatten nicht nur Sucher sondern auch noch TV Ausgänge für die verschiedensten Belange.
Weder die Filmleute arbeiten blind, noch die Videoleute, nicht mal in Rumänien.
Wozu sollten sonst Kameras (vielleicht nicht die RED, das mag ja sein) sonst überhaupt Monitore (oder Sucher) bereit stellen, wenn Spezialisten wie Du, sowieso nur am gerät vorbei gucken und die Wundertüte lieber in der Post aufmachen.
Ich glaube, Du hast noch nie am Set gearbeitet. Aber vielleicht solltest Du mal den Kameraherstellern den Vorschlag machen doch einfach den Monitor weg zu lassen, weil man ihn ohnehin nicht braucht. Dann wird die HW billiger.
Du redest erst selbst davon, dass es keine (bezahlbare) Set-Monitore gibt, die 12Bit darstellen können, willst aber dennoch wie bei 8-Bit-Kameras das Bild nach dem Display beurteilen ...
Ich zitiere nochmal: "Das sind digitale Film- und keine EB-Kameras" - versteh das doch endlich.
Um es mal etwas pointiert zu formulieren:
Wer das Bild anhand der Videomonitorvorschau in der Post bearbeitet, hat Raw nicht verstanden.
Das ist wie ein Fotograf, der das JPG als Maßstab nimmt und RAW daraufhin zurecht biegt - da denke ich dann auch: Wozu verplempert er dann überhaupt noch Spericherplatz und Zeit mit Raw.
So mancher Kameramann schaut durch den Sucher, um den Bildausschnitt, die Schärfe usw. zu bestimmen - dazu sind sie da.
Schau dir mal das "Mercedes im Tal"-RedRaw an und was die Leute mit Resolve daraus machen - das bekommst du während des Drehs auf keinem Monitor hin, sofern du nicht einen on-set-coloristen samt Equipment hast.
Antwort von WoWu:
Du redest nur hohles Zeug und tust so, als hätte keine Kamera, die RAW Material ausgibt, einen Monitor oder Sucher und ab "generation RAW" würde jeder nur noch nach Histogram arbeiten.
Ausserdem kannst Du offenbar wirklich nicht lesen:
Wo habe ich etwas von 8 Bit Monitoring geschrieben ?
Wir arbeiten durchgängig in 10 Bit, vom Monitoring, bis zur CC und legen die Differenzdaten in den Metadatenfiles ab.
Du bist übrigens noch die Antwort schuldig, womit Du die 12/14 oder 16 Bit Bilder sehen kannst, wie Du ja behauptest.
Aber lassen wir es dabei, es käme ohnehin kein Antwort. Ich glaube nach wie vor, dass die geringste Entfernung zu einem Set bei Dir aus 500m bestand. Wenn überhaupt.
Lassen wir's also dabei ... Du arbeitest weiter ohne Monitor am Set, dafür aber mit 12/14 oder 16 Bit Monitoren und Equipment in der Post und in Echtzeit und wir schauen weiter durch den Sucher und arbeiten mit 10 Bit und den Metadaten und lassen die RAW Files bei der Überspielung verarbeiten.
So hat jeder seine Methode.
Ach, und noch eins... ist Dir eigentlich klar, dass es ausser REDRAW noch andere RAW Verarbeitungen gibt ?
Antwort von iasi:
Du redest nur hohles Zeug und tust so, als hätte keine Kamera, die RAW Material ausgibt, einen Monitor oder Sucher und ab "generation RAW" würde jeder nur noch nach Histogram arbeiten.
Ausserdem kannst Du offenbar wirklich nicht lesen:
Wo habe ich etwas von 8 Bit Monitoring geschrieben ?
Wir arbeiten durchgängig in 10 Bit, vom Monitoring, bis zur CC und legen die Differenzdaten in den Metadatenfiles ab.
redraw kommt z.B. mit 12 bit daher
Du bist übrigens noch die Antwort schuldig, womit Du die 12/14 oder 16 Bit Bilder sehen kannst, wie Du ja behauptest.
dann muss ich es eben doch erklären:
ich kann es während des Drehs ebenso sehen, wie das Bild, das auf dem Negativfilm entsteht - nämlich nicht.
Aber lassen wir es dabei, es käme ohnehin kein Antwort. Ich glaube nach wie vor, dass die geringste Entfernung zu einem Set bei Dir aus 500m bestand. Wenn überhaupt.
Ist das nun der Schnappreflex?
Also ich hab eine Red - wenn auch nur eine Scarlet
Lassen wir's also dabei ... Du arbeitest weiter ohne Monitor am Set, dafür aber mit 12/14 oder 16 Bit Monitoren und Equipment in der Post und in Echtzeit und wir schauen weiter durch den Sucher und arbeiten mit 10 Bit und den Metadaten und lassen die RAW Files bei der Überspielung verarbeiten.
So hat jeder seine Methode.
Tja - wer von Video kommt muss bei Digital-Kamera und Raw eben erst noch umdenken.
Genau genommen geht es mir aber eben darum, dass das Videobild/Proxy keine Referenz sein kann/sollte.
Für den Schnitt ist es natürlich hilfreich, damit zu arbeiten.
Ach, und noch eins... ist Dir eigentlich klar, dass es ausser REDRAW noch andere RAW Verarbeitungen gibt ?
ja - nur habe ich eben vor allem RedRaw-Dateien - einen generellen Unterschied sehe ich jedoch nicht ...
Antwort von WoWu:
redraw kommt z.B. mit 12 bit daher
Ach, sag bloß !
dann muss ich es eben doch erklären:
ich kann es während des Drehs ebenso sehen, wie das Bild, das auf dem Negativfilm entsteht - nämlich nicht.
Das hab ich mir schon gedacht, dass das Quatsch war, was Du da über 12/14 und 16 Bit erzählt hast und dass Du am Set den Blindflug übst.
Also ich hab eine Red - wenn auch nur eine Scarlet
Herzlichen Glückwunsch ... dann sieh mal zu, dass du irgendwo noch einem Profi über die Schulter schauen kannst, um auch den Rest noch mit zu bekommen.
Tja - wer von Video kommt muss bei Digital-Kamera und Raw eben erst noch umdenken.
Tja, und wer noch keine Kinoproduktionen gemacht hat, muss eben beides noch lernen.
Genau genommen geht es mir aber eben darum, dass das Videobild/Proxy keine Referenz sein kann/sollte.
Wir hatten doch gerade festgestellt, dass Du (mangels Equipment) auch nicht mehr siehst als max. 10Bit. Oder kannst Du nun doch die 12 Bit plötzlich sehen ?
Nein, kannst Du nämlich auch nicht sondern must Dir 8 oder 10 Bit auch LUTen.
Also, was soll der Quatsch vonwegen 10 Bit ist nicht zu gebrauchen.
ja - nur habe ich eben vor allem RedRaw-Dateien - einen generellen Unterschied sehe ich jedoch nicht ...
Das könnte die Ursache sein. Schau dir noch mal ein paar andere Methoden an, wie gesagt, es gibt fast 20, dann stellst Du irgendwann das REDRAW sowieso in die Ecke.
Antwort von chackl:
Bei den Preisen wird einem ja auch schwindelig. Ich habe vor "kurzem" ein Sankor 16D gekauft; sicher nicht DER Hit, aber ih wollt einfach mal was anamorphes haben, zum rumspielen+testen. Kam ich bis heut noch nicht zu - als ich es gekauft hatte war es noch Sommer...
Der Aufwand mit dem Sankor zu filmen ist auch ein wesentlich größerer da man ja immer beide Linsen scharf stellen muss. Abgesehen von der Qualität ist das schon ein ziemlicher Nachteil.
Leider hat ISCO das Patent auf die Fokkusierungmechanik.
@Skeptiker
auch dir danke für die Erläuterung.
Antwort von Spaceman:
Na jetzt wirds langsam interessant.
Die Video Enthusiasten entdecken RAW.
Für jeden Rentner mittlerweile Standard seine RAW Fotos in Lightroom o.ä. zu entwickeln.
Weiter so!