Newsmeldung von slashCAM:
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Weitere Lieferverzögerungen bei der Blackmagic Design Cinema Camera
Antwort von JkVisuals:
Langsam wirds nervig. Bei Teltec nehmen die sich schon zurück, überhaupt irgendwelche Prognosen zu stellen.. Vielleicht schwappe ich doch noch zur C100 über..
"So the current plan is to get some sensors from the original glass bonding company and based on their upgraded testing we should know more at the end of the week if we are going to get a good supply of sensors starting to ship using that new company."
Warten wir mal bis zum Ende der Woche ab...
Antwort von marcszeglat:
tja, qualität scheint doch ihren preis zu haben...
Antwort von Predator:
Naja, wie im anderen Thread schon gesagt. Wenn sie Ab Anfang nächster Woche die Produktion so richtig hochfahren können mit dem neuen (alten) Sensorglas Hersteller, könnte man noch Glück haben dieses Jahr eine zu kriegen wenn man ganz vorne auf der Warteliste seines Händlers steht, aber ich glaube garnicht, das BMD und der Sensorhersteller in großen Mengen herstellen können. Da kommen vielleicht 20 Kameras pro Woche raus, was bei sicherlich über 10 000 Vorbestellungen heißt: Juni/juli 2013 rum flächendeckend verfügbar.
Da hat BMD aber längst auf der NAB 2013 ne neue Super 35 BMCC angekündigt. RED, GoPro und andere werden auch reagieren.
Antwort von -paleface-:
Aua...
Hmm....ich hoffe dass sowas der Kamera nicht das Genick bricht.
Wie du schon sagtest Predator...die anderen machen ja auch weiter.
Und es wäre echt schade wenn es zwar eine gute Kamera gibt, sie aber zu spät kommt.
Antwort von CameraRick:
Aua...
Hmm....ich hoffe dass sowas der Kamera nicht das Genick bricht.
Wie du schon sagtest Predator...die anderen machen ja auch weiter.
Und es wäre echt schade wenn es zwar eine gute Kamera gibt, sie aber zu spät kommt.
Für etwa 3500€ bekommst hier ein drehfertiges Paket (ohne Objektive, aber die kommen eh IMMER dazu) das RAW aufnimmt und Dir 13 Blenden bietet. Das macht auch eine battle-tested R1 nicht mit. Ich denke es vergeht noch etwas Zeit, bevor eine "Konkurrenz" an den Start geht, die die Leistung bringt und zudem diesen Preis hält.
Kompromisse muss man eingehen (war bei DSLRs nicht anders) und KineRAW und Co kommen auch... aber nach den Steuern ist das immer ein ganz anderer Preispunkt.
Konnten sich früher sogar viele Studenten die 5DMKII leisten, könnten sie nun eine BMCC kaufen (auch nächstes Jahr, gibt genug Leute die heute noch eine 5D kaufen); und Hand aufs Herz, etwas weniger Bokeh-P°rno (ich darf es hier nicht normal schreiben) und etwas mehr Dynamik bringt doch frischen Wind in Indie-Produktionen :)
Antwort von thyl:
Die anderen kommen ja auch nicht in die Pötte. Ikonoskop hat ewig gebraucht, Aaton dito.
Die Digital Bolex schafft's dieses Jahr nicht mehr (ursprünglich: Oktober), um die KineRaw ist es auch so still, und wie war das noch mit diesem Ewig-Opensourse-Projekt?
Hier bewegen sich junge Unternehmen in einem Bereich, den einige etablierte Kamerahersteller nicht bewältigen konnten, zB Kyocera, Bronica, Minolta, Hasselblad, Rollei, etc.
Man muss also evtl etwas Geduld haben. Aber diese Kameras sind ja auch nicht Einwegware, sondern hoffentlich langfristige Investitionsgüter. Kompliment an Red und Leica, die es als mittelständische Unternehmen geschafft haben.
Antwort von Paralkar:
Blackmagic ist aber bei weitem nicht Jung
1984 wurde sie gegründet, laut wiki
Es ist schade, das sie jetzt so ein Problem mit dem Sensorhersteller haben, weil sie soviel richtig gemacht haben, mit dem mft so schnell reagiert haben auf Kundenwünsche, und jetzt so ausgebremst werden, die denken sich grad sicherlich auch wtf
Ich glaube auch nicht das so schnell ein super 35 sensor mit so ner cam kommt, die Entwicklung von so nem großen Sensor mit solchen Ansprüchen wie DR 13 Blenden etc. ist denk ich sehr kostenintensiv
Meine Hoffnung ist, und da wie gesagt BM sehr schnell auf Kundenkritik und wünsche eingeht, könnt ihc mir vorstellen das es mit einpaar späteren Firmware-updates kommt
einmal ein Waveformer, den man sich aufrufen kann (gibts im Moment leider noch nicht, Zebras sind da, aber ein Waveformer find ich für Run & Gun Sachen ziemlich wichtig), 444 12 bit ProRes oder 444 10 bit DNXHD und als kleinen allerletzten Wunsch compressed Raw (wie bei Red), wobei das ist auch nicht wirklich notwendig, aber nice wärs
Antwort von Anne Nerven:
Verlieren können doch nur die Ungeduldigen, die dann doch wieder auf DSLR umschwenken. Es gibt keine vergleichbare Kamera in der Preisklasse. Und dann noch inkl. 850€-Resolve! Wer mit RAW arbeiten und nicht zig Tausende ausgeben möchte, kommt an der BMCC nicht vorbei.
Natürlich ist es nervig, wenn zum angekündigten Zeitpunkt die Kamera nicht flächendeckend geliefert werden kann. Aber mir ist ein verspätetes aber fehlerfreies Produkt lieber als eine pünktliche Beta-Version mit Macken oder Flusen auf dem Sensor.
In diesem Zusammenhang würde mich mal interessieren, wer den Sensor liefert? Sowas baut doch kein Hinterhof-Betrieb exklusiv für BM in Handarbeit. Das wird doch wohl voll automatisiert in einer HiTec-Sensor-Schmiede gefertigt, die alle möglichen Arten von Sensoren herstellen. Oder liege ich falsch? Es baut ja auch kein Reifenhersteller nur einen Reifen. Ich kann mich nicht erinnern, dass VW jemals mit einer Neuerscheinung Lieferschwierigkeiten hatte, weil nur 10% der Reifen fehlerfrei waren.
Antwort von CameraRick:
einmal ein Waveformer, den man sich aufrufen kann (gibts im Moment leider noch nicht, Zebras sind da, aber ein Waveformer find ich für Run & Gun Sachen ziemlich wichtig), 444 12 bit ProRes oder 444 10 bit DNXHD und als kleinen allerletzten Wunsch compressed Raw (wie bei Red), wobei das ist auch nicht wirklich notwendig, aber nice wärs
Ich würde noch "Peaking" in die Liste reinschreiben, sowie (falls noch nicht integriert) Shutter in sec einstellen, nicht nur in Grad (gerade wegen Lampen usw).
Ich erinnere mich mal ein Interview gesehen zu haben wo einer der Leute sagte dass sich die Kamera aufgrund der mitgelieferten Software (heißt die Ultrascopes?) eines Waveform entbehre. Mal schauen wann es (kleine und günstige) Notebook-PCs gibt, die Thunderbolt haben.
Mal eine andere Frage - das 12bit RAW ist ja linear. Wenn ich ProRes/DNxHD aufnehme kann ich "Film" oder "Video" einstellen; Film macht das ganze flach, Video "normal".
Ist das flache "Film" dann auch linear, oder was? Oder wird da ne LUT mitgeliefert(/ggf ist es Cineon)?
Antwort von Paralkar:
Also ich will nix falsches schreiben, aber ich dachte der Sensor nimmt 16 bit linear und das ganze wird dann in ein 12 bit Raw gedrückt, ähnlich wie bei der Epic (nur 14 bit) (bitte verbessert mich falls ich mich hier irgendwo irre, so hatte ihc das noch im Kopf und gehört/ gelesen)
Ja Ultrascope muss halt per Thunderbolt angeschlossen werden, das sorgt für mehere Probleme, Thunderbolt Kabel sind normalerweise nicht so lang wie bsp.: BNC Kabel, und dann immer auf Notebook, das kann nerven, ich mein ein Waveformer auf der Kamera, das schaffen ja auch die DSLRs (mit firmwarehack), das sollte doch machbar sein und würde einfach unter gewissen umständen sehr viel helfen
Film ist eine flache Kurve (wie die genau aussieht hab ich noch nirgendwo einsehen können, vermute auch cineon), Video ist Rec 709. Ich vermute, wenns diese nicht schon gibt, wird BM schnell eine Lut für Davinci rausgeben für die Filmkurve
Soweit ich auf der Cinec gehört habe, könn sobald die Kameras geliefert werden durch einpaar firmware-updates ncoh einpaar Kurven kommen.
Mich würde es interessieren ob ProRes (Film) auf 13 Blenden DR kommt, oder das nur fürs Raw gilt, die Alexa schafft ja ihre 14 DR in ProRes
Antwort von CameraRick:
Hm, da bin ich überfragt ob der Sensor 16bit macht, oder "nur" 12 nativ. Aber das ist dann ja linear, sprich, ich brauche keine LUT :)
Was "Film" wäre, fände ich aber schon spannend. Ob nun Cineon, oder was anderes (vergleichbar mit ARRI's LogC). Davinci interessiert mich tatsächlich dabei nicht so, ich schau in eher in Richtung Nuke und Autodesk.
Antwort von Paralkar:
Ne das 12 bit muss doch nicht zwangsläufig linear sein, falls der Sensor 16 oder 14 bit macht, dann wird das sicherlich nciht linear in die 12 bit gedrückt
Wo bleibt Wofu, der hat da doch sicherlich ein Plan, wie das mit dem Signalprocessiong geht
Antwort von CameraRick:
Ich hatte irgendwie im Kopf immer "12bit linear RAW" gelesen zu haben, aber nach kurzer Recherche war das Blödsinn.
Welche LUT nimmt man denn da? Oder hängt das von der Entwicklung der RAWs ab?
Sorry für die dummen Fragen, ich hab noch nie mit Video-RAW gearbeitet, ich krieg immer nur DPX.
Antwort von Paralkar:
Da wäre jemand wie Wofu auch grad gut, soweit ich das verstehe (und das muss keinesfalls richtig sein) muss man ein nonlinear Raw und ne log-Kurve unterscheiden, nonlineares Raw bedeutet "nur" das die 12 oder 14 bit anders aufgeteilt werden, nicht linear halt, das hat nix mit dem DR selbst zutun, also 12 bit nonlinear kann genauso 13 Blenden haben wie das vom Sensor kommende 16 bit linear Signal
Soweit ich das verstehe werden nur die Abstufungen in Schatten bzw. in Highlights feiner/ oder eben nicht um Datenreduktion zu erreichen.
Eine log-Kurve ist meines Verständnis nachs dafür da um die im Raw steckenende Dynamik in ein Bild zu "quetschen", also um trotzdessen ansatzweise ein solchen DR zu erreichen, die man bei geclippten Highlights im Raw retten kann.
Sowie ich das verstehe, sehe ich den fundamentalen Unterschied, log-Kurve ist für die Kapazität da und Farbtiefe für die Abstufungen, ähnlich wie im Audiobereich
Sprich ich könnte auch ein 14 Blenden 8 bit Signal nehmen, dieses würde vermutlich einfach ncihtmehr schön aussehen, weil mir die Abstufungen bewusst werden, da zuviele Zeilen den selben Graustufenwert haben
!!!! Bitte nicht falsch verstehen, das hier ist keinesfalls ne Tatsache, ich versuche nur Signalverarbeitung zu verstehen und hab mein Verständnis davon dagelegt, ich bin sehr dankbar um jeden der mir näher erklärt wie ich es zu verstehen habe, falls ich irgendwo stark daneben liege!!!!
Antwort von CameraRick:
Ich wollt gar nicht anfangen über "wie viel DR passt in wie viel Bit" oder so zu reden, ich wollt nur wissen in welchem Colorspace man da arbeitet.
Eine LUT ist für mich nur eine Look-Up-Table, etwas, mit dem ich eine Vorschau beim Arbeiten hab, kein fertiger Look oder gar ein Grading. Würde mich nur interessieren ob das eine Cineon wird, oder so etwas wie S-Log, LogC, oder was eigenes
Antwort von Paralkar:
Ja schon, hmm ich denke blackmagic wird das vielleicht noch offenlegen was genau ihre kurve tut
Antwort von Valentino:
Da kommen vielleicht 20 Kameras pro Woche raus, was bei sicherlich über 10 000 Vorbestellungen heißt: Juni/juli 2013 rum flächendeckend verfügbar.
Von 20 Kameras pro Woche aus zugehen ist aber recht pessimistisch.
Von so einer Kamera in diesem Preissegment müssen schon 100 Stück am Tag hergestellt werden, sonst wird es ganz schnell unwirtschaftlich.
Es geht hier ja nicht um Red mit ihrer EPIC-M für 50k Euro, die von "Hand" geprüft und zusammengebaut wurde.
Die BM Kameras sind ja schon so weit zusammengebaut, es fehlt ja "nur" an sauberen Sensoren.
Antwort von Jott:
Ziemlich skurrile Geschichte mit dem dreckigen Glas. Also, ich weiß nicht ... wieso denke ich, dass nach sieben Monaten Lob, aber auch Kritik längst schon das nächste, verbesserte Modell in den Startlöchern steht?
Antwort von WoWu:
@Paralkar
soweit ich das verstehe (und das muss keinesfalls richtig sein) muss man ein nonlinear Raw und ne log-Kurve unterscheiden,
Das ist völlig richtig.
Ich habe allerdings in der Diskussion nicht erkennen können, worum es denn nun geht .. ? :-) ?
Denn eigentlich müssten doch die besprochenen Parameter aus den Herstellerunterlagen hervorgehen.
Streng genommen ist es aber nicht wirklich wichtig, ob es 10, 12, 14 oder 16 Bit sind, weil sich das bestenfalls noch in der Verarbeitung (sehr geringfügig) auswirkt, nicht aber im sichtbaren Bild denn nach dem Weber’schen Gesetz würden für eine Blende Dynamikumfang (entspricht 100 % Signaländerung) 50 bis 100 Helligkeitsstufen ausreichen, damit der Betrachter keine Stufen wahrnimmt.
Bei einem Dynamikumfang von 10 bis 11 Blenden reichen also 10 bit (1024 Stufen).
Andere Wissenschaftler (Hunt) geben die, vom Menschen gleichzeitig unterscheidbare Zahl an Stufen mit nur 90 an. Bezogen auf Kino, mit entsprechendem Streulicht reicht das allemale.
Was die Kennlinie betrifft, wäre C-Log die am besten, an Film angepasste Kennlinie weil sie die Effekte der Negativbelichtung mit einbezieht, denn bei der typischen Video-Sensor Verarbeitung entstehen wenig Quantisierungsstufen bei Dunkelheit und viele Qantisierungsschritte in hellen Partien.
Das ist genau reverse zum Negativfilm, wo eine hohe Differenzierung in dunkeln Stellen erreicht wird und eine geringere in hellen Stellen.
Um Filmemulsionen elektronisch nachzubilden war es daher erforderlich, die Veränderung der Bilder in ihrer Helligkeit und Farbveränderung über den Negativ- und Filmprint-Prozess nachzubilden; denn Aufgenommen wurde auf einem Negativfilm der durch Durchbelichtung im Entwicklungsprozess auf den jeweiligen Kontaktfilm kopiert wurde, um ein Poitiv zu erstellen.
Diesem elektronischen Nachbildungsprozess liegt das Jones Theorem zugrunde, wenn sich jemand einlesen will.
Oben hat jemand nach der Entstehung einer solchen Kurve gefragt. Ich hab das Schaubild mal angehängt.
Dieses Diagramm zeigt auf, welche Kurve entsteht, wenn eine linear belichtete Film-Negativ Emulsion auf eine Positiv-Filmemulsion kopiert wird.
Als Ergebnis entsteht die logarithmische Kurve, die eine elektronische Kamera erzeugen sollte, um dicht an einer Filmemulsion zu liegen.
Was den LUT angeht, ist es immer eine Frage des Workflows.
Manche greifen im Grading einfach ins Originalsignal. (Obwohl ihr Arbeitsplatz eigentlich gar keine 12, 14 oder 16 Bit darstellen kann).
Gefahr ist dabei auch, dass die Lichtsetzung überhaupt nicht mehr stimmt und das, was die Profis am Set gemacht haben, völlig ignoriert wird.
Wir arbeiten mit einem durchgängigen 3D-LUT, der nicht nur die Kurve reverse abbildet sondern auch die Spezialitäten des verwendeten Monitors nebst den Durchleuchteffekten eines Projektors, um ein möglichst gutes Bild zu erhalten, was der Zuschauer hinterher sieht.
Durch den LUT werden vor allem sämtliche Settings am Set rekonstruiert.
Früher hat man das mit entsprechend vielen Mustern und Vorführungen gemacht.
Das schenken wir uns.
Bei der Ausbelichtung werden dann Kurven benutzt, die um die entsprechenden Arbeitsschritte (Negativ, Monitor, Projektion) geändert sind.
Aber da streite ich mich nicht wieder, da muss jeder seinen Workflow finden, der z.B. für die Verwehung im TV wieder anders aussieht.
Wir fassen aber grundsätzlich das Originalmaterial gar nicht an sondern füllen nur die Metadaten.
Antwort von Roland Cameron:
...aber ich glaube garnicht, das BMD und der Sensorhersteller in großen Mengen herstellen können. Da kommen vielleicht 20 Kameras pro Woche raus, was bei sicherlich über 10 000 Vorbestellungen heißt: Juni/juli 2013 rum flächendeckend verfügbar.
Wir sind hier alle sehr froh drüber, dass solche Branchenexperten den Weg in dieses Forum gefunden haben. Dabei ist es nicht nur das beeindruckende Wissen über tägliche Produktionspotentiale bestimmter Hersteller, das uns fasziniert, nein es sind eben auch die banalen Rechenkünste. Predator ist wirklich ein Raubtier der Prozessorleistung, ja ein Monster im Kopfrechnen.
Predator, kannst Du uns noch mehr verraten?
.
Antwort von Roland Cameron:
"Tja, und darum sind angeblich gerade einmal 13 Prozent (also 4 von 30 Sensoren) der gerade gelieferten Sensoren für eine Weiterverarbeitung geeignet."
Jetzt wird wohl auch dem letzten Experten-Kritiker der Canon- und Nikon DSLRs klar werden, dass es eben nicht so einfach ist, kostengünstig bessere Hardware zu produzieren. Wer glaubt, dass sich hier ein ernst zu nehmender Konkurrent zum Marktführer aufschwingt, der weiß es jetzt besser.
"13% der Sensoren". Da wird Canon & Co. sicher Angst und Bange.
Die Blackmagic Cam ist wirklich der Witz des Jahres 2012.
Antwort von dirkus:
Wahrscheinlich ist BMD so langsam bewusst geworden, dass die Leute mehrheitlich auf eine Super 35 Version der Kamera warten. Warum also jetzt noch in ein Produkt investieren, das eh keiner so richtig haben will.
Red hat mit der Scarlet ja auch nicht gerade eine super Vorlage für kleinsensorige RAW Kameras abgeliefert.
Wer sich das Prozedere eines RAW Workflow und dem hohen Speicherbedarf wirklich antun möchte, der will halt ne Cam mit grossem Sensor, die dann auch State of the Art Bilder macht und nicht so ne Krücke. Punkt
Antwort von NEEL:
Wer sich das Prozedere eines RAW Workflow und dem hohen Speicherbedarf wirklich antun möchte, der will halt ne Cam mit grossem Sensor, die dann auch State of the Art Bilder macht und nicht so ne Krücke. Punkt
Mitnichten - die Cam schreibt vielen Testern zufolge lupenreines DNxHD auf die SSDs - darin enthalten 80% der Möglichkeiten, die Raw bietet. Das dürfte der echte Sweetspot der Cam sein. Selbst die Alexa wird meist im DNxHD/Prores-Modus betrieben, warum also nicht auch dieser nette kleine Zwerg. Ich freu mich drauf (und hol mir vermutlich doch keine teuer-RED). Und bevor ich keinen Bond drehe, hab ich auch keine Angst vor Rollingshutter. Im Gegenteil: Mein nächstes Projekt soll eher etwas ruhiges, poetisches werden. Wer bei sowas die Cam bewegt, verliert. Besonders hübsch: Die GH2 Objektive kann man weiterverwenden, selbst wenn die Fanboy-Cam längst über die Bucht ist;-)
Antwort von WoWu:
Besonders hübsch: Die GH2 Objektive kann man weiterverwenden
Die musst Du dann aber auch auf einen Kamerakopf aufschnallen, der eine ähnlich derbe Kantenaufsteilung hat, wie die GH2 um auf annähernd identische Ergebnisse zu kommen.
Antwort von NEEL:
Hallo WoWu, ich will ja gerade nicht die Kantenaufsteilung der GH2 haben... neben den Panagläsern habe ich noch einige schöne Nikons mit Novoflex-Adapter - auf das Bild, das da bei rumkommt freue ich mich schon (und unter 30-35mm Kleinbildäquivalent will ich eh nicht gehen.;-)
Antwort von WoWu:
Da gehörst Du zu den Wenigen, die die Kanten nicht wollen... aber das könnte natürlich den positiven Unterschied tatsächlich ausmachen.
Viele werden aber ganz sicher enttäuscht sein.
Ich bin aber auch mal gespannt, was für Bilder dabei herauskommen.
Bisschen blöd ist das ja, dass sie jetzt so in Lieferverzug kommen.
Antwort von NEEL:
Ja, das mit der Verzögerung ist schade. Wollte eigentlich schon im Oktober anfangen zu drehen. Zum Glück war nicht nur die Cam verhindert, sondern auch der Hauptdarsteller;-)
Antwort von Frank Glencairn:
Da ich die BMC nun ja schon ein paar Monate habe, kann ich vielleicht etwas Licht in die Sache bringen.
Die Kamera liefert 16 bit, die bei der Aufnahme irgendwie "eingepack oder gestauchtt" werden und in Resolve wieder ausgepackt. Jedenfalls wird ein 16bit DNG angezeigt, wen man das Material importiert.
Der Workflow ist folgender.
In den DNG-raw Einstellungen wählt man "BMC Film" und klickt zusätzlich noch die "recover highlights" Checkbox an, was das Material erst mal weiter verflacht und quasi den maximalen DR raus holt.
Danach kann man entweder "von Hand" graden oder die mitgelieferte BMC-to-709 3DLUT drüber ziehen und von da aus weiter machen.
Speedlooks macht einige sehr schöne 3DLUTs (auf echtem Filmmaterial basierend), die man anstelle der 709 3DLUT verwenden kann.
Mit dem Zebra kommt man extrem gut zurecht. Einfach die Blende so weit zu machen (oder ND) daß die Zebras gerade so verschwinden (außer Chrom Spiegelungen usw.) - dann hat man automatisch die optimale Belichtung. Bei Objektiven ohne Blendenring macht die Kamera das mit einem einzigen Knopfdruck Automatisch (wenn man will).
Das ist der Knopf oben links neben dem Monitor.
Peaking ist schon drin, ist aber verbesserungswürdig.
Die Notwendigkeit für ein Histogram oder Waveform sehe ich deshalb nicht.
Momentan funktioniert das mitgelieferte Ultrascope nur auf Mac Rechnern. PC is also (noch) nicht.
Frank
Antwort von Sinarius:
Ziemlich skurrile Geschichte mit dem dreckigen Glas. Also, ich weiß nicht ... wieso denke ich, dass nach sieben Monaten Lob, aber auch Kritik längst schon das nächste, verbesserte Modell in den Startlöchern steht?
Und wieso denke ICH die ganze Zeit an Manipulation von Konkurrenzunternehmen? ;-)
Antwort von CameraRick:
"Tja, und darum sind angeblich gerade einmal 13 Prozent (also 4 von 30 Sensoren) der gerade gelieferten Sensoren für eine Weiterverarbeitung geeignet."
Jetzt wird wohl auch dem letzten Experten-Kritiker der Canon- und Nikon DSLRs klar werden, dass es eben nicht so einfach ist, kostengünstig bessere Hardware zu produzieren. Wer glaubt, dass sich hier ein ernst zu nehmender Konkurrent zum Marktführer aufschwingt, der weiß es jetzt besser.
"13% der Sensoren". Da wird Canon & Co. sicher Angst und Bange.
Die Blackmagic Cam ist wirklich der Witz des Jahres 2012.
Das es aber nur ein Muster-Batch war, das mit den 30 Sensoren, hast Du auch gelesen? Und dass 13% hier ein blöder Wert zum Zerlegen ist, weil ja offensichtlich ein Problem herrschte das gefunden werden wollte (und nun auch ist)?
Wirkt natürlich etwas albern, aber sie sind ehrlich genug das zuzugeben und wie Canon bei ihrer ersten digitalen Kamera waren, wissen wir auch nicht (und da stand sicher auch ein anderes Kapital im Rücken).
Find ich besser als Rückrufaktionen wie bei Canon, weil der Handgriff Schadstoffe enthielt.
@WoWu
Ich fragte wegen der LUT, einfach wegen meines Workflows in Nuke. Ich importiere Footage - gebe ihr eine Kurve (damit sie richtig linearisiert wird) und anschließend stelle ich mir eine Viewer-LUT ein (entweder die gleiche wie die Eingangs-LUT, oder wie etwa die in unserem Kino, so pi mal Daumen). Hat nun nichts mit der "korrekten Super Anzeige" zu tun, sondern einfach mit der Vorschau für VFX.
Auch interessiert mich einfach, welches Value die LOG-Kurve etwa bei 1 erreicht (Cineon kommt ja auf knapp 13,5 - mit LogC bist schon bei 55)
@Frank
Ultrascopes für Windows wären auch nur dann richtig sinnvoll, wenns Notebooks mit Thunderbolt gibt. Für Studio-Sachen wo man einen Desktop hinstellen könnte sind dann ja oft die Kabel zu kurz :/
btw, Du erzähltest ja (d)einen Workflow; wie ich das mit der LUT usw zu machen hab. Das ist ja nur auf DaVinci ausgerichtet, gell? Weil das würde ich im Zweifel nicht nutzen wollen (nicht weil ichs für schlecht halte, sondern ist eben einfach nicht in meiner Pipeline)
Antwort von Predator:
...aber ich glaube garnicht, das BMD und der Sensorhersteller in großen Mengen herstellen können. Da kommen vielleicht 20 Kameras pro Woche raus, was bei sicherlich über 10 000 Vorbestellungen heißt: Juni/juli 2013 rum flächendeckend verfügbar.
Wir sind hier alle sehr froh drüber, dass solche Branchenexperten den Weg in dieses Forum gefunden haben. Dabei ist es nicht nur das beeindruckende Wissen über tägliche Produktionspotentiale bestimmter Hersteller, das uns fasziniert, nein es sind eben auch die banalen Rechenkünste. Predator ist wirklich ein Raubtier der Prozessorleistung, ja ein Monster im Kopfrechnen.
Predator, kannst Du uns noch mehr verraten?
.
Sorry, ich hab im Studium 3 Versuche gebraucht um Mathe zu bestehen...
Bin halt eher der kreative Typ, Gottseidank!
Antwort von CameraRick:
Da gehörst Du zu den Wenigen, die die Kanten nicht wollen... aber das könnte natürlich den positiven Unterschied tatsächlich ausmachen.
Viele werden aber ganz sicher enttäuscht sein.
Ich bin aber auch mal gespannt, was für Bilder dabei herauskommen.
Bisschen blöd ist das ja, dass sie jetzt so in Lieferverzug kommen.
Was genau meint ihr eigentlich mit der Kantenaufteilung? Aliasing oder wie?
Sorry wenn ich dumm frage, ich kenne mich mit der GH2 nicht so aus. Klingt nur grad sehr spannend :)
Antwort von Predator:
Kantenaufsteilung heißt einfach das Bild schärfen. Also die Kontraste punktuell an Kanten, Linien, Konturen zu erhöhen.
Das kann Aliasing verstärken, wenn es schon vorher im Bild vorhanden war.
Antwort von CameraRick:
Kantenaufsteilung heißt einfach das Bild schärfen. Also die Kontraste punktuell an Kanten, Linien, Konturen zu erhöhen.
Das kann Aliasing verstärken, wenn es schon vorher im Bild vorhanden war.
Also quasi das, was eine Unsharp Mask machen würde?
Interessant. Hieße das, dass das Bild einfach eine andere Ästhethik bekäme oder doch eher dass es nötig ist, weil die MFT-Optiken nicht so dolle sind?
Das find ich spannend - denn ich würde auch nur die MFT-Variante der BMCC kaufen wollen, allein wegen der Adaptiermöglichkeiten.
Antwort von Anne Nerven:
Sorry, ich hab im Studium 3 Versuche gebraucht um Mathe zu bestehen...
Bin halt eher der kreative Typ, Gottseidank!
Warum hast Du denn dann überhaupt Mathe studiert? :-)
Antwort von WoWu:
@ Frank Glencairn
Das sieht so aus, als hätten wir den identischen workflow, nur eben mit einem andern Zielmedium.
Für uns macht es keinen Sinn, in 12, (oder 16 bit) Files rumzufuhrwerken, solange wir gar nicht das Equipment haben, 12, 14 oder 16 Bit überhaupt sichtbar zu machen.
Daher die konsequente Arbeit mit LUTs
@CameraRick
@WoWu
Ich fragte wegen der LUT, einfach wegen meines Workflows in Nuke. Ich importiere Footage - gebe ihr eine Kurve (damit sie richtig linearisiert wird) und anschließend stelle ich mir eine Viewer-LUT ein (entweder die gleiche wie die Eingangs-LUT, oder wie etwa die in unserem Kino, so pi mal Daumen). Hat nun nichts mit der "korrekten Super Anzeige" zu tun, sondern einfach mit der Vorschau für VFX.
Auch interessiert mich einfach, welches Value die LOG-Kurve etwa bei 1 erreicht (Cineon kommt ja auf knapp 13,5 - mit LogC bist schon bei 55)
Den Workflow verstehe ich noch nicht so ganz.
Denn eigentlich gibt man auf das Originalmaterial zur Verarbeitung noch keine Korrektur bzw. lediglich (LUT) im Sichtweg, sofern Du nicht mit mit Proxys arbeitest.
Erst in der Endfertigung wird dann die korrekte (Reverse Kurve) + der Korrekturen aus den Metadaten und der entsprechenden Umrechnungen auf das Zielmedium (z.B.10 Bit S-Log) auf das Originalmaterial gerechnet (wenn keine Ausbelichtung stattfindet).
Dabei wird dann auch der Weisspunkt (DCI) und der P3 Farbraum bedient.
Diese Korrekturen sollten auch im (Monitor) LUT berücksichtigt sein.
In Bezug auf die Werte, weiss ich nicht, welche Grundlage Du da zugrunde legst.
Im Cineon-Standard entsprechen 95 Werte einer Blende.
Schwarz wird mit 95 statt 0 repräsentiert, damit beim Ausbelichten auf Film kein Signalverlust durch Filmkorn stattfindet.
Antwort von CameraRick:
Ich kriege nie Original-Material rein, sondern DPX (oder manchmal CIN).
Die kriegen beim Reinkommen ins Programm eine Kurve abgezogen (zur korrekten Linearisierung), und wenn es wieder rausgeht eben diese gleiche wieder draufgerechnet. Dass sich das Material vom Eintritt bis zur Ausgabe nicht wirklich verändert - es geht raus, was rein kam.
Da die ProRes der BMCC aber ja eine Gammakurve eingebacken haben werden (oder ist es nun doch linear?), wollte ich nur wissen, welche Gammakurve das denn ist.
Was Cineon angeht: ich beziehe mich auf zwei Dinge, diesen Artikel: http://magazine.creativecow.net/article ... -with-them
und wenn ich mir beispielweise in Nuke eine Ramp erstelle und die durch eine Colorspace-Conversion jage, kann ich mir ja einfach die Ranges anschauen.
Da kommt Cineon von -0.00565 (LOG 0) bis 13.52169 (LOG 1023) und Alexas LogC von -0.01729 bis 55.07956 (entsprechend auch von LOG o bis LOG 1024). sRGB macht es sich "nur" von 0 bis 1 (LOG 95 bis LOG 685) gemütlich.
Vermutlich benutze ich die falschen Vokabeln, ich hab das in englisch gelernt und mir fehlt da so ein wenig die korrekte Übersetzung :/
Antwort von WoWu:
Da BMD ProRes als Proxy benutzt, gehe ich mal davon aus, dass das REC 709 entspricht, also der TV Entzerrung. (Frank, korrigier mich, wenn das anders ist).
Der Umstand, dass Du kein originalmaterial bekommst, entspricht genau dem Workflow, der eigentlich für Cinema vorgesehen ist, denn so arbeiten wir auch.
Ob das nun ProRes als Proxy ist oder aneinander gehängte JPEGs, das ist eigentlich egal.
Du siehst also nur eine kamerakorrigierte Version, die zu Deiner Monitorentzerrung passt und nimmst die Korrekturen relativ dazu vor und speicherst sie als Metadaten ab.
Das ist der offizielle (und meiner Ansicht nach auch wirklich korrekte) Weg.
Die Wertezuordnung scheint mir die entsprechende Korrektur nach 10 Bit zu enthalten. Der Original Content ist aber 12 Bit. Daher unterscheiden sich die Grundwerte.
(Ich hab den Artikel noch nicht gelesen... kann mich also noch nicht darauf beziehen ... mach ich noch).
Antwort von CameraRick:
Sofern ich nun im Bilde bin, ist es REC709 wenn man "Video" einstellt - bei "Film" ists ja aber viel flacher. Daher dachte ich, man kriegt da vielleicht eine LUT bei, bzw sie entspricht einer LUT die schon etabliert ist (sei es nun LogC, Cineon, REDLOG oder S-Log)
Es ist schon recht, wir machen hier auch großräumig Kino, gelegentlich TV. Nehmen aber keine MOVs mehr zur Bearbeitung, wegen des ganzen Gamma-Quatsches (außerdem hat das mal arg rumgesponnen, ist uns zu riskant).
*kopfklatsch* ja natürlich, entspricht dem nach der Wandlung zu 10bit - ich denke auch nicht mit :) keine Ahnung wieso Nuke mir das so ausgibt, vermutlich weil er bei LOG immer an 10bit denkt?
12bit ist der Original-Content, das stimmt; gibt es dann dennoch eine Art LUT mit der ich das importieren würde? Rein hypothetisch, vermutlich würde es ohnehin zunächst in DPX wandern (ulkig ist ja, dass ein unkomprimierter CinemaDNG RAW-Frame der BMCC bei 12bit 2.5K anscheinend kleiner ist als ein DPX bei 10bit log HD). Aber wenn ich es nicht irgendwie "einstelle", müsste es ja linear sein; ich mein, selbst jede DSLR-Footage stelle ich ja vorher auf sRGB oder REC709.
Der Artikel bezieht sich mehr auf Kino, war nun nicht so relevant, meinte das nur bzgl. der 13-Stufen von Cineon.
Antwort von Predator:
Sorry, ich hab im Studium 3 Versuche gebraucht um Mathe zu bestehen...
Bin halt eher der kreative Typ, Gottseidank!
Warum hast Du denn dann überhaupt Mathe studiert? :-)
Ähh, es gibt sehr sehr viele Studiengänge, in denen man eine Mathe Klausur schreiben muss. ;)
So ziemlich alle außer die Geisteswissenschaften.
Antwort von Blancblue:
Jep :)
Und ich habe Mathe auch nur geschafft, weil die Endnote mit der Note aus Statistik gemittelt wurde. :D
Antwort von domain:
Eine merkwürdige Geschichte mit den verdreckten Sensorgläsern. Wo bitte werden die denn produziert bzw. montiert? Etwa in einem chinesischen Hinterhofkeller in Kinderarbeit?
Und was stimmt jetzt, war das Verpackungsmaterial schuld am Staub oder irgend eine noch zu reinigende Maschine für die Montage oder beides?
Wenn man mal die Reinsträume von großen Chipherstellern gesehen hat, dann ist Staub dort quasi unmöglich, die Luft kommt mikrofein gefiltert von der Decke herab und wird im Boden aufgesaugt und alle ArbeiterInnen wandeln ja quasi als Mumien völlig vermummt umher, damit ja keine Schuppe den Prozess stören kann.
Und trotzdem gab es vor Jahren bei den großen Chips noch Ausschussraten von 50-80 %, was natürlich besonders auch auf die Vollformatsensoren zutraf. Bei kleineren Chips und auf großen Wafern produziert spielt diese enorme Ausschussrate kostenmäßig allerdings keine besondere Rolle, das ist klar.
Antwort von deti:
... die hätten besser mal 35mm Sensoren von Sony eingekauft und nicht so einen Schrott ;-)
Deti
Antwort von WoWu:
Ich tippe mal ganz schwer drauf, dass das die die OLPF Filterflächen nicht gleichmässig aufgedampft bekommen.
Das ist nämlich wirklich nicht ganz einfach und sorgt (auch bei andern Herstellern) für enormen Ausschuss.
Das würde nur keiner verstehen.
Staub und Verschmutzung versteht auch der einfachste Amateur und bleibt guter Hoffnung.
Warum sollten sie etwas Kompliziertes erklären wollen ?
Bleibt also spannend, ob es hinterher Schärfeinseln in den Bildern gibt, weil sie die Abnahmebdingungen der Realität angepasst haben..
Antwort von wolfgang:
Aufdampfverfahren sind unverändert nicht sonderlich einfach, das waren sie schon vor 20 Jahren nicht und werden es auch nie sein, wie ich damit mal am Rande zu tun hatte.
Antwort von Frank Glencairn:
Die BMC hat keinen OLPF. War ein langes hin und her, aber schlußendlich hat sich BM dagegen entschieden. Hat natürlich seine Vor- und Nachteile.
Zu den ProRes Proxies. Wenn man welche will (was ja nur bei raw Aufzeichnung Sinn macht) muß man die von den DNGs herausrechnen.
Die Kamera selbst generiert keine.
Die BMC zeichnet entweder DNG, ProRes oder DNXHD auf.
Wobei man ProResDNxHD entweder mit einer eingebackenen 709 (Video) LUT aufzeichnen kann oder mit einer LOGartigen Kurve.
@Rick
Es kommt keine LUT mit, aber du könntest die BMC 3DLUT aus Resolve exportieren.
Frank
Antwort von WoWu:
Gilt das nicht vorhandene OLPF auch für MFT Sensoren ?
Je kleiner der Sensor wird, umso kritischer werden die Werte ...
Ich wäre mir da also nicht so sicher, ob das nicht nur für das Vollformat Gültigkeit hat.
Danke für den Hinweis bezüglich des Proxys. Ich war der Meinung, das Teil macht beides, was nicht mehr als konsequent in der Cine Verarbeitung ist.
Denn bei dem Herausrechnen geht es ja wieder um die korrekte Kurve, sonst nutzt das Arbeitsfile ja herzlich wenig, wenn da schon Fehler drin sind.
Obwohl es für das File ja korrekte reverse Kurven gibt. Das ist ja der Vorteil bei DNG.
Von solchen LOG-artigen Kurven als LUT halte ich nicht viel. Entweder sie stimmen exakt oder taugen nichts, wie sonst sollte man hinterher präzise Werte herausbekommen und rekonstruieren können, was am Set gemeint war.
Ich bin kein grosser Freund davon, dass man Lichtbestimmung in der Post macht. Für mich geschieht das in erster Linie noch am Set.
Also, woll'n mal hoffen, dass die Kamera irgendwann kommt und auch in MFT das hält, was sie im Vollformat verspricht.
Antwort von Frank Glencairn:
Die Sensorgröße ist irgendwo zwischen S16 und MFT (16.64 mm x 14.04mm Active Area of sensor 15.6 mm x 8.8 mm)
Der Sensor ist immer der selbe, nur das Mount ist verschieden.
Antwort von Frank Glencairn:
Der Workflow ist so gedacht, daß du die DNGs in Resolve lädst, ne 709 LUT drüber ziehst und dann Als ProRes zum Schneiden raus rechnest.
Nach dem Picture Lock importierst du den Schnitt als XML und Reslolve tauscht die LowRes-ProRes gegen die DNGs automatisch aus - ab da dann normal Graden und Mastern.
Das umdrehen der LOGartigen ProRes/DNxHD funktioniert ganz ordentlich, wen man die BMC-eigene LUT dafür nimmt.
Antwort von CameraRick:
Von solchen LOG-artigen Kurven als LUT halte ich nicht viel. Entweder sie stimmen exakt oder taugen nichts, wie sonst sollte man hinterher präzise Werte herausbekommen und rekonstruieren können, was am Set gemeint war.
Schon recht, mich interessierte es tatsächlich nur für die Pipeline. Mir ist nicht wichtig dass es 100% so aussieht wie gewollt, nur dass ich erstmal gescheit darauf arbeiten kann und weiß, wo die Reise hingeht. Das Material kommt mir so raus, wie es rein kam; da ist also keine Verzerrung, nur hilfts manchmal schon ganz gut beim Arbeiten wenn man es nicht in super-flasch anschauen muss :)
@Frank
Danke für die Aufklärung.
Wo in dieser Pipeline ist denn aber der Eingriffspunkt für andere Departments? Für mich besteht nen Film aus mehr als Editing und Grading, und ich weiß nicht wie gut man auf RAW-Dateien VFX machen kann (bzw wie gescheit man die dann wieder exportiert bekommt...)
Antwort von klusterdegenerierung:
Vielleicht ja auch ganz anders:
Die haben von den anderen die Pistole auf die Brust bekommen, das sie warten sollen bis die anderen eine alternative haben!
Und wenn nicht gehört der Laden halt bald jemand anderem, dann lieber bisschen rumhampeln bis die anderen soweit sind! So abwegig nicht oder?
Sensorglas? Wers glaubt! Macht doch mal neben Gasprom ne Bude auf mit Gas für den halben Preis, wie lange die wohl steht?! :)-
Antwort von Frank Glencairn:
[
@Frank
Danke für die Aufklärung.
Wo in dieser Pipeline ist denn aber der Eingriffspunkt für andere Departments? Für mich besteht nen Film aus mehr als Editing und Grading, und ich weiß nicht wie gut man auf RAW-Dateien VFX machen kann (bzw wie gescheit man die dann wieder exportiert bekommt...)
Für VFX kannst du die DNGs zu jedem beliebigen Zeitpunkt abgreifen oder wahlweise TIFF, DPX oder sonstwas draus machen - muß man halt von Fall zu Fall und je nach Software entscheiden, was man in welcher Reihenfolge wie macht - aber du bist deibei so flexibel wie's nur geht.