Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic Cinema / Production Camera 4K / URSA (Mini) 4.6K und 12K uä.-Forum

Infoseite // Test: Blackmagic Design Pocket Cinema Camera – Sensor Blooming



Newsmeldung von slashCAM:


Test: Test: Blackmagic Design Pocket Cinema Camera – Sensor Blooming von rob - 26 Aug 2013 16:43:00
>Wir befinden uns noch mittendrin im Test der Blackmagic Design Pocket Cinema Camera – heute wurden Außenaufnahmen gemacht mit teilweise reflektierenden Flächen und hierbei trat recht deutlich sog. Sensor Blooming – auch unter "white discs" oder "white orbs" Phänomen bekannt, auf. Die Details wollen wir euch nicht vorenthalten, drum schnell raus damit ...
zum ganzen Artikel

Space


Antwort von tommyb:

... und ich dachte das gäbe es nur bei den billigen Unfallkameras fürs Auto.

Also haben wir hier ein Bananenprodukt à la GoPro? Toll!

Space


Antwort von molch:

Uff, das sieht recht übel aus. Im Bewegtbild, gerade im Fall der aufblinkenden Reflexe auf den Lüftern, wird das sogar dem Laien auffallen :(


PS:
Es wäre Super, wenn ihr beim Test auch die Audio-Sektion genauer unter die Lupe nehmen könntet!
Die GH2 hat ja als einzige videofähige Fotocam einen halbwegs gescheiten Preamp verbaut, der es ermöglicht, zur Not auch einmal ein Richtmikro direkt anzuschließen.
Da der große Bruder der Pocket soweit mir bekannt ist sowohl einen Line als auch Mikrofon Modus besitzt (Zumindest auf dem Papier, irgendetwas war da doch noch mit der Firmware), würde es mich interessieren, ob die Pocket Cam das Richtmikro auch mal ohne Vorverstärker vernünftig nutzen kann.

Space


Antwort von Predator:

Tony Rivera, Blackmagic Design:

We realize that this is an issue and take these questions seriously. We are addressing this and will give you folks an update when we have more information.

Space


Antwort von cantsin:

Da gibt's nur eine Möglichkeit, das "issue" zu lösen: Rückruf, Sensortausch, womöglich weitere Verzögerung der Kamera um Monate. Vor allem wird das tricky, weil BM im Gegensatz zu Fuji keine eigene Sensorentwicklung hat. Wenn der Sensor, den sie eingekauft haben, dieses Problem hat, werden sie nicht so einfach eine Alternative auftreiben können. Die Lösung könnte auch eine Erstattung des Kaufpreises oder ein verbilligtes Upgrade auf eine Cinema Camera sein.

Space


Antwort von Ska_Ska_Ska:

diese Nullwerte/"Blacksun" Probleme wurden bei der Bmcc bis jetzt ja auch nicht gelöst, obwohl es meines Wissens nach angekündigt wurde.

Space


Antwort von Frank Glencairn:

Da gibt's nur eine Möglichkeit, das "issue" zu lösen: Rückruf, Sensortausch, womöglich weitere Verzögerung der Kamera um Monate. Vor allem wird das tricky, weil BM im Gegensatz zu Fuji keine eigene Sensorentwicklung hat. Wenn der Sensor, den sie eingekauft haben, dieses Problem hat, werden sie nicht so einfach eine Alternative auftreiben können. Die Lösung könnte auch eine Erstattung des Kaufpreises oder ein verbilligtes Upgrade auf eine Cinema Camera sein. Jetzt müssen wir erst mal sehen ob das überhaupt ein Sensorproblem ist.
Ich hatte den selben Effekt mal bei der FS100 und es war nur ein Codec Problem (ProRes über Samurai) - das parallel aufgenommene AVCHD war in Ordnung.

Leider hab ich keine Pocket, sonst könnte ich eigene Tests machen.
Vielleicht ist ja Slashcam so nett mir einen Originalclip zur Verfügung zu stellen, damit ich mir das mal ansehen kann. Ich hab da so ne Ahnung. Muss aber Material von der Karte sein, nix was schon mal auf ner Timeline war.

Space


Antwort von WoWu:

So sehe ich das auch.
Ist das denn auch in CinemaDNG ?

Space


Antwort von cantsin:

Ist das auch in CinemaDNG ? Die Kamera nimmt noch kein DNG/raw auf, das soll noch per Firmwareupdate nachgereicht werden.

Space



Space


Antwort von WoWu:

Danke, das ist schade.

@ rob

habt Ihr mal eine andere Kennlinie versucht, denn solche Solarisierungseffekte treten bei zu flachen Kennlinien auf, egal ob sie in der Kamera oder im Codec entstehen.
(Die schwarze Sonne gab's auch im analogen Film.)
Und die Funktion eines CMOS gibt das auch nicht her.
Den Effekt mach ich Dir mit jeder beliebigen Kamera.

Space


Antwort von Valentino:

@WoWu
Das an dieser Stelle der Pixel Schwarz ist hat also nix damitzu tun, das sich da zwei Wellen gegenseitig auslöschen?

Auch Slashcam macht leider den Fehler und arbeitet mit der 200ASA Kurve,
was man einfach tunlichst nicht machen sollte bei einem Sensor mit nativen 800ASA. Einfach ND Filter davor hauen und mit 800ASA belichten, so wie es der Frank hier macht sonst geht das so auch bei der Alexa schief.

Und ganz nebenbei wandern von den 13 Blenden die meisten in die Schatten und die Highlights clippen schon nach drei Blenden.

Was mich so nervt, das da gerade so ein riesen Ding draus gemacht wird,
trotz das wir die ganze Thematik schon vor Jahren mit der R1 durchgekaut haben.

Was aber die RAWs der BMCC angeht so ist auch hier der Blackdot Effekt zu sehen, hab das aber noch nicht alternativ in den PS ziehen können.

Space


Antwort von WoWu:

Nee, da "löscht sich nichts aus".
Man muss sich einfach mal anschauen, wie "flach" die Kurve bei Weiss verläuft.
Eine Erhöhung der Auflösung an der Stelle, würde Abhilfe bringen, deswegen meine Frage nach den 12 Bit.
Nun kommt noch hinzu, dass ProRes immer nur den eingeschränkten Wertebereich überträgt und an der Stelle dadurch noch zusätzlich eine Indizierung stattfindet.
Wenn da aber kein Wert ist, dann ist das eben schwarz.
Solche Effekte gibt es schon, seitdem fotografiert wird.
Ansel Adams ist mit so einem Bild schon in den 30er Jahren aufgefallen.
Nur nannte man das damals anders.
Ich würde mal eine andere Kurve benutzen.

Space


Antwort von Frank Glencairn:

Irgendwelche Gedanken zu den weißen Blobs WoWu?

Space


Antwort von WoWu:

:-) was meinst Du mit weissen Blogs ?
Die Runden Lichter ?
Das ist ganz klar, wenn zuwenig Werte im hellen Bereich sind, wird der einzig Wert (relativ grob) dargestellt.
Dadurch entsteht ein einziger weisser Lichtpunkt.
Normalerweise würden dafür mehr Werte zur Verfügung stehen und der dicke Weisse Punkt würde sich in der Helligkeit differenzieren.

Das ist derselbe Fehler wie der schwarze Kern.

Frage ist nur, ob er bei der Wertebelegung (Kurve) des Sensors entsteht oder auf dem Übertragungsweg also vom Sensor zum Codec.
Darüber würde eine RAW Format Auskunft geben.
Schade, dass die Kamera das noch nicht abgibt.
Aber der Fehler würde mich nicht sonderlich aufregen.
So was kriegt man in den Griff.

Was vielleicht noch interessant wäre: hat die Kamera ein eigenes Bild?
Sind da die Effekte auch drauf ? Daran könnte man sehen, ob es die Sensorkurve ist oder der Codecübergang.

Space


Antwort von Frank Glencairn:

Ich tippe auf codec - hab mit ProRes schon mal was ähnliches erlebt.
Künstlich verringerte ISO macht es wahrscheinlich nicht besser.

Space


Antwort von WoWu:

Nee, stimmt, ich denke auch, an der Verstärkung liegt das nicht.
Auch NDs oder so was bringt nichts, solange Du nicht auf Dynamic verzichten willst.

Oder Du machst das so ;-):

Space


Antwort von Frank Glencairn:

LOL ;-)

Space


Antwort von molch:

Hmm, aber nach deiner Erklärung müsste sich doch der Fehler auf die Helleren stellen beschränken, oder?
Die Blooming Problematik besteht ja eben darin, dass jeder stark geclippte Bereich alle umliegenden Pixel in einem bestimmten Radius ebenfalls weiß werden lässt, unabhängig von ihrem Wert. Falls ich dich jetzt falsch verstanden haben sollte, sorry ;-)

Space



Space


Antwort von blueplanet:

Oder Du machst das so ;-): ...cooler Filmlook - möcht" ich auch haben ;))

Space


Antwort von domain:

(Die schwarze Sonne gab's auch im analogen Film.)
Und die Funktion eines CMOS gibt das auch nicht her. Könnte es sein, dass CMOS (ohne rechnerische Korrektur bei exklusiveren Kameras) tatsächlich die altbekannten Solarisationseffekte wieder beherrscht?

Glaube kaum, dass in diesem Video die billige Disgo Videocamera mit in den Lichtern flachem Profil aufgezeichnet hat.

Aus dem Net aufgeschnappt:
Laut http://www.imagingdevices.com/Images.htm
ist für CMOS ein solcher schwarzer Punkt typisch:

"It is customary that CMOS sensors exhibit an artifact of black dot (so
called "solarization") when taking a picture of a very bright object like a
reflection from the sun or a sky with a bright sun."


Space


Antwort von Frank Glencairn:

Genau so ist es.

Macht mir aber weitaus weniger Sorgen, als die weißen Blobs. Die kann man nicht mal eben schnell in der Post raus tracken.

Space


Antwort von ennui:

Ich könnte schwören, dass ich schon CMOS-Aufnahmen gesehehen habe, wo sogar direkt in die Sonne gefilmt wurde, ohne so einen Effekt. Wäre ja auch bischen schade, wenn nach "schwenke nicht zu schnell", "filme nicht aus dem Fenster des Fahrzeugs" und "filme kein Ziegeldach" nun auch noch "filme nichts helles" dazukäme. Da hol ich doch lieber die alte DVX100 wieder raus, die hat diese ganzen Probleme nicht weil CCD. Man darf filmen, wozu man Lust hat, und das knackige behutsam komprimierte DV skaliert auch super zu 720p.

Space


Antwort von Jott:

Wer die Pocket hat: zeigt schon das Live-Bild die Blooms oder nicht? Und wenn, im welchem Modus, Film und/oder Video?

Space


Antwort von Frank Glencairn:

Ich könnte schwören, dass ich schon CMOS-Aufnahmen gesehehen habe, wo sogar direkt in die Sonne gefilmt wurde, ohne so einen Effekt.

Ehrlich gesagt ist mir das noch nie passiert, nicht mit der FS100 und nicht mit den beiden BMCs. Ich glaub da muß man schon ganz offen ohne ND und IR voll in die Sonne halten.

Bei meinem ersten DR Test mit der BMC war es auch kein Problem:

So ab 2:02

Space


Antwort von cantsin:

Dieses Forumsposting erklärt sehr gut, um welche Überstrahlungsphänomene es geht und um welche nicht:
http://forum.blackmagicdesign.com/viewt ... 100#p73999
Das Problem sind nicht die überstrahlten Bildteile an sich, sondern die Tatsache, dass die überstrahlten Pixel auf andere übersprechen, wodurch z.B. ein helles Objekt im Hintergrund auch ein Objekt im Vordergrund ausreissen lässt:

Space


Antwort von Frank Glencairn:

Jede Wette, daß der Spuk bei raw nicht auftritt (wenn es denn mal implementiert ist).

Space


Antwort von domain:

Könnte schon sein, aber dieses Phänomen müsste dann auch mit Cmos-DSLRs reproduzierbar sein, wenn man z.B. mit Blitzlicht stark glänzende Gegenstände einerseits mit JPEG und anderseits mit RAW fotografiert.
Würden sich bei JPEG diese flächigen und mit einem schwarzen Rand umgebenen scharf abgegrenzten BLOBS ergeben und bei RAW nicht, dann wäre es eindeutig ein Codec-Problem, was ich aber nicht glaube.


zum Bild


Space



Space


Antwort von WoWu:

Es ist immer eine Frage, wie die Sensorwerte "verteilt" werden.
Wenn ich eine Kurve anlege, die im oberen Bereich sehr "flach" wird und nur noch wenige Übertragungswerte einem hohen Lichtbereich zuordne, dann findet sich aufgrund der Kurve ein hoher Grad an Abstufung darin. Mappe ich jetzt diese 12/14 Bit vom Sensor auf ein 10 Bit Signal, dann werden entsprechend viele "Abstufungen" nochmals zusammengefasst in entsprechend weniger Werte. Aus einem Verlauf wird also schon soetwas wie eine Fläche.
(Ein Verlauf ist ja nichts anderes als viele Werte und eine Fläche ist nur ein Wert).
Kommt jetzt ein Codec hinterher, der auch noch Wertebereiche daraus gar nicht überträgt, dann wird der Bereich von "FullWell" bis zum ersten Übertragungsbereich nochmal zusammengefasst zu einem einzigen Wert.
So werden die weissen Flächen immer grösser. (Weil aus ehemals schon wenig Auflösungswerten (flache Kurve) immer weniger werden.)
Nutzt nun noch jemand in dem Codec-Wertebereich einen unerlaubten Wert nutzt (z.B. 1024 -oder auch alle), dann wird dieser Wert nicht verarbeitet. Es ist also ein Übetragungswert, in dem eigentlich ein Wert hoher Dichte erwartet wird, er ist aber quasi leer. Er wird also so dargestellt, wie ein Schwarzwert (1 Elektron-oder weniger-)

Verändert man also die Kurve dahingehend, dass sie im hellen Bereich zusätzliche Auflösungswerte aufweist, ändert sich das Mapping.
Wo das nun geschieht, ob bei der Implementierung des Codecs oder der Sensorsoftware, dass weiss nur BM.
Ich tippe aber auf "weiter hinten" weil sonst im De-Bayering die Übergänge anders aussehen würden.

Aber sowas kann man ja ausprobieren.
Übrigens hatte die RED one anfänglich auch mal ein solches Problem, das mit einem Firmware-Update behoben war.

Und so etwas wie "ist für CMOS typisch" stimmt nicht.
Es war typisch für CCD, aber CMOS funktionieren nun mal anders.

Space


Antwort von studiolondon:

Aber sowas kann man ja ausprobieren.
Übrigens hatte die RED one anfänglich auch mal ein solches Problem, das mit einem Firmware-Update behoben war.

Und so etwas wie "ist für CMOS typisch" stimmt nicht.
Es war typisch für CCD, aber CMOS funktionieren nun mal anders. Blooming hatte die RED One nie - das war von Anfang an spitzenklasse.

In den ersten Firmwares (~so die ersten 500 Kameras ab werk in etwa) war es bei Full-well auf dem Sensor bei *extremen* Lichtquellen, also bspw. *direkt* in die Sonne bei wolkenlosem Himmel, oder direkt in einen viele-KW HMI Scheinwerfer oder ganz nah in ein Xenon-Scheinwerfer möglich, bei den inneren Pixeln des komplett überbelichteten Bereiches *schwarz* anstelle von *weiss* im RAW zu erzeugen, hatte damals den Spitznamen "Black hole sun syndrome". Wurde sehr schnell per FW Update korrigiert, und auch die frühestens Kameras mussten nicht ins Werk, pure Software.

Das Bloomingwas wir jetzt hier bei der BMPCC sehen wirkt übel - das *kann* lieder durchaus in der Sensorlogik passieren, heutige Sensoren haben öfter schon onboard-ICs für das Auslesen - in denen solche Fehler potentiell fest verdrahtet seien können. In dem Fall wäre es nicht trivial per FW zu fixen...

Space


Antwort von domain:

Bei der Fuji X10 gabs auch mal eine Revision (ohne neues Modell), welche die "large white discs, or orbs" eliminieren sollte.

Vor der Revision:


Nach der Revision:


Space


Antwort von WoWu:

Ich finde auch, dass man das erst einmal abwarten sollte.
Blooming hatte die RED One nie Von Blooming (CCD) war auch nicht die Rede.
Das wird man beim CMOS auch nicht hinkriegen, weil bei hohen Energien sich die Lochpaare nach der Durchdringung der Silziumschicht anders verhalten.
Es war die Rede von einem identischen Effekt. (black sun)

Space


Antwort von ruessel:

Bei der Fuji X10 gabs auch mal eine Revision (ohne neues Modell) Wurden da aber nicht alle Hauptplatinen mit Sensor getauscht?

http://www.dpreview.com/news/2012/03/12 ... -and-fixes

Space


Antwort von studiolondon:

Ich finde auch, dass man das erst einmal abwarten sollte.
Blooming hatte die RED One nie Von Blooming (CCD) war auch nicht die Rede. Na, komisch, hier nennt sich der Thread: Test: Blackmagic Design Pocket Cinema Camera – Sensor Blooming ;)
Das wird man beim CMOS auch nicht hinkriegen, weil bei hohen Energien sich die Lochpaare nach der Durchdringung der Silziumschicht anders verhalten.
Es war die Rede von einem identischen Effekt. (black sun) Blooming kriegt man bei CMOS bequem hin - siehe Fuji, Blackmagic usw - für Full-Well Effekte (wie Blooming) sind bei CCD wie CMOS inhärente Probleme.

Der Blackholesun-Effekt, der komplett ohne Blooming entstehen kann, ist eine andere Baustelle.

Vereinfacht gesagt hat sich als Sprachgebrauch etabliert: alles was crosstalk zwischen Sensorzellen auslöst wird mit blooming tituliert, der blackholesuneffekt hingegen ist ein single-readout bzw -interpretation problem.

Blooming ist bei CCDs am stärksten, aber CMOS hat genauso die Bloomingproblematik, wenn auch schwächer.

Falls Blackmagic CMOSAPS nutzt - und nicht CMOSPPS - wovon man mit an Sicherheit grenzender Wahrscheinlichkeit ausgehen muss, dann kann leider das Blooming fest im Sensor bedingt sein.

Viele der heute typischen CMOSAPS mit ihren *fest* kombinierten ICs können nur eingeschränkt hinsichtlich des readouts per Software gesteuert werden, klassisch sind Dinge wie hard/softreset schranke usw. Aber schon für Techniken wie flushedreset, pseudo-flashreset und hard-to-softreset mit denen man Blooming (und Rauschverhalten) entgegenwirken kann brauchts tatsächlich Hardware im Sensor, naja, ok pseudoflashreset geht auch ohne, wenn man bisschen trickst.

Space


Antwort von WoWu:

Das ist leider nicht richtig und dass die Redaktion das fälschlicherweise als Blooming bezeichnet, sollte man dem anlasten, der den Fehler gemacht hat und die Beziehungen nicht verquicken.

Was den CMOS betrifft, kann die Zelle gar kein höheres Potential als FW annehmen (was nötig wäre um in einen andern "Potentialtopf" über zu laufen), weil entstehende Elektronen über ein Gate abgeleitet werden.

Siehe Funktion CMOS.
Solche Effekte können alle möglichen andern Ursachen haben und sind nicht auf den Sensor beschränkt (bereits ausgeführt).
Warten wir' einfach mal ab.

Space


Antwort von Predator:

Abwarten is gut...Meine Pocket kommt mit Sicherheit in wenigen Tagen und mit diesem Fehler will ich sie auf keinen Fall. Dann lieber ne GH3.

Space


Antwort von WoWu:

Ich würde erstmal die C-RAW Funktion abwarten.

Space



Space


Antwort von studiolondon:

Das ist leider nicht richtig und dass die Redaktion das fälschlicherweise als Blooming bezeichnet, sollte man dem anlasten, der den Fehler gemacht hat und die Beziehungen nicht verquicken.

Was den CMOS betrifft, kann die Zelle gar kein höheres Potential als FW annehmen (was nötig wäre um in einen andern "Potentialtopf" über zu laufen), weil entstehende Elektronen über ein Gate abgeleitet werden. Das ist Falsch.
CMOS per se hat Blooming, und Potentialtöpfe KÖNNEN überlaufen.


Elektronen abzuleiten (als eine der zahlreichen CMOS-Antiblooming-Verfahren) ist *eine* von *vielen* Methoden, um CMOS-Blooming zu *reduzieren*.

Zahlreiche Techniken & Patente - bspw. von Agilent, Fuji usw - sind auf Methoden & Verfahren erteilt um CMOS-Blooming zu reduzieren.

Als Startpunkt zum Einstieg empfiehlt sich die Lektüre von US 6633028 B2 und resultierent US 20030034433 A1 (2001/2003).

Kurzer Abriss:
Veröffentlichungsnummer US6633028 B2
Publikationstyp Erteilung
Anmeldenummer US 09/931,983
Veröffentlichungsdatum 14. Okt. 2003
Eingetragen 17. Aug. 2001
Prioritätsdatum 17. Aug. 2001
Gebührenstatus Bezahlt
Auch veröffentlicht unter US20030034433, WO2003017370A1
Unfortunately, CMOS image sensors based on arrays of photodiodes suffer from a phenomenon known as "blooming". When light strikes a photodiode, electron-hole pairs are generated. The electrons are swept into the diode by the electric field across the diode. Normally the diode is reverse biased and the collected electrons reduce the potential across the diode by discharging a capacitor that is connected in parallel with the diode. Image sensor arrays measure the number of photoelectrons that are collected by each photodiode during a predetermined exposure period.

Consider an array of photodiodes in which one of the photodiodes is exposed to a strong light source. The photocurrent from that photodiode can become sufficiently large to discharge the capacitor and cause the photodiode to become forward biased. In this case, a large current flows through that photodiode from the amplifier to ground. Electrons from this current can reach neighboring photodiodes and be collected by the neighboring photodiodes. These electrons are indistinguishable from the photoelectrons that would be generated in the neighboring photodiodes if those photodiodes had been subjected to light. Hence, the neighboring photodiode appears to be irradiated with light also. Accordingly, a small, high-intensity, light irradiation pattern appears to "bloom" into a much larger pattern.

Broadly, it is the object of the present invention to provide an improved CMOS image sensor, which is less sensitive to blooming.

These and other objects of the present invention will become apparent to those skilled in the art from the following detailed description of the invention and the accompanying drawings.
SUMMARY OF THE INVENTION

The present invention is an improved image sensor constructed from a photodiode and a transimpedance amplifier having an input connected to the photodiode. The present invention utilizes a clamping circuit to prevent the potential at the input of the transimpedance amplifier from causing the photodiode to become forward biased. In the preferred embodiment of the present invention, the transimpedance amplifier includes a transistor connecting the input to the output, and the clamping circuit includes a circuit for holding the base of the transistor at a clamping potential.


Space


Antwort von WoWu:

Nett beschrieben, aber leider nicht ganz richtig denn eigentlich dürfte da nicht CMOS sondern nur MOS stehen. Dann stimmt es wieder.

Space


Antwort von studiolondon:

Nett beschrieben, aber leider nicht ganz richtig denn eigentlich dürfte da nicht CMOS sondern nur MOS stehen. Dann stimmt es wieder. Du scheinst es ja besser zu wissen als Fuji, Agilent - und naja, offenbar auch das US-Patentamt. Vielleicht schreibst du denen ja einfach mal ein Mail und korrigierst ihre Anfängerfehler.

Und WoWu, ich will jetzt nicht ad hominen argumentieren - aber Dir geht öfters mal die Phantasie durch.

In unserer ersten Diskussion fabuliertest du von den "Celco-Laserbelichtern" die Ihr routinemässig einsetzt (Celco hat NIE Laserbelichter gebaut), das war schon ein wenig lächerlich, aber wenn du jetzt allen ernstes *vom US-Patentamt* erteilte CMOS-Verfahren, Methoden und Techniken von *Boyd Fowler* (einem der Überväter von CMOS) die von Agilent (einem *der* Multimilliardenschwergewichte bei Sensordesign) negierst, dann wirds echt blamabel.

Zudem Agilent/Fowler nur die Spitze vom Eisberg ist - Fuji hat da einiges mehr in petto, und selbst die MUSSTEN EINEN CMOS KAMERA WEGEN BLOOMING ZURÜCKRUFEN.

Space


Antwort von WoWu:

Lies dich mal in die Unterschiede zwischen MOS, (CCD)-MOS und CMOS ein dann wirst Du die Sache auch verstehen, statt mit allgemeinen hinweisen auf Internetinfos zu kommen.
Und was den Ausbelichter betrifft ... die meisten Ausbelichter werden im Sprachgebrauch als Laser bezeichnet.
Ein Automotor wird auch hinlänglich nur als Motor bezeichnet.
Also leg Dich wieder hin und lies das Thema mal in Ruhe nach, bevor Du hier persönlich wirst.
Und was Fuji betrifft, scheinen die Infos sich zu widersprechen. Mal heisst es, es wäre ein Firmware-updat gewesen, ein anderes mal ein Platinentausch.
Was war es denn nun. Auszuschliessen ist auch beides nicht, weil in manche Kameras nicht alle Softwarebereiche per Firmware "anzufassen" sind. Es muss also nicht immer ein HW Fehler sein, selbst wenn eine Platine getauscht wird.

Warten wir's ab, was bei BMD geschieht.

Space


Antwort von studiolondon:

Lies dich mal in die Unterschiede zwischen MOS, (CCD)-MOS und CMOS ein dann wirst Du die Sache auch verstehen, statt mit allgemeinen hinweisen auf Internetinfos zu kommen. Internetinfos, gehts noch?
DAS IST EINE ERTEILTE PATENTSCHRIFT.
Erteilt vom US-Patentamt an Agilent - und die haben, im Gegensatz zu Dir, ernsthaft Ahnung von der Materie.

Und was den Ausbelichter betrifft ... die meisten Ausbelichter werden im Sprachgebrauch als Laser bezeichnet. VÖLLIGER BLÖDSINN.
Grab dich nicht weiter in dein selbstgeschaufteltes Loch.

Es gibt CRT, LCD und LASER Filmrekorder.

Celco stellte und stellt KEINE Laserbelichter her - im Gegenteil, sie haben immer EXPLIZIT gegen Laserbelichter argumentiert.

Bspw. Arri, nicht Celco, bspw. brachte viel später Laserbelichter.
Ein Automotor wird auch hinlänglich nur als Motor bezeichnet. Du scheinst definitiv keine Probleme zu haben, einfach deine Phantastereien als Tatsachen zu schreiben und versuchst das zudem dann noch zu rechtfertigen. Ganz schwache Leistung. Probleme scheinst du hingegen zu haben, einzuräumen wenn Dir (mal wieder) die Pferde mit der Phantasie durchgehen.
Also leg Dich wieder hin und lies das Thema mal in Ruhe nach, bevor Du hier persönlich wirst. Pass mal auf: NICHT ICH - sondern das US-PATENTAMT versuchst du hier zu wiederlegen.

NICHT ICH muss mich einlesen - sondern Du. Ich hab dir grundlegende Patente gelinkt, die Leuten mit deinem Halbwissen einfach genug den Sachverhalt erörtern.

Der gute Boyd Fowler hält - anders als du - ZIG patente hinsichtlich CMOS, darunter eben so einige CMOS-ANTI-BLOOMING Techniken.
https://www.google.com/search?tbo=p&tbm ... er&tbm=pts

Da du aber es wohl präferierst nicht dazuzulernen muss dir eben klar sein, das du hier allen ernstes DEIN "Wissen" über das von Agilent, Fuji, dem US-Patentamt, Boyd Fowler, achja, und noch dem kompletten Rest der Industrie stellst. Das ist schon ziemlich neben der Kappe.

Und was Fuji betrifft, scheinen die Infos sich zu widersprechen. Mal heisst es, es wäre ein Firmware-updat gewesen, ein anderes mal ein Platinentausch. Blödsinn - Fuji hat *zuerst* einen (schwachen) interims Fix per FW geliefert und währenddessen einen NEUEN Sensor mit *schwächerem* CMOS-Blooming entwickelt, gegen den konnten die Nutzer dann austauschen.

Das lässt sich übrigens ganz bequem bei Fuji nachlesen.

Und, zurück zum Kernthema - Fuji scheint genauso unwissend zu sein wie ich, slashcam, das US-Patentamt, Agilent, Boyd Fowler.... ich zitiere aus Fujis Austauschschreiben:

However, we did receive some inquiries concerning the so-called white disc or blooming occurrence, where exceptional highlights in the picture can appear as strongly delineated rounded shapes.
This blooming effect can occur with all digital cameras which use CMOS sensors, to varying degrees. It can also occur with the X10 and X-S1 when shooting in certain conditions, e.g. cars with front lights shining in dark night scene.

Dementsprechend - nein, es gibt und gab keine Celco Laserbelichter, und nein, CMOS *HAT* Blooming.

Ganz einfache Tatsachen. Nicht schwer zu verstehen.

Space


Antwort von WoWu:

Ich glaube, Du willst es einfach nicht verstehen.
Wenn jemand sagt, "wir geben etwas auf einen Laser zur Ausbelichtung", dann wird das von jedem verstanden.
Kein Mensch sagt, er habe einen Otto-Motor im Auto.
Motor versteht auch jeder.
Aber vielleicht ja nicht in England.
Da fährt man ja auch auf der andern Seite.

Was die Technik betrifft, beschreibe ich es gern noch einmal für Dich, damit Du nicht auf solche allgemeinen Internetinformationen angewiesen bist:

Technisch gesehen sind die meisten CCDs und CMOS (MOS)- Strukturen, die Grundlage u.A. für Feldeffekttransistoren.
Die Struktur bestehend aus einem Träger aus reinem Silizium und einer darüber aufgedampften und durch eine dünne Isolierschicht getrennten Metallschicht (Aluminium, heute Silziumdioxys).
Ein Kondensator.

Da für die Trennschicht Aluminium eingesetzt wurde, also ein Metall, spricht man auch von MOS-Strukturen (metal oxide semicon-ductor).
MOS Strukturen unterscheiden sich noch zwischen P-MOS und N-MOS (leitend- oder nicht leitend).
Werden beide Typen gemeinsam verwendet, spricht man von CMOS (Complementary MOS).
Ein CCD, ist also ein MOS und unterscheidet sich vom CMOS eigentlich nur durch unterschiedliche Transistormengen- und anordnungen, sowie den Betrieb des Bausteins, wobei sich der reine MOS Baustein nochmals vom MOS-CCD durch geringere Bauteilmengen und damit u.A. durch größere lichtempfindliche Flächen unterscheidet.
Man hat beim CMOS gegenüber den passiven Pixelstrukturen die Verstärker in an die Fotodiode und zwischen die Buckets gelegt. dadurch hat sich der Abstand der Buckets, der immer das Problem des Blooming war, deutlich verbreitert zusätzlich hat man einen Transistor eingefügt, der als GATE wirkt und das Überlaufen der Buckets bis in den kaum mehr messbaren Bereich verhindert.
Durch die direkte Addressierbarkeit hat man ausserdem das Verbleiben von Ladungsmengen in Speichern, durch die die Ladung zum Ausgang transportiert wird (Smear) verhindert.
Durch die Benutzung leitender Flächen findet darüber hinaus ein Ausgleich unterschiedlicher Potentiale statt.

Ergo: Es wäre kein CMOS, wenn die Änderungen nicht enthalten wären.
Ist es ein CMOS, so sind die zusätzlichen Transistoren enthalten und die Erfindung von 2001 (Patent) ist dann eingeflossen.
Eine solche Erfindung wäre für einen CMOS gar nicht erforderlich gewesen, weil sie bereits enthalten gewesen wäre, anders beim MOS, da wäre sie noch nicht enthalten gewesen.
Aber vielleicht hat sich das Patent ja auf die damalige (2001) CMOS Entwicklung bezogen, kann ja alles sein, denn das CMOS ist ja nicht so vom Himmel gefallen, wie es heute verbaut wird.
Nur gehe ich mal davon aus, dass BMD kein Chip aus der Zeit vor 2001 verbaut hat und dass es auch kaum mehr Hersteller geben wird, die CMOS ohne die zusätzlichen Transistoren (und Gates) bauen wird.

Space


Antwort von studiolondon:

Ich glaube, Du willst es einfach nicht verstehen.
Wenn jemand sagt, "wir geben etwas auf einen Laser zur Ausbelichtung", dann wird das von jedem verstanden.
Kein Mensch sagt, er habe einen Otto-Motor im Auto.
Motor versteht auch jeder. Ich verstehe exakt das du dich windest und drehst um nicht einzuräumen, das du Blödsinn geschrieben hast.

Du hast geschrieben:
Die Ausbelichtung lassen wir von LaserPacific auf Celco Lasern machen.

Das ist -um dein schlechtes Beispiel aufzugreifen- alo ob du schreiben würdest: Wir mieten bei Airbus und fahren mit deren Mercedes Golf Diesel Wankelmotor.

Du hast schlicht nicht gewusst das Celco keine Ausbelichter auf Laserbasis herstellt und hast gefaselt. So einfach.
Aber vielleicht ja nicht in England.
Da fährt man ja auch auf der andern Seite. In England, wie den USA, Frankreich wie Deutscchland spricht man von Filmrekordern. Nicht von "Lasern".

Das ist auch ganz einfach zu verstehen:
JAHRZEHNTELANG HAT MAN FILMBELICHTER GENUTZT - UND ES GAB KEINE AUF LASER. Das war eine späte Innovation, als die kam war Filmrecording als Thema schon fast durch und alle Welt wechselte zur DI und kurz darauf DI->DCI.

Deswegen sprechen Fachleute von Filmrekordern - und schon garnicht von "Celco Lasern", weil es - ausser in deiner Phantasie - so etwas nie gab und bis heute nicht gibt.


Was die Technik betrifft, beschreibe ich es gern noch einmal für Dich, damit Du nicht auf solche allgemeinen Internetinformationen angewiesen bist: Du kannst quaseln und labern wie du willst - dadurch wird dein Unwissen und die falschen Informationen die du hier postest nicht wahr.

Du schriebst das CMOS kein Blooming hat. Das ist FALSCH. Das CMOS (wie CCD) Blooming erleiden kann ist BASISWISSEN.

Die "allgemeinen Internetinformationen" die du zitierst sind die relevanten PATENTSCHRIFTEN. Von Fachleuten eingereicht, die anders als du von der Materie nicht nur oberflächlich laienwissenschaftlich Kenntnis haben.
Man hat beim CMOS gegenüber den passiven Pixelstrukturen die Verstärker in an die Fotodiode und zwischen die Buckets gelegt. dadurch hat sich der Abstand der Buckets, der immer das Problem des Blooming war, deutlich verbreitert zusätzlich hat man einen Transistor eingefügt, der als GATE wirkt und das Überlaufen der Buckets bis in den kaum mehr messbaren Bereich verhindert. Du hast echt keine Ahnung. Erstens wirfst du hier wild PPS/APS CMOS durcheinander und zweitens zitierst du amuesanterweise EXAKT das Patent US 20030034433 A1 - was aber NICHTS mit CMOS zu tun hat, sondern eine OPTIONALE Anti-Blooming Verbesserung für CMOS darstellt.

Ergo: Es wäre kein CMOS, wenn die Änderungen nicht enthalten wären.
Ist es ein CMOS, so sind die zusätzlichen Transistoren enthalten und die Erfindung von 2001 (Patent) ist dann eingeflossen. Erneut Blödsinn. CMOS gabs 40 Jahre vor Anti-blooming nach US 20030034433 A1, und auch heute gibts en masse CMOS die darauf verzichten - oder bessere und modernere Techniken gegen Blooming verwenden.
Nur gehe ich mal davon aus, dass BMD kein Chip aus der Zeit vor 2001 verbaut hat und dass es auch kaum mehr Hersteller geben wird, die CMOS ohne die zusätzlichen Transistoren (und Gates) bauen wird. Du denkst allen Ernstes das alle CMOS heute automatisch so designt sind. Peinlich. Die geschilderte Methode ist schon lange verfeinert, da gibts im Bereich CMOS-ANTIBLOOM erheblich besseres - und dennoch verzichten ZIG Hersteller generell auf solch zusätzliche (kostspielige + lizenzpflichtige) Erweiterungen.

Fakt ist: Du hast fälschlicherweise behauptet, CMOS kenne kein Blooming.
Das ist FALSCH.


Richtig ist: Egal ob nun neulich Fuji, oder aktuell Blackmagic (oder dutzende andere Hersteller) - gibt es *immer* wieder Kameras mit blooming Problemen im CMOS Sensor. Im jüngeren Falle Fuji war es direkt im Sensor, und bei BM wissen wir NICHT ob es ebenfalls im Sensor entsteht, möglich ist es ALLEMAL - da CMOS eben BLOOMING haben kann.

Zudem sehen die Beispielbilder -leider- schwer nach Sensorblooming aus.

Und das hier ist ein Fachforum, desinformierender Blödsinn wie "Celcolaserbelichter" oder "bloomingfreie CMOSsensoren" sind hier schlicht fehl am Platze.

Space


Antwort von WoWu:

Nett anzusehen, wie Du versuchst mit Haarspaltereien "Land zu gewinnen" aber immer noch nicht zwischen MOS und CMOS unterscheiden kannst.
Alle MOS haben Blooming deswegen wurden solche Entwicklungen gerade weiter entwickelt und mit all den zusätzlichen Features, die solche Effekte auf ein Minimum reduzieren, angereichert.
Lies noch einmal genau, was ich geschrieben habe. Evtl. auch zweimal, um ganz sicher zu sein, dass Du es auch verstanden hast.

Du kannst Dir auch mal (im Internet-liegt Dir ja-) die "Anatomie" der beiden Typen anschauen, dann wirst Du die Veränderungen (vielleicht) auch nachvollziehen können.

Nee, nee, mein Lieber, Du magst zwar gut in der Ausstellung von Billig-PCs sein, aber bei Technik reicht es gerade mal bis zum nächsten Internet Blog.

Space


Antwort von studiolondon:

Nett anzusehen, wie Du versuchst mit Haarspaltereien "Land zu gewinnen" aber immer noch nicht zwischen MOS und CMOS unterscheiden kannst. Du bist manchmal wirklich peinlich - egal ob deine Fantasie mit dir durchgeht und du dann von blooming-freien CMOS Sensoren fabulierst, oder du routinemässig auf Celco-Lasern auszubelichten träumst - dein Mundwerk ist offensichtlich manchmal durchaus grösser als dein Fachwissen.

CMOS *hat* Blooming. Deine Aussage CMOS hätte kein Blooming ist falsch. Egal ob Fuji oder aktuell Blackmagic - zig Hersteller haben traditionell Probleme mit dem Blooming der CMOS Sensoren, und es gibt *zig* verschiedene Verfahren das Blooming auf CMOS Sensoren zu mildern - die relevanten Patente hab ich Dirf gelistet, also lerne was dazu und korigiere deine Falschaussagen.


Filmrekorder werden nicht "Filmlaser" genannt. Deine Aussage das wäre üblicher Sprachgebrauch ist falsch
- Jahrzehntelang nutzen man Filmrekorder (auf CRT und später LCD Basis) bevor *die ersten* Laser kamen. Und ganz spezifisch: CELCO hat NIE Filmmlaserrekorder gebaut. Das hast du dir schlicht einfach ausgedacht.
Alle MOS haben Blooming deswegen wurden solche Entwicklungen gerade weiter entwickelt und mit all den zusätzlichen Features, die solche Effekte auf ein Minimum reduzieren, angereichert.

Lies noch einmal genau, was ich geschrieben habe. Evtl. auch zweimal, um ganz sicher zu sein, dass Du es auch verstanden hast. Du ruderst zwar schon von deinem "CMOS kann garnicht mehr als FW" haben zurück - und verweist lustigerweise auf das Gate das die überschüssigen Elektronen ableitet und blooming MINDERT - bloss: das hat NICHTS mit CMOS zu tun. Die Ableitung über Gates (was grundlegend dem Patent von Agilent aus 2003 das ich dir die ganze Zeit verlinke entspricht...) ist NICHT Teil eines CMOS Sensors. Es ist eine OPTION und hat NICHTS mit CMOS zu tun.

Genauso dämlich wie deine "Den Effekt mach ich Dir mit jeder beliebigen Kamera" Aussage: Nein, das kannst du NICHT. Es gibt zig Sensordesigns (ob nun CCD, CMOS oder gar filmbasierend) die solche Arten von Fullwell-Problemen NICHT oder GÄNZLICH anders auslesen.
Nee, nee, mein Lieber, Du magst zwar gut in der Ausstellung von Billig-PCs sein, aber bei Technik reicht es gerade mal bis zum nächsten Internet Blog. Erst dreist lügen ("Celco-Laser"), dann rumfantasieren (CMOS kennt kein Blooming / Den Effekt mach ich Dir mit jeder beliebigen Kamera) und dann versuchen mit ad-hominem davonzukommen. Ganz grosses Damentennis. Nein, sorry wowu, mit der Art von Geseiere bist du bei mir dann doch ein wenig an deine Grenzen geraten.

Das einzige was du -wie jeder- zum jetzigen Zeitpunkt sagen kannst ist: Du weisst NICHT ob es ein SENSORDESIGNPROBLEM ist - da CMOS sehr wohl blooming-artefakte haben kann, dies nicht die erste Kamera ist die darunter leidet.

Das Gelaber von wegen "das mach ich dir mit jeder Kamera" ist ebenfalls Blödsinn (versuch das mal auf einer RED One hinzubekommen) - das es *zig* Schaltungsmöglichkeiten gibt CMOS blooming-fest oder blooming-empflindlich auszulegen, genauso wie deine Ausflüchte hinsichlich der "Celco-Laserrekorder", die ja angeblich im Sprachgebrauch Usus wären Blödsin sind: Celco hat NIE Laserrekorder gefertigt, und Filmrekording war SELTEN Laser, jahrzehntelang hingegen CCD.

Es ist völlig offensichtlich das du hier mit aufgeblasenen Backen von Dingen erzählst - von denen du nichts weisst respektive dir "on the fly" die bestehenden lücken im fachwissen zusammenpuzzelst.

Erzähl doch bspw. einfach mal was "ihr" auf "celco" so alles "gelasert" habt. Ich denke: Das wirst du schlicht nicht können - einfach weil du es dir nur ausgedacht & zusammengesponnen hast.

Space



Space


Antwort von WoWu:

Deine Postings sind mir zu lang und voll von Unfug und eigentlich entbehren sie jetzt auch der Sachlichkeit.
Argumente gabs auch schon vorher keine.

Mach deinen Blog, für den reicht es vom Stil und Inhalt.

Space


Antwort von Predator:

Äh, Leute?
Es sind noch andere hier, die sich einen Dreck drum scheren ob Blooming jetzt der richtige Begriff ist oder nicht ;)

Space


Antwort von stip:

wenn ihr fertig seid...die Lösung des Problems wurde doch schon längst genannt: abwarten.

Space


Antwort von domain:

http://news.thomasnet.com/fullstory/Analog-CMOS-Image-Sensor-exhibits-minimal-blooming-effects-483790

"The OV7949 is a new high-performance, highly-integrated analog CMOS image sensor based on OmniVision's proprietary OmniPixel(TM) architecture. The single-chip sensor's excellent low-light sensitivity and significantly reduced blooming make it ideal for automotive applications.

Reduced blooming capability is important for rearview cameras, which need to be able to 'see' even when faced with bright headlights of trailing vehicles. Similarly, reduced blooming capability is important for 'black box' cameras, which are intended to visually document accidents for liability or in-surance purposes, where the brightness of the brake lights of a vehicle directly in front of the sensor can blur or disturb the image and prevent a clear documentation of events."


Space


Antwort von cantsin:

Auch mir ist herzlich egal, ob "blooming" nun die technische korrekte Bezeichnung für ausfressende Spitzlichter bei CMOS-Sensoren ist oder nicht. Von Bloom (no pun intended) gibt's wieder ein neues Pocket-Video, bei dem der Effekt einfach nur krass aussieht, obwohl er gar nicht als Defekt-Demo gedacht ist:

Space


Antwort von domain:

Ich tippe mal darauf, dass in der BMPCC ein anderer Sensor verbaut werden muss, denn so wie derzeit gezeigt, kann es keinesfalls laufen. Spitzlichter in einem Bild sind nicht so selten.
Schließlich hat Fuji bei der X10 auch den Sensor weiterentwickelt und auf Wunsch ausgetauscht.

Space


Antwort von WoWu:

Das würde ich erst mal abwarten, denn den Effekt kannst Du auch in PS nachmachen und je höher du Indizierst umso deutlicher wird er, bis hin zur "schwarzen sonne".
Vielleicht probiert da ja mal jemand aus,mal eine andere Quantisierung zu nehmen. Dann klappt das aus.

Space


Antwort von olja:



Komisch waberndes Ampelmänchen. Aber was gleich danach kommt, ist auch lustig.

Space


Antwort von WoWu:

Am meisten stört mich bei den ganzen letzten Filmen, die leicht rosa Färbung. Eigentlich auch ein Zeichen dafür, dass in den Wertebereichen Spreizungen stattfinden und einzelnen Farben im Originalfarbraum nicht mehr die ursprünglichen Positionen haben und so dunkle Farbbereiche ins Grün wandern und mit einer leichten Grüntönung versehen werden und die hellen Bereiche mit einer rötlichen Komponente versehen werden, also leicht rosa erscheinen.

Was die Werteverteilung betrifft, wundert es mich, dass noch keiner die Kamera mal auf einen Verlauf gehalten hat, um mal zu sehen, was dabei eigentlich rauskommt.

Nur kann ich mich auch noch an die ersten Filme der Pocket erinnern, die eigentlich ganz normal aussagen. Ich kann mir nicht vorstellen, dass jetzt alle nach "Rosa" korrigieren.

Space



Space


Antwort von Frank Glencairn:

Das mit dem Rosa kommt daher, das Philip gerade "FilmConvert" für sich entdeckt hat und damit seine Liebe zum "vintage Film Look".

Space


Antwort von WoWu:

:-)
Aber auch der zuletzt verlinkte Film hat diese Tendenz. Und eben auch die "Angrauung" der dunklen Bildteile.

Ich denke, man muss tatsächlich mal die RAW Version abwarten, wenn schon kein "Tester" solchen Sachen auf den Grund geht.

Space


Antwort von Axel:



Komisch waberndes Ampelmänchen. Aber was gleich danach kommt, ist auch lustig. Na gut, lassen wir diesen komischen Blüteneffekt mal beiseite: Pittoreskes Grading. Es scheint, es gibt gar kein normales Bild mit der BMPCC. Alles sehr weird, eher Lynch als Wong Kar Wai (wie ein Vimeo-Kommentator schrieb).
Das mit dem Rosa kommt daher, das Philip gerade "FilmConvert" für sich entdeckt hat und damit seine Liebe zum "vintage Film Look". Naja, nix dagegen, trotzdem wär ich mal an einem, äh, unkünstlerischen Clip interessiert. Wenn ein bissken Flat durch ProRes in 8-bit-Umgebung schon solche Patina inspiriert, möchte ich nicht erleben, was geschieht, wenn erst Raw zum Graden ansteht.

Einerseits ringt man die Hände wegen unverhofften Glows (Name des Effekts in diversen Softwären), andererseits soll alles aussehen wie in Tee ersoffene Trockenblumen. Wat denn nun?

Space


Antwort von WoWu:

Bei RAW wird das nicht sein, weil Du da den Verlauf in der Hand hast.
Das muss nur vom Sensor her einwenig zu flach sein und beim Übergang auf PR wird der obere Wertebereich einfach zusammengeschoben (wegen des limitierten Bereiches- innerhalb der 10Bit-) und schon solarisiert das Weiss.
Und dann kommt noch der ganze Wandel nach 8Bit dazu, wer weiss, wie das wieder abläuft.
Wenn dann der Knickpunkt der Kurve noch etwas unglücklich gewählt ist, hast Du auch die Farbverschiebungen drin.
Das waren alles mal Artefakte der ersten Knee-Versuche vor jetzt fast 10 Jahren.
Die sahen genauso mies aus.
Aber bei RAW hast Du eben all die Kurvenverläufe im Griff und legst sie selbst fest.

Space


Antwort von domain:

Bei RAW wird das nicht sein.
Das waren alles mal Artefakte der ersten Knee-Versuche vor jetzt fast 10 Jahren.
Die sahen genauso mies aus. Schade, sieht doch eigentlich gut aus, wenn die Augen der Autos so pöse aufglühen.
Gefällt mir immer besser der Glow-Effekt ;-)



Space


Antwort von Angry_C:

Sehr interessant.

Hieß es nicht einmal, dass die neuen 4k BMCC mit Sensoren von Cmosis gebaut werden? Zumindest alle Cmosis 2/3" Sensoren bis zur neuen Revision, die momentan released wird, liefern den Blacksun Effekt von Haus aus mit.

Sollte der Pocket Sensor also auch von Cmosis sein?

Space


Antwort von WoWu:

Der Effekt entsteht durch Indizierung der Werte.
Hier mit Photoshop durch Wertereduktion generiert.
Den Effekt liefert als jede digitale Komponente, in der die Wertemengen nicht ausreichen, aber kein spezieller Sensor.

Space


Antwort von domain:

Im Moment sieht es so aus, als wenn es doch eher ein Sensorproblem wäre, weil bereits im Display sichtbar:

"I went out and did some testing to see if I can reproduce it. Any bright point light in evening/nighttime will overload the sensor and give you the round highlight. Exposing lower results underexposure. The blooming behaviour can be seen on the LCD screen when you are recording. You need to underexpose a lot to stop the blooming from occurring."

Space


Antwort von WoWu:

Das kann auch daraufhin deuten, dass die Quantisierungskurve zu flach ist.
Wenn es der Sensor ist, tritt der Effekt bei jeder Einstellung auf, weil die Lichtmenge(Photonenmenge) identisch bleibt, die den Effekt im Sensor hervorruft.
Daher sollte man mal den Gegenversuch machen.
Er tritt übrigens auch auf, wenn man unterbelichtet, also das ISO herabsetzt, weil sich das lediglich auf die Verstärkung, nicht aber auf die Lichtmenge auswirkt, die den Sensor trifft und auch nicht auf die Integrationszeit des Sensors.
Solange solche Gegenversuche nicht zum selben Effekt führen, bleibt es Spekulation.

Edit: You need to underexpose a lot to stop the blooming from occurring." Das hatte ich überlesen ... das deutet auf das Gegenteil hin und eher auf das Processing, solange nicht mechanisch Licht weggenommen wir.
Eine andere ISO (Verstärkung) Einstellung wäre also mal interessant.
Und bei mechanisch weniger Licht ist es klar, dann arbeitet man auf dem linearen Teil der Quantisierung. Da können solche Effekte nicht entstehen.


Hat denn noch keiner hier im Forum die Kamera, der mal ein paar gezielte versuche machen kann ? das ist ja zu blöd, dass man sich immer auf irgendwelche "random" aussagen stützen muss und keine halbwegs substantiellen Aussage bekommt.

@Frank
Eine Reaktion auf deine Bitte um Content hast Du von der Redaktion auch nicht ?

Space



Space


Antwort von domain:

Sir Carl Popper gab mal die Empfehlung ab, dass man ev. zum Frühstück eine zuvor aufgestellte Theorie nach Falsifikation verspeisen sollte.
Deine Theorie ist, dass es nicht am Sensor liegt.
Meine Theorie ist, dass am Sensor liegt.
Mal sehen, wer seine Theorie aufessen muss :-)

Space


Antwort von Jott:

ProRes muss schuld sein. In dubio contra reum! :-)

Space


Antwort von WoWu:

@domain

Karl Popper hat aber auch gesagt, dass Theorien widerlegbar sein müssen, müssen also der empirischen Nachprüfung durch Experimente ausgesetzt werden.
Gibt es diese Falsifizierungsexperimente schon ?
Was ist also an meiner Theorie falsch ?
Kannst Du sie schon widerlegen ?
Nach Popper müssen die Experimente die Theorie ausschliessen.
Also, nach Popper müsstest Du mir anhand von Experimenten nachweisen, dass ein solcher Fehler auf meine Methode gar nicht herstellbar ist.
Fang mal mit der "black sun" an, ich bin da schon in die Vorleistung getreten..
Wenn man schon Popper zitiert, sollte man ihn auch verstanden haben.

Ich gebe lediglich zu der bisherigen Behauptung "es muss der Sensor sein" eine Alternative zu bedenken.
Wenn Du die Alternative nicht nachvollziehen kannst, ist es noch keine Falsifizierung sondern zunächst einmal nur Unvermögen.
Du bist schlecht beraten, den zweiten Weg auszuschliessen. Ich sehe ihn lediglich als alternative, wenn auch wahrscheinliche Möglichkeit.

Space


Antwort von domain:

WoWu, ich habe doch gar keine Präferenz geäußert.
Ich halte deine Theorie für durchaus möglich, sogar für real und auch wünschenswert

Space


Antwort von WoWu:

Deine Theorie ist, dass es nicht am Sensor liegt.
Meine Theorie ist, dass am Sensor liegt.
Mal sehen, wer seine Theorie aufessen muss :-)
Dann hast Du Dich aber sehr unglücklich ausgedrückt.

Space


Antwort von domain:

Du gehst offenbar davon aus, dass das was man selber meint, mehr wert ist das, was ein anderer meint.
Das ist durchaus nicht meine Einstellung.
Selbstverständlich kann ein anderer recht haben, das ist doch klar und unbestritten. Ich würde dem nach Verifikation auch immer zustimmen.
Das ist doch normaler Usus und hat gar nichts mit Emotionen, sondern nur mit Erkenntnis zu tun.

Space


Antwort von WoWu:

Du unterstellst einfach Dinge, als gegeben, die Du lediglich vermutest.
Woher willst Du denn wissen, wovon ich ausgehe ?

Du kannst sagen, wovon Du ausgehst, alles Andere ist Deine Phantasie.

Ich gebe einen alternativen Denkansatz in die Diskussion und begründe ihn auch.
Was ist daran so falsch ?

Space


Antwort von domain:

Mensch WoWu, du bist viel zu emotional engagiert.
Ist doch gut möglich, dass du recht hast, aber auch möglich, dass du unrecht hast.
Was ist daran so Ehrenrühriges?

Space


Antwort von WoWu:

Interpretier doch nicht schon wieder etwas, was gar nicht an dem ist.
Antworte lieber auf meine Frage.

Space



Space


Antwort von domain:

Wir können ja in keinem Fall mit dir mithalten, weil wir uns ja alles nur im höchts oberflächlichen Internet angelesen haben, während du dir nichts angelesen, sondern alles selbst erforscht hast. Und deine Quellen sind ja mal bestimmt viel mehr wert, als die uns zur Verfügung stehenden.
Wie sollen wir dir da jemals Paroli bieten können? ;-)

Space


Antwort von WoWu:

Domain, Du willst wieder mal nur aufmischen.
Das mach mal alleine.
Wenn Du nichts konstruktives zum Thema beizutragen hast, geh kalt Duschen.

Space


Antwort von domain:

Hast du jetzt etwa gewagt zu sagen, ich sollte kalt duschen gehen?
Ok, ich gehe jetzt warm duschen :-)

Space


Antwort von Angry_C:

Ich sag auch, es wird am Sensor liegen.

Space


Antwort von domain:

Ein interessanter Test wäre ja mal, die Scheinwerfer der oben gezeigten Autos aus dem Fokus herauszunehmen, also z.B. mehr davor zu fokussieren.
Ich vermute mal, dass dieses Blooming im Umfang sogar zurückgehen würde, also der scheinbare Durchmesser der Scheinwerfer zumindest nicht größer werden würde.

Space


Antwort von Frank Glencairn:

Hat denn noch keiner hier im Forum die Kamera, der mal ein paar gezielte versuche machen kann ? das ist ja zu blöd, dass man sich immer auf irgendwelche "random" aussagen stützen muss und keine halbwegs substantiellen Aussage bekommt.

@Frank
Eine Reaktion auf deine Bitte um Content hast Du von der Redaktion auch nicht ? Nein, Slashcam hatte es nicht mal für nötig gehalten auf mein Mail zu antworten, geschweige denn mir Material zu schicken.

Aber Anfang nächste Woche sollte meine Pocket eintrudeln, dann kann ich mir das mal ansehen.

Space


Antwort von WoWu:

War ja irgendwie zu erwarten.

Dann lehne ich mich mal solange zurück.
Aber dann gibt's endlich mal verlässliche Aussagen.
Schönen Dank.

Space


Antwort von ruessel:



pocket camera
film mode
lumix 14mm 2.5
kino flo bare bulb 3200k
800 asa
180 degrees angle

Space


Antwort von rudi:

Hat denn noch keiner hier im Forum die Kamera, der mal ein paar gezielte versuche machen kann ? das ist ja zu blöd, dass man sich immer auf irgendwelche "random" aussagen stützen muss und keine halbwegs substantiellen Aussage bekommt.

@Frank
Eine Reaktion auf deine Bitte um Content hast Du von der Redaktion auch nicht ? Nein, Slashcam hatte es nicht mal für nötig gehalten auf mein Mail zu antworten, geschweige denn mir Material zu schicken.

Aber Anfang nächste Woche sollte meine Pocket eintrudeln, dann kann ich mir das mal ansehen. Tut uns leid, ist keine Arroganz, sondern wir haben hier viele Sachen zu erledigen. Neben IFA/IBC-Vorbereitungen stecken wir auch noch in einem Umzug und hatten die Kamera nur kurze Zeit. Wir sind selber noch am auswerten und werden hoffentlich noch heute mindestens einen Original-Clip zum Download anbieten.

Space



Space


Antwort von mannamanna:

@domain

Karl Popper hat aber auch gesagt, dass Theorien widerlegbar sein müssen, müssen also der empirischen Nachprüfung durch Experimente ausgesetzt werden.
Gibt es diese Falsifizierungsexperimente schon ?
Was ist also an meiner Theorie falsch ?
Kannst Du sie schon widerlegen ?
Nach Popper müssen die Experimente die Theorie ausschliessen.
Also, nach Popper müsstest Du mir anhand von Experimenten nachweisen, dass ein solcher Fehler auf meine Methode gar nicht herstellbar ist.
Fang mal mit der "black sun" an, ich bin da schon in die Vorleistung getreten..
Wenn man schon Popper zitiert, sollte man ihn auch verstanden haben.
.
Nach Popper (und guter wissenschaftlicher Praxis) solltest Du selbst einen Test/Experiment vorschlagen, mit dessen Hilfe Deine Theorie falsifiziert werden könnte...

Space


Antwort von Jott:

Die Effekte sind also definitiv schon live auf dem Display zu sehen?

Space


Antwort von CameraRick:

Ist es denn auch bei DNxHD (kann die Pocket das überhaupt schon)?

Ich weiß gar nicht ob andere ISOs so sinnvoll sind. Wenn die ISO800 doch nativ ist, ist jegliche, niedrigere doch nicht gleich eine geringere Verstärkung, oder sehe ich das falsch? Bei 800 ist doch auch der Dynamik-Umfang am höchsten (oder ists anders als bei der "normalen" BMCC?), weiß nicht ob da ISO200 dann so hilft.
Würde ggf eher über die Belichtung gehen, aber keine Ahnung ob das dann hilft.

Space


Antwort von CameraRick:

Nach Popper (und guter wissenschaftlicher Praxis) solltest Du selbst einen Test/Experiment vorschlagen, mit dessen Hilfe Deine Theorie falsifiziert werden könnte... Ich glaub das hat er schon mehrfach, aber irgendwie kann es ja niemand testen.

Space


Antwort von WoWu:

Popper sagt, um es genau zu sagen, das jede wissenschaftliche Theorie so angelegt sein soll, dass sie zwangsläufig falsifizierbar ist.
Er sagt also nicht wirklich, dass man sie selbst falsifizieren muss.

Nur hätte ich an dieser Stelle Popper gar nicht ins Spiel gebracht, weil ich keine wissenschaftliche Theorie mit angewandter Physik verwechsele.
Insofern handelt es sich weder dabei, dass der Fehler am Sensor, noch das er an der Kurve generiert wird, auch nur im Ansatz um eine solche Theorie sondern lediglich um eine Vermutung.
Aber der Unterschied zwischen Wissenschaft und Anwendung scheint nicht allen "Praktikern" so gebräuchlich zu sein und jede Vermutung wird da, um des schnellen Gags (Frühstücks) willen, zur Theorie hochstilisiert.

Space


Antwort von WoWu:

@rüssel
Danke für den Test, aber er bringt uns noch nicht weiter, weil das Verhalten ziemlich normal ist.
Es geht darum, die oberen Quantisierungswerte auf einer andern Kurve zu übertragen, sodass sie anders ausdifferenziert werden.
Also die Frage zu klären ... wieviel Lichtwerte im Weisbereich bei welcher Gammakurve angewandt werden. (Also wie fein ist der Weissbereich aufgelöst.)
Dazu wäre auch ein (echter) Verlauf im Testchart günstiger und "scharf" muss er sein.
Es wäre also günstiger, wenn man den Verlauf bildfüllend hat und dann die Lichtmenge variiert.
Dass Licht zwischen den Fingern durchgleitet und an den Kanten nicht halt macht, ist schon aufgrund der Beugung klar und sagt erst mal noch nichts über den Sensor aus.
Aber selbst der Kurvenverlauf (in der Konstellation) ist noch nicht eindeutig, weil mehrere Mappings entgalten sind (Densorverlauf (11-14 Bit ), ggf. eine anschliessende Übertragungskurve (Cinekurve), dann wird auf ein Coding gemapped (10 Bit minus Wertbegrenzung) und anschliessend auf 8 Bit (Darstellung).
An jeder der Kurven kann eine fehlerhafte Indizierung stattfinden.
Wenn beispielsweise die Übertragungskurve in RGB läuft und am Übergang zum Codec die gesamten Weisswerte schon gestaucht werden (nur Beispiel, weiss nicht, ob es so ist) dann hast Du schon Dein ausgebranntes Weiss.
Solche Dinge muss man ausschliessen, bevor man verlässliche Ergebnisse erwarten kann.
Daher wäre eigentlich ein RAW Signal schon der beste Start und würde sie Sache doch deutlich vereinfachen.

Space


Antwort von domain:

Warten wir mal ab, wie sich BM dazu äußern wird
Wie es bei Fuji nach einem vorübergehenden FW-Update letztlich ausgegangen ist wurde ja schon mehrfach dargelegt, z.B. bei:

http://www.digitalkamera.de/Meldung/Neu ... /7644.aspx

"Laut Fujifilm sind die "white discs" oder "white orbs bei der FinePix X10 und X-S1 auf Blooming zurückzuführen. Das Phänomen kann prinzipiell bei jedem Bildsensor auftreten, wenn einzelne Sensorelemente überbelichtet werden und die Ladung auf umliegende Pixel überläuft. Allerdings sorgt der spezielle Sensor von Fujifilm für eine ungewöhnliche starke Ausprägung des Blooming-Effekts.
Da Fujifilm aber nach eigenem Bekunden Wert auf die hohe Bildqualität der Kameras legt, befindet sich ein modifizierter Bildsensor in Entwicklung – er soll das Problem bei der Wurzel packen und endgültig beheben. Dieser neue Sensor ist Ende Mai 2012 verfügbar."


Man kann also festhalten, dass es viele Quellen im Internet gibt, die sehr wohl von vorhandenen Bloomingeffekten auch bei CMOS-Sensoren berichten, als auch Fuji höchstpersönlich davon spricht. Die Frage ist nur, was man heute unter einem Sensor i.e.S. versteht, denn etliche Prozessingschritte werden ja bereits in dem hochintegrierten Schaltkreis selbst durchgeführt.
So nebenbei, reicht die Spaltbreite zwischen gespreizten und rundlichen Würschtelfingern eigentlich für eine Lichtbeugung aus?
Im Schulversuch haben wir seinerzeit Spaltbreiten zwischen 0,1 und 0,7 mm über zwei angenäherte Rasierklingen herbeigeführt :-)

Space


Antwort von WoWu:

Du weisst doch. Das Internet nutzt nur dem, der nicht alles glaubt und solche Blogs nutzen meistens eine Nachricht, die mal irgend einer ins Netz gestellt hat.

Solange da von Fuji zu dem angesprochenen Sensor keine harten Fakten genannt werden (beispielsweise Crosstalk-Werte), sollte man solche Informationen mit Vorsicht betrachten.
Du hast oben selbst eine Quelle zitiert, die sagt, dass gerade bei cMOS solche Effekte minimal sind.
Das deckt sich mit den Massnahmen zur Weiterentwicklung von MOS Strukturen und ich kann mir nicht vorstellen, dass BMD cMOS Sensoren der 90er Jahre einsetzt.

Also, such mal nach harten Fakten des Sensorherstellers und nicht mit so weichem Zeug von Leuten, die einen Blog zu füllen haben.

Space


Antwort von olja:

http://www.fujifilm.eu/de/support/digit ... rmationen/ Des Weiteren ist ein modifizierter Sensor in der Entwicklung, welcher den "Blooming-Effekt" in allen Modi minimiert. Wir arbeiten intensiv daran, dass dieser modifizierte Sensor ab Ende Mai 2012 verfügbar sein wird. Was denn noch ?

Space


Antwort von WoWu:

Er hat auch wieder mal nur die halbe Nachricht veröffentlicht, weil die andere Hälfte nicht in seinen Kram passt:
Im Februar 2012 haben wir ein Firmware-Update* für die X10 (Version 1.03) veröffentlicht, welches den "Blooming-Effekt" im EXR Modus reduziert. Die Kamera identifiziert nun Szenen, in denen der "Blooming-Effekt" auftreten könnte. Erkennt die Kamera eine entsprechende Szene, erhöht sie automatisch den ISO-Wert und optimiert die Einstellung des Dynamikumfangs. Dadurch wird das Auftreten des "Blooming-Effektes" minimiert.

*Eine neue Firmware für die X-S1 wird ab dem 21. März 2012 verfügbar sein.
Mit andern Worten, sie haben an den Quantisierungsparametern gedreht.

Space


Antwort von olja:

Reduzieren bedeutigt für mich nicht beseitigen. Also nicht der Rede wert.

Space


Antwort von WoWu:

Nee, beseitigen geht auch nicht, weil jeder MOS überspricht. Nur hat man die rämliche Aufteilung beim cMOS schon so gelegt, dass der Fototransistor so liegt, dass immer alle restlichen Transistoren zwischen den nächsten Pixels liegt und so möglichst wenig übersprechen kann.
Bei den CCD-MOS lagen das Bucket in der Mitte und das Overflow drain direkt neben dem Datenkanal des Nachbarpixels.
Zusätzlich hat man bei cMOS noch ein Gate eingefügt, das überflüssige Ladung ableitet und als Letztes hat man einen Mechanismus eingefügt, durch den die Rekombination hoher Energien anders ablauft.
Lange Rede: Man hat den Crosstalk auf ein mögliches Minimum reduziert.
Deswegen hab ich anfangs ja gesagt, das man den Effekt mit jeder Kamera erzeigen kann. Grundsätzlich ist er also immer da.- Aber eben bei allen Kameras-.
Aber solche Effekte, die aussehen wie Blooming kann man natürlich auch anders erzeugen (Clipping z.B. oder Solarisation) sind solche Effekte.
Frage ist also hier, ist es Blooming oder ein Effekt der im Processing entstehet.

Space


Antwort von ruessel:



so langsam haben die weißen Kugeln was.......

Ich frage mich, wird bei BMD in der Entwicklungsabteilung überhaupt ein Praxistest gemacht oder werden solche Effekte nur von Kunden gefunden (wenn es schon zu spät ist)?

Space


Antwort von TillApia:

Da wurden also noch 2010 vollkommen nutzlose Patente auf CMOS-Sensoren mit reduziertem Blooming angemeldet..tststs....dabei gibts doch Gates, die das schon erledigen....

Method and system for manufacturing CMOS image sensing device with reduced blooming.
http://www.google.com/patents/US2011018 ... 8Q6AEwAzgU

Space


Antwort von Jott:

Egal warum das so ist, es handelt sich offensichtlich um eine Gurkencam. Schade eigentlich, hätte die GoPro für Erwachsene werden können.

Space


Antwort von WoWu:

Es werden auch immernoch Patente zur Verringerung des CO2 Ausstosses bei Autos eingebracht .... dabei gibt's das doch auch schon.
.. Stimmt, das ist komisch ...

Space


Antwort von rush:


Ich frage mich, wird bei BMD in der Entwicklungsabteilung überhaupt ein Praxistest gemacht oder werden solche Effekte nur von Kunden gefunden (wenn es schon zu spät ist)? Spätestestens seit dem Hyperdeck Shuttle war mir klar, das BM einige offensichtliche Qualitätsprobleme hat... erst nach zig Updates war das Ding vernünftig zu gebrauchen. Overlays gibt es bis heute nicht.

War einer der Gründe für mich keine Cinema oder Pocket zu preordern...

Space


Antwort von ruessel:

Spätestestens seit dem Hyperdeck Shuttle war mir klar, Erinnere mich nicht daran, kaum gekauft gab es nach drei Wochen eine neue Version ohne eine Möglichkeit zum updaten.

Space


Antwort von WoWu:

Wenn Du einen Praxistest machen kannst, ist es eigentlich schon viel zu spät denn dann steht ein Grossteil der Entwicklung bereits.
Solche Sachen, wie Crosstalk sollten bereits aus der Sensorentwicklung bekannt sein und gehören zu den technischen Basisdaten, bevor man in die Kameraentwicklung (und damit in die Prototypphase) geht.
Und ich gehe nicht davon aus, dass die BM nicht kannte.

Space


Antwort von ruessel:

Und ich gehe nicht davon aus, dass die BM nicht kannte. Naja, auf Testtafeln macht die Kamera ja keine schlechte Figur. Nur in der Praxis hapert es..... warum haben es die Vorab Blogger nicht gemeldet?

Space


Antwort von WoWu:

Weil solche Werte, wenn es sich denn um ein Chip-Problem handelt, schon bekannt gewesen sein müssten und wenn das Problem ggf. erst bei der Reduzierung von 11 (12) Bit nach 10 und dann nach 8 Bit entstehet, dann kann das auch ein Softwarefehler sein, der erst in der Serie auftritt.
(Alle Vermutung denn keiner von uns ist dabei gewesen).
Und was die ersten "Tester" betrifft ... mein Gott, schau Dir doch die Dinger mal an, die solche "Blogger" machen.
Das sind doch keine Tests.
Das kannst Du doch quere und längst in der Pfeiffe rauchen.

Space


Antwort von Panamatom:

Ach, hier ist das Forum für die Pocket Camera!

Aaaah. Wir hatten uns so sehr auf diese kleine Wunderkiste gefreut und dann so was!

Hier mein verzweifelter workaround für das Problem:

https://vimeo.com/73388860

Space


Antwort von rush:

Hier mein verzweifelter workaround für das Problem:

https://vimeo.com/73388860 YEAH - Sternchenfilter forever :D Dann passt es auch mit der Pocket ;)

Space


Antwort von domain:



so langsam haben die weißen Kugeln was....... Finde ich auch. Man denkt bei den Kugeln spontan, dass Motten im Bild bekämpft werden sollten. Aber noch viel schöner ist natürlich camworks Fixing. Richtig spaßig ist aber, dass es WoWu ernst genommen hat.



Space


Antwort von Ab-gedreht:

ich liebe das kleine Ding trotzdem. Für mich der absolute DSLR Killer!
Für so wenig Geld, bekommt man eine Kamera mit vielen Vorzügen.
Klar wird Sie keine Epic, Alexa und co. ersetzen, Aber dafür hat die kleine ja auch noch zwei große Schwestern!

Hatten sie heute mit dem 14mm Lumix und MagicArm Onboard auf einem Motorrad. Schnell einfach und super! schön wenn der Himmel nicht Clippt :)
Und auch im Rig macht sie sich gut!

Space


Antwort von gast5:



hatte der Brawley eine andere cam?

Space


Antwort von WoWu:

Vielleicht nur eine andere Gradationskurve, denn das ist keine so flaue, rosa Soße.
Ausserdem kann er richtig belichten und versucht nicht die Nacht zum Tag zu machen.

Space


Antwort von gast5:

Mit ein Grund?? mit Sicherheit... make it in the Post.. dafür ist sie da und wie dies umzusetzen ist weis er sicher auch...

aber auch hier



auch hier auf die Schnelle nichts



so um sek. 43-44 gibt es ein Auto im Hintergrund, da geschieht etwas aber ich könnte es nicht deuten...BlackHole Autodach??

Space


Antwort von WoWu:

Aber auch hier (Film 1) .... je flacher die Kurve wird, umso kritischer werden die Weissanteile (hier noch völlig in Ordnung). Nur der Trend ist zu sehen.
Noch ein Stück mehr "CINE-Wahnsinn" und es fliegt weg, wie in den andern Videos.

Space


Antwort von cantsin:

Aber auch hier (Film 1) .... je flacher die Kurve wird, umso kritischer werden die Weissanteile (hier noch völlig in Ordnung). Nur der Trend ist zu sehen. Tja, ich habe die Kamera und kann das white orb-Phänomen leider nur bestätigen (Aufnahme bei Standard-ISO 800):

Space


Antwort von WoWu:

Dann bliebe nur noch die Frage zu klären, was John Brawley anders gemacht hat oder was an seiner Kamera anders war.

Hast Du mal irgendwo ein Stück 10 Bit Original ProRes zum downloaden ?
Frank hätte da sicher auch Interesse.

Space


Antwort von cantsin:

Hast Du mal irgendwo ein Stück 10 Bit Original ProRes zum downloaden ? Der Screenshot, den ich hochgeladen habe, ist Teil einer 1GB-Datei. Ich hab' noch ne Wackelaufnahme von 370MB, auf der der Effekt (vor allem das Übersprechen auf andere Bildteile) aber am Schluss gut zu sehen ist. Temporärer Link (Upload läuft noch, dürfte gegen 5 Uhr MEZ fertig sein und wird morgen wieder entfernt):
http://data.pleintekst.nl/pocket-orbs.mov
(Leute, bitte nur 'runterladen, wenn Ihr die Datei wirklich braucht, meine Bandbreite ist begrenzt und kostet mich Geld.)

Space


Antwort von gast5:

Schau an langsam kommen die Zweifel...

http://forum.blackmagicdesign.com/viewt ... =2&t=11977

Blooming Fred eins ist schon geschlossen..

Was hat der brawley da getan oder was hat er da in Händen gehabt..

Space


Antwort von domain:

Dann bliebe nur noch die Frage zu klären, was John Brawley anders gemacht hat oder was an seiner Kamera anders war. Das frage ich mich auch schön langsam.



Habe mir gerade mal dieses 4 Monate alte Demo-Video von Brawley angesehen.
Mir kommt vor, dass es dort überhaupt kein abnormales Blooming gibt, weder in den spiegelnden Radkappen des VWs noch bei diesem im direkten Sonnenlicht gleißenden Messer. Zeigt noch die Oririgalform und ist nicht aufgebläht.



Space


Antwort von gast5:

jep Domain, dass haben wir oben schon festgestellt..

Space


Antwort von Gabriel_Natas:

Mal ein paar blöde Fragen:

1. Wenn es ein Problem der Umwandlung von 14bit auf die 10bit ProRes sein könnte ... hat jmd schon mal versucht im Video-Modus anstatt im Filmmodus dieses 'Blooming' zu reproduzieren? Das wandelt ja anders um, als der Filmmodus und gibt ein weniger flaches Bild raus.

Denn soweit ich das verstanden habe, wenn es kein Hardware-Problem ist, könnte es ja einfach daran liegen, dass um das maximum an Dynamic Range zu erhalten, Blackmagic es einfach übertrieben haben könnte und zu viel in den hellen Bereichen bei der Wandlung 14 zu 10 Bit rausgenommen hat, um mehr Zeichnung in den Schatten zu erhalten und das bei Brawley halt noch eine Firmware drauf war, die zwar weniger Zeichnung in den Schatten drauf hatte, dafür mehr in den Lichtern.

2. Tritt das Problem nicht eigentlich nur auf, wenn man falsch belichtet? Zumindest bei szenischem Film, bei Dokustyle hat man ja den Nachteil, das Licht nicht immer kontrollieren zu können.

Aber eigentlich ist das doch nur ein ausbrennen der Lichter, dass zu den Orbs führt, etwas, was man beim Filmen eigentlich vermeiden sollte?
Wenn man seine Szenen richtig beleuchtet, sollte das Problem doch eigentlich nicht auftreten.
Ich mein, nicht umsonst kleistert man Fensterscheiben mit ND Folie voll, nimmt 10 000 Watte mit, um Zimmer auszuleuchten ect.pp.
Damit man eben im DR des Filmmaterials bleibt.

Bei fast allen Camcordern im Moment ist es doch so, wenn ich draußen drehe und die Sonne knallt, mein Motiv ist aber im Schatten: Entweder überstrahlt der Himmel oder mein Motiv ist zu dunkel, es sei denn ich bring extra Licht.

Die Pocket mit den 13 Stufen DR kann das besser, aber es scheint mir trotzdem keine gute Idee, das vollkommen auszureizen, denn am Ende steht doch wieder nur eine Umwandlung in 8Bit beim Endkunden an.
Selbst wenn es in 10 Bit gut aussieht, hat man 1024 Helligkeitswerte, auf die man das umwandeln kann, dann am Ende bleiben aber nur 256 Helligkeitswerte übrig. Da bleibt irgendwas auf der Strecke.

13 Blendenstufen heißt, dass die Pocket theoretisch die 8192 fache Unterschied in Helligkeit darstellen kann.
Der hellste Punkt ist 8192mal heller als der dunkelste Punkt. ProRes HQ kann aber nur vom dunkelsten zum hellsten Punkt 1024 Zwischenschritte haben.
Ein BluRay Endprodukt kann nur 256 Zwischenschritte darstellen (eher weniger, weil nur der Wertebereich von 16-233 genutzt wird?).

d.H. doch, wenn man den vollen Dynamic Bereich der Pocket ausnutzt, muss man nachher extrem Kompromisse eingehen, was die Speicherung im verlustbehafteten Codec angeht und was noch später die Ausgabe anbelangt.

Das Problem trifft bei Raw nicht auf. Bei RAW hätten wir 14 bit und könnten 16384 Abstufungen in der Helligkeit darstellen, was ausreicht, um 13 Blenden aufzunehmen.

Was aber auch heißt, wenn man in ProRes aufnimmt, sollte man besser nicht die vollen 13 Stufen DR ausreizen, weil das der Codec einfach nicht hergibt, oder anders gesagt, 13 Stufen DR in 10 Bit aufzunehmen macht doch eigentlich wenig Sinn.

Erst bei RAW spielt die Pocket ihre Stärken aus, weil die 14 Bit locker die 13 Stufen DR wegspeichern können.
Bis RAW implementiert ist bietet ProRes eben nur bedingt die Möglichkeit, die 13 Blendenstufen DR wegzuspeichern.
Und je nach dem wie das Implementiert wird (welche Wertebereiche wo abgespeichert werden) kann das auch zu solchen Orbs führen.

Um zu testen ob das eine Möglichkeit ist, bleibt eben die Möglichkeit, den Video-Mode anstatt den Film-Mode zu benutzen, der einen kleineren Wertebereich ausliest. Wenn dort die Orbs verschwinden, ist es ein Softwareproblem. Wenn die Orbs dort auch auftreten heißt das aber nicht, dass dort kein Softwareproblem herrscht, sondern das dieser auch Fehlerhaft implementiert sein könnte (konjunktiv).

Also kann jmd der die Pocket hat, das einfach mal im Video-Modus testen?

lg
Andreas

Space


Antwort von Predator:

Andreas, kurzum: Die BMCC macht das nicht (nicht in Prores, DnXHD oder RAW), die BMPCC hat das Problem.

Die Kameras sollen laut BMD gleiche Bildqualität bringen, abgesehen von der niedrigeren Auflösung der Pocket. Beide sollen 13 Blenden DR haben, hat die Pocket so im Moment aber sicher nicht.

Was willste hier machen?


Mit NDs drehen bis das Bild außer den Scheinwerfern schwarz wird und dann für 200 000 € die Straße taghell ausleuchten?^^Wieviel Dynamikumfang wäre das dann? 4-5 Blenden?

Man kann übrigens hohen Dynamikumfang mit 10 bit Aufzeichnen. Dafür gibts ja Log. Fast alles was mit der Arri Alexa gedreht wird ist Prores 10 bit 4:4:4. Nur die sündteuersten Hollywoodproduktionen nehmen RAW (Codex).

Space


Antwort von cantsin:

Also kann jmd der die Pocket hat, das einfach mal im Video-Modus testen? Führt zum gleichen Resultat.

Space


Antwort von Jott:

Fast alles was mit der Arri Alexa gedreht wird ist Prores 10 bit 4:4:4. Vieles auch "nur" in ProRes HQ. Tut dem Dynamikumfang keinen Abbruch. Endlich sagt's mal wieder einer.

Space


Antwort von WoWu:

Weil es nicht stimmt, dass das Meiste in 10 Bit ProRes gedreht wird heisst ausschliesslich, dass man auf die restliche Dynamic (aus welchem Grund auch immer) verzichtet. (Filegrösse, Workflow, preiswerter, für das Produkt nicht erforderlich... etc.).
Ausserdem müsste man "das Meiste" auch mal quantifizieren.

Space


Antwort von WoWu:

Andreas, kurzum: Die BMCC macht das nicht (nicht in Prores, DnXHD oder RAW), die BMPCC hat das Problem.

Die Kameras sollen laut BMD gleiche Bildqualität bringen, abgesehen von der niedrigeren Auflösung der Pocket. Beide sollen 13 Blenden DR haben, hat die Pocket so im Moment aber sicher nicht.

Was willste hier machen?


Mit NDs drehen bis das Bild außer den Scheinwerfern schwarz wird und dann für 200 000 € die Straße taghell ausleuchten?^^Wieviel Dynamikumfang wäre das dann? 4-5 Blenden?

Man kann übrigens hohen Dynamikumfang mit 10 bit Aufzeichnen. Dafür gibts ja Log. Fast alles was mit der Arri Alexa gedreht wird ist Prores 10 bit 4:4:4. Nur die sündteuersten Hollywoodproduktionen nehmen RAW (Codex). RAW ist keine Frage allein des Dynamikumfangs sondern auch der zugeordneten Quantisierung denn eine etwas ungeschickte Kurve -mit zuwenig Werten im Weissbereich- führt genau zu diesen Effekten.
Geht man dann noch dazu in einen Codec über, der einen eingeschränkten Wertebereich hat und "staucht sich" diese paar Werte auch noch zusammen, dann kommt u.U. sowas dabei raus. (Anhang)
(Wobei hier das Original ausreichend Weisswerte hatte und nur der Übergang zu PR gezeigt wird.)

... Wenn dann noch die Gewichtung im De-Bayering den Schwerpunkt auf den Nachbarpixels hat, werden die Konturen auch "hart" und anschliessend schlägt die Kantenaufstellung noch zusätzlich zu.

Es gibt also ein paar Dinge, die man in RAW selbst beeinflussen kann.
RAW ist nicht nur "mehr Dynamik" sondern bessere Qualität (auch im Wokflow).
Die Meisten benutzen es nur nicht, weil es ihnen zuviel Arbeit macht und weil man mit 12/14/16 Bit meistens einen hybriden Workflow hat, oder mega Hardware braucht um halbwegs zügig arbeiten zu können.

Space


Antwort von WoWu:

Dann bliebe nur noch die Frage zu klären, was John Brawley anders gemacht hat oder was an seiner Kamera anders war.
Die Frage hat er ja nun beantwortet: .... Without pre-empting or knowing anything of what BMD will say, I do believe this is a hard clipping issue and is probably more to do with how they map their highlights.

JB
John Brawley
Cinematographer
Sydney Australia
Und noch etwas Interessantes aus demselben Thread: it appears in film and video mode both and If you know what could be there you will see it also on the display but not as strong in your footage later. Das deutet wieder auf den Übergang zum Codec hin (oder eben die Kombination aus einem zu flachen Weiss-Mapping + der Stauchung im Codec).

Also: warten wir mal die RAW Version ab und wenn BMS tatsächlich eine Änderung zwischen dem "Prototyp" von JB und der Serie vorgenommen hat, dann wird das sicher kein anderer Sensor sein und sich vermutlich auch wieder reproduzieren lassen.
Also. Kein Grund zur Aufregung.

Space


Antwort von gast5:

I do belive...

..er hatte ein handassembliertes Model... Prototypen, Hooks erste Videos die danach ins Netz gestellt wurden zum testen zeigten auch schon diese Fehler ink. Schweinchen babe Look

Space


Antwort von WoWu:

Na ja, aber es reicht ja, wenn sie die Serie auf den Stand zurück bringen, denn der war ja ok. Den Ansatz solcher Effekte hast Du bei jeder Kamera und die meisten überstrahlen auch, wenn Du mit solchen Kontrastverhältnisssen von 10.000:1 (oder mehr) arbeitest.

Und Hand-assembliert heisst mit ziemlicher Sicherheit nicht, dass er andere Hardware darin hatte denn eine Kamera baut man ja um den Sensor herum entwickelt und nicht erst die Kamera und dann irgend einen Sensor.

Angesichts dieser Qualitäten (die es ja mit der Kamera gab) würde ich mich gelassen zurücklehnen. Sie müssen nur die Änderungen danach wieder rückgängig machen.
Ich tippe mal drauf, irgend ein Spezi wollte noch den Rest "rauskitzeln" und nicht wirklich gewusst, was er da tut.

Space


Antwort von olja:

Hat eigentlich BM mal eigenes Material hergestellt, bzw. auch mal komplett graden lassen ? Erwarte ich eigentlich als Promo von einem Hersteller.

Hoffen wir, das es die Firmware ist. Aber wär es dann nicht ein Leichtes, das jetzt als Fix anzukündigen? Der Ruf der Cam wird doch von Tag zu Tag beschissener, weltweit.

Space


Antwort von WoWu:

Lass sie doch erstmal tatsächlich testen.
Manche Software ist auch nicht so leicht über ein Firmware-Update zu erreichen. Wenn sie in irgendwelchen DSPs sitzt, die man nicht eben mal so flashen kann, könnte das auch zu einem Austausch führen, obwohl es nur ein paar Hundert Byte sind.

Aber der Umstand, dass es schon mal ging, ist schon mal (auch für BMD) nicht ganz so schlecht.

Space


Antwort von WoWu:

@ cantsin

Kannst Du, wenn Du Zeit hast, mal mit NDs runter stoppen, ich habe auf Deinem Material gesehen, dass die Rücklichter der Autos genauso weiss sind, obwohl die allgemeine Helligkeit ja nun nicht so war, dass man alles "aufreissen" musste.
Aber das bedeutet, dass hinter allen Farbfiltern der Sensor bereits völlig überfahren ist.
Nimm ihm doch mal mit NDs das Licht weg, sodass eine ausgewogene Belichtung in den hellen Teilen gegeben ist.
Mal sehn, wie das aussieht.
Weil schwer zu sagen ist, wie sie ihre Belichtung wirklich abstimmen, ob nur mit Blende oder auch mit diversen Werten.
Das sieht man am Besten, wenn man "neutral" -also auf bekannte Weise- mal das Licht wegnimmt.
(Nur wenn Du Zeit und noch Lust hast ) ;-)

Space


Antwort von cantsin:

@ cantsin

Kannst Du, wenn Du Zeit hast, mal mit NDs runter stoppen, ich habe auf Deinem Material gesehen, dass die Rücklichter der Autos genauso weiss sind, obwohl die allgemeine Helligkeit ja nun nicht so war, dass man alles "aufreissen" musste.
Aber das bedeutet, dass hinter allen Farbfiltern der Sensor bereits völlig überfahren ist.
Nimm ihm doch mal mit NDs das Licht weg, sodass eine ausgewogene Belichtung in den hellen Teilen gegeben ist. Muss mal sehen, ob ich morgen noch Zeit und Lust für einen weiteren Test habe - aber: ich war heute mit der Kamera unterwegs und hatte einen Vari-ND-Filter auf dem Objektiv (SLR Magic 12mm) und habe in der Tat viel weniger Probleme gehabt. Brawley wies in einem Forumsposting darauf hin, dass er seine Testfilme auch durchgehend mit ND gedreht hatte. Das könnte also durchaus der Schlüssel zur Lösung sein. Nur ist die Frage, was man dann abends bzw. bei Schwachlicht macht, wenn es mit NDs zu dunkel wird, und man ohne ND die blooming highlights kriegt.

Space


Antwort von WoWu:

Sowas kann man über das De-bayering lösen.
Versuch solche Experimente mal im Video -Mode, weil die Kennlinie bekannt ist.
Daraus kann man hinterher besser auf die Cine Kennline schliessen. Andersherum ist das schwierig.

Space


Antwort von cantsin:

Sowas kann man über das De-bayering lösen.
Versuch solche Experimente mal im Video -Mode, weil die Kennlinie bekannt ist. Das haben andere schon gemacht, mit den gleichen Ergebnissen wie im Cine-Mode.

Space


Antwort von gast5:



Neues vom bloom

Space


Antwort von DeeZiD:



Neues vom bloom Und auch hier ist es wieder zu sehen... :(

Space


Antwort von WoWu:

Sowas kann man über das De-bayering lösen.
Versuch solche Experimente mal im Video -Mode, weil die Kennlinie bekannt ist. Das haben andere schon gemacht, mit den gleichen Ergebnissen wie im Cine-Mode. Na ja, nur bring es eben noch weniger, mit einer unbekannten Kennlinie zu arbeiten. Es gibt also keinen Grund gegen den Video-Mode sondern eher dafür.
Mich interessiert im Augenblick nur, warum die Kamera so derb überbelichtet.
Weisst Du, wie sie belichtet ? Und weisst Du, ob sie alles über die mechanische Blende macht oder ggf. einen Teil über die Integrationszeit ?
Das rauszukriegen wäre schon nicht verkehrt.
Wie ist denn die Displayhelligkeit.
Ist das gut und hell zu erkennen?

@DeeZiD
Das wundert mich nicht, zumal PB nun nicht gerade dafür steht, dass er mehr als Amateuraufnahmen macht.

Nur grundsätzlich kann man ja davon ausgehen, wenn eine Kamera 13 Blenden aufweist, dass diese zwischen Rauschen und FullWell liegen.
Bei Überbelichtung nimmt man sich einen deutlichen Teil dieser Dynamic unwiderruflich.
Würde man oben korrekt belichten, bleiben die 13 Blenden erhalten, weil der Störabstand sich ja nicht ändert.
Zieht man also die Helligkeit in der Post hoch (weil das Bild vielleicht einwenig dunkel erscheint, bleiben dennoch alle Zeichnungen (Unten und der Mitte) erhalten, nur dass eben die Zeichnung (Oben) dazu kommt.
Nur das würde eben bedeuten, dass die Kurve etwas "unglücklich" liegt.
Es gibt aber keinen Grund, zur Überbelichtung.
Die Frage ist eben nur, wie (warum) sie entsteht.

Manchmal liegt es bei manueller Lichtbestimmung schon daran, dass man sich vom Display täuschen lässt und nachzieht.
Vielleicht misst die Kamera aber auch falsch oder integriert die Messungen falsch.
Frage ist eben, wie Bilder Aussehen, die korrekt belichtet sind -vornehmlich in den Spitzen-.

Space


Antwort von domain:

Leider ziemlich unspezifisches Video, das z.B. mit einer X909 vermutlich besser ausgesehen hätte.
Außerdem sind zwar die ersten Sekunden wunderbar mit dem Gefangenenchor abgestimmt, aber mit den ersten Crescendos ab 2:08 und besonders ab 2:30 dümpelt er immer noch in irgendwelchen Nebenkanälen herum, dabei hätte ab dort zumindest die St. Maria della Salute und weiter der Canale Grande mit seinen großartigen Palästen bis zur Rialtobrücke und weiter gezeigt werden sollen. Musikdramaturgisch ziemlich daneben.
Und wo bitte sind wirklich aussagefähige Nachtaufnahmen, wo Venedig in besonderem Glanz erscheint?
Ziemlich beiläufig und lieblos gemacht. Hatte wohl nicht viel Zeit dafür ...

Space


Antwort von olja:



Neues vom bloom Und auch hier ist es wieder zu sehen... :( Die Schatten unter den Brücken zerbröseln..2:26.

Space


Antwort von WoWu:

Leider ziemlich unspezifisches Video, das z.B. mit einer X909 vermutlich besser ausgesehen hätte.
Außerdem sind zwar die ersten Sekunden wunderbar mit dem Gefangenenchor abgestimmt, aber mit den ersten Crescendos ab 2:08 und besonders ab 2:30 dümpelt er immer noch in irgendwelchen Nebenkanälen herum, dabei hätte ab dort zumindest die St. Maria della Salute und weiter der Canale Grande mit seinen großartigen Palästen bis zur Rialtobrücke und weiter gezeigt werden sollen. Musikdramaturgisch ziemlich daneben.
Und wo bitte sind wirklich aussagefähige Nachtaufnahmen, wo Venedig in besonderem Glanz erscheint?
Ziemlich beiläufig und lieblos gemacht. Hatte wohl nicht viel Zeit dafür ... Deswegen mach ich bei Bildbeurteilungen den Ton grundsätzlich aus.

Space


Antwort von Jott:

Leider ziemlich unspezifisches Video, das z.B. mit einer X909 vermutlich besser ausgesehen hätte. Die hätte keine Chance bei den Kontrasten in Venedig im Sommer (Schatten gegen Sonne in Kanälen). Das ging bisher nicht für ein paar Hunderter.
Ziemlich beiläufig und lieblos gemacht. Hatte wohl nicht viel Zeit dafür ... Sicher nicht. War ein Übungsstück während seines Filmseminars. Steht doch da. Dürfte fast Realtime sein, nur hier und dort was rausgeschnitten, wenn eine Brücke kommt. Wassertaxis in Venedig sind sauteuer! :-)
zumal PB nun nicht gerade dafür steht, dass er mehr als Amateuraufnahmen macht Unnötig. Zum Beispiel:

"Bloom's 2011 documentary film How to Start a Revolution about Nobel Peace Prize nominee Gene Sharp premiered at the 27th annual Boston Film Festival and won Best Documentary, as well as the Mass Impact Award. It also won Best Documentary at the Raindance Film Festival."

Von dir hat man nie eine Sekunde gesehen, oder?

Space


Antwort von WoWu:


Von dir hat man nie eine Sekunde gesehen, oder? Nee, weil Festivals "brotlose Kunst" sind und wir nur dem "schnöden Mammon" nachjagen.

Space


Antwort von domain:

Die (x909) hätte keine Chance bei den Kontrasten in Venedig (Schatten gegen Sonne in Kanälen). Das ging bisher nicht für ein paar Hunderter. Mag sein, dass es für die X909 zutrifft, aber sicher nicht für die XF100 mit dem selbstentwickelten weichsten Profil von drei weichen, das ich aber noch nie benötigt habe, da bei dieser Camera bei allen Profilen ohnehin der Trend zum Flachen besteht :-)

Space


Antwort von Jott:

Mach ich auch, richtig Mammon, kein Thema.

Der Bloom aber auch. Wird weltweit gebucht. Die Kameratest-Spielereien sind zwischendrin. Man kann ihn hassen, aber ein Amateur ist der sicher nicht.



Space


Antwort von WoWu:

Tja, sieht aber leider so aus, denn das was er hier auch wieder abliefert ist reine Amateurkunst und was sein Blog so hergibt leider auch.Die (x909) hätte keine Chance bei den Kontrasten in Venedig (Schatten gegen Sonne in Kanälen). Das ging bisher nicht für ein paar Hunderter. Tja, nur dass der Mensch das auch nicht kann. Der kann nämlich auch nur 6 Blenden und den Rest durch Adaption, also einer neuen Belichtung.
In einem Rutsch geht das nämlich auch nicht. Da kommt auch eine kleine Kamera mit wenn man, genau wie das Auge das tut, die Blende nachzieht.

Space


Antwort von Jott:

Klar, immer schön Blende nachziehen während so einer Kanalfahrt, links Schatten, rechts Sonne. Da spricht der Praktiker. Wieso nicht gleich Automatik? :-)

Space


Antwort von WoWu:

Nein, oder so filmen, wie das Auge es sieht.
Oder adaptiert Dein rechtes Auge unabhängig vom linken Auge ?
Der Mensch sieht nun mal nicht ,mehr als 6 Blenden.
Vielleicht seht Ihr Schwaben ja mehr...

Space


Antwort von olja:

Mich würde eher dieser Effekt interessieren, der nicht nur bei einer Brücke auftritt.


zum Bild


Zur Verdeutlichung mal die Schatten hochgezogen. Sieht man nicht gleich auf allen Monitoren, je nach Gamma.
Aber ist mir im Clip aufgefallen und auch im geladenen MP4.
Nur Kompressionsartefakte ?

Space


Antwort von WoWu:

Transcodierung vom Sensor (11-13 Bit) => (10 Bit- Begrenzung) => (8 Bit H.264)

Space


Antwort von cantsin:

.
Aber ist mir im Clip aufgefallen und auch im geladenen MP4.
Nur Kompressionsartefakte ? Ja.

Space


Antwort von Tiefflieger:

Leider ziemlich unspezifisches Video, das z.B. mit einer X909 vermutlich besser ausgesehen hätte. Die hätte keine Chance bei den Kontrasten in Venedig im Sommer (Schatten gegen Sonne in Kanälen). Das ging bisher nicht für ein paar Hunderter. Mit den richtigen Einstellungen wären solche Aufnahmen in Venedig möglich.
Die X900M/X909 hat keine/wenig Sunflairs, keine flachen Kontraste im Gegenlicht.

Panasonic X900M in Bern zwischen den Häusern im Gegenlicht.
AVCHD 1080p50 unbearbeitet in vollem Kontrastumfang (flau)
zum Bild http://img4.fotos-hochladen.net/thumbnail/x900mbern255f83g5rslab_thumb.jpg (click)

Gruss Tiefflieger

Space


Antwort von gast5:

Der Bloom aber auch. Wird weltweit gebucht. Die Kameratest-Spielereien sind zwischendrin. Man kann ihn hassen, aber ein Amateur ist der sicher nicht So ist es und Erfolg generiert Neider, dass war immer so und wird immer so sein, dass hat der Dr. Wolfgang Wunderlich hier im Forum selbst erlebt mit seinem Buch unabhängig davon ob es gut oder schlecht war..

Space


Antwort von domain:

Ich halte vom Bloom eigentlich auch ziemlich viel.
Vor allem einmal hat er ziemlich Ahnung von Licht und auch von Kadrage, was man von etlichen hier veröffentlichenden Filmern nicht behaupten kann.
Außerdem hat er eine Ader dafür, wie man Gefühle hervorruft und zwar sowohl im Bild als auch im Sound, also meilenweit vom üblich Gesehenen entfernt.
Er zeigt kein Gemüse und pickelige halbstarke junge Männer (sowieso total unattraktiv) sondern Ästethisches.
Er ist wirklich ein Profi, nur gibt er sich offenbar für niedere Aufgaben zu sehr her.

Space


Antwort von gast5:

nur gibt er sich offenbar für niedere Aufgaben zu sehr her.
*gggggg was den? Pornos Dias oder Werbung für Müllermilch

Frag mal einen der aus der analogen Zeit für Quelle oder für Rotring die Kataloge abgelichtet hat oder Käsefotos für'n Duo von Bayernland für Plakatwände ..such dir aus was niedrige Aufgaben sind.. *ggg

Space


Antwort von Jott:

Falsches Beispiel, Tiefflieger. Deine Häuserzeile müsste schon halb im Schatten und halb in praller Sonne sein.

Space


Antwort von Tiefflieger:

Falsches Beispiel, Tiefflieger. Deine Häuserzeile müsste schon halb im Schatten und halb in praller Sonne sein. Gewisse Details im Bild oben sind in praller Sonne und die Häuserfront im Schatten, bzw. in Vergrösserung sind auch tiefere Schatten in Kupferbrauntönen der Regenabflussrore zu sehen.

1. Beispiel links. Der X900M mit dunklem Schatten rechts bis extreme Helligkeit an den häusern.
Das Taxi mit Reflektor in der Sonne der andere ohne und gelben Blinker.
2. Beispiel rechts halb/halb
(im vollen Kontrastumfang)
zum Bild http://www.fotos-hochladen.net/thumbnail/x900mbern255p0xghq28yt_thumb.jpg / (click)

Man darf auch nicht vergessen, dass 50 Vollbilder pro Sekunde teilweise in "downscaled Fotoqualität" gemacht werden.

Space


Antwort von iasi:

Aber auch hier (Film 1) .... je flacher die Kurve wird, umso kritischer werden die Weissanteile (hier noch völlig in Ordnung). Nur der Trend ist zu sehen.
Noch ein Stück mehr "CINE-Wahnsinn" und es fliegt weg, wie in den andern Videos. ich hab jetzt nicht alles mitverfolgt ... was meinst du mit "CINE-Wahnsinn"?

Space


Antwort von WoWu:

Ganz salopp ausgedrückt: Die Angst vor SCHWARZ.

Alles muss immer "flach" sein, weil jeder glaubt, dass die Auflösung dann besser sei.

Aber das ist falsch.

Die Dynamik ist immer zwischen weiss und SNR festgelegt, egal ob ich meinen Inhalt an weiss oder an schwarz orientiere.

Ein "normal belichtetes" Bild kann ich, um bessere Auflösungen in den dunklen Bereichen zu erhalten, auch von "unten-nach-oben" graden.
Das bringt die gleichen Ergebnisse wie eine butterweiche Kurve.
Die Lage der Kurve verändert lediglich (geringfügig) den Störabstand. Und da reden wir von 0,2 bis rd. 1,6 db, also nur den Bruchteil einer Blende.

Nur die meisten benutzen sie eben als Grading.
Und dass zu jeder Kurve eigentlich ein LUT gehört, davon will ich gar nicht erst sprechen. Die meisten wissen sowieso nichts damit anzufangen, weil es nicht Hipp ist.

Das meine ich mit Cine-Wahnsinn, dass Bilder immer weniger richtig belichtet werden, weil man den butterweichen-Look schon aus der Kamera haben will, anstatt ihn in der Post zu machen.

Deswegen würde mich mal ein richtig belichtetes Bild aus diesem Teil interessieren.
Bisher hat ihn nur John Brawley abgeliefert.
Und wenn man sich seine Nachtaufnahmen mal ansieht, da stimmt das Licht, ganz im Gegenteil zu denen, die immer TAG daraus machen wollen und sich dazu auch noch ihre Dynamik "versauen".

Space


Antwort von deti:

Ganz salopp ausgedrückt: Die Angst vor SCHWARZ. Danke! Für mich einer der besten Kommentare zum allgegenwärtigen Grading-Wahnsinn.

Deti

Space


Antwort von Predator:

Der Mensch sieht nun mal nicht ,mehr als 6 Blenden. Ist das genauso ein Blödsinn wie "Kein Mensch sieht mehr als 25 Bilder pro Sekunde?"

Pardon my French...aber wenn ich in meinem dunklen Wohnzimmer stehe und aus dem Augenwinkel heraus aus dem Fenster schaue (12 Uhr mittags, sonnig), sehe ich beides, unabgesoffen und nicht ausgebrannt. Ich würd das menschliche Auge mal eher auf 20+ Blenden schätzen.

Space


Antwort von WoWu:

Nein, leider nicht. Der Mensch sieht wirklich nur rd. 6 Blenden (ohne die Iris auf neue Verhältnisse einzustellen) Adaption nennt man das.
Schliesst man die Adaption mit ein, so sind es rd. 24 Blenden.
Bei großer Helligkeit geschieht dies in Sekundenbruchteilen und dauert in absoluter Dunkelheit bis zu einer Stunde.
Im gesamten Bereich, in dem die menschliche Adaption funktioniert – also vom skotopischen bis zum photopischen –, transportiert die visuelle Sinneswahrnehmung Informationen in dem Bereich von bis zu 24 Blenden. ~ 6 "Festblenden" und ~ 24 "variable" Blendenwerte.
Davon sind die 6 Blenden wichtiger, weil darin die Wahrnehmungsfähigkeit des menschlichen Sehvermögens bezüglich simultaner Kontraste in einem Bild stattfindet, ohne dass die Empfindlichkeitsumschaltung des Auges aktiviert wird.

Bezogen auf so eine Bootsfahrt (Film), in der kaum Adaption stattfindet, kommt man also mit rd. 6 Blenden aus, um denselben Eindruck zu reproduzieren, den auch ein Mensch dabei gewinnt.

Hinzu kommt noch die "Gewichtung" von Schatten denn die Schatten fallen im Erleben weit weniger gewichtig aus als in einer Videoaufzeichnung.
Daher erscheinen uns HDR Bilder auch immer etwas unnatürlich.
Will man also eine möglichst natürliche Darstellung, wird man den Dynamikbereich nicht zu gross wählen.
Nur solche Entscheidungen fallen sinnvollerweise natürlich in der Post.

Space


Antwort von Axel:

Nein, leider nicht. Der Mensch sieht wirklich nur rd. 6 Blenden ...
(...)
Davon sind die 6 Blenden wichtiger, weil darin die Wahrnehmungsfähigkeit des menschlichen Sehvermögens bezüglich simultaner Kontraste in einem Bild stattfindet, ohne dass die Empfindlichkeitsumschaltung des Auges aktiviert wird. Es ist bei der Wahrnehmung wohl so, dass dein Interesse bestimmt, obvdu Details im Schatten wahrnimmst oder nicht. Und dir wird schlicht nicht bewusst, dass du keine wahrnimmst, wenn dort nur Steine, Eisstiele und Zigarettenkippen liegen. Permanent ausgereizte 12 oder 13 Blenden könnten auf Dauer langweilig sein.

So, wie man beim Ausleuchten das Motiv ins beste Licht rückt (und dabei heute eine naturalistische Anmutung schafft, die dennoch expressiv ist), geht es beim meisterlichen Graden nicht um schrille Effekte oder einen gediegenen HDR-Look, sondern um die Lenkung der Wahrnehmung des Zuschauers. Wenn dies begründet ist, darf man alles. Da man alles darf, wird allerdings sehr schnell klar werden, wer graden kann und wer nicht.

Space


Antwort von iasi:

Davon sind die 6 Blenden wichtiger, weil darin die Wahrnehmungsfähigkeit des menschlichen Sehvermögens bezüglich simultaner Kontraste in einem Bild stattfindet, ohne dass die Empfindlichkeitsumschaltung des Auges aktiviert wird.
tja - und in deinem Nebensatz steckt die Wahrheit: Die "Umschaltung" erfolgt permanent - ebenso wie bei der Detailwahrnehmung - dies relativiert dann eben solche Werte wie die 6 Blenden.

Space


Antwort von Axel:

Davon sind die 6 Blenden wichtiger, weil darin die Wahrnehmungsfähigkeit des menschlichen Sehvermögens bezüglich simultaner Kontraste in einem Bild stattfindet, ohne dass die Empfindlichkeitsumschaltung des Auges aktiviert wird.
tja - und in deinem Nebensatz steckt die Wahrheit: Die "Umschaltung" erfolgt permantent - ebenso wie bei der Detailwahrnehmung - dies relativiert dann eben solche Werte wie die 6 Blenden. Die Unwahrheit steckt in der Formulierung "in einem Bild". Es gibt nur minimal 50 Bildfragmente pro Sekunde, gestitcht und nach Interessenlage aufbereitet von unserem Gehirn. Und zwar nicht nur dem "Sehzentrum", denn dieses wäre ohne die Verknüpfungen zu anderen Sinneszentren, vor allem aber zu gespeicherten Bildern, - blind.

Trotzdem glauben wir ja selbst irrtümlich, ein Bild zu sehen. Und dafür reichen, solange nichts eklatant clippt, die beschriebenen 6 Blenden, ggfs. sogar weniger, ohne dass wir denken, da ist was technisch verkackt worden.

Alles, was die Möglichkeiten der Filmer erweitert, erweitert vor allem die Möglichkeit der Lenkung der Aufmerksamkeit/Wahrnehmung. Kommt einem noch selbstverständlich vor bei Kadrage und Beleuchtung (dem Schnitt ja sowieso), und auch bei der selektiven Schärfe geht es weniger um ästhetisch weiches Geschwummer, sondern um Hervorhebung des Wichtigen. Hier zeigt sich freilich schon, ob der Filmer dies begriffen hat oder nicht (beim photopischen Sehen haben wir, ohne uns dessen bewusst zu sein, eine ständige Vignette, auch selektive Schärfe und Entfernungswahrnehmung -"3D"- fallen uns selten auf). Einen solchen dünnen DoF wie in unseren 5D f1.4-Clips gibt es in der realen Wahrnehmung nur, wenn wir z.B. einen Faden durch's Nadelöhr ziehen, oder?

Ein Bild mit 13 gleichmäßig gemappten Helligkeitsverdoppelungsstufen - allenfalls mit sanften Rampen unten und oben - ist doch wie absolute Schärfentiefe - langweilig und nichtssagend. Und es sieht noch nicht einmal realistischer aus als das einer herkömmlichen Consumerkamera.

Space


Antwort von cantsin:

Einen solchen dünnen DoF wie in unseren 5D f1.4-Clips gibt es in der realen Wahrnehmung nur, wenn wir z.B. einen Faden durch's Nadelöhr ziehen, oder? Du bist offensichtlich kein Brillenträger. ;-). Klar gibt's dieses DoF, wenn man stark kurz- oder weitsichtig ist. Entgegen populärer Annahme sieht man als Kurz- oder Weitsichtiger nicht unscharf, sondern hat kleines DoF mit einer eingeschränkten Fokussierskala.

Space


Antwort von domain:

Ganz salopp ausgedrückt: Die Angst vor SCHWARZ.
Alles muss immer "flach" sein, weil jeder glaubt, dass die Auflösung dann besser sei. Umgekehrt gibt es aber auch die Angst vor WEISS.
In vielen Fällen unbegründet. Erstens zählen rein weiße Bildstellen schon lange zu unseren Sehgewohnheiten, Unwesentliches kann dadurch zum Verschwinden gebracht werden und bei der High-Key-Technik ist es sogar Programm.



Space


Antwort von Axel:

Jetzt erst gesehen: Der PB-Clip in Venedig. Wer glaubt, Vergleichbares mit gewöhnlichen 8-bit-Kameras produzieren zu können, kann ja mal einen Link posten, muss ja nichts Eigenes sein.

Gebt bei Youtube ein: Venice 5D, und ihr könnt gondeln bis zum Abwinken. Bei Sonne Ziegel in den Schatten zu sehen und trotzdem keinen Highkey-Himmel, wird nicht gelingen. Falsifiziert das!

Das mit der Angst vor Schwarz und Weiß stimmt. Na klar brauch ich nicht überall Details. HDR im Extrem ist alles, nur nicht natürlich:


zum Bild


... wenn es denn überhaupt je um Natürlichkeit ging, was m.E. lächerlich ist.

Auf EOSHD meint jemand, mit der nativen Empfindlichkeit von ISO 800 und der Vermeidung von Clipping >1 Blende (Zebra) seien blooming und white orbs nicht reproduzierbar.

Space


Antwort von cantsin:

Auf EOSHD meint jemand, mit der nativen Empfindlichkeit von ISO 800 und der Vermeidung von Clipping >1 Blende (Zebra) seien blooming und white orbs nicht reproduzierbar. Was stimmt, ist, dass man mit der Pocket anders belichten muss - nämlich gefühlsmäßig unterbelichten (auch so, dass es im Display unterbelichtet aussieht) und extreme Spitzlichter nicht mehr als 2, allerhöchstens 3 Blenden clippen lassen. Trotzdem kann es dann ab und zu zu Effekten kommen, dass Orbs sich in andere Bildkonturen fressen (wenn auch nicht so extrem und für Laien wahrscheinlich nicht auffällig).

Was nicht geht und zu den extremen Ausfresseffekten führt, die man überall sieht: Eine Szene bis zum Zebra-Anschlag belichten, jedoch alle punktuellen Extremspitzlichter (Glühbirnen, Autoscheinwerfer oder Straßenlaternen in der Nacht) beliebig clippen lassen.

Space


Antwort von Jott:

Was schade ist, denn softes Clipping ohne hartes Reinhauen gehört schon seit Jahren zu den Tugenden besserer CMOS-Kameras, völlig unabhängig von 8-Bit, 10Bit- oder Sonst-was-Bit-Aufzeichnung. Möge es ein Firmware-Fehler und somit behebbar sein.

Space


Antwort von cantsin:

Sowas kann man über das De-bayering lösen.
Versuch solche Experimente mal im Video -Mode, weil die Kennlinie bekannt ist. Gemacht, mit gleichem Ergebnis:

Space


Antwort von dirkus:

Dieses "Ausfressen" tritt bei anderen Kameras auch auf. Allerdings wird es dann durch die Flares weitgehend weg kaschiert.

Hier treten aber praktisch garkeine Lens Flares auf.

Ich könnte mir vorstellen, dass es ein Codec Problem ist.


Meine 7d zeigt im Raw Modus auch sehr viel intensivere Flares als im H.264 Betrieb.

Space


Antwort von domain:

Jössas- Marantjosef, das kann doch nicht wahr sein: Licht frisst Rad.
Egal welche Ursache, alles in allem eine Demo- und Experimentierkamera.
BM demonstriert zwar lobenswerter weise, was für wenig Geld machbar ist, aber gleichzeitig haben sie ein mords Experimentierfeld eröffnet, auf dem sie jetzt wohl selbst fieberhaft forschen. Ist ja spannend, einem derartigen Fehlverhalten auf die Spur zu kommen....

Space


Antwort von WoWu:

Davon sind die 6 Blenden wichtiger, weil darin die Wahrnehmungsfähigkeit des menschlichen Sehvermögens bezüglich simultaner Kontraste in einem Bild stattfindet, ohne dass die Empfindlichkeitsumschaltung des Auges aktiviert wird.
tja - und in deinem Nebensatz steckt die Wahrheit: Die "Umschaltung" erfolgt permantent - ebenso wie bei der Detailwahrnehmung - dies relativiert dann eben solche Werte wie die 6 Blenden. Das kannst Du mit der Kamera auch machen, indem Du die Blende anpasst denn das entspricht ja der Adaption.
Allein mit der Wahrnehmung klappt das nicht, denn dann müsstest Du, wenn Du in einem hell beleuchteten Raum sitzt und quer durch den Raum im Fenster den dunklen Himmel siehst, die einzelnen Sterne erkennen können.
Klappt aber nicht, weil Du trotz Aufmerksamkeit nicht aus den 6 Blenden heraus kommst.
Ebenso verhält sich eine Kamera, solange Du nicht unnatürlich trickst.

Space


Antwort von iasi:

Was schade ist, denn softes Clipping ohne hartes Reinhauen gehört schon seit Jahren zu den Tugenden besserer CMOS-Kameras, völlig unabhängig von 8-Bit, 10Bit- oder Sonst-was-Bit-Aufzeichnung. Möge es ein Firmware-Fehler und somit behebbar sein. dieses "weiche" Clipping erkauft man sich dann aber durch andere Einschränkungen ... Vermeiden ist die beste Lösung ...

Könnte die Pocket schon Raw, wäre die Lösung der Druck auf die "Iris"-Taste ... dann wird bis zum "Lichter-Anschlag" belichtet.

Space


Antwort von WoWu:

8-Bit, 10Bit- oder Sonst-was-Bit-Aufzeichnung. Es gehört zwar dazu, nur wirkt es unterschiedlich, entlang der 12/10/8 Bit.
Ursache und Wirkung darf man nicht verwechseln.

Space


Antwort von iasi:

Davon sind die 6 Blenden wichtiger, weil darin die Wahrnehmungsfähigkeit des menschlichen Sehvermögens bezüglich simultaner Kontraste in einem Bild stattfindet, ohne dass die Empfindlichkeitsumschaltung des Auges aktiviert wird.
tja - und in deinem Nebensatz steckt die Wahrheit: Die "Umschaltung" erfolgt permantent - ebenso wie bei der Detailwahrnehmung - dies relativiert dann eben solche Werte wie die 6 Blenden. Das kannst Du mit der Kamera auch machen, indem Du die Blende anpasst denn das entspricht ja der Adaption.
Allein mit der Wahrnehmung klappt das nicht, denn dann müsstest Du, wenn Du in einem hell beleuchteten Raum sitzt und quer durch den Raum im Fenster den dunklen Himmel siehst, die einzelnen Sterne erkennen können.
Klappt aber nicht, weil Du trotz Aufmerksamkeit nicht aus den 6 Blenden heraus kommst.
Ebenso verhält sich eine Kamera, solange Du nicht unnatürlich trickst. Aber ich will doch dem Zuschauer eben dieses Gesamtbild bieten, in welchem er vom dunklen Inneren seinen Blick hinaus durchs Fenster ins Tageslicht lenken kann. Ebenso kann er doch auch von der Gesamtansicht auf bestimmte Bildteile "fokusieren". Nimm die Szene in "Lawrence of Arabia", in der wir von Lawrence"s Führer auf eine weit entfernte Karawane in einer Totalen hingewiesen werden.
Der Blick des Zuschauers ist doch alles andere als starr.

Space


Antwort von WoWu:

Sowas kann man über das De-bayering lösen.
Versuch solche Experimente mal im Video -Mode, weil die Kennlinie bekannt ist. Gemacht, mit gleichem Ergebnis: Du musst sie in der Gewichtung runter nehmen. Erstens bekommen sie dann wieder ihre ursprünglichen Farben (weitestgehend) und zweitens verlieren sie ihre Intensität.

Und.. wie hast Du denn das gemacht, ohne ein RAW Signal ?

Space


Antwort von iasi:

Jössas- Marantjosef, das kann doch nicht wahr sein: Licht frisst Rad.
Egal welche Ursache, alles in allem eine Demo- und Experimentierkamera.
BM demonstriert zwar lobenswerter weise, was für wenig Geld machbar ist, aber gleichzeitig haben sie ein mords Experimentierfeld eröffnet, auf dem sie jetzt wohl selbst fieberhaft forschen. Ist ja spannend, einem derartigen Fehlverhalten auf die Spur zu kommen.... ich denke mal, wenn man so belichtet, dass die Lichter geschützt sind, dürfte das Problem nicht derart gravierend sein.

Space


Antwort von cantsin:

Sowas kann man über das De-bayering lösen.
Versuch solche Experimente mal im Video -Mode, weil die Kennlinie bekannt ist. Gemacht, mit gleichem Ergebnis: Du musst sie in der Gewichtung runter nehmen. Erstens bekommen sie dann wieder ihre ursprünglichen Farben (weitestgehend) und zweitens verlieren sie ihre Intensität. Ja, schon klar - der Still war Teil einer Blendenreihe, und hier war die Blende ganz offen.

Space


Antwort von domain:

Wenn ich es so recht bedenke, sind eigentlich € 1000.- zuviel für diese Kamera, die eigentlich mit einer einzigen Ausnahme nix kann.
Keine 50p, keine originäre interne Bildstabilisierung, wenig Auswahl an brauchbaren Objektiven, eine Scheiß-Tonsektion, eine extrem praxisfremde Bedienung, einen Codec, der nach WoWu die Ursache für scharfkantig ausgefressene Lichter ist, ja himmelfix, wofür bezahlt man eigentlich soviel?
Nur für die paar Stops mehr?

Space


Antwort von WoWu:

Aus der Sicht eines Hobbyfilmers hast Du völlig Recht.

Space


Antwort von domain:

Ja natürlich, das wichtige und mögliche Grading ist professionell.
Schau dir doch mal das bisher Gezeigte an. Alles voller Farkipper von Rosa bis ins Grünliche. Sicher alles gegradet, aber von absoluten Dillettanten.
Niemals können das die Originalfarben der BMPCC sein, denn dann wäre sie wirklich für den Müllhaufen.

Space


Antwort von WoWu:

Ich hab ja auch nicht gesagt, dass das eine Kamera für Omas Kaffetisch ist denn selbst richtiges Belichten schein ja heutzutage ohne Automatik zum Problem geworden zu sein und ich würde die Kamera daher auch keinem Freizeit-Videofilmer empfehlen.

Space


Antwort von cantsin:

Ja natürlich, das wichtige und mögliche Grading ist professionell.
Schau dir doch mal das bisher Gezeigte an. Alles voller Farkipper von Rosa bis ins Grünliche. Sicher alles gegradet, aber von absoluten Dillettanten. Stimmt. Die Kamera überfordert viele Leute. Durch das Marketing und Gehäusedesign sind falsche Erwartungen geweckt worden.

(Ansonsten kostete es mich, als absoluten Coloristen-Noob, nur ein paar Reglerzüge in der Dreiwege-Korrektur von Premiere, um das Pocket-Cinema-Log-Material dem GH2-Material anzugleichen. Oder man knallt die frei verfügbare Hook-BMCC-Lut aufs Material, und gut ist - besser noch die frei verfügbaren Arri Alexa-LUTs, die ein weniger knalliges Bild liefern und auf deren Basis man sehr einfach graden kann.)

Space


Antwort von iasi:

Die Kleine ist reizvoll, da sie klein ist - und da sie gute Codecs bietet.

Wer es nicht klein braucht, sollte eher zur BMCC greifen - oder zu einer anderen Marke ...

Space


Antwort von deti:

Stimmt. Die Kamera überfordert viele Leute. Durch das Marketing und Gehäusedesign sind falsche Erwartungen geweckt worden. Ja, das Gehäuse hätte nur notdürftig mit Klebeband verschlossen gehört und ein paar Drähte hätten heraushängen sollen, dann hätte jeder gewusst, dass das Gerät noch nicht fertig entwickelt wurde (so wie das bei Blackmagic Design gelegentlich mal vorkommt ;-)

Deti

Space


Antwort von iasi:

Das Marketing von BMD ist sehr grenzwertig ...

Space


Antwort von domain:

Ja so eine Kamera kann einen schon herausfordern und das ist in der Tat professionell, weil maximal viel spezifisches Wissen erforderlich ist, das einen von einem normal fotografierenden oder filmenden Deppen abgrenzt.
Keine Belichtungsautomatik hat da was verloren, kein Autofokus, keine Bildstabilisierung. Alles muss so laufen wie mit den alten Plattenkameras vor hundert Jahren.
Und es stimmt auch, damals wurde das Fotografengewerbe noch als wirklich professionell eingestuft und wegen Allgemeingefährdung war es ursprünglich auch ein konzessionspflichtiges Gewerbe, schon wegen der verwendeten Säuren und wegen der denkmöglichen unanständigen Pornobilder.

Space


Antwort von cantsin:

Keine Belichtungsautomatik hat da was verloren, kein Autofokus, keine Bildstabilisierung. Wer Belichtungsautomatik und Autofokus bei Bewegtbild will, sollte nicht einmal mit DSLR-Video anfangen.

Space


Antwort von Tiefflieger:

(Teil-)Automatiken sind Assistenzsysteme und sollten nicht bevormunden und sind meiner Meinung nach Sinnvoll.

Helferlein sind OIS, Belichtungsmessung, Zebra, Vorschaumonitor (im Studio).........
Vom hören sagen werden im Fernsehstudio Kameras gänzlich ferngesteuert. Andere haben den Fokuspuller beim Filmen (Teamarbeit).
Solange man die Automatik und das Verhalten kennt, ersetzt es viele Helfer.

Gruss Tiefflieger

Bei gewissen Fluglinien können Piloten ohne Autopilot nicht mal den Flughafen in der korrekten Geschwindigkeit anfliegen (letzter Boeing 777 Crash).
Formel 1 und DTM ist ohne sequentielles Automatikgetriebe undenkbar (mit ABS ++++ wären sie noch schneller = verboten :-))

Space


Antwort von domain:

@ Cantsin
Stimmt vollkommen.
Aber wer redet schon Belichtungsvollautomatik? Normal ist die Blendenautomatik, die man gegebenenfalls mit einem Tastendruck fixieren kann. Das gleiche gilt für den Autofokus, auch der ist auf Tastendruck einzufrieren.
Aber das beste von allem ist die Gesichterkennung, die hat sogar die XF100.
Wenn schon Gesichter im Bild erkennbar sind, dann möchte ich auch, dass diese zunächst mal scharf sind.
Sollte man anderes im Visier haben, dann kann man immer noch umdisponieren.
Was von alldem bitteschön bietet die BMPCC?
Nichts, sie ist was für akribische Tüftler, die dann u.U. Gemüse, Steinhaufen und Katzen in ihren Videos zeigen.

Space


Antwort von cantsin:

@ Cantsin
Stimmt vollkommen.
Aber wer redet schon Belichtungsvollautomatik? Normal ist die Blendenautomatik, die man gegebenenfalls mit einem Tastendruck fixieren kann. Das gleiche gilt für den Autofokus, auch der ist auf Tastendruck einzufrieren. Witzigerweise hat die Pocket beides, und zwar genau so, wie Du es beschreibst. (Allerdings nur bei elektronisch gekoppelten MFT-Objektiven. Dass es da bisher keine für die Kamera optimalen Modelle gibt, steht auf einem anderen Blatt).

Space


Antwort von domain:

Ach interessant. Sie hat also zwei spezielle Tasten, die das jeweilige Einfrieren sofort veranlassen?
Nunja, ich kenne die Kamera noch nicht in der Realität.

Space


Antwort von cantsin:

Ach interessant. Sie hat also zwei spezielle Tasten, die das jeweilige Einfrieren sofort veranlassen? Ja, "Iris" und "Focus".

zum Bild


Space


Antwort von domain:

Ok,
sieht gut aus.

Space


Antwort von iasi:

@ Cantsin
Stimmt vollkommen.
Aber wer redet schon Belichtungsvollautomatik? Normal ist die Blendenautomatik, die man gegebenenfalls mit einem Tastendruck fixieren kann. Das gleiche gilt für den Autofokus, auch der ist auf Tastendruck einzufrieren. Witzigerweise hat die Pocket beides, und zwar genau so, wie Du es beschreibst. (Allerdings nur bei elektronisch gekoppelten MFT-Objektiven. Dass es da bisher keine für die Kamera optimalen Modelle gibt, steht auf einem anderen Blatt). ja - und witzigerweise bietet die digitale Pocket bis auf das grobschlächtige Zebra keinerlei Informationen zur Belichtung - das konnten ja schon alte 16mm-Kameras besser.

Ganz modern war vor Jahrzehnten die Spotmessung von Olympus bei DSLR - und oh Wunder: Die Kamera wurde sogar von Profis genutzt.

Bei der digitalen Pocket muss man nun wieder den Belichtungsmesser einpacken - wie in alten Zeiten - ja - das ist natürlich professionell ... und so macht die Pocket sicherlich auch Sinn: Kleine und leichte Kamera, die einen Rucksack voll mit Hilfsmitteln erfordert.

Dass man bei einer Digitalkamera keine zeitgemäßen Tools implementiert, hat doch nichts mit professionell zu tun. Je mehr Hilfsmittel ich zur Verfügung habe, um die Lichtsituation zu beurteilen, umso besser.

Was die BM-Cams mit der Iris-Taste bei ProRes/DNxHD bieten, ist das, was Opas Urlaubsknippse vor Jahrzehnten tat.

Space


Antwort von rudi:

Eigentlich sollte ich diesen Monster-Thread jetzt wohl mal ruhen lassen, aber kurz vor dem Sprung auf das IFA-Gelände kam mir noch ein vielleicht interessanter Aspekt zur Thematik. Und bevor ich ihn vergesse, poste ich ihn einfach mal hier:

Vielleicht hat Brawley ja mit einem variablen ND-Filter gefilmt (habe jetzt keine Zeit mehr das zu recherchieren). Falls dem so wäre, gäbe es vielleicht folgende Erklärung:

Vari-NDs verhalten sich in der Regel (als eigentlich unerwünschter Seiteneffekt) wie ein Pol-Filter, d.h. sie nehmen Lichtreflexionen aus dem Bild. Und das könnte entsprechend auch die White Orbs in vielen Fällen deutlich reduziert haben.

Nur ein schneller Gedanke...

rudi

Space


Antwort von gast5:

Hat er..

Space


Antwort von domain:

Hat damit nichts zu tun. Ein Polfilter wirkt nur bei Reflexionen auf nichtmetallischen Oberflächen und beim Himmelsblau.

Space


Antwort von cantsin:

Empirisch stimmt der Zusammenhang Vario-ND und weniger white orbs schon - man muss lernen, mit der Kamera subjektiv unterzubelichten (1-2 stops) und nicht, wie man es von Kameras wie der GH2 gewöhnt ist, die Spitzlichter bis zum Anschlag oder darüber zu belichten. Mit einem Vario-ND geht das erheblich einfacher.

Space


Antwort von Frank Glencairn:

Erste Blooming Ansage von BM
Hi guys,

As promised, here’s an update on the ‘blooming’ sensor topic.

All sensors, be it CCD or CMOS, will have a ‘blooming’ effect when during severe overexposure, the pixel is over saturated and excessive charges overflow to neighbouring pixels. It just looks different depending on the sensor type.

We are not seeing this on some of our test cameras so it might be something that is calibration related. Please contact your nearest support office and we’ll run another calibration on the camera.
Schein mir ein bisschen Bloomig....

Space


Antwort von Predator:

Absolut! Warum wollen sie jetzt Kundenkameras haben? Sie haben doch noch garkeine zuverlässige Lösung. Sollen erstmal ihre Testcams mit ner Serienkamera vergleichen.

Space


Antwort von stip:

Update von BMD:

http://forum.blackmagicdesign.com/viewt ... =2&t=12250

Frank war schneller.

sie gehen von falscher Kalibrierung aus, man solle die Kameras zurückschicken, ob eine Neukalibrierung das Problem löst wird allerdings auch nicht wirklich behauptet, alles etwas wischi waschi.
Schein mir ein bisschen Bloomig.... haha, stimmt.

Space


Antwort von CameraRick:

Was man BMD aber lassen muss, ist ein blitzschneller Support. Ich hatte meine, nachdem sie im Labor war, am nächsten Tag wieder in den Händen. Aus England.

Space


Antwort von Predator:

Ja, bei meiner BMCC war der Lüfter kaputt (laut). Drei Tage von RMA Eröffnung bis Lieferung des neuen Lüfters.

Space


Antwort von gast5:

Ne Kalibrierung der Software oder per Software...?

Hmmmm?

Space


Antwort von stip:

Was man BMD aber lassen muss, ist ein blitzschneller Support. Ich hatte meine, nachdem sie im Labor war, am nächsten Tag wieder in den Händen. Aus England. D.h. du hast sie nach England geschickt, dort ist ein 'Labor' von BMD?
Was war denn defekt?

Space


Antwort von CameraRick:

Zumindest hab ich das so verstanden, dass da ein "Labor" war. Aber ich bin auch kein nativer Engländer. Zumindest haben Sie sich das angeschaut.

Hatte nen defekten Sensor, aber von UPS-Abholung bis neue Kamera hats keine Woche (inkl. WE) gedauert, das finde ich fair.

Space


Antwort von stip:

Zumindest hab ich das so verstanden, dass da ein "Labor" war. Aber ich bin auch kein nativer Engländer. Zumindest haben Sie sich das angeschaut.

Hatte nen defekten Sensor, aber von UPS-Abholung bis neue Kamera hats keine Woche (inkl. WE) gedauert, das finde ich fair. Danke! Wäre interessant zu wissen ob man die Pocket einmal um die Welt nach Australien schicken müsste oder ob England auch ginge. Hoffe da wird es noch mehr Infos in den kommenden Wochen geben.

Space


Antwort von CameraRick:

Wenn man den britischen Support anschreibt (bzw angibt, dass man Deutscher ist), sollte das gehen.
So oder so holt das UPS auf deren Kosten ab. Habe keinen Pfennig bezahlt. UPS holts sogar von der Arbeit ab :)

Space


Antwort von Klose:

Ein neuer Bloom-Test auf YT

Unterschied zwischen BMPCC und BMCC



Space


Antwort von CameraRick:

Hm, nicht ein wenig hinfällig?

Das Problem ist ja bekannt, das Video eine Woche alt, und die Lösung schon da :)

Space


Antwort von WoWu:

Aber sein Blog noch nicht. :-)
Sonst würde es heissen, er hat es nicht gemerkt.
(better late than never)

Space


Antwort von ruessel:

"Black hole sun syndrome" habe ich gestern bei einem Spielfilm in der Mediathek gesehen...... war wirklich verwundert. Schwenk in die Sonne, plötzlich schwarzer Punkt in der Mitte. Ist denn da noch was aktuelles auf dem Markt mit diesem Fehler? ARRI?

Ich muss mal schauen welcher Film das war...habe gestern 3 Stück gesehen, bin mir nicht mehr sicher welcher Titel.

Space


Antwort von Darth Schneider:

Vielleicht war dort ja auch einfach ein kleines Schwarzes Loch…..;))))
War denn das nur einmal zu sehen, oder gleich mehrfach ?
Könnte das nicht auch einfach Schmutz ein Fleck sein..?
Oder eingebrannt von der Sonne ?
Gruss Boris

Space


Antwort von ruessel:

Nein, war recht deutlich ein Sensorfehler wie bei der BMPCC vor der Firmware. Ich suche das mal raus...hoffentlich finde ich die Szene.

Space


Antwort von Darth Schneider:

Und der Punkt erscheint dann genau in der Mitte, immer, bei diesem Problem ?
Ich denke ich hab das früher mal gesehen. Jedoch damals bei einer gemieteten Ampex Beta SP Kamera…Ein schwarzer kleiner Punkt genau in der Mitte.
Keine Ahnung ob das der selbe Defekt oder ein Einbrenner von der Sonne war.
Gruss Boris

Space


Antwort von ruessel:

Yoh, gerade gefunden: 3-Sat, 2014, Titel: Alles Fleisch ist Gras. Schöner schwarzer Humor.....

https://www.faz.net/aktuell/feuilleton/ ... 80148.html

Siehe Anlage

allesfleisch.jpg

Space


Antwort von Frank Glencairn:

Ja, unter Umständen kann auch bei bei anderen Kameras vorkommen, BM war da nicht die erste.
Was allerdings nicht vorkommen sollte, daß das keine merkt und mit ein Paar Klicks in der Post behebt.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic Cinema / Production Camera 4K / URSA (Mini) 4.6K und 12K uä.-Forum

Antworten zu ähnlichen Fragen //


Blackmagic Cinema Camera 6K Sensor Test - Rolling Shutter, Debayering und Dynamik
Neuer Tilta Camera Cage für Blackmagic Pocket Cinema Camera 6K Pro
Diffusionsfilter ohne Highlight-Blooming?
Noch mehr Gerüchte - Blackmagic Pocket 6K mit neuem Design und neuem Sensor?
Blackmagic Pocket Cinema Camera 4K -Bajonetg
Blackmagic: Updates für DaVinci Resolve, Pocket Cinema Camera 4K/6K und Video Assist 12G
Klassische VJ-Kamera (Sony) oder Blackmagic Pocket Cinema Camera 4k?
Blackmagic Pocket Cinema Camera 6K Pro - mit integriertem ND-Filter und optionalem Sucher
Blackmagic Pocket Cinema Camera 6K Pro - Erweiterte Ausstattung, Rolling Shutter und Debayering
Blackmagic Pocket Cinema Camera 6K Pro in der Praxis - lohnendes Update?
Surf Cinematography With the Blackmagic Pocket Cinema Camera 6K
Blackmagic Camera 7.9.1 Update mit Bugfixes für die Pocket Cinema Cameras
Blackmagic Pocket Cinema Camera 6K Pro + IDX Imicro 150
Blackmagic Pocket Cinema Camera 4K revisited - Sensortest mit BRAW
Blackmagic: Sicherheitswarnung für Resolve und Produktionstopp für Micro Cinema Camera/Studio Camera 4K
Stromversorgung für Blackmagic Cinema Camera 2.5K/Production Camera 4K?
Pocket Cinema Camera 4K / 6K disassembly
Best cinema camera of 2021? - FX3, FX6, Pocket 6K Pro, Zcam E2-F6 und Red Komodo im Blindvergleich




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash