Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony-Forum

Infoseite // Liebes SONY,



Frage von fido13:


euer vielfach in Kameras verbauter semi-transparenter Spiegel bringt mich zu einer Bitte:
Warum nicht an "beide Enden" einen Sensor einbauen, um so ohne Zeit- oder Zeilenversatz die ultimative HDR-Filmkamera zu bauen?
Wenn z.B. ein Sensor 30% und der andere 70% (nagelt mich nicht auf ein Verhältnis fest) des Lichtes erhält, lässt sich doch bestimmt was schönes daraus rechnen...
Oder besser noch komplett "RAW", um hinterher alle Freiheiten zu haben.

freue mich über Anmerkungen.

Space


Antwort von Filminator:

Warum semitransparenter Spiegel? Damit der Sensor was sieht und der Sucher auch.
Wenn dein Vorschlag umgesetzt wird, sieht man im Sucher nichts mehr, weil der zweite Sensor im weg ist ...

Space


Antwort von aerobel:

Wenn schon, dann gleich drei Chips und dafür raus mit dem Bayerglump... soll es ja geben, Dreichipkameras...

Space


Antwort von WoWu:

:-) Dann kann man aber nicht mehr die schönen billigen Objektive benutzen. :-)

Space


Antwort von aerobel:

Hallo Wolfgang,

Du meinst wohl die Objektive mit dem Brennpunkt hinter dem Sensor...
Ja, das wird schwierig... *smile

Rudolf

Space


Antwort von WoWu:

Moin Rudolf,
...ja genau.

Space


Antwort von aerobel:

Hallo Wolfgang,

Was habe ich manchmal geschmunzelt ob all der Formeln und der Logik...

Na ja, was kümmert mich der Brennpunkt... ich will bloss scharfe Bilder...

Gute Nacht...

Rudolf

Space


Antwort von WoWu:

Ich verstehe das schon, weil die ganzen Grafiken immer den virtuellen Bildraum zeigen und nur einen Strahl.
Da liegt die Vermutung schnell nahe, dass der Sensor irgendwo da hinten sitzt, weil einfach nicht bedacht wird, dass der Fokus diesen "Raum" verändert.
Aber, Thema ist durch ....

aber ich muss sagen, mit Reiner ist es sehr angenehm zu diskutieren.




Gute Nacht, Rudolf.

Space


Antwort von aerobel:

Hallo Wolfgang,

Ja, das Thema ist durch. Es hat mich auch ein bisschen erstaunt, wie friedlich und halbwegs anständig diese Diskussion "über die Bühne" ging. In anderen Threads heisst es schnell mal "Fresse halten", Scheisse labbern" und solche primitiven Sachen. Das hat so kaum stattgefunden... finde ich grandios... auch wenn man mal anderer Ansicht ist, ein bisschen Respekt darf trotzdem sein...

Die Welt geht ja nicht unter... egal, wo der Brennpunkt nun liegt...

Rudolf

Space



Space


Antwort von fido13:

@filminator: ja, richtig. Vielleicht ist ein prisma mit mehr als 2 enden doch die bessere idee.
@rudolphs erster antwort: nur, dass diese bisher für unterschiedliche farben und nicht helligkeiten verwendet werden

...und danke an alle, dass ich (obwohl offensichtlich nicht vom fach) nicht notgeschlachtet worden bin :-)

Space


Antwort von domain:

... weil einfach nicht bedacht wird, dass der Fokus diesen "Raum" verändert. Mir war sofort deine Äußerung klar, der Fokus-"Raum" sei eine variable Größe.
Die Ursache der Missverständnisse ist aus meiner Sicht, dass die Brennweite (und damit auch der Brennpunkt) eine im Grunde für den Praktiker uninteressante Größe ist, aber auf Basis von Kleinbild dermaßen gebräuchlich ist, dass sogar eine Umrechnung für Non-KB-Sensoren als Maßzahl durchgeführt wird.
Gescheiter wäre es vermutlich von Haus aus gewesen, den erfassbaren Bildwinkel für eine noch korrekt darstellbare Bilddiagonale bei Unendlicheinstellung als Kennzahl anzugeben und ev. auch die Bildwinkelveränderung bei maximalem Auszug ohne Zwischenringe oder Adapter. Dann hätte man auch sofort eine Information darüber, wie stark ein Objektiv "atmet".
Aber in anderen Bereichen sind ja auch PS und Kilokalorien nicht auszurotten.

Space


Antwort von fido13:

Ich verstehe das schon, weil die ganzen Grafiken immer den virtuellen Bildraum zeigen und nur einen Strahl.
Da liegt die Vermutung schnell nahe, dass der Sensor irgendwo da hinten sitzt, weil einfach nicht bedacht wird, dass der Fokus diesen "Raum" verändert.
Aber, Thema ist durch ....

aber ich muss sagen, mit Reiner ist es sehr angenehm zu diskutieren.




Gute Nacht, Rudolf.

Lieber Rudolf,
Ich würde diesen Einwand gerne nachvollziehen und mich über eine kurze Erläuterung freuen.
Mit angemessener Demut, versteht sich

Space


Antwort von Tiefflieger:

Es gab mal Zeiten, da hatten Kameras ein kleines Loch statt einer Linse.
Auf YouTube gibt es genügend Videos, die eine Laser light Show bei offener Blende zeigen und schwups ist nur noch Rauschen zu sehen.
Soviel zum Brennpunkt.
Also immer schön Brille tragen, äh ND Filter um das Rot am Bildrand zu betonen (bei günstig starken im Gesamtbild).

Gruss Tiefflieger

Space


Antwort von aerobel:

Hallo Fido,

Es gab da erst kürzlich eine längere Diskussion bezüglich Objektiven, deren Brennweite und wo dann der Sensor zu liegen hat, damit eine scharfe Abbildung darauf stattfinden kann. Da wir uns nicht einig wurden (teilweise...), wurde die Diskussion dann abgebrochen.

Es ist irgendwie mühsam und auch recht schwierig, via Buchstaben und Skizzen solche Zusammenhänge einfach und überzegend darzustellen. Darum gab es auch etliche Missverständnisse. Man sollte sich gemütlich bei einem Bierchen treffen können um anhand richtiger Linsen diese Fragen zu beantworten, das wäre das beste und einfachste. Man spürt manchmal sehr deutlich, dass ein schriftliches "Gespräch" in einem Forum recht schwierig und mühsam werden kann, wohingegen ein persönliches Zusammensein so manches Problem lösen könnte...

Das Ganze hat aber nichts mit deiner Frage zu tun, um die es hier ja geht. Bleiben wir also bei deiner Frage, das andere Thema ist für mich echt erledigt, ich fühle mich ausserstande, diese Zusammenhänge auf schriftliche Weise klarzulegen, ohne Gefahr zu laufen, falsch verstanden zu werden...

Rudolf

P.S. Notgeschlachtet wird hier kaum einer, vorausgesetzt, er fragt anständig und halbwegs sinnvoll. Es liegt mir aber schon manchmal eine bissige Antwort auf der Zunge, wenn ich Fragen lese, deren Antwort so sonnenklar ist, dass man glauben könnte, der Fragesteller sei erst 9 Jahre alt...

Space


Antwort von fido13:

Hallo Rudolf,

wenn ich die kurze Diskussion richtig aufgefasst habe, gäbe es Probleme bei der Fokusierung bei der von mir vorgeschlagenen Anordnung von Sensoren.
Soweit richtig?
Da es Kamerasysteme mit einem Split auf mehrere Sensoren je Farbkanal (3MOS, 3CCD) gibt und ich zugegeben weder ein Optik- noch Kameratechnikspezialist bin fällt es mir schwer, dies unmittelbar nachzuvollziehen.
Der Unterschied hierzu besteht ja lediglich in einer Differenzierung der "Lichtmenge" statt der Wellenlänge.

Wenn dies für einen Neunjährigen offensichtlich sein sollte, möge man mir meine Begrenztheit nachsehen.

Viele Grüße,
Fido

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von aerobel:

Hallo Fido,

Technisch gesehen ist es überhaupt kein Problem, ein Bild auf mehrere Sensoren zu verteilen, dazu braucht es entweder halbdurchlässige Spiegel oder aber einen sogenannten Strahlenteiler. Solche Strahlenteiler wurden früher unter anderem auch dazu benutzt, einen Teil des Lichts für den Sucher abzulenken, sodass ein Reflexsuchersystem entstand. Findest in vielen alten Super-8 Kameras solche Strahlenteiler.

Mir ist aber nicht so ganz klar, um was es dir bei einer Aufteilung des Lichts auf mehere Sensoren überhaupt geht. Willst du Farbauszüge bekommen...? Da wäre dann kurzerhand eine Dreichipkamera angesagt, die macht das. Was sonst könnte es sein, warum ich ein Bild aufteilen sollte...?

Habe da irgend etwas von Helligkeit gelesen, kann aber nicht klar nachvollziehen, was der eigentliche Sinn dabei sein soll...

Klär uns Forenteilnehmer also bitte auf, damit wir nicht aneinander vorbeireden. Je klarer eine Frage, desto klarer die Antwort. Glasklar... *smile

Rudolf

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space



Space


Antwort von fido13:

Hallo Rudolf,

mir ging es im Prinzip darum eine Idee zu beschreiben, die Filmen mit höherem Dynamikumfang erlaubt.
So wie aus mehreren Fotos mit unterschiedlicher Belichtung ein HDR-Foto errechntet werden kann, könnte doch aus den Informationen mehrerer verschieden stark "belichteter" Sensoren ein Bewegtbild mit erheblich gesteigertem Dynamikumfang gebastelt werden.

Ich hoffe mich verständlich ausgedrückt zu haben :-)

Fido

Space


Antwort von aerobel:

Hallo Reiner,

Recht haste... hätte ich selber darauf kommen können... ich werde alt...

Nun, um da mitreden zu können, müsste ich bessere Kenntnisse in Sachen HDR haben. Kenne zwar das Prinzip, habe mich aber sonst noch nie mit dieser Thematik beschäftigt, da mich diese Technik echt nicht interessiert... sowenig wie z.B. 3D in Videos...

Ich meine aber, dass eine normale Dreichipkamera am besten geeignet wäre, je ein Bild auf jedem Sensor verschieden zu belichten, um daraus irgend etwas "HaDeRiges" zu basteln. Ist eine reine Frage der Elektronik, die Mechanik wäre mit Dreichip bereits vorgegeben. Jedes Bild jedes Sensors einzeln speichern... oder so... Wo dann aber die Farbe bliebe... eine Dreichip ist ja nicht mit drei Farbsensoren bestückt.

Rudolf

Space


Antwort von fido13:

Ich erinnere mich auf slashCAM mal einen Beitrag über "dimmbare Fenster" gelesen zu haben, bei dem zwei Polfilter genutzt worden sind.
Derartige Probleme (wie filme ich Situationen mit extremen Lichtunterschieden überhaupt?) ließen sich doch vermeiden, wenn die Kamera von vornherein verschiedene Belichtungsinformationen aufzeichnet.

Fido

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von fido13:

Die Rechenleistung scheint mir nicht so das Problem, da Sony dies in der XPERIA Z mit anderer Technik schon tut:
https://www.slashcam.de/news/single/Son ... 10400.html
Problem ist hierbei aber, dass jeweils 2 Pixel, die nicht den gleichen Punkt im Bild abbilden, vereint werden ("line-merging"). Zudem wird hierbei die Belichtung auf einem Senor variiert, wodurch dann "Einzelbilder" mit unterschiedlicher Bewegungsunschärfe vereint werden.
Diese Nachteile entfallen bei einer Lösung mit mehreren Sensoren.

Fido

Space


Antwort von Reiner M:

Lorem ipsum dolor sit amet, consectetuer adipiscing elit.

Space


Antwort von WoWu:

@fido

Von den drei-chips ist man aus mehreren (nachvollziehbaren) Gründen abgekommen.
Mittlerweile gibt es mehrere Ansätze, grössere Dynamik zu erreichen, die optisch in Richtung HDR gehen.
Das von Dir angesprochene "line-merging" ist dabei nur eines der Verfahren und nicht mal das Erfolg versprechendste, weil das Rückführen der Pixel-Binnings in eine "normale" Bayer-Pattern" mit enormem Rechenaufwand verbunden ist und die Auflösung darüber hinaus entsprechend klein geworden ist.
Die Langzeitbelichtung ist gleichfalls nicht der Weisheit letzter Schluss, weil im Hochbelichtungsbereich entsprechend viele Pixels "fehlen/clipped)" und die Interpolationsprozesse des De-bayerings drastisch aufwendiger werden.

Ein ganz anderes Verfahren ist die so genannte "Kompandierungs"-Technik von Sensoren wie in einigen Sensoren bereits eingesetzt wird.
Diese Sensoren verwenden Buffern um mehrere Belichtungen, zu akkumulieren (bis 4, in einigen Fällen).
Die Ausgangs-Pixel behalten eine 12-Bit-Tiefe, die von dem ADC Genauigkeit abhängt, aber diese 12 Bits enthalten bis zu 20 (oder mehr) lineare Intensitätsdaten.
Companding ist konzeptionell ähnlich der einer Gamma-Korrektur und codiert 2 Bits an zusätzlichen Daten in einem Farbraum wie sRGB.
Die invertierung einer solchen nichtlineare Datenstruktur ermöglicht den Erhalt eines (HDR)-Bayer-Muster.
Diese Methode generiert den höchsten dynamischen Bereich; ein Anbieter behauptet 160 dB.
Aber es ist wieder mit weiteren Kosten verbunden.
Zunächst setzt die Dateninversion auf eine sehr genaue und stabile Kenntnis voraus, wo die verschiedenen Belichtungen beginnen und und enden.
In der Praxis, führt das zu Rauschen bei bestimmten Intensitätsstufen, das nur schwer zu beseitigen ist.
Zweitens schaffen die sequenziellen Expositionen in der Zeit Bewegungsartefakte.
Diese können unterdrückt werden, sind aber ebenfalls schwer zu entfernen.

Noch eine weitere Sensor HDR- Implementierung ist die Dual-Pixelstruktur (von OmniVision entwickelt und in Sensoren wie dem OV10630 verbaut).
Er besteht aus einer nicht-Bayer Pixelmatrix aus zwei physikalisch unterschiedlichen Arten:
einem "dunkle" Pixel und einem "hellen" Pixel, die unterschiedlich groß sein können.
Die dunklen Pixel sind lichtempfindlich und geben damit dunklen Bereichen, mit gutem Signal-zu-Rauschen wieder.
Umgekehrt sind die hellen Pixel weniger lichtempfindlich und daher nicht so leicht in hellen Bereichen zu sättigen.
Im Prinzip ist der Dual-Pixel Ansatz eine sehr "sauber" HDR-Technologie und käme Deinem Vorschlag der mehreren Sensoren ja schon nahe.
Es vermeidet Bewegungsartefakte und erfordert keine komplexen nichtlinearen Verarbeitung.
Nachteil die Tatsache, dass zwei Pixel zu einem gemischt werden, so dass die effektive Auflösung nur die Hälfte der tatsächlichen Auflösung ist.
Die Dual-Pixelstruktur ist auch kostspieliger auf einer Pro-Pixel-Basis, und der Ausgang eines RAW Pixelmusters kann nicht durch ISPs verarbeitet werden und bedarf einer völlig andern Verarbeitungspipeline.

Für Szenen mit Dynamik bis zu 100db, spielt die Optik auch eine zentrale Rolle.
Sofern die Linse nicht von ausreichender Qualität ist und das optische System nicht die erforderlichen internen Antireflexbeschichtungen besitzt, um Rückreflexion vom Sensor zu verhindern, ist es unmöglich, Streulicht und andere Artefakte in vielen HDR Szenen zu vermeiden.

BMD hat in seiner Kamera übrigens einen andern Weg gewähltn, den ARRI auch gewählt hat, um den meisten dieser Probleme zu begegnen:
Sie Verstärken jedes Pixel in zwei unterschiedlichen Wegen (Arri auf 3 Wegen).
Dadurch erhalten sie (BMD) zwei 11 Bit -Slops, die sie dann in 22 Bit intern verarbeiten und zu einem 12 Bit RAW Signal herausführen.
Wahrscheinlich könnte das mehr sein, die Frage der Notwendigkeit stellt sich allerdings.

Du siehst, es gibt eine ganze Reihe von Ansätzen und einige werden bereits umgesetzt.
Da liegt der Schritt zu 3 Sensoren weit entfernt.

Space


Antwort von fido13:

@filminator: ja, richtig. Vielleicht ist ein prisma mit mehr als 2 enden doch die bessere idee.
@rudolphs erster antwort: nur, dass diese bisher für unterschiedliche farben und nicht helligkeiten verwendet werden

...und danke an alle, dass ich (obwohl offensichtlich nicht vom fach) nicht notgeschlachtet worden bin :-)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony-Forum

Antworten zu ähnlichen Fragen //


Sony A-Mount EOL? Keine Sony Alpha SLTs mehr auf Sony.com Seiten
Sony kündigt weltweit erste CFexpress 2.0 Typ A Speicherkarte für Sony A7s III an
Sony FX6 Zubehör: Shape stellt umfangreiche Rig-Optionen für die Sony FX6 vor
Sony Firmware 2.1 für Sony FX9 bringt 4K 120p RAW Ausgabe
Sony stellt Airpeak S1 vor: 9.000 Dollar Profi-Drohne speziell für Sony Alpha-Kameras
Sony C3 Portal: Cloud-Lösung für Sony Kameras - vom Dreh direkt zum Schnittplatz
Sony stellt wegen Chipmangel die Produktion von Sony Alpha 7 II, Alpha 6100/6400 und PXW-Z190 ein
Sony HVL-LE1 LED für Sony AX700
Sony FS700 + Sony sel 18 105 G
Sony stellt videoaffines Vollformat Powerzoom FE 16-35 Millimeter F4 G für Sony E-Mount vor
Sony Future Filmmaker Wettbewerb lockt mit Besuch der Sony Filmstudios in Hollywood
Atomos AtomOS 10.83: ProRes RAW für Sony FX30, Sony FR7 und Fujifilm X-H2
Sony FX6, Rotolight Neo III, Sony UWP D-21 u.a. in der Interviewpraxis
Sony stellt neues FE 20–70mm F4 G Vollformat-Objektiv für Sony E vor - SEL2070G
50mm F1.4 Video-Shootout: Sony G Master versus Zeiss Planar an der Sony A1
Sony stellt ECM-M1 Multi Pattern On Camera Mic (Sony only) vor
Sony teasert Alpha Kamera Special Event: Neue Sony Alpha 9 III im Anflug?
Sony Alpha 9 III - schneller Global Shutter erstmals in Sony Alpha Kamera




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash