Newsmeldung von slashCAM:Mit einem ziemlich beeindruckenden Sensorpatent macht gerade Sony auf sich aufmerksam
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Sony patentiert Dual-ISO für Bayer Sensel Anordnung
Antwort von balkanesel:
Die Beispielbilder wirken etwas flau
Antwort von Skeptiker:
Und farblich alles Andere als natürlich.
Aber vielleicht liegt das auch daran, dass der Fotograf eine Schwäche für alle Abstufungen zwischen lila und rot hat.
Ich würde mich über fotografische HDR-Bilder, wie sie uns sonst nur Augen und Gehirn mitteilen, eigentlich freuen, aber
natürlich aussehen sollte es schon!
Antwort von WoWu:
Wenn ich spatial getrennte Pixels in irgend einer Art miteinander mische, geht immer die Auflösung in die Binsen, mal von der zeitlichen Korrelation ganz abgesehen.
Das würde nämlich bedeuten, dass alle Motionvektoren nur aus Grün errechnet werden, was wiederum dazu führt, dass die übrigen Vektoren mit 6-tap PIR Filtern errechnet werden, das wiederum zusätzliche Unschärfe ins Bild bringt.
Solche Verfahren sind schon versucht worden, um beispielsweise vor dem De-Bayering zu komprimieren.
Also :
Mixt man diese anschließend beim Debayering clever zusammen dürfte das eine gigantische Dynamik ergeben
Da sollte man doch die Bezeichnung "clever" lieber mal etwas genauer spezifizieren.
Antwort von iasi:
Annahmen und Spekulationen - und auf dieser Basis wollt ihr euch eine Meinung bilden?
Wer weiß, wie Sony es letztlich umsetzen wird.
Antwort von Angry_C:
Die Bilder sehen mir fast alle eher nach Langzeitbelichtung aus, siehe Wischeffekte.
Antwort von chmee:
werfe lieber den Thread aus dem ML-Forum hier rein.
http://www.magiclantern.fm/forum/index.php?topic=7402.0
zB die Beispiele von kirkt
a1ex hat ziemlich ausführlich erklärt, wie er zwei Bilder verschiedener ISO verrechnet. Es gibt keine zeitlichen Probleme und die räumlichen halten sich in Grenzen. Der Bonbon-LSD-Look hat damit per se nix zu tun. Wer ne Canon hat und es ausprobiert, wird erstmal merken, dass sich eigentlich nix geändert hat, außer, (und da ist der Benefit!) dass die Schattenbereiche auch gerne um 4-5 Blenden aufgezogen werden können, ohne dass das Rauschen problematisch ist. (für Lightroom gibt es n Plugin, cr2hdr. Ein Klick, und los gehts. Videotechnisch verdammt zeitaufwendig, aber nicht unüberwindbar)
nachtrag: Dual Iso Magic Lantern, wie es aufgenommen wird <-> nach der Verrechnung. Die Auflösung (es ist ein 100% Crop, 5DIII) ist immer noch als deutlich annehmbar zu werten. Man beachte aber zB die Farbartefakte im Halstuch.
zum Bild
mfg chmee
Antwort von WoWu:
Die ALEXA macht das auch nicht mit unterschiedlichen Pixels sondern mit dual Chain.
Das sind zwei völlig verschiedene Paar Schuhe.
Antwort von chmee:
Angenommen, Canon hätte (nähme sich) auch Platz, um zwei parallele Verstärkerstufen hinter jeden Sensel zu setzen. ( 5DIII 5760px Breite = 2x Arri Alexa 2880px). Whats the point?
Um auf das Sony-Patent zurückzukommen. Jo, mal schauen, wie sie es umsetzen. Mir letztendlich wieder mal Humpe, wenn es der Inhalt nicht hergibt, können auch 20ELV Dynamikumfang sche**se aussehen :)
Antwort von WoWu:
Der Point ist, dass ARRI das mit einem Komparativ macht, der sich die unterschiedlichen Störabstandswerte verschiedener Kennlinien zunutze macht.
Übrigens kann ich in dem verlinkten Artikel auch nicht erkennen, dass dort die ALEXA beschrieben ist sondern dort ist ein DSLR Modell zur (vermeintlichen) Erhöhung des Dynamikbereiches beschrieben.
Hat nichts mit dem Verfahren zu tun, das ARRI und BMD einsetzen und schon gar nichts mit dem hier beschrieben SONY Patent.
Hier ist mal wieder munteres "Verfahrenwürfeln" angesagt. :-)
Edit:
Ich sehe gerade, ich hatte die Verlinkung da falsch verstanden. Da steht ja nur "alex" ... Freud'sche Fehlleistung. Sorry
Antwort von Ab-gedreht:
Jetzt muss mir aber bitte mal jemand was erklären.
Wenn iso doch immer nur Metadaten sind? - warum kann ich das dann nicht in der Post? Warum macht es in Zeiten von Raw Sinn, meinen Sensor mit unterschiedlichen iso werten aus zu lesen?
Antwort von WoWu:
Wer sagt denn, dass ISO Metadaten sind ?
ISO ist eine "pseudo" Messgrösse für die Einstellung einer Verstärkung, denn auch bei RAW findet eine analoge Verstärkung statt.
Das sind keine Metadaten. Das sind reale Werte, in einen ISO-Mantel verpackt.
Früher hiess das db, war nur auf eine andere Basis bezogen.
Antwort von Bergspetzl:
der irrglaube ist, das man bei raw das iso nachträglich (UND verlustfrei) einstellen könnte
Antwort von Ab-gedreht:
verändert die ISO Einstellung auch das Ausleseverhalten vom Sensor?
Also stelle ich mit meinen ISO Werten die "Sensorhardware" ein?
Oder verändert der ISO Wert nur das Signal was aus dem Sensor kommt?
Spuckt der Sensor dann immer das gleiche Signal aus? und das wird erst im Nachhinein anders interpretiert?
----------------------
Ein Beispiel Anhand von BM Kameras zum Thema Metadaten:
Ich nehme ein Bild mit ASA 800 RAW auf, und meine Highlights clippen.
Gehe ich runter auf 400 ASA, oder gar auf 200 ASA und meine Highlights clippen immer noch. -> anders als wenn ich das ganze mit einer DSLR machen würde.
Das Histogramm zeigt also meine "Sensor Dynamik" an und nicht den Output nach der Verstärkung.
Ich habe also im RAW gar nicht wirklich die Möglichkeit meinen Sensor zu drosseln, oder auf zu blasen...
Antwort von chmee:
Es ist eine (!)sensorseitige Ausleseverstärkung(!). Die ISO-Zahl ist die Information, wie hoch sie ist. In "normalen" Videokameras findet man diese Ausleseverstärkung als Gain, welche idR in dB angegeben wird.
Antwort von Ab-gedreht:
Es ist eine (!)sensorseitige Ausleseverstärkung(!)
Das heißt,die Arbeitsweise des Sensors wird aktiv verändert? Und der Sensor liefert andere Werte?
Dachte immer das Signal, welches vom Sensor kommt wird nach dem Sensor verstärkt? somit wäre es ja auch in der Post möglich?
Antwort von tehaix:
Ein Beispiel Anhand von BM Kameras zum Thema Metadaten:
Ich nehme ein Bild mit ASA 800 RAW auf, und meine Highlights clippen.
Gehe ich runter auf 400 ASA, oder gar auf 200 ASA und meine Highlights clippen immer noch. -> anders als wenn ich das ganze mit einer DSLR machen würde.
Das Histogramm zeigt also meine "Sensor Dynamik" an und nicht den Output nach der Verstärkung.
Ich habe also im RAW gar nicht wirklich die Möglichkeit meinen Sensor zu drosseln, oder auf zu blasen...
GENAU das würde mich auch interessieren. Ich kratze mir deswegen auch gerade am Kopf..
Antwort von cantsin:
Bestimmte Sensoren haben analoge Gain-Verstärkung (die dann über höhere ISO-Einstellungen an der Kamera aktiviert werden; meistens auch nur bei bestimmten ISO-Erhöhungen, mit ISO-Zwischenwerten die durch Software-Gain bzw. Kurve geregelt werden).
Die Sensoren in den BM-Kameras haben offenbar keinen analogen Gain - da sind die ISO-Werte reine Softwarekurven, die deshalb für die Raw-Aufnahme keine Rolle spielen. RED macht das übrigens genauso: http://www.red.com/learn/red-101/iso-speed-revisited
Antwort von Ab-gedreht:
Also doch:
BM hat "nur" DIGITAL ISO.
Im RAW spielt Digital ISO keine Rolle. Kann ich in der Post machen!
Achtung aber bei BM und ASA 1600. Da wird die "Kurve" ein bisschen verändert um mehr "Platz" für die Schatten zu schaffen. Dafür fehlt es dann in den Highlights.
_______________________________
Aber jetzt trotzdem nochmal:
Im Vergleich zur 5D, wenn ich dort die ISO, ASA, GAIN hochschraube, wird dort nicht nur das Signal, was aus dem Sensor raus geht verstärkt/interpretiert sondern was?
Was macht den Analoge Gain-Verstärkung genau?
Wird die Sensibilität des Sensors durch höhere Spannung, Andere Ladung oder keine Ahnung was, verstärkt?
Zu lasten des Dynamikumfangs?
WoWu?
Edit: wie es bei BM und RED funktioniert, hab ich verstanden. Genau so habe ich es mir auch gedacht! Danke für den Link. Dort sind es eben nur Metadaten und beeinflussen nicht das Signal, welches aus dem Sensor kommt, bzw. gespeichert wird.
Antwort von Bergspetzl:
was sich zb auf das rauschverhalten auswirkt. vor ein paar jahren war es gerade mega in rauszufinden wie sich das rauschen der canon sensoren bei verschiedenen iso verhält, es gab handformeln und unzählige tests. (160,320,640 etc.) einfach mal google bemühen und man sieht die auswirkungen, die änderung der "iso" mit sich bringt, wobei gewarnt sei, dass "iso" hier nur ein begriff ist, der genutzt wird weil man ihn von "früher" kennt und versucht eine ähnliche kurve der empfindlichkeit (aka gain) herzustellen...
Antwort von Ab-gedreht:
was sich zb auf das rauschverhalten auswirkt. vor ein paar jahren war es gerade mega in rauszufinden wie sich das rauschen der canon sensoren bei verschiedenen iso verhält, es gab handformeln und unzählige tests. (160,320,640 etc.) einfach mal google bemühen und man sieht die auswirkungen, die änderung der "iso" mit sich bringt, wobei gewarnt sei, dass "iso" hier nur ein begriff ist, der genutzt wird weil man ihn von "früher" kennt und versucht eine ähnliche kurve der empfindlichkeit (aka gain) herzustellen...
Das ist doch ein ganz anderes Thema...
Mich würde interessieren was Analoges ISO/GAIN/ASA Verstärkung mit dem Sensor macht?
Antwort von WoWu:
Gar nichts.
Es gibt nur eine Möglichkeit, das Verhalten des Sensors zu beeinflussen und das ist optisch, also mit mehr oder weniger Licht.
Der Sensor ist ein analoges Teil und tunnelt, je nach Quanteneffizienz, pro auftreffendem Photon ein oder mehrere negativ geladene Elektronen.
Diese Elektronen werden entweder bereits im Sensor Bauteil oder, bei andern Sensoren erst am Ausgang des Chips analog verstärkt.
Die Kenntnisse und das Mass dieser Verstärkung bestimmt das Verhalten des Signals zum Störabstand.
Das Mass der Elektronen, die im Prozesse verarbeitet werden, orientiert sich an der Menge Elektronen, die bei Auftreffen eines Photons erzeugt werden, also bei ISO 100, das die Basis darstellt.
Mit andern Worten:
Mit der ISO Einstellung bestimmt man den Arbeitspunkt des Signalprocessings auf der Verstärkungskurve.
Der Sensor wird (sofern nicht die analoge Verstärkung bereits auf dem Sensorchip stattfindet) nicht betroffen.
Auch verändert man keine Dynamik" damit denn sowohl die Rauschanteile, als auch die maximale Ladungsmenge (pro Pixel) sind von aussen nicht beeinflussbar. -sieht man mal von Wärme und ein paar Störeinflüssen ab.
Durch Pixelbinning lassen sich solche Werte dann verändern, aber das ist kein wirklicher Zugriff auf die Daten des Pixels.
ISO Werte sind also keine Metadaten sondern aktive Einstelldaten, die den Prozessweg beeinflussen.
Daher kann z.B. auch ein Cipping erst im Prozesse auftreten, wenn nämlich Verstärker im Prozesse überfahren werden, obwohl der Sensor eigentlich FW noch gar nicht erreicht hat.
Wenn "metadaten" übertragen werden, -aus welchem Grund auch immer- dann wir dieser Einstellwert nur "durchgereicht", um dem nachfolgenden Gerät mitzuteilen, auf welchem Arbeitspunkt der Kurve die Kamera eingestellt war.
Aber die ISO Kameraeinstellung ist keine Megaangabe.
ARRI und BMD verarbeiten die beiden Chains noch etwas anders, weil sie den Umstand nutzen, im unteren Bereich eine andere Verstärkungskurve anzulegen, die das Rauschen besser "behandelt" als im oberen Bereich.
Ein Komparator bildet nun die Differenzspannung daraus und erzeigt das eigentliche Signal. daher auch die Möglichkeit der "Black Sun" weil es nichts anderes ist als das Komarartorsignal "Null", was für beide Wege entsteht, wenn FW in beiden Zuständen anliegt ... und das entspricht dann dem Videosignal "Schwarz", was ja demselben Zustand entspricht.
Da ist also auch noch nichts digital. Das spielt sich alles noch im analogen Bereich ab.
Antwort von carstenkurz:
Hier werden solche Nachrichten ja gerne für HighEnd Anwendungen interpretiert. Viel wahrscheinlicher ist es aber bei Sony, dass es wie so oft dazu dient, erstmal 'Verbesserungen' bei Konsumerkameras zu erreichen, also Smartphones und Snapshots. So wie Sony auch bei diesen Kameras hohe Sensorauflösungen über die bekannten Verfahren benutzt, um das Rauschen bei High-ISO Aufnahmen mit den winzigen Sensor/Pixelflächen per Signalverarbeitung zu reduzieren.
Klassische Konzern-Technologie-Bewertung - es ist über das gesamte Produkt (Sensor, Optik, Elektronik) und Produktportfolio einfacher, billiger und besser zu vermarkten, immer kleinere Sensoren mit immer höherer Auflösung zu fertigen, und die sich daraus ergebenden Probleme in Software zu kompensieren.
Den Auflösungsverlust bei diesem Dual-ISO Verfahren kann man in Kameras mit >20MPix Sensoren eben relativ leicht kompensieren. Software ist billiger als Sensorfläche und Glas.
- Carsten
Antwort von WoWu:
Das ist wohl so.
Ich denke ohnehin dass wir es zukünftig nicht mehr wesentlich mit Hardware zu tun haben.
Zeiten ändern sich ... und vermutlich damit auch wieder die Sehgewohnheiten der Menschen und was heute noch als ästhetisches Bild angesehen wird ist morgen vermutlich schon aus der Zeit gefallen.
Antwort von Ab-gedreht:
Schwer vorzustellen...
d.h. um es einfach auf zu drücken:
der Sensor gibt immer das gleiche Signal ab. Die Verstärkung passiert erst danach.
Das müsste doch heißen, dass wenn ich beispielsweise bei einer Sony A7s das reine Signal vom Sensor abgreifen würde, und verlustfrei in die Post bringe könnte ich einen unvorstellbaren Dynamikumfang erreichen.
Ich könnte meine Schatten mit iso 409600 entwickeln und die Lichter mit 1600?
Da muss doch irgendwo der Denkfehler sein?
Antwort von WoWu:
der Sensor gibt immer das gleiche Signal ab. Die Verstärkung passiert erst danach.
Wie ich oben schon sagte, die Verstärkung kann auch direkt am Pixel passieren, muss also nicht unbedingt ausserhalb liegen.
Aber es bleiben getrennte Vorgänge: Protonenumwandlung und Verstärkung, was zum eigentlichen Signalprozessing (analog) gehört.
Übrigens bekommst Du bei keinem Sensor das wirklich "rohe" Signal rausgereicht. Es passiert ein ziemlich aufwändiges Vorprozessing. Ohne diese Vorverarbeitung könntest Du mit dem Bild (fast) nichts anfangen.
Ich könnte meine Schatten mit iso 409600 entwickeln und die Lichter mit 1600?
Bekommst Du die vorbearbeiteten Signale herausgereicht, hast Du -vernünftige Hardware vorausgesetzt- dieselben Möglichkeiten, wie Kameraintern.
Wenn Du das gesamte Bildprozessing ausserhalb der Kamera machst, kannst Du, genauso, wie in der Kamera, auch den Arbeitspunkt auf der Verstärkungskurve festlegen, was ja nichts anderes als ein ISO Setting ist.
Du wirst mit jeglichem Setting an Kamera oder Post nichts an der Quanteneffizienz oder dem Eigenrauschen des Sensors und auch nichts an der Kapazität (FullWell) des Sensors ändern.
Eingriffe können nur in das Signalprozessing erfolgen ... und das sind nun mal Verstärkungen.
Wo soll da der Denkfehler sein.
Eigentlich ist so ein Sensoren, wenn man ihn einmal durchdacht hat, äusserst simpel.
Und was Du da als 1600 oder 409600 darstellst sind nur Arbeitspunkte auf einer Verstärkerkennlinie und geben einwenig Aufschluss darüber, welche Faktoren (Rauschen) an welcher Stelle wirken, denn auch (und gerade) der Verstärkungsweg ist ja eine ganz beträchtliche Ursache für Rauschanteile.
Und weil man eben auch Verstärker "in den Clip" fahren kann, treten also auch nicht immer Clippeffekte nur am Sensor auf, sondern häufig im nachlaufenden Prozessweg.
Nur wirkliche Überbelichtungen, also >FW führen zum Sensorclip. Und dagegen hilft nur die Blende oder das ND, aber kein ISO Setting.
Antwort von chmee:
@ab-gedreht
Die Verstärkung am/im Sensor hat natürlich schon seine Berechtigung aufgrund der Umwandlung ins Digitale.
zB Daten der 5DIII von sensorgen. Full Well (volles Sensortöpfchen, Clipping, max saturation, wie auch immer) bei 70.635 e-. Dieser Werteumfang lässt sich in 14bit (16384) nicht vollständig abbilden. Es wird gerundet, zusammengefasst, beschnitten. "WÜRDE" man diese Sensordaten in 17Bit abbilden, wäre das digitale Abbild ausreichend akkurat, um (theoretisch) isoless zu sein.
Was ist also der Gedanke bei einer Verstärkung? Man verdoppelt zB die Werte, belässt aber den Schwarzpunkt an selber Stelle. ect pp.. Den Rest kann man sich zusammenreimen.
mfg chmee
Antwort von Ab-gedreht:
Und was soll dann dual Iso? Oder das Ml dual iso? Das ergibt doch dann keinen Sinn. Damit lässt sich doch dann der Dynamische umfang nicht erweitern?!
Antwort von chmee:
Ich versuchs mal so:
Angenommen, wir haben digital 8 Bit (0-255) linear zur Verfügung, da würden erstmal 8 Blenden Dynamikumfang reinpassen.
digitaler Wert <-> Entsprechung in Blende bzw LW
0 <-> -unendlich (schwarz)
1 <-> -8
2 <-> -7
4 <-> -6
8 <-> -5
16 <-> -4 (grob 18% Grau, Graukarte you know)
32 <-> -3
64 <-> -2
128 <-> -1
255 <-> 0 (full well, sensor gesättigt)
Ist Dir diese Zahlenreihe klar? Ja?! Nun der interessante Gedankengang: Angenommen, Du möchtest daraus die Schatten (zB alles unter -4LW) aufhellen. Was passiert? Ein Wertebereich von 16 Werten soll aufgehellt werden und schön sein. Zudem existieren die Rauschprobleme natürlich da unten.. Heisst also, die unteren 4LW teilen sich 16, die oberen aber 240 Werte.
Jetzt stell Dir vor, Du verstärkst die Sensordaten um 4LW (also zB ISO100 auf ISO1600) und jene "dunklen" Daten landen im Wertebereich zwischen 16 und 256. Ist diese digitale Abbildung nicht in jeglicher Hinsicht genauer und besser bearbeitbar?
Was macht jetzt DualISO? Zeilenweise wird der Lichter-Bereich erhalten (iso100) bzw. der Schattenbereich (iso1600) akkurater digitalisiert. Das ist, wie oben schon gezeigt, kein fertiges Bild, sondern muß durch Software gejagt werden..
Den dynamischen Umfang beschänkt idR nicht der FullWell, sondern das Rauschen. Wenn das Rauschen durch Anheben des Werteumfangs genauer und auch weniger wird, steigt auch der Dynamikumfang.
mfg chmee
Antwort von Ab-gedreht:
Schon klar, aber da sprechen wir ja von einer Begrenzung im codec und nicht vom sensor.
Und warum sollte ich 8 bit aufblasen wollen?
Vorallem wenn ich es nachher sogar entwickeln muss?
Lass mal bitte das debayering weg...
Antwort von chmee:
?? Debayering hat damit erstmal gar nix zu tun und wird auch nciht angesprochen. Wenn Du das Beispiel auf zB 10bit oder 14bit ausweitest, ändert es nix am eigentlichen Problem und der Lösung. Und es ist kein Codecproblem, sondern der Verstärker- und Digitalisierstufe zuvor.
Aber mich deucht gerade, das Prinzip bzw. der Gedanke ist Dir weiterhin nicht klar. Es ist also NICHT "Schon klar".
(*) Die Realität zeigt, dass es funktioniert.
(*) iso ist idR kein Metadatum.
mfg chmee
Antwort von Ab-gedreht:
Jetzt stell Dir vor, Du verstärkst die Sensordaten um 4LW (also zB ISO100 auf ISO1600) und jene "dunklen" Daten landen im Wertebereich zwischen 16 und 256. Ist diese digitale Abbildung nicht in jeglicher Hinsicht genauer und besser bearbeitbar?
Was macht jetzt DualISO? Zeilenweise wird der Lichter-Bereich erhalten (iso100) bzw. der Schattenbereich (iso1600) akkurater digitalisiert. Das ist, wie oben schon gezeigt, kein fertiges Bild, sondern muß durch Software gejagt werden..
Genau das habe ich doch beschrieben. Aber das kann ich doch auch schon jetzt aus meinem Raw material machen. Da brauche ich doch kein Dual iso? Und wenn mein sensor einen umfang von 13 Blenden bietet, wo soll dann per dual iso meine 14te herkommen???
Antwort von Ab-gedreht:
(*) iso ist idR kein Metadatum.
OKAY, Fakt ist aber, es hat kein einfluss auf mein Bild - bei raw
Stelle ich während der aufnahme asa 800 ein, bekomme ich das gleiche Bild, wie wenn ich asa 200 einstelle. Vorausgesetzt ich stelle beide in der entwicklung auf die gleiche asa zahl. Für mich sind das dann metadaten...
Antwort von chmee:
..während der aufnahme asa 800 ein, bekomme ich das gleiche Bild, wie wenn ich asa 200 einstelle..
Nein. Das asa800 Bild ist 2LW überbelichtet. "Während der Aufnahme?" Warum macht man sowas und ist da nicht das Problem eher in der Gerätesoftware zu suchen, dass sie die Änderung nicht registriert? uU begründet?
..umfang von 13 Blenden bietet, wo soll dann per dual iso meine 14te herkommenNee Sorry. Bin dann auch raus.
Antwort von WoWu:
Du gehst aber davon aus, das digitale Daten aus dem Sensor kommen.
Das ist falsch.
Analoge Verstärker übernehmen das Signal IMMER aus dem Gate des Pixels, selbst wenn sie physikalisch im Chip sitzen.
Erst nach dieser Korrektur folgt der A/D Wandler und die erste Verstärkungseinheit wird selbstverständlich mit der ISO Einstellung angesprochen, weil das genau der Punkt der Verarbeitungskette ist, wo mit den grössten Störabständen das Meiste zu erreichen ist.
Deine Annahme, es käme digital aus dem Sensor ist nur dann richtig, wenn auch die A/D Wandlung im Sensorchip gemacht wird, aber selbst das beinhaltet das eine analoge Verstärkung innerhalb des Sensors.
Es ist also im Prinzip völlig egal, wo in der Kette der analoge Verstärker sitzt, er wird immer von der ISO Einstellung angesprochen und der Arbeitspunkt verschiebt sich dadurch.
Du hast es im Sensor schliesslich mit negativ geladenen Elektronen zu tun ... und die sind nunmal analog.
Mal ganz abgesehen davon, dass die Blenden immer von FW aus gezählt werden und somit kein Überhang entstehen kann.
Mal ganz davon abgesehen, dass solche hohen Werte >16.000 auch häufig nur mit Binning hergestellt werden.
In der MKII war das jedenfalls so. Ob das in der MKIII so ist ist zwar fraglich, aber wahrscheinlich.
Dass sich die ISO Werte der BMD nicht analog zur Einstellung verändern liegt daran, dass es sich um ein 2-Chain System handelt, wo aus dem Komparatorsignal das Nutzsignal gewonnen wird.
Das ist zwar auch ein analoges Verfahren, aber die Komparatorkurve verläuft nicht linear.
Was Du mit der Blendenverteilung beschreibst hat nichts mit der ISO Einstellung zu tun sondern mit dem anschliessenden Mapping im Übertragungsweg.
Da hat man dann noch alle möglichen Freiheiten, ein paar "fake" Blenden dazu zu mogeln aber die eigentliche Dynamik orientiert sich ausschliesslich am Sensor und findet zwischen SNR Wert und FW statt.
Wenn das Rauschen durch Anheben des Werteumfangs genauer und auch weniger wird, steigt auch der Dynamikumfang.
Es ist völlig egal, in welchen Werftenbereichen Du das Rauschen überträgst, das Rauschverhältnis (SNR) bleibt immer gleich. Daher verändert sich auch keine Dynamik. Du musst den SNR Wert anschauen. und nicht den digitalen Übertragungswert. Der spielt bei der Dynamic nur eine Rolle, wenn es um die Auflösung einzelner Wertebereich geht. Das hat aber nix mit der Dynamik zu tun.
Dein Bild sieht zwar dynamischer aus, aber das sieht auch nur so aus, weil andere Bereiche dafür komprimiert wurden. Auf den Dynamikumfang wirkt sich das nicht aus.
während der aufnahme asa 800 ein, bekomme ich das gleiche Bild, wie wenn ich asa 200 einstelle..
Das kann zwei Ursachen habe ... entweder arbeitet die Kamera auch mit einem merkanaligen Sensorausgang oder die Kamera arbeitet Gamma -korrigiert, wie viele DSLR.
Dann hast du weitestgehend denselben Bildeindruck.
Misst man aber die Werte des Bildinhaltes einmal nach, dann wird man sehen, dass sich die Rauschwert, speziell in den Farbanteilen doch ziemlich verändert haben.
Das bedeutet dann, dass Du den Arbeitspunkt weiter in den oberen Verstärkungsbereich gelegt hast. Evtl greifen auch bereits Rauschfilter, die dafür sorgen, dass Du keine signifikante Änderung wahrnimmst.
Antwort von chmee:
@WoWu
Es gibt relativ fixe Rauschbeträge (zB zwischen Sensor und Verstärker) und es gibt variable (zB Sensorrauschen), die Kennlinie steigt nicht linear an, sonst würden wir ja mit jedem ISO eben eine Blende verlieren. Tun wir aber nicht. Genau deswegen ist das Anheben in einen anderen, größeren Wertebereich für die Daten hilfreich. Quantisierungsfehler spielen dann doch auch eine Rolle.
..steigt auch der Dynamikumfang...
Diese Aussage ist nur auf den unteren Bereich zu werten. Eben diese 4LW, der zuvor noch (8Bit-Beispiel oben) in 16 Werten dargestellt werden mussten.
Aber wem erzähl ich das..
Antwort von WoWu:
Es gibt in einem Kamerasystem 7 relevante Rauscharten aus Sensor, Verstärkung, Wandlung usw., die zu unterschiedlichen Arbeitspunkten sich unterschiedlich bemerkbar machen.
Bist Du unter einem "sweet spot" sind es eher die Sensoranteile, die das Signal negativ beeinträchtigen, darüber eher die verstärkungsbedingten Anteile.
Die Definition der Dynamic ist aber immer SNR=>FW.
Dazwischen kannst Du nun Dein Mapping so wählen, dass die Übertragungskurve so flach wird, dass Du theoretisch beliebig viele Blenden übertragen kannst. Nur dass die Blendeninhalte dann letztlich nur noch mit einem Wert auflösen, was sicher nicht der Sinn einer Übertragung ist.
Also sind die Dynamikangaben über den Wert :"Blende" völliger Blödsinn und nur dann von Relevanz, wenn innerhalb jeder Blende ein Mindestmaß an Übertragungsweren auch eingehalten wird.
Daher kann man mit reinen Blendenaussagen auch eigentlich nichts aussagen.
Und was das Noiseverhalten angeht, so ändert ein anderes Mapping absolut nichts daran.
Antwort von iasi:
Sony möchte nebeneinanderliegende Sensel unterschiedlich lang belichten.
Dadurch könnten die Nachteile von kurzen und langen Belichtungszeiten softwaremäßig aufgehoben werden - die hierfür notwendige Rechenpower dürfte mittlerweile vorhanden sein.
Sony will wohl gar nicht mit unterschiedlicher Signalverstärkung arbeiten, sondern eben mit verschiedenen Belichtungszeiten, also Lichtmengen.
Letztlich ist das eine Erweiterung des Bayer-Prinzips - mehr Daten zum Interpretieren - ist doch schön.
Wo bisher das full-well erreicht war, gibt es nun durch Sensel, die kürzer belichtet wurden, einen weiteren, abgestuften Wert - diesen kann man dann schön in die Interpretation des Bildpunktes mit einbeziehen.
Antwort von Ab-gedreht:
Sony möchte nebeneinanderliegende Sensel unterschiedlich lang belichten.
Dadurch könnten die Nachteile von kurzen und langen Belichtungszeiten softwaremäßig aufgehoben werden - die hierfür notwendige Rechenpower dürfte mittlerweile vorhanden sein.
Sony will wohl gar nicht mit unterschiedlicher Signalverstärkung arbeiten, sondern eben mit verschiedenen Belichtungszeiten, also Lichtmengen.
Letztlich ist das eine Erweiterung des Bayer-Prinzips - mehr Daten zum Interpretieren - ist doch schön.
Wo bisher das full-well erreicht war, gibt es nun durch Sensel, die kürzer belichtet wurden, einen weiteren, abgestuften Wert - diesen kann man dann schön in die Interpretation des Bildpunktes mit einbeziehen.
das würde Sinn ergeben.
Mal ne andere Praxis für mehr DR:
Hat mal jemand ein 3D-spiegel-rig verwendet um mehr DR zu bekommen?
Man könnte ja beide Kameras genau übereinander fahren eine unter, und eine überbelichten?
Antwort von Bergspetzl:
Der Kollege hat scheinbar die arbeitsweise von Sensoren noch nicht ganz geschnallt.
Es handelt sich um präparierte Halbleiter Silizium Flächen. Wenn du es ganz vereinfachen willst dann stelle dir den aufbau einer Solarzelle vor. Weist du was ind er Photovoltaik passiert?
Ähnlich ist es auch in der Fotozelle, es wird ein ähnliches Grundprinzip verwendet. Solange ist alles Analoge Elektronik im Mikrobereich und WoWu sagte es schon, da greifen wir nur ein, indem wir einen ND davorhalten (bzw abblenden). Mehr möglichkeiten haben wir nicht, um den Lichtfluss zu bestimmen (es sei denn wir bestimmen das Licht).
Dann kommt es auf den Sensor an, und Wowu's oft erwähntes Fullwell. Es gibt also Pro Lichtkanal auf dem Sensor einen Wert (Menge der Lichtphotonen - Spannung) die in diesem Schacht gelandet sind. Diese Spannung wird an einem Punkt der Signalkette in einen Wert übersetzt. Diese Spannung ist aber absolut, stellt die physikalische Realität zu diesem Augenblick an dieser Stelle da und ist die Grundlage jeder weiterer Verarbeitung des Signales. Der Wert wird dann im AD Wandler ins digitale übersetzt. An irgendeinem Punkt setzt jetzt die Verstärkung des Signales ein. Wann und wo und wie das ist wird von jedem Hersteller unterschiedlich gehandhabt. Aber mehr Info als der Chip aufgenommen hat, kannst du erstmal nicht bekommen (angenommen, der Hersteller würde dir Zugang zu diesen Daten geben, was er sowieso nie macht). Iso(Gain) verstärkt jetzt diesen Wert ggf. und gibt ihn ins Prozessing weiter. Aber an irgendeiner Stelle wird er eben "eingestanzt". Und je höher diese Verstärkung, desto mehr Störung gibt es. Hier lässt sich Qualität (wie so oft im Analogen) in SNR messen. Das sollte dir als Grundlage geläufig sein.
Jetzt überlege dann weiter in Richtung "Dual Iso", was ja an sich nur eine Spieform des Ganzen ist. Es ist wie HDR in einem Bild zu belichten. Einmal hell, einmal niedrig, und dann wird es gemerged oder gestiched, wie auch immer dann der Begriff ist. Die Vor und Nachteile ergeben sich dann aus der Überlegung alleine.
Antwort von Bergspetzl:
bei 3D Rigs hast du immer eine parallaxe.
Antwort von Ab-gedreht:
Das ist mir schon alles klar, aber vielen Dank für die Erklärung!
Jetzt überlege dann weiter in Richtung "Dual Iso", was ja an sich nur eine Spieform des Ganzen ist. Es ist wie HDR in einem Bild zu belichten. Einmal hell, einmal niedrig, und dann wird es gemerged oder gestiched, wie auch immer dann der Begriff ist. Die Vor und Nachteile ergeben sich dann aus der Überlegung alleine.
Hier vermischst du Dual ISO und Belichten.
Wie du schreibst ist es nur möglich über den Lichteinfall zu regulieren.
Wenn du die Zeilen unterschiedlich belichten würdest würde es auch funktionieren... Aber dual Iso hat doch nichts mit der Belichtung zu tuen!
Antwort von Bergspetzl:
...deswegen schreibe ich "ist wie" HDR und schreibe nicht "es ist" HDR. Beide versuchen mehr Dynamik zu generieren. Der eine auf Kosten der Zeit (HDR, nacheinander), der Andere eher auf Kosten der Auflösung/Schärfe (im selben Bild).
Antwort von WoWu:
diesen kann man dann schön in die Interpretation des Bildpunktes mit einbeziehen.
Genau am springenden Punkt versagt die Erklärung wieder, ebenso wie in dem Artikel das "clever".
Denn wenn du spatial versetzte Pixel irgendwie mit einander kombinierst, sei es, dass man helle und dunkle Pixel mischt, um solche Werte, die überbelichtet sind, etwas dunkler zu machen oder jene Pixel, die zu dunkel sind, etwas heller, verlierst Du die Auflösung, also die räumliche Trennung der Pixels.
Wenn wenn auf einem dieser Pixel z.B. ein feiner Punkt (Bilddetail) zu sehen ist und auf dem andern Pixel nicht, dann findet sich dieser Punkt plötzlich auf beiden Pixels, wenn auch schwach, wieder.
Du hast also nur noch 50% die spatiieren Information.
Da war es schon "cleverer", ganze Bilder von unterschiedlichen Belichtungen (wie bei HDR) miteinander zu mischen.
Da hatte man dann wenigstens "nur" das Problem mit den bewegten Inhalten. Die kämen hier noch hinzu.
Es wäre also einmal angesagt, "clever" oder "schön" einwenig genauer zu definieren.
Ich glaube die Methode, wie SONY das machen will, hat jeder verstanden.
Antwort von Ab-gedreht:
bei 3D Rigs hast du immer eine parallaxe.
Ich meine es gibt auch Rigs bei denen du soweit verschieben kannst, das du deckungsgleich bist.
Oder eben ein Ring mit Spiegel, so das beide Kameras das gleiche Bild aufzeichnen...
Antwort von iasi:
diesen kann man dann schön in die Interpretation des Bildpunktes mit einbeziehen.
Genau am springenden Punkt versagt die Erklärung wieder, ebenso wie in dem Artikel das "clever".
Denn wenn du spatial versetzte Pixel irgendwie mit einander kombinierst, sei es, dass man helle und dunkle Pixel mischt, um solche Werte, die überbelichtet sind, etwas dunkler zu machen oder jene Pixel, die zu dunkel sind, etwas heller, verlierst Du die Auflösung, also die räumliche Trennung der Pixels.
Wenn wenn auf einem dieser Pixel z.B. ein feiner Punkt (Bilddetail) zu sehen ist und auf dem andern Pixel nicht, dann findet sich dieser Punkt plötzlich auf beiden Pixels, wenn auch schwach, wieder.
Du hast also nur noch 50% die spatiieren Information.
Da war es schon "cleverer", ganze Bilder von unterschiedlichen Belichtungen (wie bei HDR) miteinander zu mischen.
Da hatte man dann wenigstens "nur" das Problem mit den bewegten Inhalten. Die kämen hier noch hinzu.
Es wäre also einmal angesagt, "clever" oder "schön" einwenig genauer zu definieren.
Ich glaube die Methode, wie SONY das machen will, hat jeder verstanden.
Aber du sagst doch immer, dass die Objektive gar nicht mehr genug auflösen, um die aktuellen hohen Sensorauflösungen überhaupt ausreizen zu können. Und bei einem Bayer-Sensor hast du sowieso immer Sensorenhaufen, aus denen dann die Bildpunkte zusammengerechnet werden - wenn Sony nun einige zusätzliche rein packt, die dann unterschiedlich belichtet werden, geht zwar Auflösung verloren, aber man minimiert die Nachteile von z.B. HDRx.
Es müssen zudem auch nicht nur extreme DR angepeilt werden - man könnte auch einen weicheren Übergang in den Lichtern erreichen - schließlich können die zusätzliche Sensordaten beim Debayering mitgenutzt werden - man kann doch noch früher ansetzen, als bei HDR.
Die erforderliche Rechenpower für komplexere Algorithmen ist ja schließlich mittlerweile vorhanden.
Antwort von Bergspetzl:
vielleicht lässt man das alte ccd wieder auferleben. mit 9 fach prisma. instant hdr für jeden farbkanal :)
Antwort von WoWu:
@Iasi
Hier geht es um ein Prinzip der Abtretung. Darin ist noch nichts von der grösee der Sensorpixel erwähnt was bisher noch gar nichts über die erforderliche Auflösungsanforderung an das Objektiv besagt.
Du suchst nach Argumenten, wo keine sind.
schließlich können die zusätzliche Sensordaten beim Debayering mitgenutzt werden
Das ist mal wieder so ein undefinierter Spruch, ohne jegliche Aussage.
Erstens gibt es keine zusätzlichen Sensortasten, die Daten wären auch in einer herkömmlichen Abtretung vorhanden gewesen und zweitens ist die Bezeichnung "mitbenutzen" mal wieder so eine typische Blog-Aussage, wie "schön" oder "clever".
Sag mir, wie sie "mitbenutzt" werden sollen und diese "Mitbenutzung" artefaktfrei im De-Bayering stattzufinden hat.
Nochmal:
Wenn Du unterschiedliche Pixels miteinander vermischt, verlierst Du die Auflösung der einzelnen Pixels. -Punkt-.
Wenn Du nun wieder damit kommst, dass die Sensorentwicklung ja nicht stehen geblieben ist und es dinge zwischen Himmel und Erde gibt, die wir alle noch nicht begriffen haben, kann Du gern auf der unbekannten Erkenntnis und der Hoffnung, dass es die höheren Mächte bei SONY schon richten werde, allein weiter machen.
Komm mit Fakten und wir reden drüben aber komm mir nicht mit "irgendwie, schön., mitbenutzen oder clever".
Das ist keine Basis. Das funktioniert nur in Fan-Foren.
Die erforderliche Rechenpower für komplexere Algorithmen ist ja schließlich mittlerweile vorhanden.
Hier auch ... welche Algorithmen für welche Rechenpower ?
Mal wieder so ein Griff in die Spruchkiste.
Antwort von iasi:
Sag mir, wie sie "mitbenutzt" werden sollen und diese "Mitbenutzung" artefaktfrei im De-Bayering stattzufinden hat.
Nochmal:
Wenn Du unterschiedliche Pixels miteinander vermischt, verlierst Du die Auflösung der einzelnen Pixels. -Punkt-.
Hier auch ... welche Algorithmen für welche Rechenpower ?
Mal wieder so ein Griff in die Spruchkiste.
gut - ich will mich zwar nicht auch zu Spekulationen hinreissen lassen, aber bei dir hört es sich so an, als würde ein Bayer-Sensor die eindeutigen Werte für einen Bildpunkt liefern - weshalb sollte es denn z.B. nicht möglich sein die Bayer-Anordnung zu erweitern und dadurch zusätzliche Daten zu erhalten. Der Rechenaufwand würde sich jedoch erhöhen, wenn zusätzliche Werte berücksichtigt werden müssten.
Wer sagt denn, dass es nur RBGG sein muss - weshalb sollten nicht weitere Helligkeitswerte durch Erweiterung des RBGG realisiert lassen, die dann berücksichtigt werden, wenn normalerweise Full-Well erreicht ist.
Wir sind bei hohen Sensorauflösungen angelangt - es spricht nichts dagegen, diese hohen Sensorauflösungen neu zu bündeln und dabei unterschiedliche "Empfindlichkeiten" zu implementieren.
Ums mal banal auszudrücken: Warum nicht RBGGGG, wobei die beiden Neuen mit ND-Filtern versehen sind?
Die Interpolation wird zwar aufwändiger, aber potente Hardware ist ja vorhanden.
Antwort von chmee:
So, wie der Fuji SCCD Sensor in der S5 Pro von vor ~7 Jahren? Bis jetzt lese ich Dinge, die schon existieren. Nun, ich kann nur hoffen, Sony hat einfach ne neue Idee.
..Warum nicht RBGGGG, wobei die beiden Neuen mit ND-Filtern versehen sind? ..
Weil RBGGGG heisst, die R und B-Komponenten würden zu wenig Informationen erhalten. Ein gewisses Raster zur Berechnung der fehlenden Komponenten muss schon erhalten bleiben. Unterscheidet sich dann nicht sehr von dem zeilenweisen Vorgang in DualISO bei ML. Informationen tragen sie immer noch alle (Sensel), sie müssen nur anständig verrechnet werden. (oder auch clever :D) Wieder das Beispiel 5DIII Vollauflösung mit zeilenweise unterschiedlicher ISO, dann aber runtergerechnet auf zB 2K.
mfg chmee
Antwort von WoWu:
neu zu bündeln
Iasi ... was ist eine Bündlung ? (oder eine ansständige Verrechnung). Alles solche Blog Begriffe, die einfach nichts aussage und dadurch absolut nicht geeignet sind, solche Themen mit einem Mindestmass an Sinnhaftigkeit zu besprechen.
Und was die Bayernmaske betrifft so generiert sie sehr wohl für jedes Pixel einen Luminanzwert.
Was passiert, wenn Du Werte mehrfach benutzt, siehst Du bei der Chroma Unterabtastung, in der solche Werte einfach aus mehreren Werten zusammengerechnet werden. Dann hättest Du hinterher, je nach Pixelmenge dann wohl 2:2:2 oder vielleicht auch nur noch 1:2:2. Ist es das, was Du willst?
Genau das passiert dann nämlich mit den Luminanzwerten bei doppelt benutzten (oder mehrfach) Pixels.
Du kannst es drehen, wie Du willst.
Wenn Du Pixels zusammenrechnest, verlierst Du Auflösung. da helfen auch keine "cleveren" oder "anständigen" Algorithmen, weil Du einfach das projizieret Bilddetail vervielfachst.
Du kannst ja hier nicht einfach sagen, bei einer "Mistkamera" findet ohnehin keine pixelgenaues Reproduktion statt, folglich verschlechtert die Methode auch nicht das Bild .... Du musst ja Abtastverfahren miteinander vergleichen, die oberhalb der Lochkamera stattfinden.
Antwort von iasi:
Weil RBGGGG heisst, die R und B-Komponenten würden zu wenig Informationen erhalten. Ein gewisses Raster zur Berechnung der fehlenden Komponenten muss schon erhalten bleiben. Unterscheidet sich dann nicht sehr von dem zeilenweisen Vorgang in DualISO bei ML. Informationen tragen sie immer noch alle (Sensel), sie müssen nur anständig verrechnet werden. (oder auch clever :D) Wieder das Beispiel 5DIII Vollauflösung mit zeilenweise unterschiedlicher ISO, dann aber runtergerechnet auf zB 2K.
mfg chmee
RBGGGG war nur ein mal hingeworfenes Beispiel, soll aber als GG+GG verstanden werden - eben einmal GG wie üblich und zusätzliche GG für die Lichter, die dann geringer belichtet werden.
Es dürfte dann wohl vor allem auch der weitere Umgang mit den zusätzlichen Sensorinformationen sein, die den besonderen Unterschied ausmachen. Und klar: Die Anordnung ist von Bedeutung.
Antwort von iasi:
neu zu bündeln
Iasi ... was ist eine Bündlung ? (oder eine ansständige Verrechnung). Alles solche Blog Begriffe, die einfach nichts aussage und dadurch absolut nicht geeignet sind, solche Themen mit einem Mindestmass an Sinnhaftigkeit zu besprechen.
Das ist hier ein Forum und daher kann und sollte man sich eben auch allgemeinverständlich ausdrücken. Hier mit Fachbegriffe um sich zu werfen, ist der Kommunikation nicht dienlich und kann doch eigentlich nur einem Zweck folgen ...
Simplifikation ist zudem eher angesagt, als wilde Spekulationen ohne Informationshintergrund.
Und was die Bayernmaske betrifft so generiert sie sehr wohl für jedes Pixel einen Luminanzwert.
Was passiert, wenn Du Werte mehrfach benutzt, siehst Du bei der Chroma Unterabtastung, in der solche Werte einfach aus mehreren Werten zusammengerechnet werden. Dann hättest Du hinterher, je nach Pixelmenge dann wohl 2:2:2 oder vielleicht auch nur noch 1:2:2. Ist es das, was Du willst?
Ja - und wenn ich nun eben unterschiedliche Luminanzwert ermittle:
Wie gehabt R und B, dann aber eben GG + GG, wobei zwei G geringer belichtet werden - eben eine Aufspreitzung und nicht nur eine Verdoppelung.
Genau das passiert dann nämlich mit den Luminanzwerten bei doppelt benutzten (oder mehrfach) Pixels.
Du kannst es drehen, wie Du willst.
Wenn Du Pixels zusammenrechnest, verlierst Du Auflösung. da helfen auch keine "cleveren" oder "anständigen" Algorithmen, weil Du einfach das projizieret Bilddetail vervielfachst.
Du kannst ja hier nicht einfach sagen, bei einer "Mistkamera" findet ohnehin keine pixelgenaues Reproduktion statt, folglich verschlechtert die Methode auch nicht das Bild .... Du musst ja Abtastverfahren miteinander vergleichen, die oberhalb der Lochkamera stattfinden.
Wir sind bei 36MPixel - ob ich nun die Pixelzahl wieder reduziere oder sie neu anordnen und erweitert benutze, macht keinen großen Unterschied bei der Auflösung.
Statt einen großen G nehme ich 2 kleiner G, die aber eben unterschiedlich belichtet werden und dann gemeinsam wieder einen Wert liefern, der einen größeren DR aufweist.
Und wenn schon bei der Bildpunktberechnung dieser Wert gebildet wird, ist dies eben ein Vorteil gegenüber HDRx oder ML, die Bildpunkte verrechnen.
Antwort von chmee:
Und was die Bayernmaske..Na gut, dass ich sowas nicht trage :) Und Halloween ist auch vorbei..
Du kannst es drehen, wie Du willst.
Wenn Du Pixels zusammenrechnest, verlierst Du Auflösung. da helfen auch keine "cleveren" oder "anständigen" Algorithmen, weil Du einfach das projizieret Bilddetail vervielfachst. ..
Die Theorie von Auflösungsmaxima in Ehren. Es geht vornehmlich, etwa 99,99% aller User und Zuschauser, um hinreichend scharf, nicht um mathematisch ideal. Die Demosaicing-Algorithmen sind seit Jahren so gut, dass ein Bayer-Pattern in ein natives Komponentenbild umgerechnet werden kann, ohne dass der Auflösungsabfall eklatant ist. Und auch Downscaling wird vom Markt ausgiebig genutzt, um Auflösung zurückzubiegen.. Oder wird die Alexa nativ für das PlayOut genutzt? Nein, vornehmlich landen die Daten in einer 2K/1080p Datei.
Meine Aussage betrachtend, sind aktuelle Debayer-Algorithmen (Komponent-Deltas, 4 anstatt 3 Komponentenbetrachtung und Richtungsvektoren - und auch a1ex's Ansatz der ISO-Verrechnung) "clever" und bezüglich des Ergebnisses "anständig". Da steckt kein hyperblogiges MetaBla dazu, um diese Eigenschaften so zu bennenen.
@iasi
wie gesagt, der Fuji SCCD-Sensor war so eine (recht erfolgreiche) Idee.
mfg chmee
Antwort von WoWu:
@ chmee
Das, was ich oben gesagt habe:
Wenn die Kamera sowieso miserabel auflöst, fallen selbst solche Tricks nicht auf.
Funktioniert als nur bei ohnehin schlechten Geräten.
hinreichend scharf
Definier doch "hinreichend" mal am Beispiel HD ... ist das dann SD ? Oder sind das 720P ? Was ist hinreichend ?
Dann können wir nochmal nachrechnen und landen wieder bei den Fakten.
@Iasi
Das Verbreiten von Blog-Schwachsinn macht es noch nicht zu Fakten und hilft ganz sicher auch nicht denen, die in einem solchen Forum vielleicht solche Zusammenhänge begreifen möchten.
Die hilft nur denen, die ihre Phantasien weiter verbreiten möchten und gar nicht präzis werden können, weil sich Phantasien so schlecht mit Fakten zur Deckung bringen lassen.
Schau Dir mal an, wie Pixels im Signalprozess gewichtet werden.
Antwort von iasi:
Die hilft nur denen, die ihre Phantasien weiter verbreiten möchten und gar nicht präzis werden können, weil sich Phantasien so schlecht mit Fakten zur Deckung bringen lassen.
Schau Dir mal an, wie Pixels im Signalprozess gewichtet werden.
Man stellt eben auch oft fest, dass "Spezialisten" sich durch ihre enge Betrachtung von techischen Details den Blick auf neue Ansätze verbauen.
Es ist eben auch mal gut, etwas zurückzutreten, um sich einen weiteren Überblick zu verschaffen.
Was nutzt es einen Ansatz, von dem eigentlich nichts Konkretes bekannt ist, schon im Detail besprechen zu wollen.
Wenn - wie chmee schon sagt - ein solcher Ansatz schon genutzt wurde, dann kann er aufgrund technischer Weiterentwicklungen bei der Sensorherstellung und den Recheneinheiten eben heute noch weit besser ausgereizt werden. Mir erscheint es naheliegend, dass die höhere Pixeldichte und die höhere Rechenleistung auch für eine erweiterte Bayer-Technik genutzt wird.
Und meist wird das Rad nicht neu erfunden, sondern schlicht die auf der Hand liegenden Techniken genutzt. Das war mit den Raw-Filmkameras doch auch nicht anderes:
Die Rechenleistung und die Datenträgergeschwindigkeit erlaubte eben irgendwann mal filmgeeignete Frameraten.
Und nun sind wir bei einer Pixeldichte und einer Rechenleistung angelangt, die mehr als nur das bekannte Bayer-Prinzip erlaubt.
Wenn man zusätzlich zu den Signalen, die das übliche RBGG liefern, auf der selben Sensorfläche weitere Signale gewinnen kann, die z.B. durch Unterbelichtung auch noch Abstufungen erlauben, wo der übliche Bayer-Sensor am Ende wäre, dann sehe ich keine unüberwindbaren Hürden, sondern nur einen erhöhten Rechenaufwand.
Der F65-Sensor liefert schließlich auch 4k unter Verwendung von mehr Pixeln - Sony sagt 8k, andere rechnen eher mit 6k - und keiner klagt hier über Auflösungsverluste.
Antwort von chmee:
Das, was ich oben gesagt habe:
Wenn die Kamera sowieso miserabel auflöst, fallen selbst solche Tricks nicht auf.
Funktioniert als nur bei ohnehin schlechten Geräten.
Nun, unter dieser Prämisse würde es für eine Arri Alexa heissen: nativ benutzt hat sie eine miserable Auflösung (bayer..), runterskaliert nach 2K wurde billig getrickst (zudem noch aufgrund egal welchen Algorithmus in negativem Ergebnis)
Definier doch "hinreichend"
Ja, diese Frage hat es in sich. Und ich bin mir sicher, dass Du mit der Antwort nicht zufrieden bist.
"Solange die gegebene Auflösung nicht als Makel auffällt"
Es ist völlig ok, wenn aus beruflicher Sicht (Kamera-Footage bis DVD-Authoring) mit bestmöglichen Daten gearbeitet werden kann. Dennoch schaut der Großteil im Netz oder auf dem heimischen TV. Was da ankommt bzw. bezugnehmend auf den Sehabstand, ist ne kleine HD-Auflösung schon ziemlich ok. Das Gleiche betrifft die Fotografie gleichermaßen.
Wer mit der Nase am Objekt steht, hat kein Interesse am Inhalt.
Na? Schön philosophiert, was :)
mfg chmee
Antwort von WoWu:
Na ja, Philosophie ist etwas Anderes.
ich würde sagen, mal wieder um eine konkrete Antwort gedurückt denn das kommt immer: "nur die Inhalte zählen". Aber da würde ich sagen:
Thema verfehlt.
@Iasi
Es kommt anscheinend nicht konkretes mehr, (wie eigentlich schon so viele Male vorher.
Ich hatte ja angenommen, nach den vielen Jahren, dass sich mittlerweile einwenig technisches Verständnis auch bei Dir eingestellt hätte, aber wohl nicht.
enge Betrachtung von techischen Details den Blick auf neue Ansätze verbauen.
Sag doch mal welche neuen Ansätze und wie sie im Verhältnis zum hier besprochenen Thema stehen.
Was nutzt es einen Ansatz, von dem eigentlich nichts Konkretes bekannt ist, schon im Detail besprechen zu wollen.
Schade, dass Du den Artikel gar nicht gelesen hast und/oder nicht richtig verstanden hast, was eigentlich darin stand.
Aber selbst wenn man es auch die Bilder beschränkt kann man durchaus konkrete Ansätze daraus erkennen.
Aber vielleicht ja nicht Jeder, das mag sein.
Wenn - wie chmee schon sagt - ein solcher Ansatz schon genutzt wurde, dann kann er aufgrund technischer Weiterentwicklungen bei der Sensorherstellung und den Recheneinheiten eben heute noch weit besser ausgereizt werden.
Erstens hat er auch gesagt, dass es "sch...se" aussieht und dann kommt jetzt von Dir wieder der, zum Himmel geneigte Blick ... der Herrgott hat die Technik weiterentwickelt. (Wir wissen nur noch nicht wie).
Man Iasi, komm mal wieder zurück auf die Erde und lern die Technik mal kennen. Und ein paar Gesetmässigkeiten.
Wobei - etwas verwundert es mich schon, dass Du offenbar nicht wirklich nachvollziehen kannst, dass, wenn zwei Pixels miteinander kombiniert werden, beide die Inhalte beider Pixels tragen.
Das sollte doch nun selbst der Unbedarfteste verstehen.
Ach ja .. der liebe Gott .. hatte ich vergessen.
erscheint es naheliegend, dass die höhere Pixeldichte und die höhere Rechenleistung auch für eine erweiterte Bayer-Technik genutzt wird.
Was für eine erweiterte Bayer-Technik ?
Mal wieder so ein gottgegebenes Hirngespinst.
Und meist wird das Rad nicht neu erfunden, sondern schlicht die auf der Hand liegenden Techniken genutzt.
Stimmt, deswegen hatte ich ja reklamiert.
Danke für die Zustimmung.
Die Rechenleistung und die Datenträgergeschwindigkeit erlaubte eben irgendwann mal filmgeeignete Frameraten.
Neues Thema oder was hat das mit der Gewichtung von Luminanzwerten zu tun?
Wenn man zusätzlich zu den Signalen, die das übliche RBGG liefern, auf der selben Sensorfläche weitere Signale gewinnen kann
Siehe Artikel:
Wo werden da zusätzliche Werte generieret. Von zusätzlichen, extra dafür vorgesehenen Pixels ist keine Rede.
dann sehe ich keine unüberwindbaren Hürden, sondern nur einen erhöhten Rechenaufwand.
Aha, da siehst Du also keine Hürde. Wundert mich das jetzt ?
Der F65-Sensor liefert schließlich auch 4k unter Verwendung von mehr Pixeln - Sony sagt 8k, andere rechnen eher mit 6k - und keiner klagt hier über Auflösungsverluste.
Dann schau Dir die Abtretung mal in Ruhe an. Offenbar hast Du das bisher noch nicht getan.
Antwort von chmee:
@WoWu
Was willst Du denn Großartiges nachrechnen? Ich habe lächelnd Deine billig-Downscale-Geräte-Argumentation gekontert - und Dir gefällt doch eh nicht, was nicht aus Deiner Hand ist. Tatsachen sind:
* Die Welt arbeitet munter mit Bayer-Sensoren.
* Die Welt skaliert munter hoch und runter.
* Die Welt guckt munter DVB-T.
Und Du? Fühlst Dich verpflichtet, stimmige Daten auf dem Signalweg zu zählen? Diese Pflicht überlass ich Dir gern.
Antwort von iasi:
Schade, dass Du den Artikel gar nicht gelesen hast und/oder nicht richtig verstanden hast, was eigentlich darin stand.
Aber selbst wenn man es auch die Bilder beschränkt kann man durchaus konkrete Ansätze daraus erkennen.
Aber vielleicht ja nicht Jeder, das mag sein.
ja - hast du dir die Patentschrift denn schon mal durchgelesen?
Und vielleicht auch das schon zu Gesicht bekommen, das Sony eben nicht in die Patentshrift reingeschriben hat, weil es eben nicht für alle Welt gedacht ist?
http://www.freepatentsonline.com/y2014/0321766.html
Ich finde es schon beeindruckend, wie schnell du so ein Patent lesen und beurteilen kannst.
Also andere benötigen hier sicherlich mehr Zeit.
Oder solltest du etwa nur den Artikel gelesen haben und nicht die Patentschrift?!
Also ich hatte noch nicht die Gelegenheit allein diesen Anhang eingehend zu studieren:
http://www.freepatentsonline.com/20140321766.pdf
... und dabei sind hier viele Bilder und Diagramme und eben nicht so viele Formeln, wie in der Patentschrift.
Aber immerhin habe ich nun doch eine etwas genauere Vorstellung davon, wie es Sony wohl machen will ... und aus der Patentschrift kann man eben auch erfahren, dass der ganze Prozess nicht auf einen Bayer-Pattern limitiert ist.
Ach ja: Von der ML-Methode unterscheidet es sich doch erheblich.
Die Überschrift "Dual-ISO" scheint mir auch nicht ganz treffend.
Antwort von WoWu:
@chmee
Du brauchst gar nicht zu polemisieren.
Sag mir doch einfach, warum Kombinationen von Pixels die Auflösung nicht beeinträchtigen.
Und mit Kontern setzt nicht automatisch voraus, dass das Gekonterte richtig ist.
In deinem Fall war es nämlich nicht so und wenn Du Dir mal die Unterabtastung von Videobildern anschaust, siehst Du das auch selbst.
@Iasi
Natürlich habe ich die Patentschrift gelesen und besonders neu ist das, was sie da tun ja auch nicht, -ich habe oben schon erwähnt, wo es sonst noch angewandt wird, -vielleicht einwenig abgewandelt, aber im Prinzip das gleiche.
Und nun kommst Du wieder mit den "Geheimnissen", die sich zwischen den Zeilen verbergen. -Wie üblich-
Erklär Du mir, warum bei einer Pixelkombination sich die Auflösung nicht negativ verändert.
Kein mensch wird so etwas in ein Patent hineinschreiben, weil es für die Patentanmeldung keine Relevanz hat. Wohl aber für den Anwender, hinterher.
Und schön, dass Du mittlerweile auch bemerkt hast, dass Pixelkombinationen nicht mit der Bayernmaske zu tun haben. Bedank Dich bei dem, der damit angefangen hat.
Es bleibt bei der Benutzung unterschiedlicher Pixel zur Kombination der Luminanzwerte und nun sag mir, wie das ohne Auflösungsverlust funktionieren soll, ohne Gottes Gnaden und Hilfe und irgendwelcher mysteriösen Algorithmen, die der Entwickler mit ins Grab nimmt.
Antwort von Bergspetzl:
Zitat:
Definier doch "hinreichend"
Wohl gemerkt es geht hier nur um den Sensor, zum Endprodukt zählen noch weiter Faktoren, die je nach Konstellation zu anderen "Wert" des Endproduktes führen.
Wie will man also zu einem Schluss kommen? Eine abschließende Konstante, also immer Gültige kann es hier so nicht geben, da wir am Anfang der Signalkette ansetzen mit der Diskussion.
Der Ansatz sollte hier aber auf etwas anderes abzielen: Was ist das "Beste" Resultat, um es in den weiteren Verlauf wie Kompression zu übergeben. Mein Endprodukt ist (beispielsweise) 1080 in X Bit. Pro Pixel habe ich einen Luma und Chromawert. Hier möchte ich (angenommen als Grundprinzip) ein neutrales, die Realität weitestgehend wiederspiegelndes Ergebnis erzielen. Bei 10 bit Endprodukt ist das ein Wert aus 1024 Luma Möglichkeiten im entsprechenden Farbsensel. Dieser wird aus einem 10-12-14bit Sensor und der Summe aus RGB filternden Kanälen gewonnen.
Mir als Endkunde ist der "Weg" zu meinem Endsignal demnach egal, denn ich schaue auf den Output, den ich geliefert bekomme. Anstelle der Frage also, was kann die Technik unter "Prämisse X" optimal darf doch die Fragestellung lauten, was wäre für mich das optimale Endergebnis. Das ist dann die Lösung für hinreichend. Nicht optimal für mein jeweiliges Vorhaben, das ist subjektiv, sondern wie sieht das bestmögliche, technische Signal aus? Deswegen sollte man sich darauf einigen, das es egal ist, auf welchem Weg die Pixel generiert werden. Nur wenn mir das Zusammenspiel zwischen Chroma und Luma auf den 1080x1920 großem Feld ideal gelingt , habe ich ein hinreichendes Ergebnis. Definieren sollten wir also zuerst, wieviel Luma, wieviel Chroma gewichtet werden sollte. Am Ende können wir nur einen Wert pro Pixel generieren. Und wenn wir scheinbar (warum ist mir nie klar gewesen) mehr Pixel als Ausgangsprodukt aufnehmen, als das Endprodukt haben wird, ist ein zusätzliches Processing notwendig, welches nach der analogen Datenaufnahme und neben dem de-Bayern in die Signalgestaltung eingreift.
Wie ereichet man dann also das ideale Signal?
Bei einem 36MP Sensor stehen 17,3 Aufnahme-Pixel Pro Endpixel bereit. Bei HD würden aber nur 6/8MP benötigt. Hier ergeben sich alternative Möglichkeiten, da ich ja demnach noch ca 12 Pixel pro später zusammengefastes Pixel "Headroom" habe. Viel Platz, um sich auf einem Sensor auszutoben, ohne die Grundfunktionsweise ins wanken zu bringen, oder hat da jemand Einwände? Ich habe das so verstanden, das Sony kein komplett neues Verfahren aufrollen wird, sondern auf vorhandener "Spielwiese" neue Möglichkeiten testet/einführt/andenkt.
Wowu (ohne ihn angreifen zu wollen) agiert, als wäre alles in Stein gemeißelt. Ist es aber nur durch die Anwendung bestimmter Verfahren. Jedoch ist es ebenso wahrscheinlich, das Verfahren optimiert und erweitert werden können. Mich würde interessieren, ob du seinerzeit eigentlich CCD verteidigt hast (es ist so und wird sich nie ändern) oder CMOS gepriesen hast und es als das Maß aller Dinge siehst. Immerhin gab es einen Punkt, als CMOS zu CCD aufgeholt und dann überholt hat.
Antwort von iasi:
@Iasi
Natürlich habe ich die Patentschrift gelesen und besonders neu ist das, was sie da tun ja auch nicht, -ich habe oben schon erwähnt, wo es sonst noch angewandt wird, -vielleicht einwenig abgewandelt, aber im Prinzip das gleiche.
na klar - das sagte ich ja schon. Aus meiner Sicht lag und liegt diese von Sony nun genutzte Technik mittleweile auf der Hand.
Und nun kommst Du wieder mit den "Geheimnissen", die sich zwischen den Zeilen verbergen. -Wie üblich-
aber eben diese "Geheimnisse" machen eben nun einmal den Unterschied z.B. zwischen einem Dieselmotor und einem anderen aus
oder zwischen einem Bayer-Sensor und einem anderen.
Keiner behauptet, dass Red mit seinem Codec das Rad neu erfunden hätte, aber die Umsetzung macht es eben aus, worauf Red so stolz ist.
Erklär Du mir, warum bei einer Pixelkombination sich die Auflösung nicht negativ verändert.
Ich erinnere mich da immer an die Sigma-Argumentation: Ein Bayer-Sensor hätte auch keine höhere Auflösung als ein hochgerechnetes Foveon-Bild.
Grob betrachtet kann man zwar nicken, aber ganz so simpel ist es eben doch auch nicht.
Und nochmal: Der F65-Sensor hat nach Sonys-Rechnung 8k - und liefert 4k. Auch wenn hier auch die Werbetrommel durchschallt, hast du eine größere Anzahl von Pixeln, als bei einem Bayer-Sensor eigentlich üblich. Es liegt doch nahe, dass man daraus einen Nutzen zieht, wie es Sony wohl beabsichtigt.
Kein mensch wird so etwas in ein Patent hineinschreiben, weil es für die Patentanmeldung keine Relevanz hat. Wohl aber für den Anwender, hinterher.
Und schön, dass Du mittlerweile auch bemerkt hast, dass Pixelkombinationen nicht mit der Bayernmaske zu tun haben. Bedank Dich bei dem, der damit angefangen hat.
Wobei das aber eben nach Sonys-Aussage keine Rolle spielt - die "Anordnung spielt keine Rolle.
Es bleibt bei der Benutzung unterschiedlicher Pixel zur Kombination der Luminanzwerte und nun sag mir, wie das ohne Auflösungsverlust funktionieren soll, ohne Gottes Gnaden und Hilfe und irgendwelcher mysteriösen Algorithmen, die der Entwickler mit ins Grab nimmt.
Na - beim Bayer-Sensor sind es doch auch die Algorithmen, die aus einem G-Pixel einen Bildpunkt zaubern.
Ich sage ja auch nicht, dass man aus einem solchen 4k-Sensor eine 4k-Auflösung herausholen kann.
Aber aus 6k wären wohl durchaus 4k zu erreichen - mal nur so grob geschätzt.
Ich finde die Herangehensweise von Sony eigentlich logisch: Schon anhand der Pixelwerte werden Überblendungs- und Blur-Kooeffizienten ermittelt, die dann in die Verrechnung der Bilder einfließen. Es entsteht zudem auch nicht der Zeitversatz, wie bei HDRx.
Du musst doch auch zugeben, dass dies die eleganteste Lösung für HDR ist - auch wenn sie Auflösung kosten mag.
PS: Mich wundert, dass gerade du nun den Auflösungsverlust so sehr beklagst.
Sony vergrößert nicht einfach die Pixel, sondern kombiniert eben unterschiedlich belichtete Pixel. Wenn du die E-Anordnung nimmst, hast du eben statt einem großen R-Pixel 2 länger und 2 kürzer belichtete R-Pixel. Dann braucht man aber eben wirklich viele davon, um am Ende z.B. 4k zu erreichen - fast schon 10k.
Antwort von WoWu:
@Bergspetzl
Nein, Bergspitz, nichts ist in Stein gemeisselt. Ich habe "damals" nicht nur CMOS bevorzugt sondern sogar MOS, die mit sehr viel weniger Verstärkern und deutlich höherer lichtempfindlicher Fläche auskommen.
Das einzige, was bei mir "in Stein gemeisselt" ist, ist die Forderung, dass es sich bei HD um 1920x1080 optisch aufgenommene Bilddetails handelt und nicht um die Anzahl der Pixels.
Darin unterscheiden wir uns offenbar. Ich zähle nämlich nicht die Pixels sondern die Bilddetails.
Darin unterscheiden wir uns offenbar. Und wohl auch noch darin, dass Du sagt, ein guter Bildeindruck reicht Dir, ich aber sage, dass ich, wenn ich HD (oder UHD) kaufe, auch HD (oder UHD) Bildpunkte sehen möchte und nicht etwas kaufe, das aus einem unscharfen Bild errechnet wurde und nur "Puerto" scharf aussieht.
Das zu kaufen überlasse ich gern denen, die Omas Geburtstag damit aufnehmen.
Ich komm nun mal auch der professionellen Ecke, die sich nicht so leicht ein X für ein U vormachen lässt.
Und wenn man, in Bezug auf dieses Sony verfahren sieht, dass sie aus je einem 7 x 7 Pixel Array ihre Bildinhalte bedienen, kann man sich sehr schön ausrechnen, wie hoch die verbleibende reale Bildauflösung sein wird.
(Urbehagens sind in der Patentschrift die Verfahren relativ genau beschrieben.)
Komischerweise kochen ja alle immer noch mit Wasser (auch in diesem verfahren benutzen sie eigentlich nur die Kombination aus den klassischen HDR Verfahren- also keine gottgegebenen neuen mystischen Algorithmen) und daher ist, mit einwenig technischen Kenntnissen, auch das Ergebnis ziemlich genau vorhersehbar.
Aber das ist eben das, was ich immer sage ... es kommt auf den Anspruch an. Manche wollen eben nur 1920x1080 Pixels und ich will eben 1920x1080 Bilddetails. (Oder eben das Äquivalent in UHD).
Jedem das Seine und nichts dagegen einzuwenden, wenn Andere mit Weniger auskommen.
Trifft für mich aber nicht zu, deswegen schaue ich auch genauer hin.
Aber für Omas Geburtstag reicht natürlich auch die interpolierte Version, da gebe ich Dir völlig Recht, das ist für eine solche Anwendung sicher "hinreichend' und der Aufkleber macht die "Musik".
Antwort von iasi:
Weshalb sollte Sony aus 2x2x2 Pixel, die die selbe Fläche einnehmen, wie die bisherigen 2x2, weniger Detail herausholen können?
Es stehen schlicht für einen Bildpunkt mehr Informationen zur Verfügung.
Sony erzielt dadurch einen größeren DR und wohl auch akuratere Interpolationen - dazu muss eben die Pixelzahl erhöht werden, was aber heute offensichtlich kein großes Problem mehr darstellt.
Wo also siehst du einen Auflösungsverlust?
Zumal bei HD/2k ...