Logo Logo
/// 

Neuer 5k RED Sensor: GEMINI Mit Dual Sensitivity



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum RED EPIC / Scarlet-X / Dragon / Raven-Forum

Frage von Starshine Pictures:


RED ist nun auch auf den Dual Sensitivity Hype aufgesprungen und hat einen neuen 5k Sensor für die EPIC-W vorgestellt. So soll dieser Sensor laut dem begeisterten Mitarbeiter der empfindlichste und rauschärmste RED-Sensor unter Lowlight Bedingungen sein. Einen Haken hat das jedoch: Man verliert 2 Blenden im sogenannten LL Modus der manuell umgeschaltet wird. Ob das egal ist oder die 2 Blenden fehlen muss man wohl selbst heraus finden.

https://youtu.be/xcKPupoLtKM

Grüsse, Stephan



Antwort von ZacFilm:

Heul... Womit habe ich verdient, in so einer guten Zeit zu leben??...



Antwort von nic:

Der LL-Modus verlagert die Empfindlichkeit um 2 Blenden. An Dynamic Range verliert sie dadurch weniger als 1/2 Blende.





Antwort von Roland Schulz:

Glaube so richtig fest steht noch nicht wo sich die beiden Empfindlichkeiten befinden.
Im Falle einer a7III mit ISO125 und ISO640 macht DualGain in meinen Augen kaum Sinn. Bei ner a6500 mit ISO125, ISO500 und ISO2000 kann man da schon etwas mehr mit anfangen.

Wenn die Gemini ISO800 und ISO3200 machen würde wäre das aber schon recht praxistauglich würde ich sagen. Dass beide Empfindlichkeiten aber gleich "wenig" rauschen bzw. die selbe Performance liefern muss nicht zwingend eintreten.



Antwort von Paralkar:

Bin mal gespannt das Ding zu sehen, die Varicam hatte mit dem Dual ISO schon interessante Ergebnisse gebracht



Antwort von nic:


Glaube so richtig fest steht noch nicht wo sich die beiden Empfindlichkeiten befinden.
Im Falle einer a7III mit ISO125 und ISO640 macht DualGain in meinen Augen kaum Sinn. Bei ner a6500 mit ISO125, ISO500 und ISO2000 kann man da schon etwas mehr mit anfangen.

Wenn die Gemini ISO800 und ISO3200 machen würde wäre das aber schon recht praxistauglich würde ich sagen. Dass beide Empfindlichkeiten aber gleich "wenig" rauschen bzw. die selbe Performance liefern muss nicht zwingend eintreten.

Bei einer RED als ISO-invariantem System kann man nicht von nativem ISO reden. Man bestimmt das einfach so für sich im Bezug auf die gewünschte "highlight protection" und den "noise floor" und belichtet dann je nach Situation auf des festgelegten Wert. Aber von 800 und 3200 auszugehen ist schon mal ein guter Startpunkt beim Gemini.



Antwort von slashCAM:


RED hat einen neuen Sensor namens GEMINI 5K S35 für die RED EPIC-W Kamera vorgestellt. Dieser Sensor wurde schon vor zwei Monaten als Spezialanfertigung für Aufnahmen im...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neue Red EPIC-W mit GEMINI 5K S35 Sensor - Also eine EPIC-Ws?




Antwort von Framerate25:

Schönes Ding, wenn ich den "Klotz" da stehen sehe. Anekdote:

"Möchten Sie an Ihrer S- Klasse gerne Scheinwerfer und Türgriffe? Reifen haben Sie ja bestimmt von Ihrem Vorgänger noch im Keller liegen, nicht?
Und wo wir schon dabei sind, ein Lenkrad können Sie gegen Aufpreis aus vielen Variationen bestellen. Gerne ist alles möglich, also das Grundmodell kostet dann 85.000 plus wiegesagt dem von Ihnen gewählten Zubehör.
Möchten Sie ihn?

;-)))



Antwort von mediavideo:

Ich habe gerade Tränen über Tränen gelacht ...

RED - you made my day !

RED hat ja schon bei der PRORES-Nummer neben RAW in der Kamera heftig Kreide gefressen. Das mit PRORES hat IASI, usw. ... bis jetzt noch nicht verstehen wollen oder können.

Und jetzt auch noch das von RED - die RED-S35-Auflösungswahn-Welt bricht endgültig zusammen:
RED baut nun eine neue Kamera mit deutlich weniger Pixeln/Auflösung als vorher und sagt, man kann die 8k-Helium auch auf diese neue 5k-Gemini Kamera AUFRÜSTEN - nochmals: RED bietet an die 8k-Helium auf die 5k-Gemini gegen Aufpreis upzugraden !!!!!!! - Uaaaaaaaaaah ..........

So viel Kreide kann man doch nicht fressen - die müssen doch gerade erstickt sein.

Tja, wer völlige Mondzahlen bei den Blendenstufen zu einer 8k S35-Kamera in den Prospekt schreibt, der hat natürlich jetzt ein Problem zu erklären warum weniger PixelPixel im Glossar erklärt besser sein sollen ...

Nun mal die Frage an IASI, Jan Reif, 7NIC, usw.:
Kann man sich nun vielleicht darauf einigen, dass man aus der Physik/Theorie ableiten kann, dass ca. 4.5k bei S35 (also ca. 6 µm Pixelpitch) wohl der Sweetspot sind und mehr Auflösung auf S35 nicht mehr wirklich sinnvoll erscheint?

Oder haben IASI, Jan Reif, 7NIC und die anderen RED-Auflösungsfanatiker jetzt eine neue Begründung für nun aktuell weniger empfohlene RED-Auflösung auf S35? - Ich weiß, die finden wieder eine Begründung und dann lache ich wieder Tränen ...



Antwort von ZacFilm:

Sooooo schwer ist es nicht... Die Helium 8K liefert auch bis 3200 akzeptable Ergebnisse. Die Gemini hervorragende. Die Entscheidung wird dem Kunden gelassen.



Antwort von nic:

RED empfiehlt nicht weniger Auflösung auf S35. Sie bieten jetzt lediglich eine hervorragende Lowlightalternative. Die Vorteile größerer Sensel liegen ja auf der Hand. Die Vorteile höherer Auflösung auch. Es gibt auch keinen Sweet-Spot, lediglich Kompromisse an jeder Ecke. Insofern wird es niemals den einen perfekten Sensor für jede Situation geben. Und der Gemini ist kein Upgrade, die Epic-W 5K wird sogar günstiger sein als die E-W 8K. Du kannst eben jetzt einen zweiten Sensor kaufen und deine Kamera jederzeit umrüsten lassen.

Die Autovergleiche kann man sich auch schenken... es ist doch sinnvoll, dass man sich neue Bodies kaufen kann, ohne ständig neue Peripherie kaufen zu müssen. Umgekehrt wären die Kameras nicht günstiger. Das mit dem Komplettpaket ist Hekelmann-Mentalität. Hat mit digitalen Filmkameras wenig zu tun...



Antwort von Whazabi:

Meiner Meinung nach haben wir was die Auflösung von Kamera-Sensoren für den Videobereich angeht schon lange die Grenze des Sinnvollen erreicht.
Angenommen wir verwenden eine Objektiv-Sensor Kombination, sodass wir einen horizontalen Bildwinkel von 50° erreichen, dann löst ein 8k Sensor im Abstand von etwa 5m auf eine Distanz von ca. 0,5mm auf. Wenn ich jetzt eine Person habe, die in diesem Abstand mit ca. 0,5m/s (ca. 1,8 km/h) senkrecht zum Kamera-Blickwinkel durch das Bild läuft, dann bräuchte ich eine VerschlusszeitVerschlusszeit im Glossar erklärt von 1ms, um meine Auflösung nicht durch die entstehende Bewegungsunschärfe zu verlieren. Nimmt man die 180° Regel, dann resultiert daraus eine Bildwiederholfrequenz von 500 Hz.
Mal abgesehen von der Machbarkeit würden jetzt bestimmt wieder viele Auflösungs-Fanatiker, die ich kenne behaupten, dass alles jenseits 24 Hz nicht cineastisch ist.
Ok wenden wir den Strahlensatz an, dann finden wir heraus, dass ein Objekt, welches sich mit 1,8 km/h in der Bildebene bewegt, bei einer 8k Kamera mit 50° FOV und 24 Hz über 100 m entfernt sein müsste, um der Auflösung gerecht zu werden. Das alles gilt natürlich immer unter der Voraussetzung, dass wir ein Objektiv haben, dessen Tiefpass-Wirkung eine entsprechend hohe Auflösung überhaupt zulässt.
Wenn man Debayering berücksichtigt werden die Werte minimal besser, dennoch stellt sich mir hier die Frage nach Sinn und Unsinn ... In vielen Film Aufnahmen haben wir, durch die 24 Hz bedingte Bewegungsunschärfe, bereits Auflösungen von weniger als HD im Fall von Action-Szenen häufig noch nicht mal PALPAL im Glossar erklärt, aber wir wollen dennoch an der Auflösungsschraube drehen?



Antwort von ZacFilm:

Stimmt schon Teilweise. Erinnere mich noch an einen Vortrag, laut dem man mindestens 1/100 VerschlusszeitVerschlusszeit im Glossar erklärt für 4K braucht, um die selbe Schärfe (oder Detailgrad, oder was auch immer) zu erreichen, wie bei FHD. Bei 8K wären es glaube ich 1/200... Was ja schon meeeega "uncinematisch" ist...



Antwort von iasi:



Oder haben IASI, Jan Reif, 7NIC und die anderen RED-Auflösungsfanatiker jetzt eine neue Begründung für nun aktuell weniger empfohlene RED-Auflösung auf S35? - Ich weiß, die finden wieder eine Begründung und dann lache ich wieder Tränen ...

low light
dafür wurde der 5k ja ursprünglich konzipiert -
aber so oft benötigt man während des normalen Drehalltags hohe Empfindlichkeiten doch gar nicht.

Vor allem sind die Frameraten ohne starken Crop interessant - man hat eben die volle Sensorfläche bei 5k/96fps, wo man eben beim Helium bei gleicher Auflösung und FramerateFramerate im Glossar erklärt schon einen ziemlichen Crop hat.

Alles hat seine Vor- und Nachteile - eben auch eine Alexa65, die z.B. Deakins nicht nahm, da er sonst auf seine geliebten Master Primes hätte verzichten müssen.

Große Sensoren verlangen eben auch stärkers Abblenden und dadurch auch höhere Empfindlichkeiten, um eine größere Schärfentiefe zu erhalten. Große PixelPixel im Glossar erklärt sind also nicht nur von Vorteil.



Antwort von WoWu:

@ Whazabi

"Nimmt man die 180° Regel,....."

Von welcher 180Grad Regel sprichst Du ?
Ich vermute nicht der, aus dem Filmbereich.

"Die 180-Grad-Regel dient dazu, die Konstanz der Bewegungsrichtungen im Kino aufrecht zu erhalten.
Sobald eine Kamera ein Geschehen filmt, entsteht eine Links-rechts-Orientierung des Ereignisses (die man meist als Handlungsachse bezeichnet).
Solange die Kamera auf der gleichen Seite dieser Achse bleibt, erfolgen Bewegungen in der gleichen Richtung.
Wird die Achse überschritten, ist das Richtungssystem um 180 Grad zu rotieren – aus Links- werden Rechtsbewegungen und -orientierungen und umgekehrt. Für den Zuschauer ist diese Rotation schwer nachvollziehbar und führt zu Irritationen. Darum wurde sie zumindest in der Phase des Hollywood-Studiosystems strikt vermieden. Die 180-Grad-Regel wird bis heute in der Sportdarstellung beachtet; ein Fußballspiel wird also so repräsentiert, dass alle Kameras auf der gleichen Seite des Spielfeldes angeordnet sind – die Orientierung der Akteure auf die Tore bildet das Richtungssystem der Handlungsachse aus, das die Kameras nicht überschreiten. Die Regel gilt nur dann nicht, wenn die Kamera kontinuierlich (z.B. mittels einer Fahrt) die Handlungsachse kreuzt – weil der Zuschauer dann die Verschiebung der Handlungsrichtungen selbst erfährt."

http://filmlexikon.uni-kiel.de/index.ph ... et&id=1341



Antwort von nic:


Meiner Meinung nach haben wir was die Auflösung von Kamera-Sensoren für den Videobereich angeht schon lange die Grenze des Sinnvollen erreicht.
Angenommen wir verwenden eine Objektiv-Sensor Kombination, sodass wir einen horizontalen Bildwinkel von 50° erreichen, dann löst ein 8k Sensor im Abstand von etwa 5m auf eine Distanz von ca. 0,5mm auf. Wenn ich jetzt eine Person habe, die in diesem Abstand mit ca. 0,5m/s (ca. 1,8 km/h) senkrecht zum Kamera-Blickwinkel durch das Bild läuft, dann bräuchte ich eine VerschlusszeitVerschlusszeit im Glossar erklärt von 1ms, um meine Auflösung nicht durch die entstehende Bewegungsunschärfe zu verlieren. Nimmt man die 180° Regel, dann resultiert daraus eine Bildwiederholfrequenz von 500 Hz.
Mal abgesehen von der Machbarkeit würden jetzt bestimmt wieder viele Auflösungs-Fanatiker, die ich kenne behaupten, dass alles jenseits 24 Hz nicht cineastisch ist.
Ok wenden wir den Strahlensatz an, dann finden wir heraus, dass ein Objekt, welches sich mit 1,8 km/h in der Bildebene bewegt, bei einer 8k Kamera mit 50° FOV und 24 Hz über 100 m entfernt sein müsste, um der Auflösung gerecht zu werden. Das alles gilt natürlich immer unter der Voraussetzung, dass wir ein Objektiv haben, dessen Tiefpass-Wirkung eine entsprechend hohe Auflösung überhaupt zulässt.
Wenn man Debayering berücksichtigt werden die Werte minimal besser, dennoch stellt sich mir hier die Frage nach Sinn und Unsinn ... In vielen Film Aufnahmen haben wir, durch die 24 Hz bedingte Bewegungsunschärfe, bereits Auflösungen von weniger als HD im Fall von Action-Szenen häufig noch nicht mal PALPAL im Glossar erklärt, aber wir wollen dennoch an der Auflösungsschraube drehen?

Du sitzt dem Fehlschluss auf, dass Auflösung nur dann von Vorteil ist, wenn jedes PixelPixel im Glossar erklärt eine eindeutige Information des aufgenommenen Motives enthält. Was man aber tatsächlich will, ist eine möglichst detaillierte Abbildung des auf den Sensor projizierten Bildes. Und da gehören motion blur und Objektivunzulänglichkeiten eben dazu. Deshalb ist die MTF etwa gar nicht wirklich ausschlaggebend und auch weniger perfekte Optiken profitieren von hoher Sensorauflösung. Worin liegt der Sinn die Auflösung soweit zu minimieren, bis du Bewegungsunschärfe nicht mehr als Bewegungsunschärfe erkennen kannst?



Antwort von WoWu:

Und worin lang doch gleich der Vorteil von kleinen Pixels, wenn die optische Auflösung ohnehin deutlich geringer ist ? (mal Binning ausgenommen).



Antwort von j.t.jefferson:

durch die hohe Auflösung kommt am Ende doch die Charakteristik von einer Linse besser durch (Cooke Matsch Linsen).
Wenn man ne alte 5D nehmen würde, kämen die besonderen Merkmale einer Linse nicht so gut rüber.



Antwort von WoWu:

Blogweissheit. Oder gibt es dafür Anschauungsmaterial, dass Unschärfe mit hoher Matrix-Auflösung anders aussieht, als Unschärfe mit geringer Matrix-Auflösung.

Also ... kann man Unschärfe hochaufgelöste darstellen und sieht sie dann besser aus, als Unschärfe mit geringer Auflösung ?

Oder liegt der Effekt nicht vielmehr daran, dass man aufgrund der Unempfindlichkeite anders belichten muss und die Bokeh dadurch anders ausfällt



Antwort von j.t.jefferson:

ich glaub wissenschaftlich kann man das nicht wirklich erklären...aber der Unterschied ist schon krass...auch je nachdem was ne Linse davor ist. Hatte letztens auf der Monstro das 28-80 von Zeiss und auch schon mal n 24-70 drauf und man merkt schon nen Bild Unterschied (abgesehen von der Brennweite). Wenn du in der Nähe wärst, würde ich dir ne Raven, Epic, Epic-W und ne Monstro nebeneinander stellen und damit dus mit verschiedenen Linsen testen könntest. Wohne nur leider im Rheinland.



Antwort von WoWu:

Das Unterschiede zwischen Auflösungen verschiedener Kameras und verschiedener Linsen sind ist schon klar nur den Einfluss der Pixelmatrix kann man nur sehen, wenn man mit derselben Linse und derselben Kamera einmal gebinnt und einmal ungebinnt aufnimmt und den Nachbearbeitungsweg ansonsten völlig identisch hält.
Das haben wir vor einiger Zeit mal mit der Flex gemacht, weil das RAW Signal hinter der Auslesung ( und damit dem Binning im Sensor) machbar war.
(Wahrscheinlich geht das bei andern Kameras auch).
Damit hätten wir 2 absolut identische Signale in unterschiedlichen Auflösungen und konnten sie gegeneinander vergleichen. Das haben wir mit "real world" gemacht und mit einem Test, den Anforderungen nach ISO12233 entsprechend und auch dessen automatische Auswertung nach 3 Verfahren vorgenommen (Phasen Shift, Histogram und Fit-Verfahren). Das Ergebnis waren die entsprechenden MTF-Werte.
Um das abzukürzen ... die höhere Auflösung des identischen Bildes hatte nur Nachteile. Selbst das vermeintliche Oversampling hat entgegen der Erwartungen keine Vorteile gebracht denn die geringe 1/2 BlendeBlende im Glossar erklärt an SNR wurde durch die erforderlichen steileren Filter mehr zunichte gemacht. Aufgrund der sowieso schon hohen Taktfrequent waren da auch Grenzen gesetzt, obwohl die Flex dafür eher prädestiniert ist, als jede andere Kamera.
Aber solche hohen Taktungen, um bessere Störabstände zu generieren, sind nun mal nicht unkritisch.

Nun kann man mutmaßen, woran der von Dir beobachtete Fidelity Zuwachs beruht (ich bestreite das gar nicht, dass Dir bestimmte Aufnahmekonstellationen besser gefallen, als andere) ... nur hat das mit der Pixelmatrix objektiv nichts zu tun, es sei denn, das objektiv beschädigtere Bild wird als das Bessere empfunden.
Gibt’s ja auch manchmal und Manche hier können ja auch 16K sehen.
Daran sieht man mal, wie subjektiv das ganze Thema ist.
Dazu kommt noch, das den Meisten hier an der Objektivierung des Themas gar nicht gelegen ist, dann müssten sie nämlich zugeben, dass ihre Fotoknipsen doch ziemlicher Müll sind. Also finden Sie die Bilder lieber super.
Da spielt viel Emution mit hinein, auch wegen der Kohle, die sie u.U. in den Sand gesetzt haben.

Aber nochmal auf den hier besprochenen Sensor zurück zu kommen.
Für mich geht RED da einen ersten Schritt in die richtige Richtung, bei dem Auflösungswahn mal HALT zu machen und 6y sind schon eine akzeptable Größe, mit der man recht gut arbeiten kann. Wenn man das Teil auch noch binnen kann, umso besser, dann kommen da vermutlich sehr ansehnliche Aufnahmen raus, für die es auch noch bezahlbare Objektive gibt.
Etwas "hausbacken" finde ich noch die "dual sensitivity mode" weil man nur entweder/oder machen kann.
Statt solche Hardware als Comparator zu betreiben, wie ARRI das z.B. macht, bei dem aus den beiden Verstärkerwegen eine einzige Comparatorspannung gemacht wird, aus der das Bild entsteht. Da hat man dann nämlich beide Vorteile gleichzeitig, ohne umschalten zu müssen.



Antwort von iasi:

Das Gesetz der großen Zahlen

Die Sensordaten werden mathematisch verarbeitet, somit erhält man mit größerer Datenbasis exaktere Werte.

Zudem:
Ein einzelnes Filmbild enthält weniger Informationen, als die Kombination von hintereinander projizierten Filmbildern - die Unterschiede der Kornstruktur zwischen den einzelnen Bildern kommt hier zum tragen.
Will man dem mit digitalen Aufnahmen nahe kommen, benötigt man höhere Auflösungen beim digitalen Einzelbild.

Ob nun 5k ausreichend sind oder mehr nötig ist, ... ?

Wenn eine 4k-Projektion das Ziel ist, dürften 5k-RAW schon grenzwertig sein. Zumindest sofern man nicht mathematisch nachhelfen möchte - was bei 3D ja mittlerweile schon üblich ist.



Antwort von Frank Glencairn:



Ein einzelnes Filmbild enthält weniger Informationen, als die Kombination von hintereinander projizierten Filmbildern - die Unterschiede der Kornstruktur zwischen den einzelnen Bildern kommt hier zum tragen.
Will man dem mit digitalen Aufnahmen nahe kommen, benötigt man höhere Auflösungen beim digitalen Einzelbild.

Nö, da brauchst du einen vibrierenden Sensor, wie bei der Aaton.



Antwort von Roland Schulz:


Meiner Meinung nach haben wir was die Auflösung von Kamera-Sensoren für den Videobereich angeht schon lange die Grenze des Sinnvollen erreicht.
Angenommen wir verwenden eine Objektiv-Sensor Kombination, sodass wir einen horizontalen Bildwinkel von 50° erreichen, dann löst ein 8k Sensor im Abstand von etwa 5m auf eine Distanz von ca. 0,5mm auf. Wenn ich jetzt eine Person habe, die in diesem Abstand mit ca. 0,5m/s (ca. 1,8 km/h) senkrecht zum Kamera-Blickwinkel durch das Bild läuft, dann bräuchte ich eine VerschlusszeitVerschlusszeit im Glossar erklärt von 1ms, um meine Auflösung nicht durch die entstehende Bewegungsunschärfe zu verlieren. Nimmt man die 180° Regel, dann resultiert daraus eine Bildwiederholfrequenz von 500 Hz.
Mal abgesehen von der Machbarkeit würden jetzt bestimmt wieder viele Auflösungs-Fanatiker, die ich kenne behaupten, dass alles jenseits 24 Hz nicht cineastisch ist.
Ok wenden wir den Strahlensatz an, dann finden wir heraus, dass ein Objekt, welches sich mit 1,8 km/h in der Bildebene bewegt, bei einer 8k Kamera mit 50° FOV und 24 Hz über 100 m entfernt sein müsste, um der Auflösung gerecht zu werden. Das alles gilt natürlich immer unter der Voraussetzung, dass wir ein Objektiv haben, dessen Tiefpass-Wirkung eine entsprechend hohe Auflösung überhaupt zulässt.
Wenn man Debayering berücksichtigt werden die Werte minimal besser, dennoch stellt sich mir hier die Frage nach Sinn und Unsinn ... In vielen Film Aufnahmen haben wir, durch die 24 Hz bedingte Bewegungsunschärfe, bereits Auflösungen von weniger als HD im Fall von Action-Szenen häufig noch nicht mal PALPAL im Glossar erklärt, aber wir wollen dennoch an der Auflösungsschraube drehen?

Da ist ohne Frage viel Wahres dran - nur dürfen wir nicht vergessen dass es jede Menge Situationen gibt in denen Szenen statisch gefilmt werden und sich nur Bildausschnitte bewegen bei denen wir die Bewegung mit dem Auge ohnehin nur begrenzt detailliert wahrnehmen. Bei den eher statischen Bildanteilen haben wir mit 6-8 schon einen Vorteil, auch wenn "nur" 4K poduziert wird!

Die meisten hier haben u.A. durch Beispiele schon mitgekriegt dass eine Oversampling Kamera ein höherauflösendes Bild produziert als eine "nativ" auflösende Kamera, es sei denn wir haben eine nativ auflösende 3 Chip Kamera.
Aus u.A. meinen Beispielen (4K-4All) wissen viele auch, dass selbst eine 6K Oversamplingkamera zwar ~4K Lumaauflösung produzieren kann, nicht jedoch eine ebenso hohe Chromaauflösung mit Motivfarben nahe der Farbfilter des Sensors (~rot/blau) erfassen kann. Das lag in meinem Vergleich auch nicht nur an der Farbunterabtastung sondern auch am Debayering.

Die 8K Red ist demnach keine echte 8K Kamera sondern kommt irgendwo Richtung 6K Luma und 4K Chroma. Haben wir jetzt noch eine Senke die 4:4:44:4:4 im Glossar erklärt oder RGBRGB im Glossar erklärt wiedergibt haben wir einen Nutzen da wahrscheinlich nicht nur ich auch bei 4K noch Grenzen sehe.
Wer ggf. meinen a7III Test verfolgt und die Samples geladen hat wird vielleicht wie ich festgestellt haben, dass z.B. beim ISO Test der Pinsel/Haare nur noch "befriedigend" wiedergegeben wurde obwohl eine 6K Downsamplingkamera zum Einsatz kam welche ~4K Lumaauflösung liefert. Meine Augen hätten hier mehr "aufgelöst", dazu hatte ich den zuvor aufgenommenen Pinsel einfach mal neben den TV gestellt, dabei sogar mit kleinerem Abbildungsmaßstab (auf dem Bildschirm dargestellter Pinsel war größer).
Hier kommt Wowu"s Einwand dann zum Zuge indem er richtig dargestellt hat, dass eine 4K Kamera gar keine 4K Motivauflösung abbilden kann (Nyquist). Das ist auch richtig, nur sagt nK auch gar nicht aus dass nK Details erfasst werden können sondern nur dass nK individuelle PixelPixel im Glossar erklärt dargestellt werden können.

Weiterhin sehe "ich" bei entsprechender "Bildschärfe" weiterhin Aliasingeffekte in der Darstellung, auch in 4K Bildern wenn sich das System an der Grenzauflösung befindet. Auch hier könnten wir mit 8K weitere Vorteile schaffen in dem der Effekt halbiert werden würde. Da sehe ich aber primär die Senke (TV) in der Notwendigkeit da hier ggf. auch 4K Material sinnvoll interpoliert werden könnte.

Wir brauchen auch nicht zwingend 500Hz um gewisse Bewegungen scharf darzustellen. Wenn man mal alte Zöpfe abschneidet und schnellere Verschlusszeiten wählt, in der Senke eine Frameinterpolation zur Verfügung steht haben wir ganz schnell auch mehr Bewegtbildauflösung - mit gewissen Nachteilen die durch "Motionflow" ohne weiteres entstehen können.



Antwort von Roland Schulz:



Ein einzelnes Filmbild enthält weniger Informationen, als die Kombination von hintereinander projizierten Filmbildern - die Unterschiede der Kornstruktur zwischen den einzelnen Bildern kommt hier zum tragen.
Will man dem mit digitalen Aufnahmen nahe kommen, benötigt man höhere Auflösungen beim digitalen Einzelbild.

Nö, da brauchst du einen vibrierenden Sensor, wie bei der Aaton.

..wir brauchen nur korn-/rauscharme Bilder.



Antwort von Roland Schulz:


...dass alles jenseits 24 Hz nicht cineastisch ist.

...wäre doch schon mal nen Anfang ;-)!!



Antwort von mediadesign:


Von welcher 180Grad Regel sprichst Du ?
Ich vermute nicht der, aus dem Filmbereich.

Es gibt noch eine andere 180°-Regel, die im Prinzip besagt, dass man immer mit dem doppelten ShutterShutter im Glossar erklärt der FramerateFramerate im Glossar erklärt aufnimmt. Also z.B. bei 25p nimmt man 1/50, bei 50p 1/100...bei 1000p Highspeed 1/2000 usw.



Antwort von Rick SSon:

Hach. Letztendlich würde ich mich ganz opfermäßig immer für eine Arri entscheiden, wenn ich die Wahl hätte. Das Bild sieht einfach gut aus. Trotz gefühler SD Auflösung im Vergleich zu RED. Bastelkameras gibts auch günstiger.

Workhorse bleibt workhorse bleibt workhorse.



Antwort von iasi:


Hach. Letztendlich würde ich mich ganz opfermäßig immer für eine Arri entscheiden, wenn ich die Wahl hätte. Das Bild sieht einfach gut aus. Trotz gefühler SD Auflösung im Vergleich zu RED. Bastelkameras gibts auch günstiger.

Workhorse bleibt workhorse bleibt workhorse.

aha - Bild sieht gut aus und workhorse ... mehr kann man für eine Arri nicht ins Feld führen?

Das ist dann aber doch etwas dünn.



Antwort von Frank Glencairn:

Mehr Kamera braucht man bekanntlich nicht, für einen oscarreifen Blockbuster.

...und was drehst du so?



Antwort von iasi:



Ein einzelnes Filmbild enthält weniger Informationen, als die Kombination von hintereinander projizierten Filmbildern - die Unterschiede der Kornstruktur zwischen den einzelnen Bildern kommt hier zum tragen.
Will man dem mit digitalen Aufnahmen nahe kommen, benötigt man höhere Auflösungen beim digitalen Einzelbild.

Nö, da brauchst du einen vibrierenden Sensor, wie bei der Aaton.

Das Schöne an digital: Hat man reichlich Ausgangsmaterial, kann man es nach Belieben formen.
Da muss dann kein Sensor vibrieren, denn den gewünschten Effekt kann man fein gesteuert und unter vollkommener Kontrolle in der Post erzeugen - sofern das Ausgangsmaterial genügend Luft bietet.

Wenn man natürlich eh schon hochgerechnetes 4k-Material vorliegen hat, ist der Gestaltungsspielraum eben doch ziemlich gering, soll am Ende 4k herauskommen.

Die GEMINI ist für low light und für höhere Frameraten OK, aber ansonsten spricht bisher nichts für sie.



Antwort von iasi:


Mehr Kamera braucht man bekanntlich nicht, für einen oscarreifen Blockbuster.

...und was drehst du so?

na dann holen wir doch die guten alten Stummfilmkameras aus dem Keller - die waren auch gut für oscarreife Blockbuster



Antwort von Frank Glencairn:

Schwach - was hat das Audio mit der Kamera zu tun?



Antwort von WoWu:



Von welcher 180Grad Regel sprichst Du ?
Ich vermute nicht der, aus dem Filmbereich.

Es gibt noch eine andere 180°-Regel, die im Prinzip besagt, dass man immer mit dem doppelten ShutterShutter im Glossar erklärt der FramerateFramerate im Glossar erklärt aufnimmt. Also z.B. bei 25p nimmt man 1/50, bei 50p 1/100...bei 1000p Highspeed 1/2000 usw.

Nee, nee da gibt es keine Regel. FramerateFramerate im Glossar erklärt und Shutterfrequenz sind zwei unabhängige Tools und haben im Videobereich nichts miteinander zu tun.
Schon allein, weil es die Dunkelphase im Bildtransport gar nicht gibt, aus der so eine Abhängigkeit im Filmbereich abgeleitet wurde.
Übrigens gibt es auch diesen Zwang nicht im Filmbeteich, weil es unterschiedliche Sektorenblenden (im Film) gibt.

@Iasi
Das "Gesetz der großen Zahl" hat mit der Menge an Pixels in einer Matrix nichts zu tun sondern damit, in welcher Häufigkeit sich ein Vorgang in einem stochastischen Umfeld wiederholt.
Und wenn Du am Rauschen mit dem GGZ was ändern willst, musst Du die Abtastfrequenz erhöhen und nicht die Menge der Pixels.
Aber selbst dann frage ich mich, was man mit dem Ergebnis anfangen will.

Außerdem stimmt Deine "Rauschtheorie" nicht. Rauschen ist nicht etwas, das ein Nutzsignal (wie ein Layer) überlagert sondern der Ersatz eines Nutzsignsls. Kleine Pixels weisen aber einen geringeren Störabstand als große Pixels auf, neigen also viel stärker dazu, das Bildsignal zu ersetzen. Du hast also bei kleinen Pixeln die Tendenz zu mehr Rauschen und damit zu deutlich weniger Bildinhaltssignal. (Bildinformation)



Antwort von iasi:


Schwach - was hat das Audio mit der Kamera zu tun?

Nichts - überdenke nochmal, meinen Satz.



Antwort von iasi:



@Iasi
Das "Gesetz der großen Zahl" hat mit der Menge an Pixels in einer Matrix nichts zu tun sondern damit, in welcher Häufigkeit sich ein Vorgang in einem stochastischen Umfeld wiederholt.

Stimmt so nicht - die Bildwerte werden berechnet - anhand der Datenbasis. Je größer die Datenbasis, desto stärker die Annäherung.

Stochastische Berechnungen hast du zudem auch bei Komprimierungen.



Antwort von Jan Reiff:

der Gemini-Sensor wird sicherlich bei mir eine Option für einen Tausch mit einem Dragon 6K.
Alles was ich bisher gesehen habe war überzeugend, die in Facebook / Vimeo von Vincent Laforet zu sehenden Shots sind für Red User mehr als verlockend.
Das Upgrade wird sich auch sehr im finanziellen Rahmen halten.

Eine Alternative für die Helium ist der Sensor nicht:
Helium 8K hat für mich nochmal einen Schub gebracht an Detailauflösung und angenehmen Bildeindruck, darauf will ich nicht mehr verzichten.

Dass Red jetzt einen Sprung zurück macht zu weniger "Auflösung" ist natürlich Unsinn, das Flagschiff ist und bleibt die 8K Monstro, die a) große Detailauflösung bietet und b) auch sehr lichtstark ist - jeder der damit schon gearbeitet hat und sich mal in 100% Modus die Bilder anschaut macht ne Pulle Schampus auf.

Entscheidend ist bei der Gemini, dass der Sensor die Details hält auch wenn es nahezu stockdunkel ist (siehe das Laforet Video in dem er mit dem iphone parallel dreht (FB))
Hier sehe ich für meine Projekte die kundenspezifisch auch bei available light und wenig Licht stattfinden große Möglichkeiten.
Upgrade also mehr als wahrscheinlich, auch wenn ich mehr dem Hydrogen entgegenfieber.



Antwort von WoWu:



@Iasi
Das "Gesetz der großen Zahl" hat mit der Menge an Pixels in einer Matrix nichts zu tun sondern damit, in welcher Häufigkeit sich ein Vorgang in einem stochastischen Umfeld wiederholt.

Stimmt so nicht - die Bildwerte werden berechnet - anhand der Datenbasis. Je größer die Datenbasis, desto stärker die Annäherung.

Stochastische Berechnungen hast du zudem auch bei Komprimierungen.

Hier ging es gar nicht darum, in welchen Feldern überall Stochastic zur Anwendung kommt sondern um das "Gesetz der großen Zahlen".

"Das Gesetz der großen Zahlen sagt aus, dass sich die relative Häufigkeit eines Zufallsergebnisses auf die theoretische Wahrscheinlichkeit eines Zufallsergebnisses einpendelt, wenn man das Zufallsexperiment nur oft genug wiederholt.
Wichtig ist zu bemerken, dass das Gesetz der großen Zahlen nichts über die absolute Verteilung der Wahrscheinlichkeiten aussagt."

Es kommt hinzu, dass Du gar keine größere Datenbasis mit kleiner werdender MTF hast, weil sich die einzelnen Werte immer weiter annähern, bzw. in zunehmender Zahl identisch sind.
Damit reduziert sich Deine Datenbasis denn je mehr PixelPixel im Glossar erklärt denselben Wert annehmen umso weniger aufgelöst wird das Ergebnis sein.
Wenn alle Werte z.B. "Grau" sind, kannst Du soviel PixelPixel im Glossar erklärt haben, wie Du willst. Die Bildauflösung hat ihr Minimum erreicht.
Dabei ist noch nicht mal das angesprochene Rauschverhalten kleiner Pixels berücksichtigt, dass die Datenbasis weiter verringert, weil verrauschte Pixels keine Bildinformation beinhalten.
Die Abhängigkeit besteht also nicht in der Menge der Pixels als Merkmal.
Sowas sollte sich aber mittlerweile rumgesprochen haben.



Antwort von Roland Schulz:


Dabei ist noch nicht mal das angesprochene Rauschverhalten kleiner Pixels berücksichtigt, dass die Datenbasis weiter verringert, weil verrauschte Pixels keine Bildinformation beinhalten.

...dünnes Eis da jeder Sensel auf dem Sensor rauscht, in jedem Bereich vom Dark Current bis Full Well es sei denn die Erfassungsdynamik des ADC ist kleiner als die Dynamik der Analogschaltkreise incl. der Dioden, dann gibt es Grenzen beim darkcurrent und fullwell in der Ausgabe.
Dazwischen rauscht ein Sensel immer, auch beim angesprochenen "Grau" das sehr wohl eine Information darstellt.

Selbst wenn das Nutzsignal (Differenz zu anderem Signal) kleiner ist als die Rauschamplitude kann man u.U. ein Nutzsignal zurückgewinnen da entweder a) das Auge träge ist und "integriert" oder halt b) eine NR.
Sowas fällt z.B. bei einer DR Überprüfung mit einer DR Wedge auf, bei der die dunkelsten Balken mitunter schon völlig verrauscht sind, für‘s Auge aber trotzdem erkennbar bleiben.
Bis wohin sowas noch sinnvoll ist steht auf einem anderen Blatt.



Antwort von iasi:



Hier ging es gar nicht darum, in welchen Feldern überall Stochastic zur Anwendung kommt sondern um das "Gesetz der großen Zahlen".

"Das Gesetz der großen Zahlen sagt aus, dass sich die relative Häufigkeit eines Zufallsergebnisses auf die theoretische Wahrscheinlichkeit eines Zufallsergebnisses einpendelt, wenn man das Zufallsexperiment nur oft genug wiederholt.
Wichtig ist zu bemerken, dass das Gesetz der großen Zahlen nichts über die absolute Verteilung der Wahrscheinlichkeiten aussagt."

Es kommt hinzu, dass Du gar keine größere Datenbasis mit kleiner werdender MTF hast, weil sich die einzelnen Werte immer weiter annähern, bzw. in zunehmender Zahl identisch sind.
Damit reduziert sich Deine Datenbasis denn je mehr PixelPixel im Glossar erklärt denselben Wert annehmen umso weniger aufgelöst wird das Ergebnis sein.
Wenn alle Werte z.B. "Grau" sind, kannst Du soviel PixelPixel im Glossar erklärt haben, wie Du willst. Die Bildauflösung hat ihr Minimum erreicht.
Dabei ist noch nicht mal das angesprochene Rauschverhalten kleiner Pixels berücksichtigt, dass die Datenbasis weiter verringert, weil verrauschte Pixels keine Bildinformation beinhalten.
Die Abhängigkeit besteht also nicht in der Menge der Pixels als Merkmal.
Sowas sollte sich aber mittlerweile rumgesprochen haben.

Und - Rauschverhalten - habe ich zwei verfälschte Werte in einer großen Menge, dann ist das Ergebnis eben nicht automatisch schlechter, als ein verfälschter Wert in einer kleineren Menge. Dies gilt dann auch für andere Störungen wie Abbildungsfehler des Objektivs. Im ganzen Aufnahmeprozess hast du eine Berechnung nach der anderen - das Gesetz der großen Zahl schlägt also mehrmals ein.
Zudem wird nicht nur das Einzelbild betrachtet, sondern die Abfolge von Bildern - auch hier hast du bei Bildfehlern eine Vorteil bei höherer Auflösung - ganz ähnlich wie bei der Kornstruktur beim Negativ.

Zum Rauschverhalten:
Die GEMINI wurde für low light konzipiert, benötigt also geringere Lichtmengen.
Dies bedeutet aber nicht, dass der HELIUM nun stärker rauscht, wenn man ihn vernünftig belichtet - also wohl konkret mit etwa 2 Blenden mehr.

GEMINI ist gut für low light und für höhere Frameraten, dank geringerem Crop. Das war"s dann aber scheinbar auch.

Nutzt man den HELIUM mit 24fps und "normaler" Beleuchtung/Belichtung hat man all die Vorteile, die die höhere Auflösung nun einmal bietet.



Antwort von WoWu:

@Iasi

Du versuchst nur mit einem "pseudo"wissenschaftlichen Begriff das zu ersetzen, was in Blogs üblicherweise "je mehr Pixels, umso besser" heißt.

Bildqualität setzt sich aber aus der Qualität jedes einzelnen Pixels zusammen.
Wenn ein PixelPixel im Glossar erklärt rauscht, dann hat es nun mal keine Bildinformation mehr. Das ist Fakt. Es ist auch Fakt, dass große Pixels eine höhere Wahrscheinlichkeit als kleine Pixels haben, Photonen aufzunehmen und daher seltener in den Rauschzustand kommen, also weniger gegen Informationsverluste im Bild zu kämpfen haben.
Darüber hinaus setzt sich die Informationsmemge eines Bildes daraus zusammen, wieviele unterschiedliche Informationen vorliegen.
Wenn das Objektiv aber schon dafür sorgt, dass pro4 PixelPixel im Glossar erklärt nur eine identische Information (Projektion vom Objektiv(zerstreuungskreis)) vorliegt, dann ist es bei dem Zerstreuungskreis unerheblich, ob man darunter noch 100 weitere Pixels anordnet oder nicht.
Ganz im Gegenteil. Wenn von den 100 Pixels nur ein PixelPixel im Glossar erklärt ein Photon aufnimmt, rauschen an der Stelle 99 Pixels innerhalb des Zerstreuungskreises, also innerhalb eines Bildpunktes.

Das betrifft auch die von Dir angeführten Abbildungsfehler, denn die optische Projektion wird identisch dargestellt, egal ob ich 500 oder 1000 Pixels darunter verwende, denn die Menge der unterschiedlichen Bildinformation ist immer gleich.
Du verwechselst immer noch die Pixelmatrix mit Bildinformation.

Dein Vergleich der unterschiedlichen Rauschwerte stimmt. Man könnte auch sagen ... es gibt in Kameras gar kein Rauschen, wenn man jedem PixelPixel im Glossar erklärt nur genügend Photonen zuführt, dass das Nutzsignal sich genügend abhebt.

Du merkst schon, dass da offenbar noch ein paar mehr Parameter hinein spielen. Dynamik nur mal so nebenbei angemerkt.
Vergleichst Du also einen Wert, muss man zwangsläufig die andern Werte ebenso betrachten und wenn Du sagst, mann muss kleine Pixels einfach stärker belichten, kannst Du die 2 Blenden oben gleich abziehen bzw. mehr, weil kleine Pixels zwangsläufig sowieso ein kleineres FullWell haben.

Lassen wir an dieser Stelle einmal das Problem des Oversamplings mal außen vor, weil es in diesen Frequenzen nur noch sehr theoretisch einen Beitrag leisten würde.

Abgesehen davon, scheint ja auch RED mit dem Schritt seinen Pixelwahn einwenig umzukehren, egal aus welchem Grund, sonst hätten sie ja einen 10 oder mehr K Sensor entworfen.
Es scheint doch so, als würde die Physik auch in Nordamerika gelten und "je mehr MPix umso besser" langsam seine Grenzen für die bestehenden Abtastmerhoden erreicht zu haben.
Aber freuen wir uns doch ... denn das heißt, das wir endlich eine Bildqualität bekommen haben, die sich eng am menschlichen Sehvermögen anlehnt.
Nun wird es Zeit sich noch um mehr Qualität pro PixelPixel im Glossar erklärt zu sorgen.



Antwort von Roland Schulz:


Wenn ein PixelPixel im Glossar erklärt rauscht, dann hat es nun mal keine Bildinformation mehr. Das ist Fakt.

Fakt ist dass das höfich ausgedrückt immer noch "unwahr" ist weil jeder Sensel jeder Digitalkamera immer rauscht und ohne Processing (NR, Dynamik-/Quantisierungsbegrenzung, Hysterese...) auch jeder PixelPixel im Glossar erklärt in einer (Bewegt-)Bilddarstellung, immer und überall, das ist Fakt!!!

Selbst wenn man es schafft das Signal in einer 8bit QuantisierungQuantisierung im Glossar erklärt zu "beruhigen" liegt das nur daran, dass hier bereits eine Dynamik-/Quantisierungsbegrenzung stattgefunden hat und das selbe Analogsignal bei 16+bit QuantisierungQuantisierung im Glossar erklärt sicherlich wieder ein "Eigenleben" führen würde.



Antwort von iasi:


@Iasi

Du versuchst nur mit einem "pseudo"wissenschaftlichen Begriff das zu ersetzen, was in Blogs üblicherweise "je mehr Pixels, umso besser" heißt.

Bildqualität setzt sich aber aus der Qualität jedes einzelnen Pixels zusammen.
Wenn ein PixelPixel im Glossar erklärt rauscht, dann hat es nun mal keine Bildinformation mehr. Das ist Fakt. ...

Du redest von "wissenschaftlich" und kommst mit so was?

Fakt ist, dass beim debayern und bei jeder Komprimierung Daten mathematisch verarbeitet werden.
Fakt ist, dass die Genauigkeit mit der Datenmenge zunimmt.
...

Und selbst wenn ein Sensel nun mehr Photonen einsammelt, als 4 zusammen, so liefern die 4 nun einmal eine größere Datenmenge. Weshalb sollten diese 4 bei ordentlicher Belichtung denn unbrauchbarere Daten liefern, als der eine?

Hinzu kommen solche Milchmädchenrechnungen, wie 4x so viele PixelPixel im Glossar erklärt = 1/4 Pixelgröße = 4x so hohes Rauschen ... "Fakt ist", das ist falsch ...

Eine Alexa ist trotz der großen Sensel übrigens nicht sonderlich lichtstark und rauscht vergleichsweise stark bei low light.

Beim GEMINI braucht man 2 Blenden weniger Licht für eine ordentliche Belichtung als bei einer Helium.
Da die Auflösung geringer ist, kann die Kamera höhere Bildraten bei voller Sensorgröße verarbeiten. Beim Helium muss für die gleiche Auflösung und damit gleiche FramerateFramerate im Glossar erklärt gecropt werden.

Das war"s dann aber auch schon.

Die große Nutzung der Alexa-Kameras zeigt doch, dass es in dieser Kameraklasse nicht sehr oft auf low light-Fähigkeiten bzw. hohe Lichtempfindlichkeit ankommt.



Antwort von WoWu:

@Iasi

Mir ist noch nicht so ganz klar, was Du mit solchen Trivialaussagen, dass es Fakt sei, dass Daten in De-mosaicing und in der KompressionKompression im Glossar erklärt mathematisch verarbeitet werden, sagen willst.
Das hat niemand in Frage gestellt.
Du verwechselst aber immernoch die Anzahl der Pixels mit der Menge der Bildinformation.
Von Dir vereinfacht als "Datenmenge" bezeichnet.
Wenn Du aber eine Bildinformation (z.B. 1 Zerstreuungskreis) über einen PixelPixel im Glossar erklärt oder über 4Pixels überträgst, hast Du zwar die 4-fache Datenmenge, aber es bleibt eine einzige Bildinformation. Der Übertragungsweg wird nur breiter, langsamer, unhandlicher und bietet sich geradezu für eine KompressionKompression im Glossar erklärt an. Stellt sich nur die Frage nach der Notwendigkeit, weil nicht mehr Bildinhalt enthalten ist.

Und dass in der Summierung aus n-Pixeln nicht automatisch die n-fache Summe an Rauschen entsteht, brauchst Du mir nicht erzählen.
Das Beispiel diente nur der Anschauung.
Nur ist es ja nicht so, dass die Pixels gebinnt werden. Man müsste sich also die genauen Bedingungen des Sensors anschauen, um den genauen Rauschwerte zu ermitteln.
Aber Du hast ja selbst gesagt, dass die kleineren Pixels die Vervierfachung des Lichtes brauchen, (2Blenden) ... das Problem kommt also schon aus Deiner Einlassung und ich habe es nur aufgegriffen.

Und was die 4 Pixels betrifft, so betrachtest Du wieder nicht die Bilddetails.
Verwechsel doch endlich mal nicht mehr diese beiden Dinge.



Antwort von nic:


@Iasi

Mir ist noch nicht so ganz klar, was Du mit solchen Trivialaussagen, dass es Fakt sei, dass Daten in De-mosaicing und in der KompressionKompression im Glossar erklärt mathematisch verarbeitet werden, sagen willst.
Das hat niemand in Frage gestellt.
Du verwechselst aber immernoch die Anzahl der Pixels mit der Menge der Bildinformation.
Von Dir vereinfacht als "Datenmenge" bezeichnet.
Wenn Du aber eine Bildinformation (z.B. 1 Zerstreuungskreis) über einen PixelPixel im Glossar erklärt oder über 4Pixels überträgst, hast Du zwar die 4-fache Datenmenge, aber es bleibt eine einzige Bildinformation. Der Übertragungsweg wird nur breiter, langsamer, unhandlicher und bietet sich geradezu für eine KompressionKompression im Glossar erklärt an. Stellt sich nur die Frage nach der Notwendigkeit, weil nicht mehr Bildinhalt enthalten ist.

Und dass in der Summierung aus n-Pixeln nicht automatisch die n-fache Summe an Rauschen entsteht, brauchst Du mir nicht erzählen.
Das Beispiel diente nur der Anschauung.
Nur ist es ja nicht so, dass die Pixels gebinnt werden. Man müsste sich also die genauen Bedingungen des Sensors anschauen, um den genauen Rauschwerte zu ermitteln.
Aber Du hast ja selbst gesagt, dass die kleineren Pixels die Vervierfachung des Lichtes brauchen, (2Blenden) ... das Problem kommt also schon aus Deiner Einlassung und ich habe es nur aufgegriffen.

Und was die 4 Pixels betrifft, so betrachtest Du wieder nicht die Bilddetails.
Verwechsel doch endlich mal nicht mehr diese beiden Dinge.

Liegt der Zerstreuungskreis jedoch nicht genau über den vier Senseln des 8K-Sensors, sondern leicht versetzt oder ist er gar nur 1,5 Sensel breit, oder auch 2,5 kommst du mit der größeren Matrix natürlich zum exakteren Ergebnis. Aber Nyquist ist dir ja (besser als mir) bekannt...



Antwort von WoWu:

Mit welchem Objektiv löst Du die entsprechende MTF auf ?
Es steht doch gar nicht in Frage, dass ein Objektiv, das pro PixelPixel im Glossar erklärt eine Bildinformation liefert, auch 8K überträgt.
Wenn man mal von den ganzen Unzulänglichkeitenin der Prozesskette absieht, also im idealen optischen Verhalten.
Und Nyquist sagt (vereinfacht) auch nur, dass Du 8K für 4K Bildinformation braucht um das Signal so fehlerfrei zu rekonstruieren, dass es ein erträgliches Bild ergibt.



Antwort von iasi:


@Iasi

Mir ist noch nicht so ganz klar, was Du mit solchen Trivialaussagen, dass es Fakt sei, dass Daten in De-mosaicing und in der KompressionKompression im Glossar erklärt mathematisch verarbeitet werden, sagen willst.
Das hat niemand in Frage gestellt.
Du verwechselst aber immernoch die Anzahl der Pixels mit der Menge der Bildinformation.
Von Dir vereinfacht als "Datenmenge" bezeichnet.
Wenn Du aber eine Bildinformation (z.B. 1 Zerstreuungskreis) über einen PixelPixel im Glossar erklärt oder über 4Pixels überträgst, hast Du zwar die 4-fache Datenmenge, aber es bleibt eine einzige Bildinformation. Der Übertragungsweg wird nur breiter, langsamer, unhandlicher und bietet sich geradezu für eine KompressionKompression im Glossar erklärt an. Stellt sich nur die Frage nach der Notwendigkeit, weil nicht mehr Bildinhalt enthalten ist.

Und dass in der Summierung aus n-Pixeln nicht automatisch die n-fache Summe an Rauschen entsteht, brauchst Du mir nicht erzählen.
Das Beispiel diente nur der Anschauung.
Nur ist es ja nicht so, dass die Pixels gebinnt werden. Man müsste sich also die genauen Bedingungen des Sensors anschauen, um den genauen Rauschwerte zu ermitteln.
Aber Du hast ja selbst gesagt, dass die kleineren Pixels die Vervierfachung des Lichtes brauchen, (2Blenden) ... das Problem kommt also schon aus Deiner Einlassung und ich habe es nur aufgegriffen.

Und was die 4 Pixels betrifft, so betrachtest Du wieder nicht die Bilddetails.
Verwechsel doch endlich mal nicht mehr diese beiden Dinge.

Du sprichst immer von Bilddetails, wo es zunächst einmal nur um Sensordaten geht.
Zunächst mal hast du bei einem Bayersensor erst mal nur Daten - aus denen kann man dann deine Bilddetails reproduzieren. Dabei haben sich die mathematischen Verfahren dank gesteigerter Rechenleistung verbessert.
Und:
Nimm den Zerstreuungskreisdurchmesser: Selbst die Reproduktion von Unschärfe gelingt mit mehr Sensordaten nun einmal besser, als mit wenigen.

Wir waren bisher mit der Rechenleistung bei hohen Auflösungen am Limit - dies wird sich ändern. Und dann gelingt auch bei hohen Auflösungen eine noch bessere Interpretation der Daten. Und dabei geht es doch nur in zweiter Linie um die Auflösung am Ende.
Die 8k des Helium bieten eine sehr gute Basis für 4k. Echte 8k bekommt man mit dem Helium-Material am Ende aber nicht.
Die 5k des GEMINI ist eher ein Kompromis zugunsten höherer Empfindlichkeit und höheren Frameraten ohne Crop.

Mag ja sein, dass man aus den 5k der GEMINI oder aus der ALEXA LF am Ende schönes 4k zusammenrechnen kann, aber deine echten 4k-Bilddetails bekommst du eben nicht - da helfen auch keine großen Sensel.



Antwort von iasi:


Mit welchem Objektiv löst Du die entsprechende MTF auf ?
Es steht doch gar nicht in Frage, dass ein Objektiv, das pro PixelPixel im Glossar erklärt eine Bildinformation liefert, auch 8K überträgt.
Wenn man mal von den ganzen Unzulänglichkeitenin der Prozesskette absieht, also im idealen optischen Verhalten.
Und Nyquist sagt (vereinfacht) auch nur, dass Du 8K für 4K Bildinformation braucht um das Signal so fehlerfrei zu rekonstruieren, dass es ein erträgliches Bild ergibt.

Genau - der Trick ist doch gerade, dass mehr als ein PixelPixel im Glossar erklärt Informationen für einen Bildpunkt liefert - damit hat man eine größere Datenbasis für die gesamte Prozesskette.
Das Schöne dabei ist doch, dass die Rekonstruktionsmethoden mit zunehmender Rechenleistung immer aufwändiger und besser werden können - gut wenn man hierzu dann auf eine große Datenbasis zurückgreifen kann.



Antwort von WoWu:

Nur schade, dass all die schönen SR Algorithmen nicht auf Pixelmengen zurückgreifen, sondern auf Bildinhalte.
Aber seís drum ... wollen wir mal hoffen, dass der neue Sensor bei 5K etwas mehr als die 2.900 Bildpunkte ausgibt, die vorher bei 5K angesagt waren und dass RED dann auch irgendwann vernünftiges UHD hinbekommt oder gar 4K.

Und die echten 4K bekommst Du erst, wenn genügen (große) Pixels vorhanden sind ( auf größeren Formaten ) oder 3Chips.

Aber es ist ja schon interessant zu hören, dass Du die optische Umsetzung bereits aufgegeben hast und auf künstlich errechnete Bilder setzt.
Nur gibt das auch nicht mehr Bilddetails ... es sieht nur geschärft aus.



Antwort von iasi:


Nur schade, dass all die schönen SR Algorithmen nicht auf Pixelmengen zurückgreifen, sondern auf Bildinhalte.
Aber seís drum ... wollen wir mal hoffen, dass der neue Sensor bei 5K etwas mehr als die 2.900 Bildpunkte ausgibt, die vorher bei 5K angesagt waren und dass RED dann auch irgendwann vernünftiges UHD hinbekommt oder gar 4K.

Und die echten 4K bekommst Du erst, wenn genügen (große) Pixels vorhanden sind oder 3Chips.

Bildinhalte? Setzt du große Hoffnungen in KI? :)

Dein letzter Sat zeigt, dass wir gar nicht so weit auseinander liegen. Bleibt nur die Frage, wie groß denn (große) sein müssen.

Red hat doch schon längst "vernünftiges UHD oder gar 4K hinbekommt" - Helium und VV.

Ob die 5k der Gemini reichen, bleibt fraglich, aber die ALEXA LF schafft es z.B. auch nur mit wirklich guten Algorithmen.



Antwort von WoWu:

Zeig mal ein Bild (Framefolge), auf dem ein natürliches Objekt in Größe und Enferrnung nachvollziehbar die 4K Kriterien erfüllt.
Ansonsten bleibt es bei den 2900 Bildpunkten ... bis der nächste Test bessere Ergebnisse erbringt.



Antwort von iasi:


Zeig mal ein Bild (Framefolge), auf dem ein natürliches Objekt in Größe und Enferrnung nachvollziehbar die 4K Kriterien erfüllt.
Ansonsten bleibt es bei den 2900 Bildpunkten ... bis der nächste Test bessere Ergebnisse erbringt.

Du meinst so eine Aufnahme wie in Lawrence of Arabia mit der Karawane, die nur der Bedu mit bloßen Auge erkennen kann. :)
Es geht doch bei der hohen Auflösung um etwas mehr, als ein winziges Objekt noch erkennen zu können.

Ich würde gerne mal wieder Filme sehen, die in der Natur schwelgen und dem Zuschauer die Möglichkeit bieten, eine Aufnahme selbst zu erkunden und kleine Objekte zu entdecken.

Aber selbst in den Augen der Darsteller lässt man den Zuschauer kaum mehr lesen.

Dann will man auch noch große Sensoren, die kaum mehr einen scharfen Hintergrund zulassen. Bei 50mm brauchst du bei FF ganz schnell f16, um ausreichend DOF zu erhalten, damit eine Person im Vordergrund auch scharf ist - und dann ist deine Linse eben nicht mehr im optimalen Bereich, sodass dann kleine Objekte nicht sauber abgebildet werden.



Antwort von WoWu:

Na ja, wie erwarte ... viele Worte, wenig Substanz.



Antwort von Jan Reiff:

Pixel size is relatively independent of image quality. It's not how big the pixel is - it's how it's designed. I'd say the Monstro image with its 5 micron pixel is the best out there at the moment. It's supremely lovely. The 5.5 micro pixel of the original Red One just doesn't look at good - even though it's bigger. The much smaller 3.6 micron of the Helium looks better than M, MX and Dragon, all of which have bigger pixels.
So, where does that leave Gemini. It's special. It's got extra height so great for anamorphic. The low light mode is lovely. It doesn't have quite the resolution of the other main Red sensors, so you don't get quite the same downsampling benefit, but at least at 5k you'll get a measured 4k (rather than sub-4k) resolution. The flexibility the two modes offers is going to be really useful for many.

Graeme Nattress



Antwort von iasi:


Na ja, wie erwarte ... viele Worte, wenig Substanz.

nun sei doch nicht so streng mit dir ;)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum RED EPIC / Scarlet-X / Dragon / Raven-Forum

Antworten zu ähnlichen Fragen:
RED Gemini S35 Sensor: Spezialanfertigung mit 18.8+ Stops
Zampano x Raul - Tranquilo (Shot on RED Gemini)
Jacqueline Scherer // Playmate (Shot on RED Gemini)
Panasonic: Neuer organischer Sensor kann HDR mit Global Shutter
FullHD mit bis zu 1000 fps: Neuer Sony 3-Layer Stacked DRAM CMOS Sensor f&u
Erstes Hands On: ARRI ALEXA LF mit Vollformat+ Sensor, neuer LPL Mount & ARRI Signature Primes Objektive
Neuer Wunder-Sensor von Sony?
Neuer Sensor - warten auf die Überkamera
RED 8K Dragon vs 8K Helium Sensor: Dynamikumfang, Lowlight, Skintones
Neue Codecs, Framerates und neuer Sensor für die Ursa
Red Raven wird nochmal aufgewertet: Größerer 4,5K Dragon Sensor
Neuer MFT-Sensor MST4323 von Fairchild - evtl. für Blackmagic Kameras?
Blackmagic URSA Update auf neuen 4.6K Sensor, außerdem neuer EVF // NAB 201
RED kündigt 8K S35 Helium Sensor für Weapon & Epic-W an
NAB naht - und Red beginnt das alljährliche Spiel mit der RED WEAPON
Quanta Image Sensor - Auf dem Weg zum Gigapixel-Sensor?
Erstes Bildmaterial vom Canon 120MP Sensor sowie 35mm FHD Lowlight Sensor
Wegen Laserschow Sensor Defekt? BMPCC Damaged Sensor
Suche Dual-Head Grafikkarte (mit 2 x Videoausgang!)
GH5 Unterschied Dual IS mit und ohne
Low Light Gemini vs Alexa Mini
Satte Leistung - PowerColor DEVIL 13 Dual Core R9 390 mit 16 GB
dual layer DVD erstellen auf Mac OS X 10.7.5 mit DVDSP
Ang Lees "Gemini Man" - offizieller Trailer
Sonnet bringt pro media Dual CFast 2.0 Reader mit Thunderbolt 3 // NAB 2017
Litepanels: neues Gemini 2x1 Bi-Color LED Softpanel // IBC 2017

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
18-22. September / Münster
Filmfestival Münster
19-22. September / Bremen
Filmfest Bremen
22. September / Essen
Essener Video Rodeo | Kurzfilme aus dem Ruhrgebiet
4-5. Oktober / Espelkamp
Filmfestival SPITZiale
alle Termine und Einreichfristen


update am 21.September 2019 - 18:02
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*