Früher - vor HD - hatte man in der Tat Personen vor Greenscreen vertikal aufgenommen, wenn irgend möglich. Allerdings einfach nur, weil die Auflösung - quasi Pixel pro Person - so höher war.
Das ist falsch.JuliaLL hat geschrieben: ↑Sa 14 Feb, 2026 16:36 Jetzt habe ich doch auch noch eine "Nerd-Frage" zum Thema "Bayer-Sensoren nehmen nur in 4:2:0 auf" - evtl. kann Jesus hier wieder helfen und Licht ins Dunkle bringen.
Habe ich das richtig verstanden, dass das daran liegt, dass Bayer‑Sensoren ohnehin nur die RGB‑Werte interpolieren und daher gar kein "natives" 4:2:2 (oder 4:4:4) liefern können?
Und ein kleiner Ausflug in die Praxis:
Deshalb bieten viele Kameras bei ihrer höchsten Auflösung auch "nur" 4:2:0 an, wie zum Beispiel die Panasonic LUMIX S1RII bei 8,1K.
Und Kameras wie etwa die Canon EOS C500 Mark II können nur deshalb bei ihrer höchsten Auflösung in 4:2:2 aufnehmen, weil der Sensor 20,8 MP besitzt und somit etwas Oversampling möglich ist?
Habe ich das so grob richtig verstanden?
Sehr gerne.
Wenn ich dies nun auf die Chrominanz begrenze und 4 Zeilen nehme ergibt sich:4:2:0
Luminanz:
1111
1111
CbCr Zeile 1:
1010
CbCr Zeile 2:
0000
Es gibt also die volle Luminanzinformation in beiden Zeilen.
In der ersten Zeile genau wie bei 4:2:2 einen Pixel mit Farbdifferenzinformation und einen ohne. Also 2 Farbdifferenzinformationen in der ersten Zeile.
In der zweiten Zeile gibt es jedoch gar keine Farbdifferenzinformation!
Na ja - auch eine Alexa 35 ist keine eierlegende Wollmilchsau. ;)JesusWolf hat geschrieben: ↑So 15 Feb, 2026 02:14
Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.
Die habe ich ja hier angesprochen:iasi hat geschrieben: ↑So 15 Feb, 2026 02:47Na ja - auch eine Alexa 35 ist keine eierlegende Wollmilchsau. ;)JesusWolf hat geschrieben: ↑So 15 Feb, 2026 02:14
Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.
Das bei Bayer-Sensoren immer empfehlenswerte Oversampling bietet die Alexa zudem auch - wenn auch in der Mindestgröße. :)
Arri ist zudem der einzige Cine-Cam-Hersteller, der noch unkomprimiertes Raw wegschreibt - und daher auch nicht einfach mal eine Vollformat-Version des 35er-Sensor bringen kann.
Schon die Komprimierung der Raw-Formate anderer Hersteller ist nicht verlustfrei, was bedeutet, dass die ursprünglichen Raw-Daten nicht vollständig wiederhergestellt werden können.
Bei Farbunterabtastung gehen natürlich auch Daten verloren.
Da kann man dann von visual-lossless reden, um es zu beschönigen, aber den Datenverlust hat man.
Wenn man die Daten dann mit H265/GOP/4:2:0 eindampft, ist es dann doch auch mit visual-lossless schnell mal kritisch.
Übrigens:
Die Sensoren der Blackmagic 12k/17k-Kameras sollte man nicht vergessen.
Das die meisten Kameras AUCH Oversampling bei geringeren Auflösungen können ist mir schon bewusst.So gut wie jede Cinekamera verwendet einen Bayersensor, die einzigen, die seit 2020 davon abweichen sind die neuen High End Modelle von Blackmagic, die einen RGBW Sensor haben.
Der hat zwar eine höhere Lichtempfindlichkeit, aber eine schlechtere Farbauflösung. Dafür sind die mittlerweile am höchsten aufgelöst mit bis zu 17K.
Bei dir klingt das wie ein Naturgesetz.
ist es.iasi hat geschrieben: ↑So 15 Feb, 2026 16:07Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.
Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.
Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B. Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.JesusWolf hat geschrieben: ↑So 15 Feb, 2026 17:17ist es.iasi hat geschrieben: ↑So 15 Feb, 2026 16:07
Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.
Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.
Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.
Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.
Ja. Die Idee hinter GOP ist schon klar.JesusWolf hat geschrieben: ↑So 15 Feb, 2026 17:17 Bei Verlustbehafteten Komprimierungen (wie oben geschrieben) schon.
Steckt ja schon im Namen drin. Ich opfere Daten zu Gunsten der größeren Datenreduktion.
Wie weit ich damit gehe und ob das sichtbar wird, liegt dann in der Stärke der verlustbehaften Komprimierung.
Aber Verlustbehaftet bedeutet nunmal zwangsweise Verlust von Daten.
Ist eigentlich ziemlich einfach.
Ein GOP führt nicht automatisch zu Datenverlusten, oder Verfälschungen und erst recht nicht zu erheblichen.
Ich kann mit einer Group of Pictures auch komplett verlustfrei massiv viele Daten sparen.
Ein einfaches Beispiel:
Du hast ein schwarzes Bild und ein rotes Viereck, das von links nach rechts wandert.
Du kannst entweder jedes einzelne Bild mit vollen RGB Werten für jeden einzelnen Pixel abspeichern, oder
Du sagst: Ich habe einen Hintergrund, der ist schwarz und einen roten Kasten mit Kantenlänge xy und dieser befindet sich anfangs an Position XY und im zweiten Bild Bei Position X2Y usw.
Beim ersten hast du alle Informationen abgespeichert und viele Daten verbraucht und eine genaue Bewegungsauflösung.
Beim zweiten exakt das selbe Ergebnis, aber mit viel weniger Datenverbrauch.
Nun machen wir es komplexer:
Im Hintergrund ein ultrakomplexes Bild. Meinetwegen ein Pixelgenaues Schachbrettmuster mit allen Farben, die es gibt.
Und das Viereck ist nun ein Video mit einer Maximalen Actionsequenz aus Transformers, bei dem kein Bild dem anderen gleicht.
Variante 1: Jeder Pixel wird wieder einzeln mit RGB Werten für jeden einzelnen Pixel abgespeichert.
Variante 2: man speichert den Hintergrund mit allen Details im ersten Bild und sagt: Der Kasten hat Größe XY und dieser wandert von Position XY zu X2Y und die Bilddaten aus diesem Kasten muss ich bei jedem Bild abspeichern. Aber eben NUR die Daten aus dem kleinen Kasten.
Bei beiden Verfahren kann ich das Video mit allen feinsten Details wiederherstellen, zu 100%.
Aber bei der zweiten Variante habe ich massiv Daten gespart.
4:2:0 hat natürlich erheblichen Datenverlust zur Folge.
Dafür spart man sich 50% der Datenmenge.
Korrekt.
Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.
du solltest nix gegen RED und nun Nikon bei iasi sagen ;)JesusWolf hat geschrieben: ↑So 15 Feb, 2026 15:10 Ich habe mal die 2,8K Alexa gegen eine 6k Red Epic, war es glaube ich, durchgemessen.
Ich war immer ein Red Fan, aber da musste ich einsehen, dass die Alexa trotz der viel geringeren Pixelanzahl die höhere Auflösung hatte UND auch das bessere Bild.
Die haben wirklich das beste in Camera Debayering und die Beste Bildverarbeitung.
krass, so habe ich es bis jetzt noch nie gesehen.
Es ging mir nicht darum, dass man 4 Chips benötigt - ich stimme dir da zu: 2 grüne Chips machen wenig Sinn.JesusWolf hat geschrieben: ↑Mo 16 Feb, 2026 13:32Korrekt.Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Desweiteren würde ein 4 Chip System mit 2 Grün Chips keinen Sinn machen, denn, selbst wenn du das Grün Signal wie auch immer aufspaltest, hast du entsprechend nur noch einen Teil des grünen Lichts übrig.
Die "Pixelfläche" hat aber im Wesentlichen mit dem Rauschverhalten zu tun, nicht mit der Auflösung der Farbkanäle. Bei genügen auflösenden Sensoren kann sich die Interpolation im Prinzip darauf beschränken, die örtlich versetzten Abtastpunkte (für R, G und B) auf einen gemeinsamen virtuellen Punk zusammenzuführen.JesusWolf hat geschrieben: ↑Mo 16 Feb, 2026 13:32 Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Und weil die 2,8k der Alexa ja völlig ausreichend waren und sind, drehen auch heute noch alle damit - auch Deakins. ;)Darth Schneider hat geschrieben: ↑Mo 16 Feb, 2026 20:15 Das meint die AI dazu:
„Roger Deakins hatte keine direkte „Angst“ vor IMAX bei Skyfall, war aber anfangs skeptisch bezüglich der Qualität der Alexa-Aufnahmen beim Hochskalieren (Upscaling) für die riesige IMAX-Leinwand. Erste Tests zeigten unschöne Farben und einen „duplizierten“ Look, was jedoch durch Anpassungen beim Digital Intermediate (DI) gelöst wurde, sodass die Ergebnisse letztlich überzeugten.
Die wichtigsten Punkte:
Bedenken: Deakins befürchtete, dass digitale Aufnahmen der Arri Alexa auf IMAX-Größe nicht gut aussehen könnten.
Lösung: Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.
Format: Der Film wurde im 1.90:1 Format für IMAX optimiert.“
Mein Fazit:
Die Google AI hat iasis Meinung darüber teilweise übernommen.
Weil der iasi das hier so viele Male erwähnt hatte.;))))
Jott braucht immer ganz dringend das Klatsch-Drama, sonst kommt er nicht über den Tag. :)
iasi hat geschrieben: ↑Sa 07 Feb, 2026 07:02Reicht auch sehr oft, selbst wenn mancher meint, die "Arbeit" (also der höhere Aufwand) würde einen Unterschied bei der Wirkung machen.
Vielmehr ist es sogar so, dass die sehr viel kontrolliertere digitale Lösung die bessere sein kann, wenn die Nebeneffekte von Kamerafahrt oder optischem Zoom kontraproduktiv für die gewünschte Wirkung auf den Zuschauer wären.
Zudem: Gerade langsames, für den Zuschauer bewußt nicht wahrnehmbares Verdichten über einen langen Zeitraum ist mit optischem Zoom oder Fahrt sehr aufwendig umzusetzen. Die Post hingegen eröffnet hier schlicht die bessere Umsetzungsmöglichkeit.
Es gibt einen Unterschied zwischen Heranfahrt/Verdichten auf eine Person und die Kamerafahrt durch ein Fenster.FocusPIT hat geschrieben: ↑Di 31 Mär, 2026 17:08 Hallo Alle,
ich fand das Thema, den Gegensatz Kamerafahrt versus Zoom interessant und habe mal diese zwei Beispiele hergestellt. Sie machte mir sehr klar, warum Frank unbedingt den Slider haben wollte.
Kamerafahrt / Zoom
Die Kamerafahrt dauerte 13 Sekunden. Die Zeitlupe dauert 2:21 Minuten.
Der Zoom dauerte 4 Sekunden. Die Zeitlupe dauert 23 Minuten.
Brennweite 18mm, 90º in der horizontalen Ebene.
Brennweite 35mm, 54,4º in der horizontalen Ebene.
Kamerafahrt
https://www.skop-ffm.de/movies/Test_ohn ... afahrt.mp4
Zoom
https://www.skop-ffm.de/movies/Test_mit ... afahrt.mp4
Kamerafahrt von Objektiv ab Linseneingang gemessen, hat eine Länge von 2.10 Meter.
Fahre mit der Kamera auf dem Wagen von der Raummitte bis zur Fensteröffnung und Filme dabei die mir gegenüberliegende Hausfassade. Die Entfernung beträgt 12 Meter von Hauswand zu Hauswand, plus 0.85 Meter, vom Objektiv bis Endpunkt der Fahrt im Raum bis zur Aussenwand unseres Hauses. Daraus folgen die Abmessungen für die Kamera-Fahrt von 2.10 Meter und eine Länge für die Entfernung Ojektiv zur gegenüberliegendeden Hausfront von 12.85 Meter.
Die Fahrt mit dem 35mm Objektiv bedeutet für die Darstellung des Innenraums eine deutlich wahrnehmbare Erweiterung des Raumes. Demgegenüber ist eine Erweiterung des Darstellung der gegenüberliegenden Fassade unmerklich. Das liese sich auch mit einer Zeichnung verdeutlichen, in der die Projektionsebenen Objektiv zu Beginn der Fahrt und Projektionsebene zum Ende der Fahrt und die Projektionsebenen der gegenüberliegenden Hausfront bei Beginn und Ende der Fahrt. Durch den Öffnungswinkel von 54,4º, der sich während der Kamerafahrt nicht veränderte, wurde das Abgebildete in der Größe nicht verändert, sondern nur die Perspektivebenen verhalten sich unterschiedlich. Der Wahrnehmungseindruck ist so, als würde der Raum sich nach hinten bewegen und die Hausfront des gegenüberliegenden Hauses blieb von einer Veränderung unberührt. Die kurze Entfernung vom Objektiv zu den Objekten im Raum erzeugen diesen Eindruck, dass sich der Innenraum nach hinten bewegt während die deutlich weitere Entfernung zu der gegenüberliegenden Fassade das Bild nur minimal vergrößert oder bewegt, nur die Fensteröffnung "bewegt" sich scheinbar, indem sie sich durch die Bewegung der Fahrt des Wagens erweitert. Das gekoppelt mit einer Slowmotion wirkt wie "magisch". Es ist eine mehrdimensionale Veränderung.
Bei einer Aufnahme mit Zoom-Objektiv von 54,4º zu 90º wird jedoch die Bildgröße verändert. Der Bildausschnitt wird grösser wenn ich von 54,4º nach 90º den Zoom betätige. Die Fensteröffnung und die gegenüberliegende Hausfront beide werden im gleichen Masse vergrößert oder verkleinert. Das Bild verändert sich gleichmäßig auf allen Schärfentiefen. Es ist eine eindimensionale Veränderung.
Gruß an Alle
aus Frankfurt
FocusPIT
iasi hat geschrieben: ↑Sa 07 Feb, 2026 07:02
Reicht auch sehr oft, selbst wenn mancher meint, die "Arbeit" (also der höhere Aufwand) würde einen Unterschied bei der Wirkung machen.
Vielmehr ist es sogar so, dass die sehr viel kontrolliertere digitale Lösung die bessere sein kann, wenn die Nebeneffekte von Kamerafahrt oder optischem Zoom kontraproduktiv für die gewünschte Wirkung auf den Zuschauer wären.
Zudem: Gerade langsames, für den Zuschauer bewußt nicht wahrnehmbares Verdichten über einen langen Zeitraum ist mit optischem Zoom oder Fahrt sehr aufwendig umzusetzen. Die Post hingegen eröffnet hier schlicht die bessere Umsetzungsmöglichkeit.
Nicht ohne Grund gibt es im Profibereich bei den Kleinsensoren (bis 2/3Zoll) nach wie vor 3CMOS Modelle welche auf ein Bayer Pattern verzichten und die drei Grundfarben vor dem Sensor splitten und jeder Farbe einen separaten Sensor gönnen.JuliaLL hat geschrieben: ↑Di 17 Feb, 2026 18:00
Hat die Sensortechnik selbst einen Einfluss auf die Farbgenauigkeit, oder hängt das ausschließlich vom verwendeten Farbfilter (in unserem Beispiel Bayer‑Pattern) ab?
Ich denke dabei an frühere Zeiten: Damals gab es 3‑CCD‑Sensoren oder „nur“ CCD‑Sensoren (bei diesen hatte ich z. B. häufig Blooming‑ bzw. Smearing‑Effekte bei hellen Lichtreflexen; allerdings nur beim Filmen, nicht beim Fotografieren).
Heute findet man fast ausschließlich CMOS‑Sensoren.
Foveon-Sensor liefern für jeden Bildpunkt auch die volle RGB-Information - wie die 3-Sensoren-Kameras.acrossthewire hat geschrieben: ↑Di 31 Mär, 2026 22:33Nicht ohne Grund gibt es im Profibereich bei den Kleinsensoren (bis 2/3Zoll) nach wie vor 3CMOS Modelle welche auf ein Bayer Pattern verzichten und die drei Grundfarben vor dem Sensor splitten und jeder Farbe einen separaten Sensor gönnen.JuliaLL hat geschrieben: ↑Di 17 Feb, 2026 18:00
Hat die Sensortechnik selbst einen Einfluss auf die Farbgenauigkeit, oder hängt das ausschließlich vom verwendeten Farbfilter (in unserem Beispiel Bayer‑Pattern) ab?
Ich denke dabei an frühere Zeiten: Damals gab es 3‑CCD‑Sensoren oder „nur“ CCD‑Sensoren (bei diesen hatte ich z. B. häufig Blooming‑ bzw. Smearing‑Effekte bei hellen Lichtreflexen; allerdings nur beim Filmen, nicht beim Fotografieren).
Heute findet man fast ausschließlich CMOS‑Sensoren.
Hat Vorteile für die Farbauflösung, Rauschen sowie ist nicht so anfällig für Moire Muster.
4K Debayering Qualität ? nahezu perfektes Debayering
iasi hat geschrieben: ↑Di 31 Mär, 2026 20:35Versuch doch mal so ein sehr langsame Fahrt - auf das Gesicht einer Person zu. Von Nah auf Groß.
Überleg mal, welche Brennweite du nutzen wirst. Welche Blende.
Wie führst du den Fokus nach, der auf den Augen sitzen sollte?
Die Annäherung/Verdichtung soll sehr langsam - also möglichst für den Zuschauer nicht bewußt wahrnehmbar - erfolgen.
Hast du schon mal einen digitalen Schwenk versucht?FocusPIT hat geschrieben: ↑Mi 01 Apr, 2026 11:01 Hallo iasi,
das wäre jetzt dein Part, die "sehr langsame Fahrt - auf das Gesicht einer Person zu..."
Wer aus den zwei Beispielen etwas für sich erkennt, der kann es nutzen, wer nicht, nutzt es nicht.
Mein Interesse an Personen in Film und Foto ist sehr gering. Seit ca. 1990 habe ich umfangreiche "Stadtansichten" hergestellt. Wie der Name schon sagte, sind es keine "Personenansichten".
Wie gesagt: Du bist am Zug.
Gruß aus Frankfurt
von FocusPIT
iasi hat geschrieben: ↑Di 31 Mär, 2026 20:35
Versuch doch mal so ein sehr langsame Fahrt - auf das Gesicht einer Person zu. Von Nah auf Groß.
Überleg mal, welche Brennweite du nutzen wirst. Welche Blende.
Wie führst du den Fokus nach, der auf den Augen sitzen sollte?
Die Annäherung/Verdichtung soll sehr langsam - also möglichst für den Zuschauer nicht bewußt wahrnehmbar - erfolgen.
Danke für die anschaulichen Beispiele.FocusPIT hat geschrieben: ↑Di 31 Mär, 2026 17:08 Hallo Alle,
ich fand das Thema, den Gegensatz Kamerafahrt versus Zoom interessant und habe mal diese zwei Beispiele hergestellt. Sie machte mir sehr klar, warum Frank unbedingt den Slider haben wollte.
Kamerafahrt / Zoom
Die Kamerafahrt dauerte 13 Sekunden. Die Zeitlupe dauert 2:21 Minuten.
Der Zoom dauerte 4 Sekunden. Die Zeitlupe dauert 23 Minuten.
Brennweite 18mm, 90º in der horizontalen Ebene.
Brennweite 35mm, 54,4º in der horizontalen Ebene.
Kamerafahrt
https://www.skop-ffm.de/movies/Test_ohn ... afahrt.mp4
Zoom
https://www.skop-ffm.de/movies/Test_mit ... afahrt.mp4
Kamerafahrt von Objektiv ab Linseneingang gemessen, hat eine Länge von 2.10 Meter.
…
Gruß an Alle
aus Frankfurt
FocusPIT


