Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // Fragen bzgl. Rendering von 4K nach Full-HD



Frage von Riki1979:


Liebe Hobbyfilmer und -filmerinnen,

auch ich spiele so langsam mit dem Gedanken, mir einen 4K-Camcorder anzuschaffen.
Im Grunde genommen so etwas wie meine Jetzige, die mir schon seit 12 Jahren supertolle Dienste leistet (http://www.camcorder-test.com/camcorder ... SD707.html), aber eben wie bereits erwähnt als 4K-Camcorder. Und er sollte möglichst auch in 10 bit filmen können.

Jetzt habe ich in mehreren Foren gelesen, dass beim Filmen und Schneiden in 4K und beim anschließenden Rendern in Full-HD das Endergebnis besser ist, als wenn man von vorne herein in Full-HD filmt. Könnt Ihr das auch bestätigen?

Wenn ja: Inwiefern ist das Endergebnis besser? Macht der Unterschied viel aus? Ist das Endergebnis schärfer bzw. kontrastreicher als beim "normalen" Full-HD? Oder sind die Schwenks dann sauberer und glatter (also flackern nicht)? Oder macht sich die Verbesserung irgendwie anders bemerkbar?

Und wie sieht das Ganze aus, wenn ich von 4K nach SD rendere: Ist das Ergebnis dann auch besser als wenn von vorne herein in SD filmt?

Vielen Dank im Voraus!

Ricardo!

Space


Antwort von wibera:

Was mir dazu einfällt ist, dass nicht alle Werte für jedes Pixel einzeln gespeichert werden, sondern mehrere im Quadrat zusammengefasst.

Bei meiner Canon Legria HF200 gibt MediaInfo dies aus:
Width/String: 1 920 pixels
Height/String: 1 080 pixels
DisplayAspectRatio/String: 16:9
FrameRate/String: 25.000 FPS
ColorSpace: YUV
ChromaSubsampling/String: 4:2:0
BitDepth/String: 8 bits

Der Wert steht bei: ChromaSubsampling
Infos dazu hier: https://de.wikipedia.org/wiki/Farbunterabtastung

Wenn also in 4k mit 4:2:0 gespeichert und dann auf 1k verkleinert wird, ist das Ausgangsmaterial sozusagen hochwertiger.

Space


Antwort von TomStg:

wibera hat geschrieben:
Was mir dazu einfällt ist, dass nicht alle Werte für jedes Pixel einzeln gespeichert werden, sondern mehrere im Quadrat zusammengefasst.

Bei meiner Canon Legria HF200 gibt MediaInfo dies aus:
Width/String: 1 920 pixels
Height/String: 1 080 pixels
DisplayAspectRatio/String: 16:9
FrameRate/String: 25.000 FPS
ColorSpace: YUV
ChromaSubsampling/String: 4:2:0
BitDepth/String: 8 bits

Der Wert steht bei: ChromaSubsampling
Infos dazu hier: https://de.wikipedia.org/wiki/Farbunterabtastung

Wenn also in 4k mit 4:2:0 gespeichert und dann auf 1k verkleinert wird, ist das Ausgangsmaterial sozusagen hochwertiger.
Dieser völlige Blödsinn ist nicht tot zu bekommen!
Was bei 4:2:0 nicht abgetastet wurde, wird durch Skalieren nicht besser.

Space


Antwort von Riki1979:

Hat denn niemand Anderes eine Idee, wie das ist, wenn man in 4K filmt und dann auf Full-HD bzw. SD runterskaliert?

Space


Antwort von Mantas:

TomStg hat geschrieben:
Dieser völlige Blödsinn ist nicht tot zu bekommen!
Was bei 4:2:0 nicht abgetastet wurde, wird durch Skalieren nicht besser.
warum ist es Blödsinn? echtes 4:4:4 von einer Bayer Sensor Kamera bekommst du nur durchs Skalieren. 8k bräuchte man wohl dafür.

Den Test habe ich damals sogar selbst gemacht, es war eindeutig sichtbar besser.

@Riki

es wird auf jeden Fall besser, die Schärfe und die Farben.

Space


Antwort von msteini3:

Ich filme einerseits mit einer Sony FX1000 in HD auf einen Atomos Ninja Star und habe am Gimbal eine Sony RX100 M4. Diese betreibe ich in 4K und skaliere im Schnitt auf bei der Ausgabe auf HD. Das Ergebnis ist für mich in HD unglaublich scharf und detailreich. Als ich das zum ersten Mal sah wollte ich es gar nicht glauben.

Ich würde also die Aussage, wonach auf HD skaliertes Original-4K-Material besser aussieht bestätigen!

Markus

Space


Antwort von Riki1979:

Und wenn man von 4K auf Full-HD runterskaliert?
Ist das Endresultat (in Full-HD) dann besser, als wenn man von Anfang an in Full-HD filmen würde?
Und wie sieht es aus, wenn man von 4K auf SD runterskaliert: Ist das Endergebnis dann auch besser als wenn man gleich in normaler SD-auflösung filmen würde?

Space


Antwort von msteini3:

Riki1979 hat geschrieben:
Und wenn man von 4K auf Full-HD runterskaliert?
Ist das Endresultat (in Full-HD) dann besser, als wenn man von Anfang an in Full-HD filmen würde?
Genau das mache ich ja! Ich hab die RX100 immer in 4K, weil ich dadurch auch die Option beim Schnitt habe bis zu 50% hineinzuzoomen. Und das will ich mir nicht entgehen lassen! Insofern kann ich deine zweite Frage nicht beantworten.

Markus

Space


Antwort von Riki1979:

Genau das mache ich ja! Ich hab die RX100 immer in 4K, weil ich dadurch auch die Option beim Schnitt habe bis zu 50% hineinzuzoomen. Und das will ich mir nicht entgehen lassen! Insofern kann ich deine zweite Frage nicht beantworten.

Markus
Vielen Dank, Markus!

Space



Space


Antwort von dosaris:

Riki1979 hat geschrieben:
Und wenn man von 4K auf Full-HD runterskaliert?
Ist das Endresultat (in Full-HD) dann besser, als wenn man von Anfang an in Full-HD filmen würde?
ein absolut eindeutiges:
kommt drauf an! ;-)

4k-Cams die auch FHD ausgeben können haben grundsätzlich 2 Optionen dazu:

- full read-out: alle Pixels werden gelesen und anschließend wird das 4k-Bild auf 2k runterskaliert (zB via Lanzsos-Algorithmus)
Dies wirkt wie größere Sensel, bringt also mehr SNR + schärfere Objektkanten, Ist aber rechenaufwändiger

- line-skipping
hier werden per Verschaltung auf dem Sensor-Chip nur 1/4 der pixel ausgelesen.
Dies geht natürlich einfacher/schneller, bringt aber geringeres SNR als möglich + Rundungsfehler an den Objektkanten.

Auch Mischformen von beiden sind möglich.

Das Hauptproblem darin ist, dass fast nie genau deklariert ist, wie genau die Cam dies macht.

Space


Antwort von beiti:

Die Hersteller sagen zwar nicht ausdrücklich, welche Methode sie verwenden, aber man kann das anhand gezielter Tests schon ungefähr rausfinden.

Es gibt übrigens auch noch Line-Binning, also das gemeinsame Auslesen von zwei oder mehr Zeilen. Das erzeugt dann (wenn es gut gemacht wird) im Vergleich zum Line-Skipping weniger Artefakte und man behält das niedrige Rauschniveau bei. Der einzige Nachteil, den Line-Binning gegenüber Full Readout hat, ist die etwas geringere Detailschärfe.

Nach meiner Beobachtung ist es so, dass die UHD(4k)-Ausgabe an den meisten Kameras mittels Full Readout erfolgt (leider an manchen Kameras dafür mit zusätzlichem Crop), während für FHD typischerweise Linebinning genutzt wird. Artefaktreiches Lineskipping ist selten geworden; am ehesten sieht man es noch in den Zeitlupen-Modi (z. B. FHD mit 180 fps). Bis 60 fps ist Lineskipping nahezu ausgestorben.
An diesen Beispielen sieht man schon, dass es eine Frage der Performance ist. Mit Linebinning oder Lineskipping schaffen die Kameras mehr fps und überhitzen auch nicht so schnell.

Dass in aller Regel runterskaliertes UHD etwas detailschärfer aussieht als originales FHD, kann ich anhand meiner bisherigen Kameras bestätigen. Wenn das Ziel eine FHD-Ausgabe mit optimaler Detailschärfe ist, ist diese Vorgehensweise sicher die bestmögliche. (Ganz abgesehen davon, dass es ja Anwendungen gibt, für die man wirklich UHD haben möchte, also ohne Runterskalieren.)

Trotzdem möchte ich bezweifeln, dass das Filmen in UHD (ob mit oder ohne Runterskalieren) für alle Anwender und Anwendungen das Optimum darstellt. Es gibt ja außer der Detailschärfe noch weitere Argumente, sowohl praktische als auch qualitative.
Das fängt damit an, dass UHD nach wie vor an vielen Kameras auf 24, 25 oder 30 fps beschränkt ist. Ja ich weiß, das ist der vielgelobte Filmlook. Aber wenn man auf den Filmlook pfeift und lieber geschmeidige Bewegungen hat, sind 50 oder 60 fps wünschenswert. Und das können in UHD immer noch relativ wenige Kameras.
Ein weiterer Punkt ist der Rolling-Shutter-Effekt, der für schnell bewegte Motive nicht unwichtig ist. Der fällt im FHD-Modus mit Linebinning in der Regel deutlich geringer aus als in UHD mit Full Readout. Das wird in der ganzen UHD-Qualitäts-Lobhudelei gern übersehen.
Wenn man eine der Kameras hat, die UHD nur mit zusätzlichem Crop aufnehmen können, kommt ein weiterer Qualitätsdämpfer hinzu; zwar kann das UHD-Bild auch mit Crop noch sehr detailscharf sein, aber man verliert ISO-Performance und tut sich schwerer, mit richtigem Weitwinkel zu filmen.
Weiterhin gibt es je nach Kameramodell die Überhitzungs-Thematik. Man denke nur an so manche Kompaktkamera, die in UHD (zumindest in warmer Umgebung) nach einer Viertelstunde schlapp macht, während man in FHD fast unbegrenzt filmen kann.
Wenn es um längere Reisen und dergleichen geht, spielt auch der Speicherbedarf eine Rolle, der mit FHD natürlich ein Stück geringer ist als mit UHD. Und dann könnte man noch die Leistungshungrigkeit der UHD-Dateien fürs Nachbearbeiten nennen.

Wie gesagt: Dass Bildmaterial, das von UHD auf FHD runterskaliert wurde, etwas detailreicher ist, steht außer Frage. Aber man muss sich auch fragen, wie relevant das für die eigenen Zwecke ist und ob ein anderer Kompromiss vielleicht besser wäre.
Unter welchen Wiedergabebedingungen (abseits gezielter Tests) würde man den Schärfevorteil tatsächlich sehen? Sieht man den Vorteil dann auch noch ohne Direktvergleich? Ist mir die bestmögliche Detailschärfe (die man eh nur in ruhigen Aufnahmen ohne Bewegungsunschärfe wahrnehmen könnte) wichtiger als eine möglichst geringe Rolling-Shutter-Verzerrung?

Wenn man am Ende gar auf SD runterskaliert, schrumpft der Vorteil von UHD sowieso auf Null. Für eine SD-Ausgabe hat auch die FHD-Aufnahme mehr als genug Schärfe-Reserven. Manche Nachteile von UHD wie stärkerer Rolling Shutter und ggfs. niedrigere Framerate übertragen sich aber auch noch auf SD.

Space


Antwort von TomStg:

Mantas hat geschrieben:
warum ist es Blödsinn? echtes 4:4:4 von einer Bayer Sensor Kamera bekommst du nur durchs Skalieren. 8k bräuchte man wohl dafür.

Den Test habe ich damals sogar selbst gemacht, es war eindeutig sichtbar besser.
Es war, ist und bleibt völliger Quatsch: Durch Skalieren ändert sich die Farbtiefe kein bisschen, weil man aus Blei kein Gold machen kann.

Downscaling von UHD auf einer FHD-Timeline verbessert in der Regel den Bildeindruck, aber ganz sicher nicht die Farbtiefe.

Space


Antwort von dienstag_01:

TomStg hat geschrieben:
Mantas hat geschrieben:
warum ist es Blödsinn? echtes 4:4:4 von einer Bayer Sensor Kamera bekommst du nur durchs Skalieren. 8k bräuchte man wohl dafür.

Den Test habe ich damals sogar selbst gemacht, es war eindeutig sichtbar besser.
Es war, ist und bleibt völliger Quatsch: Durch Skalieren ändert sich die Farbtiefe kein bisschen, weil man aus Blei kein Gold machen kann.

Downscaling von UHD auf einer FHD-Timeline verbessert in der Regel den Bildeindruck, aber ganz sicher nicht die Farbtiefe.
Die Farbunterabtastung beschreibt ja auch nicht die Farbtiefe.
(Die Anzahl der Bits pro Farbkanal sind Ausdruck der Farbtiefe.)

Space


Antwort von cantsin:

Mantas hat geschrieben:
TomStg hat geschrieben:
Dieser völlige Blödsinn ist nicht tot zu bekommen!
Was bei 4:2:0 nicht abgetastet wurde, wird durch Skalieren nicht besser.
warum ist es Blödsinn? echtes 4:4:4 von einer Bayer Sensor Kamera bekommst du nur durchs Skalieren. 8k bräuchte man wohl dafür.
Aber nur, wenn Du die undebayerten Sensordaten in voller Auflösung hast und dann jeweils vier monochrome RGGB-Pixel in einen farbigen RGB-Pixel herunterrechnest.

Wenn die Sensordaten bereits debayert bzw. die Farben interpoliert wurden und danach noch einmal skaliert werden, erhältst Du diverse Artefakte bzw. Falschfarben, vor allem an den Objektkanten.

Space


Antwort von Mantas:

cantsin hat geschrieben:
Aber nur, wenn Du die undebayerten Sensordaten in voller Auflösung hast und dann jeweils vier monochrome RGGB-Pixel in einen farbigen RGB-Pixel herunterrechnest.

Wenn die Sensordaten bereits debayert bzw. die Farben interpoliert wurden und danach noch einmal skaliert werden, erhältst Du diverse Artefakte bzw. Falschfarben, vor allem an den Objektkanten.
Jedes "Rechnen" bringt doch neue Pixel und somit "falsche" Farben. Dennoch kann es besser aussehen. Wenn man 4 mal soviel Information hat, kann man auch bessere Farben berechnen.

Leider habe ich den Test nicht mehr, hatte 4k und HD Material, beides in 4:2:0. In einer HD Timeline. Mit dem 4k Material ging viel mehr.

Space


Antwort von dienstag_01:

Was ist mit kamerainternen Prozessen? FullHD-Auslesung mit Lineskipping vs 1:1-Auslesung in 4k?
Egal?

Space


Antwort von cantsin:

Mantas hat geschrieben:
Jedes "Rechnen" bringt doch neue Pixel und somit "falsche" Farben.
Nee, nicht wenn Du vier Bayer-Pixel sauber zu einem RGB-Pixel zusammenfasst:

rggb to rgb.png

Space


Antwort von Mantas:

ok verstehe ich nicht ganz. Warum bringt denn eine 6k oder 8k Auslesung bessere Farben? Die Bittiefe ändert sich nicht, ist klar. Dafür ist jedes Bild, was zb Rot ausgeleuchtet ist, viel schärfer aus.

Sieht man bei FX6 und FX9 ganz gut.

Space



Space


Antwort von Jott:

Ganz pragmatisch: Green Screen in 4K 4:2:0 aufgenommen (scharf und gut geleuchtet) ergibt unerwartet hervorragende People-Keys mit feinsten Härchen in einer HD-Timeline.

Diese verbissene Diskussion kommt alle paar Jahre wieder hoch. Wozu? Einfach bei Bedarf ausprobieren. Warum es so ist, kann ja egal sein.

Space


Antwort von cantsin:

Mantas hat geschrieben:
ok verstehe ich nicht ganz. Warum bringt denn eine 6k oder 8k Auslesung bessere Farben? Die Bittiefe ändert sich nicht, ist klar.
Wenn Du die vier Bayer-Pixel von 6K auf 3K bzw. von 8K auf 4K runterrechnest, hast Du saubere, nicht-interpolierte RGB-Farbwerte mit maximaler Farbauflösung, wie bei einer 3-Chip-Kamera.

Wenn Du aber 6K-Bayer auf 6K-RGB (statt 3K RGB) bzw. 8K-Bayer auf 8K-RGB umrechnest, interpolierst Du dabei die Farben bzw. erzeugst fiktive/geratene Farben, und kaufst Dir die höhere spatiale bzw. Luma-Auflösung (6K statt 3K, 8K statt 4K) um den Preis geringerer Farb- bzw. Chroma-Auflösung (4:2:2 statt 4:4:4).

Aber, wie gesagt, das setzt immer voraus, dass Du auch die undebayerten Werte als Ausgangsdaten hast. Daneben gibt's noch so EOSHD-Foren-Voodoo, dass man durch 50% Skalieren von debayertem 8bit-4K angeblich 10bit 2K erhält, was ziemlich kompletter Quatsch ist.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
Mantas hat geschrieben:
ok verstehe ich nicht ganz. Warum bringt denn eine 6k oder 8k Auslesung bessere Farben? Die Bittiefe ändert sich nicht, ist klar.
Wenn Du die vier Bayer-Pixel von 6K auf 3K bzw. von 8K auf 4K runterrechnest, hast Du saubere, nicht-interpolierte RGB-Farbwerte mit maximaler Farbauflösung, wie bei einer 3-Chip-Kamera.

Wenn Du aber 6K-Bayer auf 6K-RGB (statt 3K RGB) bzw. 8K-Bayer auf 8K-RGB umrechnest, interpolierst Du dabei die Farben bzw. erzeugst fiktive/geratene Farben, und kaufst Dir die höhere spatiale bzw. Luma-Auflösung (6K statt 3K, 8K statt 4K) um den Preis geringerer Farb- bzw. Chroma-Auflösung (4:2:2 statt 4:4:4).

Aber, wie gesagt, das setzt immer voraus, dass Du auch die undebayerten Werte als Ausgangsdaten hast. Daneben gibt's noch so EOSHD-Foren-Voodoo, dass man durch 50% Skalieren von debayertem 8bit-4K angeblich 10bit 2K erhält, was ziemlich kompletter Quatsch ist.
Das klingt so, als gäbe es Kameras mit Bayer-Sensor, die für die Ausgabe nicht debayern.

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Das klingt so, als gäbe es Kameras mit Bayer-Sensor, die für die Ausgabe nicht debayern.
Ja, alle Raw-Kameras.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Das klingt so, als gäbe es Kameras mit Bayer-Sensor, die für die Ausgabe nicht debayern.
Ja, alle Raw-Kameras.
Na klar, aber *normales* Video?!

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Ja, alle Raw-Kameras.
Na klar, aber *normales* Video?!
Ich hatte ja nur über Raw (und seine verschiedenen möglichen Interpretationsmethoden) geschrieben.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:

Na klar, aber *normales* Video?!
Ich hatte ja nur über Raw (und seine verschiedenen möglichen Interpretationsmethoden) geschrieben.
Ich hatte mich schon gewundert ;)

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Ich hatte ja nur über Raw (und seine verschiedenen möglichen Interpretationsmethoden) geschrieben.
Ich hatte mich schon gewundert ;)
Bei der Gelegenheit habe ich mit meinem oben theoretisch skizzierten Workflow soeben auch mal in der Praxis ausprobiert. Das ist ziemlich faszinierend.

Hier der Workflow:

- Ein RAW-Foto einer Kamera mit Bayer-Sensor in Raw Therapee öffnen, Profil "Neutral" anwenden (das sämtliche Bild-Tunings ausschaltet) und dann im Raw-Tab die Debayering-Methode auf "None (Shows Sensor Pattern) umschalten. Jetzt sieht man das Bild als Bayer-Muster, vor allem, wenn man auf 1:1-Pixelzoom geht.
- Um die doppelte Gewichtung von Grün im Bayer-Filter zu kompensieren, im Color-Tab in den Channel-Mixer gehen und in "Green channel" den Grün-Regler auf 50% runterdrehen.
- Das Bild (=das undebayerte Bild im sichtbaren RGGB-Raster) als TIFF 32bit Float exportieren (um keine Werte abzuschneiden, da wir die Werte teilweise abgesenkt haben).
- Das exportierte TIFF in Gimp öffnen (um in der Open Source-Toolchain zu bleiben), in den Menüpunkt "-> Image -> Scale Image" gehen und das Bild auf 50% skalieren, dabei als Interpolation "Linear" einstellen. Laut der Gimp-Dokumentation interpoliert "Linear" 4 Pixel und tut daher hier genau das richtige. Das resultierende Bild wieder als 32bit-TIFF exportieren.
- In Raw Therapee wird das so exportierte TIFF jetzt als "HDR" angezeigt. In "Exposure compensation" die Belichtung auf 1.5 Blenden sowie Sättigung auf 33-50% erhöhen, um die vorige Absenkung des Grünkanals zu kompensieren, ggfs. noch Weißabgleich korrigieren. (Diese Arbeitschritte gehen natürlich auch in Gimp, aber bei RawTherapee finde ich das Interface präziser.)

Was man jetzt erhält, ist das faktische Äquivalent des Bilds einer Foveon-Kamera und sieht auch so aus. Es erinnert mich auch an alte 3-Strip-Technicolor- bzw. Kodachrome-Farben, die ja einen ähnlichen Farbfilterungsprozess verwendeten. Dabei umgeht man die Kamera-/Sensor-spezifischen Farbkorrekturprofile bzw. Hersteller-"Color Science" praktisch völlig, bzw. sieht die Farben so, wie die Kamera sie sieht. Das Bild ist auf Pixelebene auch 100% scharf, und jede Nachschärfung erübrigt sich - eher hat man das umgekehrte Problem, dass an Kanten und feinen Details wie z.B. Haaren harte bzw. pixelige Ränder entstehen können. (Auch das ist Foveon-typisch.] Und Bayer-highlight reconstruction fällt natürlich komplett weg, und die Bilder clippen daher härter und anders .

Natürlich geht das auch mit Video-Raw - in der Praxis aber nur mit CinemaDNG . Ich muss, glaube ich, unbedingt mal mit meiner Sigma fp so ein Technicolor-Video drehen.

Als Beispiel hier ein Foto, das mit einer Sony A9 aufgenommen und konventionell (per AMazE-Demosaicing-Algorithmus) als 24MP-Bild prozessiert wurde:
_DSC5006-conventional.jpg

Hier dasselbe Foto mit dem o.g Prozess, als 6MP-Bild:
_DSC5006-rgb_downscale_debayering.jpg

EDIT:
Und genau wie Foveon, sind die resultierenden Bilder im RGGB-Herunterskalier-Workflow auf Pixelebene deutlich detailreicher/schärfer als konventionell debayerte Bilder, selbst wenn man sie nachträglich auf 50% skaliert:
detail_comparison.png
(links das konventionell debayerte Bild, rechts das Bild aus dem alternativen Workflow - Anklicken für 1:1-Ansicht)

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:

Ich hatte mich schon gewundert ;)
Bei der Gelegenheit habe ich mit meinem oben theoretisch skizzierten Workflow soeben auch mal in der Praxis ausprobiert. Das ist ziemlich faszinierend.

Hier der Workflow:

- Ein RAW-Foto einer Kamera mit Bayer-Sensor in Raw Therapee öffnen, Profil "Neutral" anwenden (das sämtliche Bild-Tunings ausschaltet) und dann im Raw-Tab die Debayering-Methode auf "None (Shows Sensor Pattern) umschalten. Jetzt sieht man das Bild als Bayer-Muster, vor allem, wenn man auf 1:1-Pixelzoom geht.
- Um die doppelte Gewichtung von Grün im Bayer-Filter zu kompensieren, im Color-Tab in den Channel-Mixer gehen und in "Green channel" den Grün-Regler auf 50% runterdrehen.
- Das Bild (=das undebayerte Bild im sichtbaren RGGB-Raster) als TIFF 32bit Float exportieren (um keine Werte abzuschneiden, da wir die Werte teilweise abgesenkt haben).
- Das exportierte TIFF in Gimp öffnen (um in der Open Source-Toolchain zu bleiben), in den Menüpunkt "-> Image -> Scale Image" gehen und das Bild auf 50% skalieren, dabei als Interpolation "Linear" einstellen. Laut der Gimp-Dokumentation interpoliert "Linear" 4 Pixel und tut daher hier genau das richtige. Das resultierende Bild wieder als 32bit-TIFF exportieren.
- In Raw Therapee wird das so exportierte TIFF jetzt als "HDR" angezeigt. In "Exposure compensation" die Belichtung auf 1.5 Blenden sowie Sättigung auf 33-50% erhöhen, um die vorige Absenkung des Grünkanals zu kompensieren, ggfs. noch Weißabgleich korrigieren. (Diese Arbeitschritte gehen natürlich auch in Gimp, aber bei RawTherapee finde ich das Interface präziser.)

Was man jetzt erhält, ist das faktische Äquivalent des Bilds einer Foveon-Kamera und sieht auch so aus. Es erinnert mich auch an alte 3-Strip-Technicolor- bzw. Kodachrome-Farben, die ja einen ähnlichen Farbfilterungsprozess verwendeten. Dabei umgeht man die Kamera-/Sensor-spezifischen Farbkorrekturprofile bzw. Hersteller-"Color Science" praktisch völlig, bzw. sieht die Farben so, wie die Kamera sie sieht. Das Bild ist auf Pixelebene auch 100% scharf, und jede Nachschärfung erübrigt sich - eher hat man das umgekehrte Problem, dass an Kanten und feinen Details wie z.B. Haaren harte bzw. pixelige Ränder entstehen können. (Auch das ist Foveon-typisch.] Und Bayer-highlight reconstruction fällt natürlich komplett weg, und die Bilder clippen daher härter und anders .

Natürlich geht das auch mit Video-Raw - in der Praxis aber nur mit CinemaDNG . Ich muss, glaube ich, unbedingt mal mit meiner Sigma fp so ein Technicolor-Video drehen.

Als Beispiel hier ein Foto, das mit einer Sony A9 aufgenommen und konventionell (per AMazE-Demosaicing-Algorithmus) als 24MP-Bild prozessiert wurde:

_DSC5006-conventional.jpg



Hier dasselbe Foto mit dem o.g Prozess, als 6MP-Bild:

_DSC5006-rgb_downscale_debayering.jpg



EDIT:
Und genau wie Foveon, sind die resultierenden Bilder im RGGB-Herunterskalier-Workflow auf Pixelebene deutlich detailreicher/schärfer als konventionell debayerte Bilder, selbst wenn man sie nachträglich auf 50% skaliert:

detail_comparison.png


(links das konventionell debayerte Bild, rechts das Bild aus dem alternativen Workflow - Anklicken für 1:1-Ansicht)
Ganz schön aufgesteilt, die Kanten am komisch verarbeiteten Bild.

Space



Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Ganz schön aufgesteilt, die Kanten am komisch verarbeiteten Bild.
Ja, wie bei Foveon. Weil da an den Farbsäumen nichts interpoliert wird, und deshalb auch die weichen Übergänge wegfallen. Nachgeschärft (im Sinne von Nachschärfungs-Algorithmen) ist da allerdings nichts.

Es sind aber nicht nur Kantenaufsteilungen, sondern auch bessere Detailauflösung. Vergleich mal das Mülleimer-Symbol auf dem Megaphon zwischen den beiden Bildern.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Ganz schön aufgesteilt, die Kanten am komisch verarbeiteten Bild.
Ja, wie bei Foveon. Weil da an den Farbsäumen nichts interpoliert wird, und deshalb auch die weichen Übergänge wegfallen. Nachgeschärft (im Sinne von Nachschärfungs-Algorithmen) ist da allerdings nichts.

Es sind aber nicht nur Kantenaufsteilungen, sondern auch bessere Detailauflösung. Vergleich mal das Mülleimer-Symbol auf dem Megaphon zwischen den beiden Bildern.
Bin ich skeptisch. Und diese fetten Ränder um jedes Objekt suggerieren Auflösung/Schärfe, davon gehört aber nichts an diese Stellen.

Space


Antwort von Darth Schneider:

Ich bin auch skeptisch. Das rechte Bild, bezüglich das untere ist schon mal dunkler…
Also das besser erübrigt sich dann doch schon.
Aber ihr könnt auch den Spagat machen mit den Aufnahmen…
Gruss Boris

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen //


Brauche dringend Hilfe bzgl. BMPCC 4K
Feedback bzgl. Arrangements und Schnitt- Video zu Ukraine
AI - das Ende von Rendering in 3D Programmen?
Edius X jetzt verfügbar ua. mit neuem Hintergrund-Rendering
Cache Rendering - gut zu wissen
Langsames Rendering/Preview Premiere
Adobe After Effects 18.0 Update bringt Echtzeit-3D-Entwurfsvorschau und Multi-Frame Rendering
Updates: Adobe Premiere Pro erhält ua. kostenlose, automatische Transkription, After Effecs neues Multi-Frame Rendering
Neue Funktionen in Adobe Premiere und After Effects - u.a. Multi-Frame Rendering und Remix
Neural Rendering Dialog Replacement
GTC 2023: The Future of Rendering
Neue Sensoren von Canon - 4,6K S-35 sowie 5.7K Full Frame mit Global Shutter
Fragen zum Rippen von BluRay auf MP4
Nach der Bild- die Videorevolution: Neue KI "Make-a-Video" generiert Videos nach Text
The "Ultimate Full Frame Lens Test"
Neue DZO Full Frame Primes
Welche FULL HD webcam sowie streamcam als webcam benutzen
Canon M50 - Filmen in Full-HD?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash