Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH5 / GH5s / GH6 / GH7 / G9 (II)-Forum

Infoseite // Gh4 Downskalierung sinnfrei?



Frage von Chrompower:


Hallo

Ich habe jetzt mal einige Tests gemacht.

Habe folgendes verglichen (alles Cinema 4K Material (4096*2160):

- 4k seq - 4k ausgabe
- 4k seq - 2k (1920x1012) ausgabe
- 2k (1920x1012) seq - 2k ausgabe (1920x1012) (auf framegröße einstellen)
- 4k seq - 4k ausgabe 200%
- 4k seq - 2k ausgabe 200%
- 2k (1920x1012) seq - 2k ausgabe (1920x1012) (auf framegröße einstellen) 200%

Alles mit maximaler Rendertiefe & Qualität
VBR - zwei Durchgänge
H264
Schwarze Ränder habe ich extra gelassen, weil es mir gefällt.
Habe auf einem FULL HD Monitor (1920x1080) an genau der gleichen Stelle Bilder gemacht.

Ich kann beim besten Willen, nirgendwo einen bedeutenden Unterschied feststellen.

Habe ich irgendeinen Fehler gemacht? Weil ja allgemein das Downskalieren empfohlen wird.
Oder seht ihr einen Unterschied?

Space


Antwort von Chrompower:

Hier noch das letzte.

Falls es keinen Unterschied gibt, würde es nicht mehr Sinn machen in 4k zu exportieren, da man sobald man das Video auf einem 4k Fernseher anschaut eine bessere Qualität hat?

Space


Antwort von klusterdegenerierung:

Downscaling bei der GH4 wirkt sich positiv auf Moire & Aliasing aus!
Da bei 1080p nicht die gesamte Sensorfläche benutzt wird bzw. Inhalt verworfen werden muß (Pixel binning), nutzt das 4K Signal den gesamten Sensor!

Rauschen wird reduziert und das verarbeiten in der post ist smoother und hat mehr Luft bei der Verarbeitung!

Space


Antwort von freezer:

Diese Close-ups sind nicht sonderlich sinnvoll um einen Vergleich zu machen. Besser geeignet sind Totalen mit feinen Strukturen wie zB Dächer in der Ferne, Bäume etc.

Space


Antwort von Chrompower:

Hallo
Danke für die Antworten.

Kein Moire & Mehr Luft bei der Verarbeitung bekommt man doch durch die 4k Aufnahme, nicht durch das Runterskalieren!?

Die Verarbeitung läuft definitiv besser bei einer 1080er Sequenz, wie du schon gesagt hast. Aber wenn das der einzige Vorteil ist habe ich lieber in 10 Jahren auch noch Videos in guter Qualität.

Rauschverhalten kann ich am Abend mal testen.

@ freezer, teste ich gleich mal.
Aber zumindest irgendeinen Unterschied sollte man doch auch hier sehen können?

Space


Antwort von CameraRick:

Da bei 1080p nicht die gesamte Sensorfläche benutzt wird bzw. Inhalt verworfen werden muß (Pixel binning), nutzt das 4K Signal den gesamten Sensor! Hm - kannst Du dann erklären wie der native 2er Crop bei HD, aber der 2,3er Crop bei 4K Zustande kommt?

Space


Antwort von Chrompower:

Hier Bäume aus der Ferne
Zumindest ich sehe hier auch eigentlich keinen Unterschied.

Space


Antwort von klusterdegenerierung:

Aber wenn das der einzige Vorteil ist habe ich lieber in 10 Jahren auch noch Videos in guter Qualität. - kaum noch Moire
- kaum noch Aliasing
- weniger Rauschen
- detailierteres Material
- mehr Raum bei der Verarbeitung, sprich mehr Infos zum graden

ist für Dich das "Einzige" ???

Ich glaube Du hast Dir die falsche Cam gekauft oder bist vielleicht beratungsresistent! ;-)

Space


Antwort von Chrompower:

hmm.. du weißt schon worum es hier geht? :-)

Space



Space


Antwort von klusterdegenerierung:

Da bei 1080p nicht die gesamte Sensorfläche benutzt wird bzw. Inhalt verworfen werden muß (Pixel binning), nutzt das 4K Signal den gesamten Sensor! Hm - kannst Du dann erklären wie der native 2er Crop bei HD, aber der 2,3er Crop bei 4K Zustande kommt? Meinst Du UHD oder Cinema 4K?

Space


Antwort von CameraRick:

Da ist ein Unterschied, wenn man rein zoomed ist das 4K minimalst schärfer. Aber nicht mehr Detail, könnte man auch nachschärfen und aufs Gleiche kommen.
Meinst Du UHD oder Cinema 4K? Ja - oder liege ich damit falsch? Die haben doch beide den additionellen Crop, während normales HD keinen zusätzlich hat?

Space


Antwort von Chrompower:

Stimmt, beim Zoom sieht man ein ganz ganz ganz klein bisschen was.

Aber das würde ja praktisch nochmal dagegen sprechen runter zu skalieren

Space


Antwort von klusterdegenerierung:

Warum sich da der Crop ändert habe ich ich jetzt auch nicht auf dem Schirm, aber ich vermute weil eine anderes Seitenverhältnis des Sensors ausgelesen wird.

Mit den übrigen Vorteilen müßte man genaue Test machen. Ich denke Bäume werden da nicht geeignet sein, wenn dann wohl eher eine Klinker Hauswand oder derartiges.

Leider fehlt mir momentan etwas die Zeit dafür, aber ich glaub ich werde das in den nächsten Tagen mal testen :-)

Space


Antwort von CameraRick:

Man provoziert natürlich auch durch die im Verhältnis gerunge Datenrate mehr Blocking etc

Ich meine, sie macht teoretisch 100mbit in 4K, das entpsricht nun mal Pi mal Daumen 25mbit bei 1080p - nur dass es VBR ist und in der Praxis manchmal halt auch drunter liegt. Wenn man dann noch knapp 20mbit im HD-Äquivalent hat und das dann preist fragt man sich auch, wieso man früher gefeiert hat als die GH2 auf einmal 45mbit + gemacht hat

Space


Antwort von klusterdegenerierung:

Stimmt, beim Zoom sieht man ein ganz ganz ganz klein bisschen was.

Aber das würde ja praktisch nochmal dagegen sprechen runter zu skalieren Heh? Wieso, es geht doch um 1080 und nicht 4K als Endformat?

Space


Antwort von WoWu:

@Chrompower
Ich kann beim besten Willen, nirgendwo einen bedeutenden Unterschied feststellen. Der Einzige Unterschied zwischen Pixelbinning und Unter-Abtsatung (down scaling) besteht darin, dass der Störabstand bei Pixelbinning in der Kamera deutlich verbessert wird und sich dadurch (quasi) eine höhere Lichtempfindlichkeit ergibt.
Ansonsten gibt es keinen wirklich signifikanten Unterschied.

Es ist aber fraglich, ob die GH4 überhaupt Pixelbinning macht.

Space


Antwort von Asjaman:

Da bei 1080p nicht die gesamte Sensorfläche benutzt wird bzw. Inhalt verworfen werden muß (Pixel binning), nutzt das 4K Signal den gesamten Sensor! Hm - kannst Du dann erklären wie der native 2er Crop bei HD, aber der 2,3er Crop bei 4K Zustande kommt? Bei 1080p Aufnahme wird durchaus die gesamte Sensor-Fläche genutzt. Im 4K bzw. UHD Modus ist die Ausnutzung etwas kleiner.

Space


Antwort von Chrompower:

@ Kluster
Es geht hier darum ob es Sinn macht 4k Material auf 2k herunter zu skalieren.

@WoWu
Ich beziehe mich z.B. darauf:
https://www.slashcam.de/artikel/Test/Pan ... -C100.html

"Der wirklich Knaller (und damit auch der beste Weg für HD-Produktionen) ist jedoch das herunterskalierte 4K-Bild. Wie schon im Vorfeld diskutiert, entsteht hierbei ein extrem sauberes Bild..."

Das stimmt (zumindest laut diesen Tests hier) einfach nicht. Praktisch müsste es heißen: Es ist besser in 4k aufzunehmen als in Full HD.
Und der große Vorteil wenn man nicht runter skaliert ist doch das ich in 5 Jahren bei einem 4k Fernseher auf jeden Fall eine bessere Qualität habe!?

Ich mache später noch mal einen Low-light Test

Space



Space


Antwort von WoWu:

Das kommt darauf an, wie das 4K Bild entsteht, ob optisch oder durch Super-Resolution.
Bei SR wird ein Bild mit geringerer Auflösung auf 4K skaliert und die dadurch entstehenden Skalierungsartefakte nachgerechnet.
Du hast also nicht mehr (optische) Bilddetails sondern lediglich in 4K interpolierte und gerechnete Übergänge. Dadurch entstehet ein höherer Schärfeeindruck aber eben nicht mehr Bildauflösung in Form von mehr Bildinhalten.

Space


Antwort von Chrompower:

Und wie ensteht das 4k Bild bei der Gh4?
Ich denke optisch? Und was bedeutet das dann?

Sorry, bin technisch nicht so gut drauf wie du ;-)

Space


Antwort von WoWu:

Das ist nicht so ganz selbstverständlich denn bei 4.608 x 3.456 und bei 18,89 mm × 14,48 mm Sensorfläche haben die Pixels lediglich noch 4µ.
Das sind keine Grössenordnungen, grossartig optisch noch viel zu machen, ohne dass man kräftig in die Bearbeitung einsteigt.
Andernfalls sollten die Objektive dann auch mindestens so um die 170 Lp/mm erbringen, um die für 4K erforderlichen Ortsfrequenzen überhaupt halbwegs solide zu übertragen.
Das ist aber sehr zweifelhaft, dass sie diese Leistung erbringen, weil sie dann deutlich teurer wären.
Gleichwohl sind auch Auflösungslimits (mit 7,2 µ für 530 nm ) ab Blende 5.6 bereits für 4K erreicht, sodass die Vermutung nahe liegt, dass das 4K Bild aus einem Super Resolution Algorithmus gewonnen wird und nicht durch optische Auflösung.

Space


Antwort von klusterdegenerierung:

Du hast also nicht mehr (optische) Bilddetails sondern lediglich in 4K interpolierte und gerechnete Übergänge. Dadurch entstehet ein höherer Schärfeeindruck aber eben nicht mehr Bildauflösung in Form von mehr Bildinhalten. Halte ich für totalen Nonsens!

Space


Antwort von Angry_C:

Ach, nun ist es also ein so genannter Super Resolution Algorithmus. Vor gar nicht all zu langer Zeit war es noch ein Rekonstruktions Algorithmus. Wo du dich aber auch immer rumtreibst:-)

Beschäftige dich mal mit den MFT Optiken, du würdest dich wundern...

Space


Antwort von klusterdegenerierung:

Und wie ensteht das 4k Bild bei der Gh4?
Ich denke optisch? Und was bedeutet das dann?

Sorry, bin technisch nicht so gut drauf wie du ;-) In dem es den ganzen Chip ausließt und nicht interpoliert.
Bei 1080p ließt sie nicht den ganzen chip aus.

Space


Antwort von WoWu:

Tja, davon werden die Pixels auch nicht grösser.
Zum Glück kann man je solche Sachen nachrechnen.
Die Parameter sind ja bekannt.
Und "zaubern" kann Panasonic auch noch nicht.Halte ich für totalen Nonsens! Das ist Dein gutes Recht ... dann sag doch mal, was falsch daran ist und warum optische Gesetze für die Kamera nicht gelten und wie es tatsächlich gemacht wird.

Space


Antwort von Angry_C:

Hast du dir einmal die Mühe gemacht, ein 4K Frame der Gh4 auf deine Theorie hin zu untersuchen und dir ein Viertel davon als Vollbild 1:1 angeschaut? Nach deiner Theorie müsste es grauenhaft aussehen, sieht aber wie ein 1A natives 1920x1080 Bild aus. Mit etwas Nachschärfen und deiner "Superresolution" erreicht man dieses nicht. Die dann sichbar werdenen Details kommen nicht aus dem Zauberhut. Da kannst du deine Theorie noch so lange walten lassen.

Space


Antwort von Angry_C:

Und wie ensteht das 4k Bild bei der Gh4?
Ich denke optisch? Und was bedeutet das dann?

Sorry, bin technisch nicht so gut drauf wie du ;-) In dem es den ganzen Chip ausließt und nicht interpoliert.
Bei 1080p ließt sie nicht den ganzen chip aus. Doch, bei 1080p wird eben gerade der ganze Chip ausgelesen, nur werden da Pixelgruppem zusammengelegt, um auf 1080p zu kommen. Daher auch der kleinere Cropfaktor im FullHD Mode.

Space



Space


Antwort von WoWu:

Ja, ja .. ist gut.
Sag doch, was falsch ist und warum Wellenoptik bei der Kamera anders funktioniert.
So einfach ist das.

Space


Antwort von Skeptiker:

Da bei 1080p nicht die gesamte Sensorfläche benutzt wird bzw. Inhalt verworfen werden muß (Pixel binning), nutzt das 4K Signal den gesamten Sensor! Hm - kannst Du dann erklären wie der native 2er Crop bei HD, aber der 2,3er Crop bei 4K Zustande kommt? Der Thread läuft ja munter weiter und die Crop-Frage ist eigentlich schon wieder off-topic, aber hier (EOSHD) findet sich eine Graphic, die zeigt, wie der 2x Crop für Full HD Video und der 2.3x Crop für UHD bzw. 2.2x für 4K zustandekommt.
http://www.eoshd.com/wp-content/uploads ... 60x499.jpg
Ich hab's nicht nachgerechnet, und offenbar hat man den Video-Crop nicht diagonal sondern horizontal berechnet.

NACHTRAG:
Graphik in diesen beiden Beiträgen verwendet:
http://www.eoshd.com/2014/02/panasonic-gh4-preview/
http://philipbloom.net/2014/06/30/gh4/

Aber gemäss Graphik kommt der Full HD Crop durch Auslesen des Gesamtsensors mit Pixel Binning zustande, während der UHD bzw. 4K Crop durchs zentrale Auslesen der dafür genau benötigten Pixel (rund 8 Mio) zustandekommt - es findet also (wenn die Graphik stimmt und ich sie richtig deute) eine 1:1 Pixel-Zuordnung Sensor-Auslesen/abgespeichertes Bild statt, ohne Downscaling.

Space


Antwort von Angry_C:

@Chrompower

Deine Tests verstehe ich nicht. Wie können die 2k Aufnahmen exakt das gleiche Bild haben wie die 4k aufnahmen? Zwischen den Aufnahmen muss sich doch das Motiv bewegt haben.

man vergleicht Bild 3 mit Bild 4.

Space


Antwort von WoWu:

@Skeptiker
Dagegen spricht, dass sie bei 1080 nicht deutlich lichtempfindlicher ist denn die SNR müsste deutlich ansteigen.
Tut sie aber nicht.
Ausserdem geht aus der "Grafik" irgendwie gar nichts hervor. Weder nach welchem verfahren sie binnen, noch welche Cluster gebildet werden.
Das hat Blog Niveau.
(Oder hab' ich da die falsche "Grafik" erwischt) ?

Space


Antwort von Angry_C:

@Skeptiker
Dagegen spricht, dass sie bei 1080 nicht deutlich Lichtempfindlicher ist denn die SNR müsste deutlich ansteigen.
Tut sie aber nicht. Natürlich ist sie das, das weiss auch jeder, der mit der GH4 arbeitet. Das Mehr an Rauschen verschwindet aber wieder beim herunterskalieren zu HD. Auch bekannt.

Space


Antwort von Skeptiker:

@ WoWu: Du meinst das Binning.
Was wären die Alternativen (wahrscheinlich wurden sie schon aufgezählt, habe noch nicht alles gelesen)?

Bei der Graphik geht's wirklich nur um den Crop, nicht ums Binning im Detail!

@Angry_C: Höhere SNR (Rauschabstand) bedeutet WENIGER an Rauschen!

Space


Antwort von Angry_C:

Ja, ja .. ist gut.
Sag doch, was falsch ist und warum Wellenoptik bei der Kamera anders funktioniert.
So einfach ist das. Sagt doch niemand, vielleicht rechnest du einfach nur die ganze Zeit falsch.

Space


Antwort von Angry_C:

@ WoWu: Du meinst das Binning.
Was wären die Alternativen (wahrscheinlich wurden sie schon aufgezählt, habe noch nicht alles gelesen)?

@Angry_C: Höhere SNR (Rauschabstand) bedeutet WENIGER an Rauschen! Habe ich irgendwas anderes behauptet? Ich glaub, du hast nicht richtig gelesen. Ich schrieb, das sie im 1080p Modus Lichtempfindlicher ist, aber das Mehr an Rauschen im 4k modus (snr ist kleiner) durch das nachträgliche Herunterskalieren kaum noch sichtbar ist.

Space


Antwort von Skeptiker:

@Skeptiker
Dagegen spricht, dass sie bei 1080 nicht deutlich Lichtempfindlicher ist denn die SNR müsste deutlich ansteigen.
Tut sie aber nicht. Natürlich ist sie das, das weiss auch jeder, der mit der GH4 arbeitet. Das Mehr an Rauschen verschwindet aber wieder beim herunterskalieren zu HD. Auch bekannt. ZITAT: "Habe ich irgendwas anderes behauptet? Ich glaub, du hast nicht richtig gelesen."

Habe ich Dich falsch verstanden, als Du "Mehr an Rauschen" schriebst?

PS:
Ok - Frage im Beitrag hiervor geklärt!

PS2:
Ich hatte heute Gelegenheit, eine GH4 etwas auszuprobieren - schöne Kamera (einzig die automatische Zoom-Vergrösserung zum Scharfstellen, die beim Antippen des Auslösers immer wieder ins Bild kommt (aber dann den Überblick übers Gesamtmotiv verhindert), hätte ich gerne probeweise ganz abgestellt, habe aber keinen Weg gefunden). Super fand ich - im Vergleich zur GH2 - die 2 Einstell-Räder: Eines für die Blende, eines für die Zeit. Und natürlich die 96fps-Zeitlupe (vielleicht gibt's ja per Firmware mal 100)! Der Autofokus hat mich nicht ganz überzeugt, aber kann an mir / den Motiven (teils kontrastarm) gelegen haben.

Ein Gedanke zur Bildqualität beim 4K-Downscaling versus 2K-Recording: Vielleicht kann man klarere Unterschiede sehen, wenn man mal je ein ProRes-Video extern aufnimmt (z.B. wenn der Atomos Shogun da ist).

Space



Space


Antwort von Chrompower:

Angry - alles ist Cinema 4 k Material, alle bilder sind von ein und dem selben video

Hab es bisschen unverständlich benannt:
2k 2k bedeutet: Sequenz auf 2k eingestellt, in 2k exportiert
4k 2k z.B. : Sequenz auf 4k eingestellt, in 2k exportiert

verstehst du was ich meine?

@ Skeptiker

Vielleicht gibt es dann überhaupt Unterschiede, denn die momentanen Unterschiede würde ich nicht mal als Unterschiede bezeichnen, so klein wie sie sind :)

Achja, und die Einstellung das er automatisch zoomt kann man ausstellen, kann ich später raussuchen wenn du willst.

Space


Antwort von Skeptiker:

... alles ist Cinema 4 k Material, alle bilder sind von ein und dem selben video ... Vielleicht bin ich heute Abend begriffsstutzig, aber müsste man den Vergleich nicht so machen, dass man

1. in 4K aufnimmt und dann am PC auf 2K downskaliert,

2. 4K aufnimmt und als 2K aus dem HDMI herausschickt (Scaling in der Kamera), um es extern aufzunehmen (z.B. mit Ninja) und

3. 2K direkt auf die Kamera aufnimmt.

Und diese 3 Varianten dann vergleicht.
... Achja, und die Einstellung das er automatisch zoomt kann man ausstellen, kann ich später raussuchen wenn du willst. Danke! Es beruhigt mich schon zu wissen, dass man's ausschalten kann - ich habe die Kamera ja (noch) nicht ;-(

Space


Antwort von Angry_C:

Das Herunterskalieren von 4k wird gegenüber der direkten Aufnahme in FullHD empfohlen, weil dabei einfach ein viel besseres Bild herauskommt. Deine Vergleiche verstehe ich daher nicht.

Space


Antwort von WoWu:

wird gegenüber der direkten Aufnahme in FullHD empfohlen Wer empfiehlt das, wo steht das und wie ist es begründet ?

Space


Antwort von Chrompower:

Ich scheine mein Anliegen nicht gut erklärt zu haben :-(

Ich vergleiche die gleiche 4k Aufnahme auf einem Full HD Bildschirm:

In 4k exportiert, also NICHT herunterskaliert
in 2k exportiert, also SCHON herunterskaliert

und es gibt eben praktisch keinen unterschied, wie auf den bildern zu sehen
also braucht man nicht herunterzuskalieren wie es überall empfohlen wird.

es genügt völlig aus einfach in 4k aufzunehmen und zu exportieren, man muss absolut nichts verändern

@Skeptiker
Ich möchte eben 4k nativ auf Full HD mit 4k herunterskaliert vergleichen.
Externe Aufnahme interessiert zumindest mich nicht weil ich einfach nicht genug Geld dafür habe :-D
2k Aufnahme direkt von der GH4 würde ich grundsätzlich nie machen, ich persönlich möchte die 4k Details einfach nicht missen.

Lade in wenigen Minuten den Lowlight test hoch

Space


Antwort von Chrompower:

Auch hier sehe zumindest ich keinen Unterschied den man ab spätestens 50 cm Sitzabstand erkennen könnte. Oder wie seht ihr das?

Der Lowlight Test nochmal genau erklärt:

Ich habe ein Video gedreht mit C4K Auflösung und Iso 3200.

Das obere Bild ist die herunterskalierte Variante, also von 4k auf 2k skaliert, dargestellt auf einem Full HD Monitor.

Das untere Bild ist die nicht skalierte Variante, also weiterhin 4k, dargestellt auf einem Full HD Monitor.

Ich möchte damit testen, ob das Herunterskalieren von 4k auf 2k etwas bringt. (Wie es so häufig gesagt wird)

Space


Antwort von Skeptiker:

... Ich vergleiche die gleiche 4k Aufnahme auf einem Full HD Bildschirm:

In 4k exportiert, also NICHT herunterskaliert
in 2k exportiert, also SCHON herunterskaliert

und es gibt eben praktisch keinen unterschied, wie auf den bildern zu sehen
also braucht man nicht herunterzuskalieren wie es überall empfohlen wird. ... Der Tipp mit dem Herunterskalieren ist wohl so gemeint (Angry_C schrieb es schon), dass zu 2K herunterskaliertes 4k besser aussieht (störungsfreier) als direkt in 2k intern aufgenommen (was Du ja nicht getan hast).

Und der springende Punkt in Deinem Vergleich ist vermutlich, dass Du in beiden Fällen die 4K-Sensor-Auslesung der Kamera benutzt (die ja 1:1 ist und zunächst nicht skaliert wird, für die externe 2K-Ausgabe per HDMI dann im 2. Schritt schon und für beide spätestens für die Anzeige auf Deinem 2K-Monitor), während Du mit 2K die Pixel nicht 'nativ' ausliest, sondern aus dem kompletten 16:9 Sensor-Bereich durch Binning oder sonstwie ein 2K Bild generierst. Und dieses Prozedere ist offenbar anfälliger auf Bildstörungen als eine nachträgliche 4K->2K-Skalierung.

Space


Antwort von WoWu:

Mach den Low-Light Test doch nochmal mit 4K und dann mit 2K sodass Du dann die 2 K gegen die unter-abgetastete Version halten kannst.
Dann kann man ja mal sehn, ob da gepinnt wird, oder nicht denn dann müsste die 2K Version drastisch lichtstärker sein.
(selbes Setting)

Space


Antwort von Chrompower:

Aber der Vergleich zeigt doch, sofern ich meinen Test überhaupt noch selbst verstehe :-)

das es zwischen 4k Material und 4k Material was auf 2k herunterskaliert wird keinen Unterschied gibt (bei einer Anzeige auf einem Full-HD Bildschirm)

Also stimmt es zwar das 4k herunterskaliert auf 2k besser ist als 2k intern aufgenommen

Aber das Herunterskalieren des 4k Materials ist sinnfrei

Somit kann man sagen das intern 4k besser ist als intern 2k

und das herunterskalieren ist nicht nötig.

Oder habe ich gerade einen Denkfehler?

@ WoWu
Teste ich gleich mal, Bilder werden wohl in so 15 min hochgeladen sein

Space



Space


Antwort von Skeptiker:

... 2k Aufnahme direkt von der GH4 würde ich grundsätzlich nie machen, ich persönlich möchte die 4k Details einfach nicht missen. ... Kann ich verstehen.
Gründe, es trotzdem zu tun, könnten sein:
Weniger Rolling Shutter in 2K,
besserer Autofokus in 2K.
Und WoWu's Frage wäre: Besseres Low Light in 2K?

Space


Antwort von Skeptiker:

... Also stimmt es zwar das 4k herunterskaliert auf 2k besser ist als 2k intern aufgenommen ... Schade, dass Du die Katze nicht auch direkt in 2K aufgenommen hast, dann müsste man den Unterschied doch sehen, oder nicht?

Space


Antwort von WoWu:

Kommt ja gleich.
Wobei sich dann bei gebinntem Sensor tierisch was in der Helligkeit tun muss.

Space


Antwort von Chrompower:

Hier sind die Pics

Ich habe nichts geändert außer die Auflösung, also einmal in 2k aufgenommen, einmal in 4k.

Was sagt ihr?

@ Skeptiker, stimmt. Besserer Autofocus und weniger Rolling Shutter.

War so begeistern von der 4k Qualität der Katze, da hab ich gar nicht an Full HD gedacht ^^ (Ist auch ein älteres Video, war also eigentlich gar nicht für einen Test gedacht)

In Full HD aufgenommen würde die Katze jedenfalls deutlich schlechter aussehen

Space


Antwort von WoWu:

Alles klar ... nix mit Binning.

Space


Antwort von Chrompower:

Also mir gefällt das 4k Bild auf jeden Fall besser.
Ist schärfer und das Rauschen hat nur eine andere Struktur ist aber meiner Meinung nach weder bemerkenswert mehr oder weniger.

gehe mal schlafen, falls euch noch andere sinnvolle tests einfallen bitte einfach schreiben

Space


Antwort von Skeptiker:

Danke für die Bilder & good night!

Space


Antwort von WoWu:

Alles klar, gute Nacht.

@Skeptiker
Klär mich doch mal auf, inwieweit sollte denn 2K einen Einfluss auf RS haben.
Die Abtastung bleibt doch dieselbe und wird in dieser Kamera sowieso durch die Fouriertransformation vorgegeben, so, wie es aussieht.

Space


Antwort von Skeptiker:

Klär mich doch mal auf, inwieweit sollte denn 2K einen Einfluss auf RS haben. Kann es am Bildprozessor liegen, der bei 2K-Input weniger zu tun hat?

Sorry, hatte gerade Verbindungsprobleme.
Ziehe mich nun auch zurück - morgen geht's weiter!

Space



Space


Antwort von Angry_C:

wird gegenüber der direkten Aufnahme in FullHD empfohlen Wer empfiehlt das, wo steht das und wie ist es begründet ? Alle Leute, die eine GH4 besitzen und Erfahrung sammeln konnten.
Die Begründung ist schon zur Genüge durchgekaut worden. Die Qualität vom runterskalierten 4K Material unterscheidet sich um Welten von den 1080p Aufnahmen. Darüber ist sich niemand uneinig.

Space


Antwort von Angry_C:

@Chrompower:

Danke für die Bilder, so ein Vergleich macht natürlich mehr Sinn.

Bei Motiven mit vielen kleinen Details (Bäume, Backsteinmauern, Zäune, etc.) fällt der Unterschied noch viel drastischer aus.

Space


Antwort von Angry_C:

Alles klar, gute Nacht.

@Skeptiker
Klär mich doch mal auf, inwieweit sollte denn 2K einen Einfluss auf RS haben.
Die Abtastung bleibt doch dieselbe und wird in dieser Kamera sowieso durch die Fouriertransformation vorgegeben, so, wie es aussieht. Ich denke mal, es liegt daran, dass die Auslesung des Sensors im FULLHD Mode schneller vonstatten geht, was einen kleineren RS Effekt zur Folge hat. Im 4K Modus wird anscheinend langsamer ausgelesen, weil das Prozessing sowieso schon mehr Leistung beansprucht und auch die Wärmeentwicklung in Grenzen gehalten werden muss.

Da das Auslesen des Sensors direkt mit dem Autofokus in Verbindung steht, begründet das auch die Tatsache, dass der Autofokus im 4K Modus langsamer ist.

Space


Antwort von WoWu:

Schau Dir doch mal die Vergleichsbilder an ... da ist nichts gebinned.

Space


Antwort von Angry_C:

Dann schaue dir mal 1080p Testchartaufnahmen an. Sollten hier auch auf Slashcam verfügbar sein.

Der FullHD Modus liest zwar den gesamten Sensor aus, Pixel werden aber anschließend zusammengefasst, was sich deutlich in der Qualität bemerkbar macht. Aliasing und Moiré sind ziemlich stark vertreten.

Im 4K Modus oder im UHD Modus werden alle benötigten Pixel 1:1 aus der Mitte ausgelesen und weiter verarbeitet. Daher auch 3 verschiedene Cropfaktoren.

Space


Antwort von Tiefflieger:

Alles klar, gute Nacht.

@Skeptiker
Klär mich doch mal auf, inwieweit sollte denn 2K einen Einfluss auf RS haben.
Die Abtastung bleibt doch dieselbe und wird in dieser Kamera sowieso durch die Fouriertransformation vorgegeben, so, wie es aussieht. Ich denke mal, es liegt daran, dass die Auslesung des Sensors im FULLHD Mode schneller vonstatten geht, was einen kleineren RS Effekt zur Folge hat. Im 4K Modus wird anscheinend langsamer ausgelesen, weil das Prozessing sowieso schon mehr Leistung beansprucht und auch die Wärmeentwicklung in Grenzen gehalten werden muss.

Da das Auslesen des Sensors direkt mit dem Autofokus in Verbindung steht, begründet das auch die Tatsache, dass der Autofokus im 4K Modus langsamer ist. Bei 4K muss man genauer arbeiten um den Fokus sichtbar zu platzieren (inkl. der Tiefenschärfe aus Brennweite und Blende).
Aber Autofokus Geschwindigkeit (Hysterese) ist weniger ein Problem als Genauigkeit und Pumpen.

Solange FullHD Kameras nur 60-80% der möglichen Bildauflösung erreichen macht Downscaling aus 4K Sinn.
Genau genommen ist die GH4 im 4K Aufnahmeformat eine 2K+ bis zu 3K Kamera, je nach verwendetem Objektiv.

Gruss Tiefflieger

Space


Antwort von DeeZiD:


Solange FullHD Kameras nur 60-80% der möglichen Bildauflösung erreichen macht Downscaling aus 4K Sinn.
Genau genommen ist die GH4 im 4K Aufnahmeformat eine 2K+ bis zu 3K Kamera, je nach verwendetem Objektiv.

Gruss Tiefflieger Absolut richtig.
Aber selbst bei 100% Pixelpeeper-Ansicht ist das Bild immer noch deutlich detailreicher und sauberer als das einer Canon-DSLR... :D

Die volle Schärfe erreicht man meiner Meinung nach erst bei ca. 65% Skalierung auf einer FullHD-Timeline. Also eher 2-2,5k. ;)

Space


Antwort von Angry_C:

Grüß dich Tiefflieger, wo stecktest du die ganze Zeit?

Hast du schon ne 4K Mühle?

Space


Antwort von Angry_C:


Solange FullHD Kameras nur 60-80% der möglichen Bildauflösung erreichen macht Downscaling aus 4K Sinn.
Genau genommen ist die GH4 im 4K Aufnahmeformat eine 2K+ bis zu 3K Kamera, je nach verwendetem Objektiv.

Gruss Tiefflieger Absolut richtig.
Aber selbst bei 100% Pixelpeeper-Ansicht ist das Bild immer noch deutlich detailreicher und sauberer als das einer Canon-DSLR... :D

Die volle Schärfe erreicht man meiner Meinung nach erst bei ca. 65% Skalierung auf einer FullHD-Timeline. Also eher 2-2,5k. ;) Jou, und für das Geld ist das beachtlich, was Panasonic da auf dem Markt geworfen hat. Und mit dem 4:2:2 10 Bit Ausgang ist sie nicht nur etwas für Hobbyfilmer.

Space



Space


Antwort von Tiefflieger:

Grüß dich Tiefflieger, wo stecktest du die ganze Zeit?

Hast du schon ne 4K Mühle? Mich juckt es in den Fingern eine UHD Kamera zu kaufen.
Aber restlos überzeugt bin ich von UHD in 25p/30p nicht.

Ich warte noch bis nächstes Jahr wenn die Systemwelt durchgängiges 4K erlaubt, dann wird es vielleicht noch einen 5K Apple Mac geben.

Träumen werde ich weiter hin von einer 3-Chip in UHD mit 10 bit Farbtiefe.

Gruss Tiefflieger

Space


Antwort von WoWu:

Der FullHD Modus liest zwar den gesamten Sensor aus, Also kein Pixel-Binning. Pixel werden aber anschließend zusammengefasst Die Bezeichnung dafür ist : Unterabtastung was sich deutlich in der Qualität bemerkbar macht Ja, aber nur negativ, denn Interpolation, -was in der Unterabtastung durchgeführt wird- führt gegenüber Binning nur zu marginaler Verbesserung, hat aber den Nachteil -gegenüber Binning- dass der Stöabstand und auch die Dynamik schlechter sind.
Der signifikanteste Unterschied liegt noch darin, dass Skaling gegenüber Binning etwas mehr Kontrast hat.

Space


Antwort von Angry_C:

Grüß dich Tiefflieger, wo stecktest du die ganze Zeit?

Hast du schon ne 4K Mühle? Mich juckt es in den Fingern eine UHD Kamera zu kaufen.
Aber restlos überzeugt bin ich von UHD in 25p/30p nicht.

Ich warte noch bis nächstes Jahr wenn die Systemwelt durchgängiges 4K erlaubt, dann wird es vielleicht noch einen 5K Apple Mac geben.

Träumen werde ich weiter hin von einer 3-Chip in UHD mit 10 bit Farbtiefe.

Gruss Tiefflieger

Ich finde 30p gehen schon aus der Hand gehalten, wenn man aber 50p durch die Consumer-Camcorder gewohnt ist, merkt man es schon.

Die neue Samsung UHD Fernseherlinie (ab HU7100) macht aber eine überzeugende Zwischenbildberechnung, sodass es wieder so aussieht, wie du es von deiner Panasonic Mühle kennst:-)

Space


Antwort von otaku:

chromepower, könntest du bitte mal das low light in 4k auch wirklich in 4k hochladen. ich bekomme immer nur hd, egal was ich da downloade. oder mache ich was falsch?

Space


Antwort von Tiefflieger:

Grüß dich Tiefflieger, wo stecktest du die ganze Zeit?

Hast du schon ne 4K Mühle? Mich juckt es in den Fingern eine UHD Kamera zu kaufen.
Aber restlos überzeugt bin ich von UHD in 25p/30p nicht.

Ich warte noch bis nächstes Jahr wenn die Systemwelt durchgängiges 4K erlaubt, dann wird es vielleicht noch einen 5K Apple Mac geben.

Träumen werde ich weiter hin von einer 3-Chip in UHD mit 10 bit Farbtiefe.

Gruss Tiefflieger

Ich finde 30p gehen schon aus der Hand gehalten, wenn man aber 50p durch die Consumer-Camcorder gewohnt ist, merkt man es schon.

Die neue Samsung UHD Fernseherlinie (ab HU7100) macht aber eine überzeugende Zwischenbildberechnung, sodass es wieder so aussieht, wie du es von deiner Panasonic Mühle kennst:-) Meist Du die Zwischenbildbestimmung in hellen Bildteilen bei 1/25s Belichtungszeit und 50p Aufnahmeframerate? (Integral? aus der Zwischenbildauslesung des Sensors :-))

Motion Blur bleibt Motion Blur, bei kurzen Verschlusszeiten gäbe es Interpolationsmöglichkeiten.

Passend zum Thread 4K zu 2K Downscaling in der Bildauflösung nützt nichts, wenn die Bewegungs- und Fokusunschärfe mit der schlechten Optikauflösung aus einer unkoordinierten Kamerabewegung entsteht.

Gruss Tiefflieger

Space


Antwort von Chrompower:

Bitte sehr otaku

Space


Antwort von eko:

Grüß dich Tiefflieger, wo stecktest du die ganze Zeit?

Hast du schon ne 4K Mühle? Mich juckt es in den Fingern eine UHD Kamera zu kaufen.
Aber restlos überzeugt bin ich von UHD in 25p/30p nicht.

Ich warte noch bis nächstes Jahr wenn die Systemwelt durchgängiges 4K erlaubt, dann wird es vielleicht noch einen 5K Apple Mac geben.

Träumen werde ich weiter hin von einer 3-Chip in UHD mit 10 bit Farbtiefe.

Gruss Tiefflieger Und die Pana HC-X1000 interessiert Dich nicht?Die kann doch 4K/50P.

Space


Antwort von WoWu:

... aber leider keine 10 Bit

Space


Antwort von eko:

Tiefflieger will natürlich wieder alles:-)

Space



Space


Antwort von klusterdegenerierung:

in 2k exportiert, also SCHON herunterskaliert ?? Wieso als 2K importiert wenn es 4K ist??
Ergibt keinen Sinn! Du mußt es als 4K importieren und als 1080 exportieren!

Space


Antwort von WoWu:

Das ist klar, :-)
Aber ich würde heute auch keine 8 Bit Kamera mehr kaufen.

Space


Antwort von Jott:

Bitte sehr otaku Und jetzt mal Butter bei die Fische was die Theorie angeht, das sei mit "Super Resolution" errechnet (Wegrechnen von Unschärfe durch Analyse benachbarter Frames, ganzes Bild künstlich scharf, weil der Algorithmus ja nicht erkennen kann, ob Unschärfe/Shallow DoF gewollt ist).

Alle 4K-Kameras verhalten sich völlig normal beim Filmen, kein abweichendes Schärfeverhalten im HD- oder 4K/UHD-Modus. Sieht man auch hier: leichte Unschärfe außerhalb der Fokusebene. Im Livebild sowieso, wo ja keine Zeit für das vermutete Rechnen bleibt.

Hinzu kommt: die Super Resolution-Theorie versagt hier sowieso, weil ja die Stativaufnahme eines Stilllebens die Anwendung eines solchen Algorithmus gar nicht ermöglicht (lauter identische Frames).

Space


Antwort von WoWu:

Es ist Dir sicher entgangen, dass es derzeit 7 (gebräuchliche), unterschiedliche Methoden gibt, Super Resolution zu errechnen.
Das, was Du also "bei die Fische" gibst ist bestenfalls Griebenschmalz,-leicht ranzig-.

Aber es ist ja ganz einfach:
Falsifizier doch mal die optischen Gesetze, wenn Du schon "Butter bei die Fische" geben willst.
Dann haben wir dieselbe Basis.

Space


Antwort von Jott:

Zuerst du. Nicht rauswinden. Die Widersprüche kommen von dir, so wie die Theorie auch. Permanent andere anzuranzen mit "falsifizier doch" ist nichts Neues mehr. Falsifizieren kann deine Stories jeder, indem er eine der verdächtigen Kameras einfach mal in die Hand nimmt und sich die Ergebnisse anschaut, insbesondere das Schärfeverhalten. Da tritt NICHT das auf, was du bisher ständig beschrieben hast. Ganz einfach. Die optischen Gesetze spielen da schon mit, die Diffraktion schlägt nur später zu als von dir errechnet, aus ein paar Gründen, die dir eigentlich klar sein sollten. Aber wer bin ich denn, dich zu korrigieren? :-)

Space


Antwort von Angry_C:

indem er eine der verdächtigen Kameras einfach mal in die Hand nimmt und sich die Ergebnisse anschaut Und genau da liegt das Problem. Keine Kamera, keine Ergebnisse, nur im Trüben Fischen - wenn wir schon bei Fischen sind:-)

Wobei man sich dann ja immerhin einmal die Mühe machen könnte, abseits der Formelsammlung auch mal Ergebnisse anderer Praktiker anzuschauen. Die eigene Berechnung könnte nämlich auch mal daneben liegen. Wir sind ja schließlich alle nur Menschen.

Immer wieder das selbe. Es werden die abenteuerlichsten Theorien in den Raum geworfen, wichtig verpackt ohne Begründungen und die anderen müssen es durchrechnen.

Wowu, wie wäre es denn mal, wenn du uns deine Theorien einmal rechnerisch Begründen würdest, anstatt den Ball nach der Behauptung einfach den anderen zuzuschieben?

Space


Antwort von otaku:

ich hab mir die Bilder auch nochmal angesehen. ich finde bei den zur verfügung stehenden Bildern ist das 4k Bild das in der Software scaliert wird deutlich schärfer und detailierter.

Wenn ich mir das 4k Bild in 1:1 Auflösung ansehe, dann habe ich auch das Gefühl es ist etwas zu scharf, oder besser gesagt ich habe das Gefühl es ist in der Kamera nachgeschärft, allerding wirklich nur ein klein wenig, die Lumix Menschen gehen da nicht mit nem Holzhammer dran.
Finde ich jetzt erstmal nicht negativ, ich hab da im Standbild jetzt nichts gesehen was mir unangenehm auffällt.
Aber ob es wirklich nachgeschärft ist oder nicht, ich kann mich durchaus irren und wir werden es sowieso nie erfahren, daher ist es mir eigentlich auch egal.

Ich wollte mir aber auch noch das Grain ansehen, und das ist wirklich ne totale Katastrophe wenn man das 2k Bild aus der Kamera nimmt, es ist ein einziger Matsch und die Kompression die da auf dem 2k Bild liegt sieht ja aus wie vor 15 Jahren, was ist denn da schief gegangen?
Kommt das so aus der Kamera oder ist das einfach beim Umwandeln passiert? Wenn es so aus der Kamera kommt, dann darf man wirklich niemals auf 2k mit der GH4 drehen.

Ich hab einfach mal Screenshots gemacht, beachtet, das ist alles auf 2facher Grösse im Nuke Viewer

Space


Antwort von Jott:

Rechnen ist das eine. Eine 4K-Kamera an einen Monitor anzuschließen das andere. Ist doch einfach: mit Offenblende anfangen, dann Stufe um Stufe abblenden. Die Diffraktion ist nicht weggerechnet, sie kommt ab einer gewissen Blende sehr wohl, und natürlich früher als bei den meisten HD-Kameras. Sieht man! Darauf muss man aufpassen. Wäre ja sogar schön, wenn es weggerechnet wäre! Und noch eins: scharf stellen ist schwierig, man liegt sehr leicht daneben. Würde ja nicht passieren bei künstlichem Scharfrechnen.

wowu redet nicht von klassischem Nachschärfen, Otaku. Das wird selbstverständlich gemacht wie schon immer, in den meisten Kameras zum Glück regelbar, bei Raw in die Post ausgelagert.

Aber darum geht's hier gar nicht, sondern um angebliche Eingriffe ins Bild, die sich auf die grundlegende Ästhetik auswirken sollen (alles scharf, keine unfokussierten Bereiche mehr). Man muss nur mal am Fokus drehen und eine klassische Schärfeverlagerung machen, um zu sehen, dass diese Behauptung nicht nachvollziehbar ist. Aber dazu muss man nun mal eine solche Kamera anwerfen.

Space


Antwort von otaku:

ich hab ja auch geschrieben, das ich das Gefühl habe und das es wenig ist, das ist was anderes als zu sagen: ja da ist ein Scharfrechner im Spiel und das Ding sieht aus wie ein Samsung Galaxy.

Ich gestehe aber durchaus ein das ich mich irren kann, ich schaue ja auch nur drauf und gleiche es im Kopf mit dem ab was ich so kenne, das ist nicht gerade wissenschaftlich.

Space



Space


Antwort von Chrompower:

in 2k exportiert, also SCHON herunterskaliert ?? Wieso als 2K importiert wenn es 4K ist??
Ergibt keinen Sinn! Du mußt es als 4K importieren und als 1080 exportieren! Das hab ich gemacht, also 4k Material in 2k exportiert.


@ Otaku

Ja, das kommt bei Full HD so aus der Kamera.
Schärfe war bei den Aufnahmen übrigens auf minus 5 eingestellt, also das absolute Minimum was man bei der GH4 einstellen kann.

Bei dem Low-Light Test sieht man es zwar auch schon gut, aber bei hellem Tages-Licht und feinen Strukturen ist das so wie Tag und Nacht zwischen Full HD Aufnahme und 4k.


Deshalb filme ich absolut immer in 4k. (Außer bei Slow-Mo)
Und werde zukünftig nicht mehr in der Post auf 2k herunterskalieren.

Space


Antwort von otaku:

@Chromepower

ah danke für die Info und das 4k Bild.

Ja beim Drehen auf 4k, da kann ich dich sehr gut verstehen, das würde ich bei der GH4 jetzt nach dem Test auch immer machen.

Post auf 4k mache ich nur wenn ich dafür bezahlt werde, freiwillig niemals mehr als 2k. Im Hobby Modus kann mein Rechner garkein 4k ;-)
Aber Geschmacksache, wenns für dich so gut funktioniert, warum nicht.
Für mich ist 4k Post auch nicht schlecht, es ist nur pain in the back weil es halt alles richtig zäh wird und mir den Server zumüllt.

Space


Antwort von WoWu:

@ Jott
Erklär' doch einfach mal, warum ein Diffraktionsscheibchen, das 8 µ gross ist und über 2 4µ Pixels strahlt, sich nicht auf die Auflösung auswirkt.
Sowas Einfaches wirst Du doch sicher sagen können, wo Du doch alles über die Kamera weisst und sie täglich in der Hand hast.
Klär uns alle doch mal auf.

Space


Antwort von Angry_C:

Da müsstest du mal Panasonic fragen. Auch in der Physik gibt es immer wieder neue Erkenntnisse:-)

Space


Antwort von WoWu:

Welche ?
Auf dem Gebiet haben die optischen Firmen, wie Zeiss lange in der Mikroskopie geforscht und als einziges Ergebnis "Super Resolution"-Algorithmen mit entwickelt.
Vielleicht hart Pansonic ja geschafft, was Zeiss nicht fertig gebracht hat und die optischen Gesetze ad Absurdum geführt.
Aber Jott wird uns das sicher gleich erklären.

Space


Antwort von Jott:

Des Rätsels Lösung würde nur wieder Beleidigungen nach sich ziehen. Die dürfen gerne mal andere mitnehmen! :-)

Space


Antwort von WoWu:

Tja, Jott.

Es kann natürlich auch die Ursache haben, dass Du gar nicht weisst, wie es funktioniert, es aber behauptest.

Ich habe zumindest eine plausible Lösung angeboten, sie begründet und mit den geltenden optischen Gesetzen untermauert.

Du behauptest nur etwas, nämlich dass es optisch funktioniert, und begründest das damit, dass Du die Kamera täglich in der Hand hast.

Erkennst Du den Unterschied ?

Space


Antwort von Angry_C:

Welche ?
Auf dem Gebiet haben die optischen Firmen, wie Zeiss lange in der Mikroskopie geforscht und als einziges Ergebnis "Super Resolution"-Algorithmen mit entwickelt.
Vielleicht hart Pansonic ja geschafft, was Zeiss nicht fertig gebracht hat und die optischen Gesetze ad Absurdum geführt.
Aber Jott wird uns das sicher gleich erklären. Ja, das scheint in der Tat der Fall zu sein. Sowie es auch alle anderen Kamerahersteller geschafft haben. Zeiss ist auch nicht mehr das ,was es mal war.

Oder kannst du gegenteiliges belegen?

Space


Antwort von WoWu:

Die optischen Gesetze belegen das.
Oder kannst Du erklären, warum, ein Diffraktionsscheibchen das über 2 Pixels (oder mehr) geht, die Auflösung nicht beeinflussen soll.
Jott konnte es ja offenbar nicht erklären.

Ich denke, Du spekulierst nur, dass Panasonic da die Gravitation aufgehoben hat. Nur belegen kannst Du es nicht.

Da glaube ich eher Zeiss.
Und nicht umsonst hat ARRI für 4K einen Sensor eingesetzt, der die entsprechend grossen Pixels für eine optische Umsetzung hat.

Hätten sie ja nicht tun müssen, wenn es mit MFT und 4µ Pixels auch geht.
Sie hätten sich ja nur eine GH4 kaufen müssen oder Panasonic fragen, wie's geht.
Oder hast Du dafür auch eine Erklärung ?

Space


Antwort von Angry_C:

Arri hat 4 mal den Alexa Sensor zusammen geschmissen, weil dieser sich bewährt hat. Lichtempflindlichkeit spielt sicherlich auch eine Rolle bei der Wahl. 4müh Pixel hättens aber auch getan. Hätte niemand gesehen.

Space


Antwort von WoWu:

Ja, ja. Alles klar.

Space


Antwort von Jott:

Des Rätsels Lösung würde nur wieder die üblichen Beleidigungen nach sich ziehen. Die dürfen gerne mal andere mitnehmen! :-)

Ansonsten drehen wir den Spieß doch einfach um und sagen: verifizier doch! Mit Aufnahmen - aus einer der Kameras, die du auf dem Kieker hast - die deine Theorie belegen.

Space


Antwort von Jan:

Nur kurz ein paar Sätze von Nobelpreisträger Gerd Binnig. "Andere mit Wissen zu beeindrucken, das hat mich nie beeindruckt. Man braucht natürlich Wissen, aber nicht unbedingt Fachwissen. Ich wusste nichts über Mikroskopie, nichts über Programmierung, sondern bin eher naiv an ein Problem herangegangen. Der andere Weg wäre, mit viel Fachwissen das zu machen, was andere schon gemacht haben, und es zu verbessern. Aber das war nie mein Weg. Ich wollte immer Neuland betreten." PM Magazin 5/14

Der gebürtige Frankfurter Binnig sah als erster Mensch atomare Strukturen mit seinem Rastertunnelmikroskop, er arbeitete damals für IBM in der Schweiz. Mit dem Rasterkraftmikroskop kann man Atome sogar manipulieren.

Space


Antwort von otaku:

ich kenne Herrn Binning ja nicht, aber jeder Regisseur sagt im Prinzip das Gleiche: ich hab zwar von nix ne Ahnung, ist aber egal, es gibt ja Schergen wie dich die das für mich übernehmen, und am Ende verdiene ich sogar noch mehr als du.

Tja gut, aber was belegt das jetzt? Das einer der keine Ahnung hat (wie er es selbst sagt) es bis zum Nobelpreis Gewinner bringen kann, und dann noch auf Dicke Hose macht.

toll.

Space


Antwort von WoWu:

Jan, es ist nicht so ganz klar, was Du mit solchen Worten sagen willst und dass es sich um Nobelpreisträger handelt sagt heute allerdings gar nichts mehr.

Henry Kissinger hat auch 1973 den Friedensnobelpreis bekommen. Aber nach den Papieren, die heute aus den Archiven so auftauchen sollte er froh sein, wenn er nicht mehr in Den Haag als Kriegsverbrecher angeklagt wird.

Space


Antwort von Jan:

Das sollte in eine andere Richtung zielen. Binnig hat nie mit Wissen geprotzt, obwohl er umfassende Kenntnisse besitzt. Nach seiner Meinung nach zählt das eigene kreative Denken viel mehr. Sich mit Wissen aus Fachbüchern vollzusaugen, wird keine neuen Technologien erbringen. Eigene Erfahrungen und Selbsttests sind da von Vorteil, was laut Lehrbuch nicht funktionieren soll, kann sehr wohl unter veränderter Form klappen.

Binnig zählt neben dem im letzten Jahr verstorbenen Schweizer Heinrich Rohrer zu den Vätern der Nanotechnologie.

Space


Antwort von WoWu:

Da mag ja alles stimmen, aber er hat vermutlich nie physikalische Gesetze negiert, sonst hätte er sie nicht so erfolgreich genutzt.

Hier wird aber behauptet, die Wellenoptik funktioniert nicht mehr.
Und das von Leuten, die sie (vermutlich) nicht mal richtig kennen.

Wie schlägst Du da die Brücke zu Binning ?

Space


Antwort von Jott:

Aber nur vermutlich! :-)

Space


Antwort von WoWu:

Na dann beantworte doch mal meine Frage, wenn die Vermutung nicht stimmt.
Wäre ja jetzt ein Leichtes zu zeigen, wie es optisch geht.

Space


Antwort von Jott:

Wie gesagt: solltest du eigentlich wissen. Ansonsten verfalle ich in dein Mantra: verifizier doch! :-)

Space


Antwort von Jott:

... doppelt

Space


Antwort von klusterdegenerierung:

Vielleicht darf man das ganze auch nicht zu technisch sehen und sich lieber mal ein schönes Ergebnis ansehen sollte, bei dem zumindest wenn man die 7-14er pancake weggelassen hätte (wegen der Schärfe), es doch glatt eine Blackmagic hätte sein können :-)



Space


Antwort von WoWu:

Wie gesagt: solltest du eigentlich wissen. Ansonsten verfalle ich in dein Mantra: verifizier doch! :-) Ja, ja Jott.... heisse Luft.
Ich glaube, Du hast keinen blassen Schimmer.

Space


Antwort von Jott:

Sonn dich in dieser Meinung. Du brauchst das.

Space


Antwort von klusterdegenerierung:

guckst Du hier :-)



Space


Antwort von Jan:

Laut klassischer Physik kann ein Objekt mit geringer Energie auch nicht über eine Barriere mit höherer Energie in der Spitze gelangen, oder einfach gesagt ein Auto benötigt eine höhere Bewegungsenergie um über den Berg zu kommen als die Energie auf der Spitze des Berges. In der üblichen Physik ist das richtig, in der Quantenmechanik falsch. Da hat sich selbst Albert Einstein geirrt. Kann man unter dem Tunneleffekt nachlesen, womit wir wieder bei den beiden Physikern wären.

Mir ist klar, dass ich Dir WoWu ganz sicher keine physikalischen Vorträge halten darf, dazu ist mein Wissen zu gering. Aber es gibt sogar Dinge, die selbst Einstein nicht geglaubt hat. Klar befinden wir uns hier in der üblichen Physik und nicht in der Quantenmechanik der kleinen Atome. Aber teilweise wissen wir nicht, was die hier beschriebenen Firmen wirklich intern machen. Dazu fehlen halt leider der genauen Beschreibungen, sonst verzetteln wir uns möglicherweise, nur weil wir etwas voraussetzen, was die Firmen vielleicht so gar nicht fabrizieren.

VG
Jan

Space


Antwort von Angry_C:

Vielleicht darf man das ganze auch nicht zu technisch sehen und sich lieber mal ein schönes Ergebnis ansehen sollte, bei dem zumindest wenn man die 7-14er pancake weggelassen hätte (wegen der Schärfe), es doch glatt eine Blackmagic hätte sein können :-)

Schaut sehr gut aus, schon beeindruckend, was der Videoprozessor der GH4 aus dem VGA Signal (höchstens) macht;-) Super Resolution + Bildrekonstruktion sei es gedankt.

Space


Antwort von WoWu:

@ Jan,
früher hat man auch geglaubt, die Erde sei eine Scheibe ....

Aber dafür, dass jede zweite Firma heute Super-Resolution Algorithmen einsetzt und das Thema mittlerweile zum Dauerbrenner bei Handys geworden ist, muss man nicht die Quantenphysik bemühen, um davor die Augen zu verschliessen.

Das also nicht alle Foto-und Videogeräte allein mehr auf optischen Lösungen basieren, sollte auch (gerade) Dir nicht entgangen sein. -Thema Handy mit 1,4 µ Pixels-
Und wenn tatsächlich jemand den Quantensprung in der Wellenoptik gefunden hat, dann haben ihm das aber viele Firmen, schnell nachgemacht. So ein Quantensprung kann es dann also gar nicht gewesen sein.
Schade auch, dass ARRI davon nichts mitbekommen hat, sonst hätten sie sich eine neue, grosse Kamerentwicklung auf optischer Grundlage glatt sparen können.

Jan, Du denkst zu kompliziert, wenn Du tief in die Wissenschaft hinein argumentierst.
Es ist viel trivialer.
Wir müssen uns einfach daran gewöhnen, das die Chips in den Kameras mittlerweile powervoll genug geworden sind, um Algorithmen abzurechnen, die lange Grossrechnern vorbehalten waren.
Und da brauchen wir gar nicht in die Abgründe der Physik hinabsteigen.

Es gibt nur eben immer die, die sich nicht damit abfinden können, das Paradigmen wechseln.
In diesem Fall von der optischen Verarbeitung, hin zur virtuellen Verarbeitung.
Ist ja nicht schlimm, nur haben wir eben keine optischen Reproduktionen mehr. damit allerdings auch nickt die Nachteile. Dafür sind 8K oder mehr dann aber auch kein Problem mehr. -Schöne scharfe Videowelt-.
Die Frage, die sich nur stellt ist die, wann diese Algorithmen in den PCs landen und wir ausser einer Pocket, die unscharfe Bilder macht, keine andere Kamera mehr brauchen und die 4 oder 8K kommen aus dem NLE, denn das kann dann genau dasselbe machen, was heute noch die Kamera veranstaltet.

Ich gebe Dir also Recht ... Fortschritt ist nicht aufzuhalten.
-Mein Reden seit langer Zeit.-
Frage eben nur, wo findet er statt, in der Quantenphysik, - dann haben das aber sehr viele Kamerhersteller, sehr schnell gelernt- obwohl es sich doch gar nicht rumgesprochen hat- oder im Rechenprozess der Chips, in denen nun, seit fast 15 Jahren bekannte Algorithmen gerechnet werden können.

Was meinst Du ?
Müssen nun alle Optiker neu lernen, weil Licht sich plötzlich anders verhält ?

Und auch das Zitat von Binnig war so gemeint, dass er sich vor den Gesetzmässigkeiten nicht "gefürchtet" hat und trotzdem geforscht hat. _Er hat das Wort "beeindrucken" (im Sinne von Ehrfurcht) benutzt.
Ganz im Gegenteil. Seine Forschung setzt auf den physikalischen Gesetzmäßigkeiten auf, ohne die er seine Forschung gar nicht hätte führen können.
Er sagt an keiner Stelle, dass die Gesetze nicht mehr gestimmt haben.
Ein Zitat ist manchmal irreführend, wenn man den Kontext vorenthält.

Space


Antwort von Angry_C:


Und auch das Zitat von Binning war so gemeint, dass er sich vor den Gesetzmässigkeiten nicht "gefürchtet" hat und trotzdem geforscht hat. _Er hat das Wort "beeindrucken" (im Sinne von Ehrfurcht) benutzt. Binnig heisst der Gute - Gerd Binnig ;-)

Space


Antwort von WoWu:

geschenkt.
Hat meine Wortkorrektur noch nicht erfasst.

Space


Antwort von SgtPepper:

wann diese Algorithmen in den PCs landen warum ist das eigentlich noch nicht der Fall?

Space


Antwort von WoWu:

Weil Software dafür noch nicht schnell genug ist und sie in den Kameras derzeit in DSPs läuft, also eingedampft auf einen sehr schnellen Hardware-Kern.
Das wird es irgendwann als Grafikkarte für die NLEs auch geben.
Vor zwei Jahren konnten einige Rechner (bzw. die NLEs) noch nicht mal mit AVC umgehen. (Einige NLEs können das ja heute noch nicht mal). ;-)

Space


Antwort von SgtPepper:

ok, das erklärt, warum es nicht in Echtzeit geht..

aber warum gibt es sowas nicht als software tool, wo man ein File reinwirft und es ein paar Stunden später "besser" rauskommt?

Space


Antwort von WoWu:

Auf -non realtime- Basis wird es das wohl irgendwann auch geben.
Mit entsprechenden Host-Programmen kann man heute mit den Algorithmen schon arbeiten, aber das hat im Augenblick noch mehr experimentellen Charakter. (Ich hatte Tiefflieger vor einiger Zeit mal den Link zu solchen Programmen gepostet)

Aber das kommt ganz sicher.
Wie gesagt, das ist ja nichts Neues, was da erfunden worden ist sondern wird (in der Industrie bzw. im Sicherheitsbereich) schon seit 15 Jahren eingesetzt.
Und nun hat es den Weg in die Handys und Camcorder gefunden.
In ein, zwei Jahren werden wir uns fragen, wozu wir eigentlich solche Kameras gebraucht haben.

Space


Antwort von SgtPepper:

sehr interessant!

hat im folgenden Beispiel der Begriff SR die gleiche Bedeutung wie bei Handy- und Videokameras?


Wenn ja, ist es ja wirklich erstaunlich wie in so kleiner (billiger) Elektronik, z.B. Handykameras solche komplexe Aufgaben in Echtzeit gelöst werden können

Space


Antwort von WoWu:

Im Prinzip: ja, nur dass das MATLAB Beispiel auf einer Bibliothek beruht. das wird in der Videokamera vermutlich nicht der Fall sein sondern die Samples werden aus den dynamischen Bildern gewonnen.
Mir sind im Moment 7 Methoden bekannt, nach denen SR durchgeführt werden kann.
Und was die Grösse des DSPs betrifft ... das sind auch nur 2 Mill Transistoren, nicht grösser als ein "Fliegenschiss" auf der Platine.
Und wenn man bedenkt, dass in einer Videokamera pro Pixel 1.600 einzelne, unabhängige Berechnungsschritte pro Bild durchgeführt werden müssen, also Menge der Pixels x 1.600 x 50 Bilder/sec,(das sind 320.000.000.000 Berechnungen in der Sekunde), dann bekommt man ein Gefühl dafür, dass so ein dezidierter kleiner Rechner damit nicht so viele Probleme haben wird.

Space


Antwort von Angry_C:

Man muss bei diesen neuartigen Camcordern allerdings tierisch aufpassen. Einmal den Rekonstruktionregler zu empfindlich gestellt, könnte man ganz schnell in Schwierigkeiten kommen.

Z.B. wenn man seiner Frau z.B. schnell die letzten Urlaubsclips direkt ab Speicherkarte zeigen möchte und plötzlich hat man da eine Blondine im Arm, die in Wirklichkeit nicht da war, oder man wird beim Rauchen erwischt, obwohl man noch nie ne Fluppe angefasst hat. Oder wowu läuft in einem Kolumbianischen Nudistencamp im Bikini durch die Gegend, obwohl er ausschließlich sein HDTV/HDV & AVCHD 800 Seiten Kompendium bei sich trug.

Alles Situation, die man sich nicht unbedingt wünscht, aber eben doch so oder in ähnlicher Form immer wieder auf der Speicherkarte landen.

...weil die Technik eben doch noch nicht so weit ist....

Space


Antwort von WoWu:

Tja, das ist wohl alles mehr DEINE Welt.
Da fühlst Du Dich zuhause.
Schon interessant, deine Assoziationen zu dem Thema.
Wahrscheinlich stösst Jott gleich auch nochmal dazu.
In solchen Themen ist er ja sattelfest, dann könnt Ihr das unter "Kennern" mal ordentlich ausphantasieren.

Space


Antwort von Angry_C:

Lohnt nicht, es ist alles gesagt. Diese Themen existieren in deiner Phantasiewelt aber nicht in einer GH4, um das ganze mal wieder zurück zum Thema zu führen.

Space


Antwort von Chrompower:

Kurze Zwischenfrage an alle GH4 Besitzer:
Sind eure 4k Videos wenn ihr sie bei YouTube hochladet fehlerfrei abspielbar?

Hab die Katze hochgeladen, bis 1080p Einstellung alles gut, ab 1440p oder been 4k folgender Fehler:

Hab schon einiges probiert, in andere Formate umgewandelt (mkv, mp4)
Und auf 4 verschiedenen PCs getestet.
Leider überall das Gleiche.

Da es sich vielleicht um ein kürzlich entstandenes Problem (von Youtube) handeln könnte wäre es gut wenn jemand ein neues Video hochladen würde.

Hat jemand eine Idee woran das liegen könnte, ist jemand der Fehler bekannt?

Space


Antwort von WoWu:

@otaku

Was mich an den Bildvergleichen einwenig irritiert ist, dass das Korn auf den 2K Bildern nicht scharf ist.
Korn ist kein optischer Bestandteil und müsste daher, egal ob 4K oder 2 K immer gleich scharf sein und ggf durch die geringere Photonenmenge etwas weniger, aber auf jeden Fall immer gleich schaf.
Was also passiert im Processing mit dem 2K Bild, das das 4K Bild nicht durchläuft ?
Denn inhaltlich sind beide Bilder Identisch, (es gibt als keine weiteren Bilddetails) nur die Schärfe ist unterschiedlich.

Hast Du dafür eine Erklärung ?

@Chrompower
War das Setting zwischen 2 und 4K identisch, gibt es noch irgend etwas auszuschalten ?
Z.B. eine Rauschminderung, die ggf. bei 2K im Bildprozessing wirksam war ?

Space


Antwort von otaku:

@wowu

ne hatte ich ja oben auch geschrieben, das ich da etwas verwundert bin, schau dir mal das Bild an wo ich das Gamma hoch gezogen habe, da siehst du ja auch sehr deutlich die heftigen kompressions Artefakte, ich denke auch das das Grain da einfach tot komprimiert wird, deswegen hatte ich ja auch die Frage gestellt, ob das evtl ein Felher ist, der sich bei der Wandlung zum jpg eingeschlichen hat. Aber chrome sagt ja, es kommt so aus der Kamera.

Also darf man die GH4 offensichtlich in 2k nicht benutzen weil sie da sogar schlechter ist als eine GH1. Erstaunlich.

Space


Antwort von WoWu:

Na ja, ich wage mal eine andere These ... wenn man das 2K Bild ebenso processed, wie das 4K Bild, sähe es genauso aus, denn bei aller Akribie kann ich keine optischen Unterschiede -in Form von zusätzlichen -optischen- Bilddetails- zwischen den Bildern erkennen.
Lediglich, dass in der 2K Ausführung Texturen besser dargestellt werden, die in der 4K Version "platt" sind.
Das könnten nun optische Unterschiede sein, dazu müsste man aber wissen, wie die Textur in der Szene wirklich beschaffen war.
Was die Kompression betrifft, würde ich die Artefakte eher in 4K erwarten, als in 2K, weil einfach der Stress für den Kompressor deutlich grösser ist.
Und -überhaupt- bei so einem Stilleben spielt der Codec eigentlich gar keine wirklich signifikante Rolle mehr.

Was den Vergleich angeht, hatte ich zunächst mal versucht, mich an den beiden "Originalen" zu orientieren, also so dicht wie möglich an der Kamera zu bleibem.
Du hattest dann ja den Download nochmals mit anderer Software bearbeitet, was aber eben eine Kopie eines Ergebnisses war, wohingegen das 2K aus der Kamera ein direktes Processing vom Sensor, zum Ausgang darstellt.
Und da hätte ich wenigstens erwartet, dass das Grain des Sensors dargestellt wird ... ist aber irgendwie nicht so - und das ist äusserst merkwürdig.
Denn, wie gesagt- würde das Bild genau denselben Prozess durchlaufen, wäre es mal interessant zu sehen, wie gross dann noch der Unterschied ist -und, vor allen Dingen, worin er besteht-.

Space


Antwort von Chrompower:

Wowu, danke für deine Antwort.

Habs herausgefunden, lag an den Flash-Player Einstellungen. Ohne Hardwarebeschleunigung funktioniert alles sehr gut. Vielleicht muss ich mal bei allen PCs den Grafikkartentreiber aktualisieren. Die fehlerhafte Darstellung ist übrigens immer genau in den ersten 5 Sekunden von jedem Video (gewesen).

Grüße
Chrom

Space


Antwort von -paleface-:


Also darf man die GH4 offensichtlich in 2k nicht benutzen weil sie da sogar schlechter ist als eine GH1. Erstaunlich. Kenne die Gh1 jetzt nicht.
Aber ich finde das beide Modi vor und Nachteile haben.

Auch der 2K Modus der Gh4 ist sehr gut. Ich habe schon mehrere Projekte damit gemacht und musste mich nie beschweren.

Meine vorherige Kamera war eine 7D. Mal jetzt vom funktionsumfang abgesehen, finde ich das die gh4 das Bild um längen schlägt.
Wenn man jetzt bedenkt wieviele Filme dort draußen mit Canon Kameras rumgeistern und von allen gemocht werden, sollte das Bild der Gh4 ja wohl locker klar gehen.

Ich habe gerade ein Projekt wo ich 4K Material (besstes Bild) mit 1080 96fps (schlechtestes Bild) der Gh4 mischen muss. Und ja, es funktioniert.
Man muss zwar hier und da ein klein wenig in der Post fummeln, aber das geht alles voll in Ordnung.

Space


Antwort von otaku:

also nochmal, war jetzt der Fehler das das jgeg falsch raus gerechnet wurde, oder entspricht das dem Kamera Original?

Das wäre bei so einem Vergleich schon eine wichtige Information.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH5 / GH5s / GH6 / GH7 / G9 (II)-Forum

Antworten zu ähnlichen Fragen //


Panasonic S1/GH4/GH5 Forum - mit G9?
Rode Smartlav+ > (Zoom GH5) > Lumix GH4, GH5 + Android Tests
externer monitor via hdmi an gh4?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash