Logo Logo
/// 

Kommt es auf Auflösung an? - Interview mit Geoff Boyle



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



In diesem kurzen Interviewclip nimmt Geoff Boyle Stellung zum Schlagwort "Auflösung" von digitalen Cine-Kameras und weist darauf hin, dass sich die reale Auflösung beträc...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Kommt es auf Auflösung an? - Interview mit Geoff Boyle




Antwort von TonBild:


In diesem kurzen Interviewclip nimmt Geoff Boyle Stellung zum Schlagwort "Auflösung" von digitalen Cine-Kameras und weist darauf hin, dass sich die reale Auflösung beträc...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Kommt es auf Auflösung an? - Interview mit Geoff Boyle


"Wir empfehlen in diesem Zusammenhang, sich einmal bei der nächsten großen Videomesse hochauflösendes Bewegtbild auf Spezialmonitoren mit Auflösungen oberhalb von 4K anzuschauen und dann zu überlegen, ob dies einen Bildeindruck hinterlässt, den man als cinematisch wahrnimmt."
https://youtu.be/SVCD1ZnYFjk

Beim obigen Messestand hat der Hersteller auch Lupen zur Betrachtung des hochauflösenden Bildes angeboten damit man mit diesen den Unterschied besser feststellen kann.

Mein letztes Anschauen eines 8 K Monitors auf einer Messe hat bei normalem Betrachtungsabstand keinen besonderen Bildeindruck hinterlassen. Mir ist eigentlich kein großer Unterschied zu normalen Monitoren aufgefallen. Erst als ich ca. 20 cm vor dem Monitor stand konnte ich darauf den Text eines abgefilmten Buches fast so klar lesen als ob ich direkt das Buch lesen würde. Das war schon beeindruckend.

Aber cinematisch?
Im Kino sitze ich doch nicht 20 cm vor der Leinwand und benutze auch kein Fernglas oder eine Lupe wie im obigen Video angesprochen. Ist im Kinosaal überhaut eine 8k Auflösung für das menschliche Auge wahrnehmbar?

Ein 8k Monitor wäre sinnvoll um damit bei im öffentlichen Raum aufgestellten Werbedisplays auch noch das Kleingedruckte lesen zu können. Zumindest wenn man nah genug am Monitor ist.
;-)



Antwort von cantsin:

Das Interview mit Boyle sollte man mal transkribieren und immer wieder aus dem Hut holen, wenn in Foren wieder die 4K-Debatte losbricht.





Antwort von Jott:

Natürlich ist 4K/8K nicht "cineastisch". Dass 2K dafür völlig reicht, sieht man ja im Kino, echte 4K-Projektionen gibt es dort so gut wie nie.

Das japanische 8K-TV zielt auf das Gegenteil, nämlich zum Greifen nahe Reality (Live-Übertragungen, Sport, Hochglanz-Doku ...). Auch das sollte man bei zukünftigen Diskussionen im Kopf behalten! :-)



Antwort von dienstag_01:

Das japanische 8K-TV zielt auf das Gegenteil, nämlich zum Greifen nahe Reality (Live-Übertragungen, Sport, Hochglanz-Doku ...). Auch das sollte man bei zukünftigen Diskussionen im Kopf behalten! :-)
irgendwie scheint zwischen der japanischen Mediaindustrie und der deutschen Autoindustrie die eine oder andere Parallele zu bestehen ;)



Antwort von Jott:

Der Boyle tut hier so, als sei diese Bayer-Erkenntnis neu. Ist sie ja nicht, dieser über den Daumen gepeilte Verlustfaktor von 0,7 (den er auch erwähnt) ist ja klar und gilt schon immer und für jeden Hersteller. Aber zählt Auflösung wirklich nicht? Dieser Faktor gilt ja für alle Einzelsensorauflösungen, also haben 4K, 6K und 8K trotzdem immer einen Vorteil gegenüber den niedrigeren Ks. Kommt halt drauf an, welchen Nutzen man daraus zieht. Für VFX sind hohe Basisauflösungen sicher nicht von Nachteil.

Wie auch immer: Boyle ist (war?) der liebste Intimfeind von Jim Jannard/RED:

http://www.hollywoodreporter.com/behind ... eud-609701



Antwort von Starshine Pictures:

Dass Netflix 4K Kameras vorschreibt liegt wohl daran dass sie ihr 4K Angebot explizit monetarisieren. Wer Netflix in 4K sehen will bezahlt mehr. Da muss man natürlich auch gewährleisten dass die Auflösung und der dadurch entstehende Mehrwert auch beim Zuschauer ankommt.

https://backlothelp.netflix.com/hc/en-u ... ments-v2-1

Hier mal deren Kameraliste die den Ansprüchen gerecht werden:
zum Bild https://backlothelp.netflix.com/hc/arti ... ameras.png

Ich habe das Boyle Interview auch schon vor einigen Tagen gesehen und dachte die hätten unseren WoWu befragt. Ich denke jedoch dass Auflösung und Detailschärfe bald ebenfalls zu einem filmischen Stilmittel werden wie Grading, Aspect Ratio oder Kamerafahrten. Ein Micheal Bay kann seine hochauflösenden Transformers durch das 8k Universum jagen während ein Damien Chazelle (La La Land) in verträumtem analogen 2k die Mädels in den tollsten Farben tanzen lässt.

Grüsse, Stephan von Starshine Pictures



Antwort von domain:

Gibt ja offenbar zwei Fraktionen.
Die einen (wie Tiefflieger früher) streben die absolut realistische Abbildung der Wirklichkeit an.
Die anderen, mehr cineastisch orientierten, geben Tipps wie man die Schärfe herunterdrehen kann, welche Diffuserfilter man verwenden sollte und welche alten weichzeichnenden Objektive das von Haus aus liefern.
Da wird es nie zu einem Konsens kommen.
Aber das ist eben der Unterschied zwischen Künstlern und Realisten.
Bei Spielfilmen ist die Realität nie wirklich wichtig, sondern ihre Ableitung in je nach Bedarf verfremdeten Bildern. Die Realität will man gar nicht sehen.



Antwort von Jott:

Stimmt. Aber wieso zwei Fraktionen? Die vielleicht dritte - scheuklappenfreie - weiß, wann was sinnvoll zu nutzen ist, tut das auch und schüttelt bei verbissenen und rechthaberischen Grabenkämpfen nur den Kopf. Oder amüsiert sich prächtig.



Antwort von Peppermintpost:

also ich finde Boyle's aussagen zum Thema nicht besonders hilfreich. Das Bayer Pattern auf dem er herumreitet ist ja kein Argument pro/contra hohe Auflösung und das Argument "Cineastischer Look" das verstehen zwar ein paar Leute, die Masse versteht es aber nicht und hält schärfer grundsätzlich für besser.

Ich finde das Argument von TonBild (gleich der erste Beitrag) sehr viel besser, man sieht bei einem normalen Betrachtungsabstand einfach keinen Unterschied. Das ist in unendlichen Tests auch schon längst bewiesen worden das er damit recht hat. Selbst Red hat das gestestet und ist ebenfalls zu genau der Feststellung gelangt.

Jetzt kommt das Argument der Post/VFX. Machen höhere Auflösungen in der Post Sinn? Da KANN es bedingt Sinn machen, muss es aber nicht. Das Material was ich so bekomme ist zu 60-70% Alexa Footage und zu 20-30% Red Footage, und nur ein sehr kleiner Prozentsatz alles andere, von der Blackmagic über GH4 oder 5D. Meine Erfahrung ist das Alexa Footage in der Post 1A ohne irgendwelche Probleme funktioniert. Dennoch ist mir Red Footage in manchen seltenen Fällen etwas lieber, weil ich finde das die viel besungene ausgezeichnete Farbwiedergabe der Alexa zwar tatsächlich ausgezeichnet ist, die Red ist aber absolut nicht schlechter. Also an Bildqualität vergebe ich da nichts nur weil ich eine höhere Auflösung bekomme, aber bei super feinem fussel Zeugs wie Haaren kann ich einfach bei ner Red schlampiger arbeiten, weil ich es am Ende halt runter skaliere zu HD und dann ist wieder alles gut. Ich erkaufe mir also weniger Arbeitszeit durch längere Rechenzeit. Für mich ist das eine Rechnung die aufgeht weil ich sowieso viel mehr Renderpower habe als ich brauche. Hab ich keine Friemel scheisse, dann ist mein erster schritt sowieso immer das Material erstmal auf die Grösse zu skalieren die ich auch brauche. Ich poste nix in 4k oder 8k was nicht zwingend sein muss oder vom Kunden so verlangt wird.
Das ist aber noch alles recht schwammig, was bedeutet das wirklich? ich habe in 2017 noch nicht einen einzigen Shot in mehr als 2k gepostet, ich hab in 2016 ganze 4 shots in über 2k gespostet, 3 shots davon aus einem Film. 2015 war ein echtes High Res Jahr, da hab ich ca 20 Shots in 4k bearbeitet (von mehreren hundert). Ich finde das spricht eine klare Sprache. Hätte ich die Shots von einer Alexa bekommen würden die ergebnisse genau so aussehen und der Mehraufwand wäre kompl. vernachlässigbar. Also wenn ich die wahl habe nehme ich gerne Red Footage, ich stehe auf Red genau so wie auf Arri, aber der objektive Vorteil ist dann doch eher in meinem Kopf als wirklich messbar vorhanden.

Aber ein wirkliches Argument contra High-Res, und darauf weist WoWu ja auch schon seit Jahren hin, das wird nur grundsätzlich ignoriert, das Objektiv muss die Auflösung halt auch hergeben. Also wer nicht mit Arri Master- oder Ultra Primes dreht, der sollte sowieso einfach die Klappe halten weil die 8k aus dem Objektiv schon nicht raus kommen. Da kann man dann auch einen 100k Sensor dahinter klemmen.



Antwort von 7nic:


also ich finde Boyle's aussagen zum Thema nicht besonders hilfreich. Das Bayer Pattern auf dem er herumreitet ist ja kein Argument pro/contra hohe Auflösung und das Argument "Cineastischer Look" das verstehen zwar ein paar Leute, die Masse versteht es aber nicht und hält schärfer grundsätzlich für besser.

Ich finde das Argument von TonBild (gleich der erste Beitrag) sehr viel besser, man sieht bei einem normalen Betrachtungsabstand einfach keinen Unterschied. Das ist in unendlichen Tests auch schon längst bewiesen worden das er damit recht hat. Selbst Red hat das gestestet und ist ebenfalls zu genau der Feststellung gelangt.

Aber ein wirkliches Argument contra High-Res, und darauf weist WoWu ja auch schon seit Jahren hin, das wird nur grundsätzlich ignoriert, das Objektiv muss die Auflösung halt auch hergeben. Also wer nicht mit Arri Master- oder Ultra Primes dreht, der sollte sowieso einfach die Klappe halten weil die 8k aus dem Objektiv schon nicht raus kommen. Da kann man dann auch einen 100k Sensor dahinter klemmen.

Das "Argument" mit dem Bayer Pattern ist doch gerade das Argument für hohe Auflösungen bei der Bildaufnahme. Wenn man langfristig echtes 4K anstrebt, sich gleichzeitig aber noch Reserven für die Bildbearbeitung in der Post bewahren will, landet man eben schnell nahe der 8K Bayer-Sensoren. Und wenn mir das Bild doch zu "scharf" ist, dann kann ich filtern, in der Post blurren oder Vintage-Objektive nutzen... Auflösung reduzieren natürlich immer, nur wenn ich sie brauche, habe ich sie mit der entsprechenden Kamera eben zur Verfügung.

Und an der Auflösung scheitert es bei den wenigsten "günstigen" Objektiven, ein, zwei Blenden gekniffen lösen fast alle modernen Optiken ziemlich hoch auf. Was du dir durch gute Objektive ersparst sind viel eher CAs, Verzeichnungen, Atmen...



Antwort von iasi:


Gibt ja offenbar zwei Fraktionen.
Die einen (wie Tiefflieger früher) streben die absolut realistische Abbildung der Wirklichkeit an.
Die anderen, mehr cineastisch orientierten, geben Tipps wie man die Schärfe herunterdrehen kann, welche Diffuserfilter man verwenden sollte und welche alten weichzeichnenden Objektive das von Haus aus liefern.
Da wird es nie zu einem Konsens kommen.
Aber das ist eben der Unterschied zwischen Künstlern und Realisten.
Bei Spielfilmen ist die Realität nie wirklich wichtig, sondern ihre Ableitung in je nach Bedarf verfremdeten Bildern. Die Realität will man gar nicht sehen.

Der digitalen Entwicklung sei Dank: Man kann nun die Wirklichkeit absolut realistisch abbilden und in der Postpro das Bild so kreativ gestalten, wie man nur will. Die Gestaltungsmöglichkeiten sind für den Künstler nun weit größer als noch zu Negativ-Zeiten.

Viele müssen sich erst noch darüber im klaren werden, dass digitales Produzieren sich eben doch sehr von dem mit Negativen unterscheidet. Die Angst vieler Kameraleute dabei: Die Bildgestaltung erfolgt nun weit mehr in der Postpro und eben nicht mehr allein durch den DP am Drehort.

Daher ist auch diese Sichtweise, die das Aufnahme- vom Endformat nicht unterscheidet schlicht überholt.

Heute kann man wirklich jeden Bildbereich in der Post absolut kontrolliert aufhellen oder abdunkeln, wie es am Drehort auch die besten Beleuchter nicht zustande bringen können. Es ist eben nicht "fix it in post" sondern "gestalte in der Post".

Dabei ist Auflösung natürlich nicht alles. 8k in 8bit bringt nichts.

Übrigens gibt"s bei Red gerade auch eine Disussion zum Thema:
http://www.reduser.net/forum/showthread ... Resolution



Antwort von Peppermintpost:



Das "Argument" mit dem Bayer Pattern ist doch gerade das Argument für hohe Auflösungen bei der Bildaufnahme. Wenn man langfristig echtes 4K anstrebt, sich gleichzeitig aber noch Reserven für die Bildbearbeitung in der Post bewahren will, landet man eben schnell nahe der 8K Bayer-Sensoren. Und wenn mir das Bild doch zu "scharf" ist, dann kann ich filtern, in der Post blurren oder Vintage-Objektive nutzen... Auflösung reduzieren natürlich immer, nur wenn ich sie brauche, habe ich sie mit der entsprechenden Kamera eben zur Verfügung.

Und an der Auflösung scheitert es bei den wenigsten "günstigen" Objektiven, ein, zwei Blenden gekniffen lösen fast alle modernen Optiken ziemlich hoch auf. Was du dir durch gute Objektive ersparst sind viel eher CAs, Verzeichnungen, Atmen...

klar, wenn du 4k haben willst dann must du deutlich mehr k bei der aufnahme haben wegen dem bayer pattern, das ist richtig. aber er fängt ja an mit 4k ist nicht 4k wegen dem pattern. da hat er recht. das stimmt bei hd aber genau so.
das ist richtig für jede digital kamera und jede auflösung. deswegen meine ich es ist weder ein pro noch contra argument wenn es um hohe auflösungen geht.
bei dem talk geht es doch darum ob auflösungen über hd sinn machen oder nicht. da geht es für mein verständniss also nicht darum das arri für eine 2k aufnahme 2,8k aufnimmt sondern ob auflösungen von 4k und höher noch sinn machen oder nicht.
die 2,8k von arri fur 2k ist ja nur eine frage des marketings. wir haben uns inzwischen daran gewöhnt das die auflösung in sensor auflösung angegeben wird und nicht in realer bild auflösung, da das aber in direkter korrelation steht finde ich ist es egal und nicht die eigendliche frage. wenn er das fass aufmachen will, was von high res tatsächlich übrig bleibt, dann ist das bayer pattern das geringste der probleme. objektivgüte, kompression etc spielt bei zumehmender sensor auflösung eine deutlich höhere rolle.



Antwort von Peppermintpost:

@Iasi

die sichtweise beruht leider auf unwissenheit. film kann man genau so verbiegen wie digital, haben wir früher so gemacht und wird bei den hollywood blockbustern die auf film gedreht werden auch so gemacht.



Antwort von iasi:



Aber ein wirkliches Argument contra High-Res, und darauf weist WoWu ja auch schon seit Jahren hin, das wird nur grundsätzlich ignoriert, das Objektiv muss die Auflösung halt auch hergeben. Also wer nicht mit Arri Master- oder Ultra Primes dreht, der sollte sowieso einfach die Klappe halten weil die 8k aus dem Objektiv schon nicht raus kommen. Da kann man dann auch einen 100k Sensor dahinter klemmen.

Die Abbildungsqualität bei ordentlichen Objektiven unterscheidet sich bei optimaler BlendeBlende im Glossar erklärt nicht so sehr, wie immer impliziert wird.
Bei Offenblende mögen die Unterschiede zwar vorhanden sind, aber schon bei t2.8 sind sie bedeutungslos.
http://www.reduser.net/forum/showthread ... ot-Results

Zudem stellt sich die Frage: Womit reize ich ein gutes Objektiv eher aus?
Mit 2k oder mit 8k?



Antwort von iasi:


@Iasi

die sichtweise beruht leider auf unwissenheit. film kann man genau so verbiegen wie digital, haben wir früher so gemacht und wird bei den hollywood blockbustern die auf film gedreht werden auch so gemacht.

Aber das kannst du eben auch nur, wenn du den Weg über das Scannen/Digitalisieren gehst.
Und auch hier versucht man doch höchstmögliche Auflösung für die Post zu erhalten - auch wenn es dann in 2k-Kinos läuft.



Antwort von Peppermintpost:



@Iasi

die sichtweise beruht leider auf unwissenheit. film kann man genau so verbiegen wie digital, haben wir früher so gemacht und wird bei den hollywood blockbustern die auf film gedreht werden auch so gemacht.

Aber das kannst du eben auch nur, wenn du den Weg über das Scannen/Digitalisieren gehst.
Und auch hier versucht man doch höchstmögliche Auflösung für die Post zu erhalten - auch wenn es dann in 2k-Kinos läuft.

ja, das stimmt



Antwort von WoWu:


Das Interview mit Boyle sollte man mal transkribieren und immer wieder aus dem Hut holen, wenn in Foren wieder die 4K-Debatte losbricht.

Dabei hat er ja lediglich ein altes Problem aufgegriffen und solche Probleme, dass ganze Bildpassagen aus Patches künstlich generiert werden, nicht mal im Ansatz erwähnt.
Aber es scheint tatasächlich der Paradigmenwechsel , vollzogen zu sein, dass es auf Bilddetais mittlerweile weniger ankommt, als auf Pixelmengen.
Es ist eben leichter, großen, goldenen Zahlen und nachgerechneten Kanten zu glauben, als gute Bilder zu machen.

@Stephan
Wenn's mal Detailschärfe wären .... es sind ja leider keine Details, sondern Patches.
Details würden ja die Wiedergabe eines Originaldetails voraussetzen.
Das gibt es aber z.Tl. gar nicht mehr im Bild.



Antwort von Roland Schulz:

Einige Ansätze finde ich ja ganz ok und und stützenswert, andere scheinen gerade auf dem Mond gelandet zu sein. Wer definiert eigentlich immer was "ich" sehe und vor allem wie ich es sehe?! Wer darf sagen 2K reicht für alles, mehr sieht "man" nicht?! Das galt vielleicht in Zeiten in denen 70cm Standard waren und die ganze Glotze einen kleinen Ausschnitt des Sehwinkels ausfüllte - da hatten wir allerdings kein 2K.

Wer verbietet mir mich 2m vor einen 65" 4K TV zu setzen? Hat schon mal jemand eine "Großbild-Diashow" in 2K sehen "müssen"?!
Michael Martin steht bei mir eigentlich ziemlich hoch im Kurs, ich habe die Präsentationen mehrfach gesehen. Einmal "musste" ich relativ weit vor sitzen. Wisst ihr was das für ein Mist ist wenn man ca. 4m vor einer Riesenleinwand sitzt, welche mit einem 2K Beamer befeuert wird?!
Da kannste dann PixelPixel im Glossar erklärt zählen! Selbst 4K wäre da noch eine Qual gewesen und nein, ich muss hier auch nicht das ganze Bild auf einmal sehen, ich kann mich auf für mich interessante Ausschnitte konzentrieren!
Leider gibt es, und da muss ich Michael etwas in Schutz nehmen, praktisch keinen "hier angemessen bezahlbaren" 4K Beamer mit einer ähnlichen, notwendig (!!) hohen Helligkeit welche der 2K Panybeamer liefert, und der kostet auch schon ~25k€!

Im Kino, sei es 2K oder 4K, habe ich noch nie irgendeinen "Schärfeeindruck" erlebt!! Was soll "cinematisch" und was ist daran (noch) erstrebenswert?? Langsam ist mal gut mit Retro!! Ich kann jede 4- oder 8K Kamera so versauen dass es so aussieht, umgekehrt funktioniert das nicht!
Was soll das immer dass es keine Objektive gäbe die 4K oder 8K auflösen?! Bayerdemosaicing bedingt schaffen wir ohnehin keine echten 4- oder 8K, soweit richtig, aber wer sich mal "vernünftige" Fotos einer EOS 5dsR (8,7K) angesehen und diese mit einer 6K Kamera (z.B. D750) verglichen hat wird feststellen, dass selbst hier noch klare Unterschiede in Details zu erkennen sind (vgl. dpreview studio shot comparison) - da brauche ich auch keine 3x2m für zu drucken (da wären es gerade mal noch ~75dpi Raster*0,7 = ~50dpi effektiv!!).

Man darf das Gesamtpaket aber auch nicht nur an der Auflösung festmachen, DR und SNR etc. sind u.A. auch relevante Qualitätseckpunkte. Grundsätzlich zu behaupten dass alles über 2K Unsinn ist ist aber Quatsch Comedy! Unter bestimmten Gesichtspunkten macht auch 8K ohne Frage Sinn, vor allem im Kino!
Man sollte keine Bilder präsentieren in denen die Kanten flimmern und jede Linie zwei "Nachbarn" hat. Bei dem ganzen weichgespülten Mist kriege "ich" aber Plaque!! Da sollte heute mehr möglich sein wenn man die Technik beherrscht!

Den Reduktionsfaktor von ~0,7 hatten wir zudem immer (Ausnahme 3 Chip), von daher kann ich ohne weiteres 2K mit 4K und 6K sowie 8K vergleichen. Alle Auflösungen werden gleichermaßen reduziert!



Antwort von Frank Glencairn:

Auch deine Augen, dein Gehirn, und dein Bewußtsein funktioniert genauso wie beim Rest hier - mach dich mal locker.



Antwort von BigT:

@Frank: Diese Relativität habe ich ganz drastisch nach meiner Graustar-OP erlebt. Als ich mit den neuen künstlichen Linsen plötzlich wieder die ganze Dynamik und Sättigung des visuellen Spektrums sah, war das ein paar Tage pure Euphorie. Die eigene Wahrnehmung ist wirklich kein zu unterschätzender Faktor.

Ansonsten kann ich nur aus der Sicht des CGI-Artisten reden. Da ist es ja genau umgekehrt. Es ist oft ernüchternd, wenn man zuerst ein Lo-Res PreviewPreview im Glossar erklärt auf einem Hi-Res Monitor anschaut. Dank dem Upscaling sieht das jeweils schön diffus und ''cinematisch' aus. Das finale rohe HD- oder 4K-Rendering wirkt mit seiner Schärfe hingegen eher unattraktiv und künstlich.

Aber eben, ich bin auch in den 70ern erstmals ins Kino und voreingenommen in der Frage, was 'cinematisch' wirkt.



Antwort von iasi:



Das Interview mit Boyle sollte man mal transkribieren und immer wieder aus dem Hut holen, wenn in Foren wieder die 4K-Debatte losbricht.

Dabei hat er ja lediglich ein altes Problem aufgegriffen und solche Probleme, dass ganze Bildpassagen aus Patches künstlich generiert werden, nicht mal im Ansatz erwähnt.
Aber es scheint tatasächlich der Paradigmenwechsel , vollzogen zu sein, dass es auf Bilddetais mittlerweile weniger ankommt, als auf Pixelmengen.
Es ist eben leichter, großen, goldenen Zahlen und nachgerechneten Kanten zu glauben, als gute Bilder zu machen.

@Stephan
Wenn's mal Detailschärfe wären .... es sind ja leider keine Details, sondern Patches.
Details würden ja die Wiedergabe eines Originaldetails voraussetzen.
Das gibt es aber z.Tl. gar nicht mehr im Bild.

Immer dieselben Theorieauslassungen - das hatten wir doch schon zu HD-Zeiten.
Und ich weiß: Die Details die ich bei einer 4k-Aufnahme zu sehen glaube, die bei 2k eben nicht da sind, bilde ich mir nur ein.

Und auch wenn man mit ein und demselben Objektiv an einer Kamera mehr MTF als bei einer anderen misst, so sind das alles nur IT-Tricks.

16 ordentliche PixelPixel im Glossar erklärt liefern natürlich ebensoviele Werte ab, wie 64. Und da es 16 sind, wird natürlich nicht gerechnet - auch wenn"s ein Bayer-Sensor ist.

Also ich freue mich darüber, dass durch die gestiegene Hardwareleistung die Rechnungen nun komplexer und auf Basis von mehr Messwerten erfolgen können.



Antwort von WoWu:

Iasi, Du traust Dich ja auch nicht, mal ein 2x2cm großes Objekt in 100m bei 4K zu zeigen, weil Du die Wahrheit nicht verträgst und immer nur von irgendwelchen Fenstern auf fernen Almen schwärmst, die Du vor 10 Jahren noch nicht erkennen konntest.

Pack es doch mal und zeig, wie ein 2x2cm großes Objekt am ende eines Fußballfeldes dargestellt wird, statt immer nur von Pixeln zu labern.



Antwort von Jott:

Und im Gegenzug zeigst du dann mal ein Beispiel für deine berühmten 24, 25 oder noch öfter pro Sekunde errechneten künstlichen Patches/Bildteile.



Antwort von iasi:


Iasi, Du traust Dich ja auch nicht, mal ein 2x2cm großes Objekt in 100m bei 4K zu zeigen, weil Du die Wahrheit nicht verträgst und immer nur von irgendwelchen Fenstern auf fernen Almen schwärmst, die Du vor 10 Jahren noch nicht erkennen konntest.

Pack es doch mal und zeig, wie ein 2x2cm großes Objekt am ende eines Fußballfeldes dargestellt wird, statt immer nur von Pixeln zu labern.

Du redest ständig von "errechneten" Bildern und Details - als ob das Bild eines 2k-Bayer-Sensors nicht auch errechnet wird und die Wirklichkeit absolut real abbildet.

Ich sehe nun einmal nur noch Klötzchen bei einer 2k-Aufnahme, wo ich bei 4k eben noch Bilddetails erkenne. Da muss ich dann auch nicht ein Objekt irgendwo aufstellen.

Du bist doch der, der ständig auf Zahlen herumreitet. Mir ist es eigentlich nur wichtig, dass ein 4k-Sensor mehr Details liefert als ein 2k-Sensor - auch wenn ich weiß, dass ein 4k-Bayer-Sensor eben nicht wirklich 4k-Auflösung liefert. Und das Bild einer VV 8k ist nun einmal beeindruckend - selbst heruntergerechnet auf 2k.

Bei all den Kameratests habe ich noch nie gesehen, dass die Geräte auch mal in einer Totalen verglichen worden wären.
Bei Skyfall fiel mir jedoch der Unterschied zwischen den Red-Luftaufnahmen und den Alexa Landschafttotalen auf - eben der höhere Detailreichtum der Red.



Antwort von rob:

***von Admin nach Offtopic verschoben***



Antwort von WoWu:

Tja, IASI ... dann besteht doch Übereinkunft, dass 4 K nur in der Pixelauflösung und nicht in den Bilddetails besteht. Dann hat Geoff Boyle doch Recht.
Dann muss jetzt nur noch jemand 16K auf sein Gerät schreiben und alle sehen 16K.
Früher hat man die Bildauflösung noch in Bilddetails angegeben. Die Broadcaster machen das heute noch. .... wie altmodisch.
Sie sollten sich ein Beispiel an den Amateuren nehmen, bei denen ist 4 K schon lange ein alter Hut .... frage ist eben nur, was da drin steckt.
Darin besteht wohl auch heute noch ein Unterschied.
Und auch das Argument der Cropper oder Pan&scanner in der Post, man könne aus 4k mehr Details ziehen ... wenn im Bild nur 2K Bilddetails stecken haben sie bei jedem Crop entsprechend weniger, denn mit der Reduktion der Pixels, reduzieren sich zwangsläufig auch die Bilddetails im Verhältnis.
Aber ... super Idee, wenn man sowieso nur SD braucht, das aber messerscharf gerechnet.

Nee, nee IASI, all die selbsternannten Praktiker hier sollten den Test mal machen.
Sie trauen sich nur nicht ran, weil ihre neue Kamera sie dann desillusioniert.
Geoff Boyle hat schon Recht, auch wenn ich heute entlang seiner Argumentation nicht mehr unbedingt gehen würde, aber wenn er SR berücksichtigen würde, auf alle Fälle.



Antwort von 7nic:

Immer wieder die gleiche alte "Diskussion". Dabei könnte man doch jetzt hier mal der Frage nachgehen: Profitiert ein gutes Bild von Auflösung und Detailreichtum oder eben nicht. Meine persönliche Meinung ist: definitiv. Wannimmer mit mal eine Einstellung (zufällig) wirklich gelungen ist, dann gewinnt sie auch dadurch, dass sie in voller Auflösung dargestellt wird. Sind manche Dinge schiefgelaufen (Fokus unpräzise, Licht nicht auf den Punkt, usw.), dann wäre ich froh, wenn man das Ganze als SD rausgehen könnte...



Antwort von WoWu:

Die Frage hat er doch in dem Interview schon beantwortet ....

Die Argumentation dahinter ist doch ... wozu eigentlich sogenannte 4K, wenn Bilder auch in 2K gut aussehen .... und da hat er doch völlig Recht.
Die Frage ist doch beantwortet.
Bleiben eben nur die, die argumentieren, man könne in der Post was rausholen ... kann man auch, wenn man mit weniger als 2K auch zufrieden ist.
Und was natürlich auch bleibt, ist die Frage nach der eigentlichen Pixelqualität, ob ich eine optische Umsetzung haben will oder eine künstliche Umsetzung per Patsch.



Antwort von Jan Reiff:

diese Dynamik Diskussion ist dann auch mal langsam ad acta
man vgl mal ne Helium Dynamik mit IPP2 mit der so total überlegenen Alexa ...

Ausgangsmaterial kann nicht Details genug haben.
Weiss nicht was diese Diskussion immer noch soll.



Antwort von WoWu:

Redet doch keiner von Dynamik und dass Ausgangsmaterial möglichst viele Details haben sollte ist doch auch unstrittig, aber Pixels sind nun mal keine Details.
Und IPP2 ist auch nur ein Processing. Du kannst aber nur verarbeiten, was Du aufgenommen hast und wenn das keine Bildinhalte sondern Patches sind, dann sind das eben auch keine 4/6/8 K.
Da nützt auch IPP2 nix.



Antwort von Roland Schulz:

...guckt mal hier
10k-4k.PNG
10k-4k_2.PNG
Quelle: https://www.dpreview.com/reviews/image- ... 8718881343

Wir brauchen nicht diskutieren ob wie im Beispiel zu sehen eine 10k Kamera (PhaseOne IQ180) MEHR PixelPixel im Glossar erklärt UND DAMIT DETAILS liefert als eine 8,7k Kamera (Canon EOS 5dsR), diese mehr Auflösung hat als eine 6k Kamera (Nikon D750) bzw. diese mehr zeigt als eine 4,1k Kamera (Panasonic LX100). 2k ist im Fotobereich nicht mehr zeitgemäß und deshalb "leider" im Vergleich nicht zu finden.

Hier werden zudem keine Kanten errechnet oder irgendwas abgeschätzt, so eine tolle Technik die dass wie im gezeigten Beispiel/Ausschnitt/Text kann ist noch nicht erfunden!!
Was wir allerdings im zweiten Screenshot sehen sind die Effekte der Bayer Interpolation, welche wie in den von mir mal eingestellten Charts besonders im blau/rot Bereich Defizite aufweisen.

Welche Auflösung davon in der Praxis sinnvoll bzw. in welchen Abbildungsmaßstäben Vorteile liefert bleibt die zweite Frage. In einer 3x2m Projektion bleiben von der 5dsR wie oben erwähnt ca. 50dpi übrig, "farbig" zum Teil wesentlich weniger (blau/rot Details...).

50dpi Luma sind zugegeben nicht schlecht, in entsprechenden Projektionen in denen das Auge auch gerne mal in der Szene wandern darf dann aber auch nicht mehr soooo viel, zumal blau/rote Details schon eher Richtung 25dpi laufen werden.
Bei 4K wären das in Luma noch ~25dpi, bei 2K nur noch ~13dpi!!! Damit wir da keine Stufen mehr in den Linien sehen was anstrengend anzusehen wäre wird alles weichgebügelt wie nen Pudel - das ist dann für mich (besonders im Kino) anstrengend und ich stelle mir unberechtigt die Frage, ob ich nicht doch bald die erste Brille brauche ;-)...

BTW: Alle im gezeigten Vergleich verwendeten Objektive lösen für die sich dahinter befindlichen Sensoren "ausreichend" auf. Selbst bei der IQ180 sieht man zumindest in der Mitte im Textbeispiel Ansätze von Aliasing, die anderen Sensoren werden aufgrund "fehlender" Antialiasingfilter gnadenlos "überfahren".



Antwort von WoWu:

Na, dann wird es ja mühelos möglich sein, mal so ein paar Probeframes zu machen und so eine 2x2 cm Kachel wird dann ja leicht in 100m zu erkennen sein.
Da bin ich aber zuversichtlich.
Oder habt Ihr alle keine 4K Kameras ?
Oder ist es so schwer, 100m abzumessen und dann mal auf den Knopf zu drücken.
Es gibt doch hier soviele Praktiker.
Aber das ist entweder zu profan, oder sie wissen genau, dass es nicht klappt.
Also Roland, mach mal und rede nicht.



Antwort von ZacFilm:

Die ganze Debatte geht mir auf den Senkel. Wer gute Filme macht, macht sie auch mit 2x3 Pixeln, und eine dumme Gurke kriegt auch mit ner Arri 6K nichts gescheites hin.



Antwort von WoWu:

Dann hast Du das Interview oben offenbar nicht gehört.
Solche Dinge standen nie in Frage.
Und es ist niemand gezwungen, die Diskussion weiter zu verfolgen.



Antwort von Roland Schulz:

Wolfgang mein Bester! Klar mache ich den Test mal!!
100m abzumessen sind kein Problem, genau so lang werden die schwarzen Streifen beim Porsche immer beim Burnout ;-) ;-) ;-)!!!
...vielleicht am Weekend!



Antwort von Starshine Pictures:

Mit welcher BrennweiteBrennweite im Glossar erklärt soll denn eigentlich dieser 100m/2x2cm Test geschossen werden? (Ernst gemeinte Frage)



Antwort von Alf_300:

100 Meter ist 4 Strassenlaternen weiter oder das andere Ende vom Fußballfeld,

Wer sieht da was ?



Antwort von Jott:

Meter durch Straßenlaternen gleich Brennweite.



Antwort von 7nic:

Lieber Wolfgang,

ich glaube du verrennst dich da in etwas.

Niemand hier hat behauptet oder glaubt daran, dass eine Kamera mit 4K Bayer-Pattern ein 4K RGB-Bild ausgibt. Insofern ist es auch sinnfrei deinen Test durchzuführen.
Aber was ich und ein paar andere behaupten und glauben - im Bezug auf tatsächliche Detailauflösung: 2K Bayer < 4K Bayer < 6k Bayer < 8K Bayer.

Und die Frage ist doch dann nur: Möchte ich dieses Mehr an Auflösung haben - oder reicht mir Full HD? Und die Frage kann dir auch ein Geoff Boyle nicht beantwortet. Sondern das muss jeder Bildgestalter für sich selbst beantworten. Genau wie die Frage welche BrennweiteBrennweite im Glossar erklärt, welchen Filter und welches Licht er wählt.

Und im Bezug auf deine "Patches": Mir ist keine Kamera bekannt, die künstliche Bildinhalte "content-aware" generieren würde. Natürlich werden beim Demosaicing selbst und einer Rauschunterdrückung oder Kantenaufsteilung PixelPixel im Glossar erklärt errechnet- aber das ja nur auf Mikroebene und ohne, dass da (intelligente) Inhalte hinzugefügt würden. Und in RAW kannst du diese Prozesse ja meist ganz umgehen. Könntest du da mal etwas konkreter werden? Das klingt mir doch alles zu sehr nach einer Verschwörungstheorie...



Antwort von Roland Schulz:

...die BrennweiteBrennweite im Glossar erklärt bzw. besser der Öffnungswinkel ist doch frei wählbar da nicht definiert ;-) - von daher wird alles gut!!!



Antwort von Roland Schulz:


Meter durch Straßenlaternen gleich Brennweite.

ne ne, Pfund pro Woche!!!



Antwort von ruessel:

Ab 3:00





Antwort von Frank Glencairn:

Alles gut und recht, aber nix davon ist in der Praxis relevant.

Alle Kameras (ab ner gewissen Liga), die man 2017 kaufen kann, machen Bilder, die gut genug für alles sind.

Jedes Licht, jede Flag, jedes Set Design machen einen größeren Unterschied als Auflösung.
Auflösung ist IMHO der unwichtigste Faktor in einem Film.
Wahrscheinlich ist sogar das Catering am Set wichtiger :-)

Die ganze Diskussion - vor allem Auflösung und das was für "Schärfe" gehalten wird - ist sowieso hauptsächlich ne Hobby Diskussion.
Das Kamera Department, dessen Filme für gewöhnlich Oscars gewinnen, sind mit ner Alexa die bestenfalls echte 2K macht, oder sogar mit 2K gescanntem 16mm Film erfolgreich.



Antwort von Roland Schulz:


Alles gut und recht, aber nix davon ist in der Praxis relevant.

Alle Kameras (ab ner gewissen Liga), die man 2017 kaufen kann, machen Bilder, die gut genug für alles sind.

Jedes Licht, jede Flag, jedes Set Design machen einen größeren Unterschied als Auflösung.
Auflösung ist IMHO der unwichtigste Faktor in einem Film.
Wahrscheinlich ist sogar das Catering am Set wichtiger :-)

Die ganze Diskussion - vor allem Auflösung und das was für "Schärfe" gehalten wird - ist sowieso hauptsächlich ne Hobby Diskussion.
Das Kamera Department, dessen Filme für gewöhnlich Oscars gewinnen, sind mit ner Alexa die bestenfalls echte 2K macht, oder sogar mit 2K gescanntem 16mm Film erfolgreich.

Mag alles zum Teil stimmen, Fortschritt ist das aber nicht! Ich kann ne Super Story im SD TV rüberbringen, keine Frage, gucke ich mir aber z.B. Naturdokus an (oder Planet Erde...) würde ich sowas in SD und miesem HD gleich ausmachen. Bei PE sieht man schon ganz deutlich den Unterschied zwischen den Szenen die in 4K aus ner RED gefallen sind oder die mit irgendwelchen Baumarkt-Canons gedreht wurden.
Nochmal, ich habe noch keinen Kinofilm im Kino gesehen der mich von der Bildqualität annähernd angesprochen hätte. Da die Story auch oft recht mau ist -> kein Erlebnis für das ich vergleichsweise viel Geld ausgeben möchte. Es gibt Ausnahmen, aber zumindest mich könnte man nach 3D durch echtes HDR UND vernünftige Auflösung begeistern. Glaube damit bin ich nicht alleine alleine auf der Welt.

Eine "Diashow" (MM) in nur "echten 2k" ist trotz 4:4:44:4:4 im Glossar erklärt für viele Abbildungmaßstäbe/kurze Betrachtungsweiten einfach nur fürs Klo!! Sowas kann ich mir deutlich besser vorstellen, da verlieren auch die besten Bilder ihre Kraft!!



Antwort von mediavideo:

Als ob Geoff Boyle nachfolgende Herleitung gelesen hätte...

Einzig irrt Geoff Boyle bei der Betrachtung, dass es einen festen 0.7-Faktor gäbe mit dem man aus der Sensorauflösung die optische Auflösung errechnen könnte. Der Faktor variiert nämlich je nach Optik, Sensorgröße, Pixelgröße/Pixelmenge und Sensor-/Kameratechnik von maximal ca. 0.85 bei S35-4k über maximal ca. 0.6 bei S35-6k bis vermutlich sogar unter 0.5 bei S35-8k-Sensoren, wie man nachfolgend sieht:

Die physikalisch/technische Herleitung warum mehr Auflösung bei gleicher Sensorgröße/Technologie (z.B. S35) ein Bild mit schlechterer Dynamik und mehr Rauschen ergeben muss:
siehe slashCam-Link: viewtopic.php?f=3&t=136335&p=904078#p904078

Die Auswirkungen dieser Herleitung in der Kamerapraxis bei der Bildqualität am Beispiel unabhängiger EBU/BBC-Kameramessungen aktueller S35-Modelle von Canon (4k-C300 Mark II) und RED (6k-Dragon):
siehe slashCam-Link: viewtopic.php?f=3&t=136335&p=904555#p904555

Dazu noch ein weiteres Beispiel aus der Praxis:
Canon war z.B. im September 2015 bei der Vorstellung einer S35-8k-Kamera mit dann nur noch 13 Stops/Blendenstufen (gegenüber 15 Stops bei der 4k C300 Mark II - siehe Berechnung in der obigen Herleitung) auch sehr ehrlich:
Zitat: "Canon Super 35 mm-equivalent CMOS sensor that makes possible high-resolution 8,192 x 4,320 pixel (approximately 35.39 million effective pixels) imaging performance even at a frame rate of 60 frames per second with 13 stops of dynamic range"
siehe: http://nofilmschool.com/2015/09/canon-d ... lr-display

Bei ehrlichen Firmen wie z.B. Canon kann man die obige Herleitung auch in den Angaben verifizieren - bei unseriösen Firmen/Marktschreiern eben nicht, da kann schon mal der Sensor von S35-6k auf S35-8k steigen und Blendenumfang und Rauschwerte bleiben im Prospekt gleich.

Dass Kameras physikalischen/technischen Zusammenhängen bzw. Grundlagen unterliegen verstehen vielleicht nach Jahren dann auch mal IASI und Jan Reif ...



Antwort von Frank Glencairn:



Mag alles zum Teil stimmen, Fortschritt ist das aber nicht!

Das ist wie wenn man sagen würde: Die Räder an unseren Autos sind rund, und rollen ganz hervorragend - Fortschritt ist das aber nicht.

Eine "Diashow" (MM) in nur "echten 2k" ist trotz 4:4:44:4:4 im Glossar erklärt für viele Abbildungmaßstäbe/kurze Betrachtungsweiten einfach nur fürs Klo!! Sowas kann ich mir deutlich besser vorstellen, da verlieren auch die besten Bilder ihre Kraft!!

Schon ein einziger PixelPixel im Glossar erklärt motion BlurBlur im Glossar erklärt halbiert die Auflösung - für gewöhnlich haben wir mehr als einen Pixel.
Bei extrem komprimierten Aufnahme- und Delivery-Formaten, wie H264/65, oder sogar Prores (DCT) hats sich die ganze Auflösungsdiskussion sowieso erledigt, wenn da über 80% der Bildinformation aus dem Fenster geworfen werden.

Eine Diashow wäre wahrscheinlich wirklich das beste, für Leute wie dich.
Alternativ einfach die Kanten aufstellen und den Kontrast erhöhen, das sollte den Effekt ergeben, auf den du stehst.

Die ganze Diskussion wird IMHO sowieso auf der falschen Ebene geführt, nämlich auf der technischen, und da nur auf dem Papier (oder bestenfalls auf schwarz/weiß - Standbild - Testcharts).
Sie sollte aber auf der wahrnehmunspsychologischen Ebene geführt werden, weil nur die wirklich zählt.

Deine Augen, dein Gehirn, und dein Bewußtsein sind der ultimative Flaschenhals, wo aus einem Video Clip, Kino wird, oder - ab einer gewissen Informationsdichte (räumlich/zeitlich bzw. Auflösung/FPS) - eben halt nicht.

Was dann über bleibt, ist nichtimmersives EB, ohne daß du in der Lage bist, eine emotionale Bindung mit den Charakteren oder der Story einzugehen - sprich: es funktioniert als Film nicht.

Das ist längst untersucht und bewiesen, und auch keine neue Erkenntnis. Trotzdem besteht - vor allem im Hobby/Semipro Segment - immer noch der Mythos, daß größere Zahlen zwangsläufig zu einem besseren Erlebnis führen.



Antwort von Cinealta 81:


Alles gut und recht, aber nix davon ist in der Praxis relevant.

Alle Kameras (ab ner gewissen Liga), die man 2017 kaufen kann, machen Bilder, die gut genug für alles sind.

Jedes Licht, jede Flag, jedes Set Design machen einen größeren Unterschied als Auflösung.
Auflösung ist IMHO der unwichtigste Faktor in einem Film.
Wahrscheinlich ist sogar das Catering am Set wichtiger :-)

Full ACK! Aber um Bilder zu machen, die "gut genug für alles sind", müsste man - jenseits von Zäunen, Blümchen und Bäumen - eine Idee, bzw. ein Drehbuch (und genügend Geld) haben. Und dann müsste man sich aufs Filmen konzentrieren. Schlecht für Pixelpeeper und kreativitätsferne, technikfixierte Besserwisser...

Die ganze Diskussion um Auflösung und Schärfe ist am Ende des Tages ein "falscher Hase" - sie wird geführt von selbsterklärten Movern und vermeintlichen Influencern, die Mühe haben, von einigen Affiliate-Dollar zu überleben. Und an ihrer Seite kämpfen noch zahlreiche Theoretiker, Foren- und Spezifikationsexperten - die zwar angeblich alles wissen, aber nichts zustandebringen. Da wollen einfach Hobbyisten und "Enthusiasten" verkünden, dass ihre 1.500 USD teure Möhre kaum von einer ARRI zu unterscheiden ist. Und dabei glauben sie ernsthaft, wenn sie ganz laut schreien und 20.000 Abrufe/YT-Video haben, ihre Meinung wäre relevant. Nein, ist sie nicht - denn dafür interessieren sich wiederum ähnlich mindertalentierte (aber sehr diskussionsfreudige) Spielzeugkamera-Pistoleros.

Ein Filmmacher ist ein Filmemacher, ist ein Filmemcher. Ob mit einer alten & billigen 7D, einer BM Pocket, einer ARRI, oder einer Weapon. Ich fürchte jedoch, nicht einmal der Besitz sämtlicher hier aufgeführten Kameras, würde im gedanklichen und kreativen Umfeld einschlägiger Diskutanten etwas ändern. Weil es weder mit irgendeiner Kamera, noch mit Auflösung oder Schärfe etwas zu tun hat. Sondern damit, dass es 99 Prozent (und da nehme ich mich persönlich nicht aus) nicht oder nicht gut genug können, oder auch nur entfernt erahnen, worum es geht.



Antwort von klusterdegenerierung:

Skywalda is back oder was? ;-))



Antwort von Roland Schulz:


Eine "Diashow" (MM) in nur "echten 2k" ist trotz 4:4:44:4:4 im Glossar erklärt für viele Abbildungmaßstäbe/kurze Betrachtungsweiten einfach nur fürs Klo!! Sowas kann ich mir deutlich besser vorstellen, da verlieren auch die besten Bilder ihre Kraft!!

Schon ein einziger PixelPixel im Glossar erklärt motion BlurBlur im Glossar erklärt halbiert die Auflösung - für gewöhnlich haben wir mehr als einen Pixel.
Bei extrem komprimierten Aufnahme- und Delivery-Formaten, wie H264/65, oder sogar Prores (DCT) hats sich die ganze Auflösungsdiskussion sowieso erledigt, wenn da über 80% der Bildinformation aus dem Fenster geworfen werden.

Was hat denn die Diashow mit Motion BlurBlur im Glossar erklärt an der Mütze?! Was hat ne statische Motiveinstellung damit zu tun???
Warum "halbiert" Motion BlurBlur im Glossar erklärt die Auflösung, die exakte Herleitung wird "allgemein" unmöglich zu halten sein, es ist einfach falsch.
Die Reduzierung der Auflösung durch Bewegung ist von der VerschlusszeitVerschlusszeit im Glossar erklärt und der Geschwindigkeit der Bewegung abhängig - das kann von Bruchteilen eines Pixels bis zu mehreren Pixeln führen.
Mach Dich auch von "Mythen" frei wie VerschlusszeitVerschlusszeit im Glossar erklärt gleich halbe Framegeschwindigkeit ;-), das "kann" man in beide Richtungen variieren, führt trotzdem in keinem Fall allgemein zu einer Halbierung der Auflösung!



Antwort von WoWu:


Mit welcher BrennweiteBrennweite im Glossar erklärt soll denn eigentlich dieser 100m/2x2cm Test geschossen werden? (Ernst gemeinte Frage)

Die 100m sind die Variable denn die richten sich nach der Sensorgrösse und der Brennweite. Es liegt also zwischen 80 und 120m
Es gilt die Formel für den Bildwinkel, um die Entfernung zu ermitteln:
Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

@7nic

"Und im Bezug auf deine "Patches": Mir ist keine Kamera bekannt, die künstliche Bildinhalte "content-aware" generieren würde. Natürlich werden beim Demosaicing selbst und einer Rauschunterdrückung oder Kantenaufsteilung PixelPixel im Glossar erklärt errechnet- aber das ja nur auf Mikroebene und ohne, dass da (intelligente) Inhalte hinzugefügt würden. Und in RAW kannst du diese Prozesse ja meist ganz umgehen. Könntest du da mal etwas konkreter werden? Das klingt mir doch alles zu sehr nach einer Verschwörungstheorie..."

Das ist alles nachzulesen in "Super resolution" und dass Dir keine Kamera, die solche Algorithmen einsetzt, bekannt ist, spricht eine eigene Sprache, sagt aber nichts darüber aus, dass die Algorithmen nicht eingesetzt werden.
Und dass wir übereinstimmen, dass 4K keine 4k sind, ist ja schon mal ein Schritt in die richtige Richtung.
Und wenn wir dann genügend 8K Objektive haben, können wir uns 4K mal wieder näher betrachten.



Antwort von iasi:


Tja, IASI ... dann besteht doch Übereinkunft, dass 4 K nur in der Pixelauflösung und nicht in den Bilddetails besteht. Dann hat Geoff Boyle doch Recht.
Dann muss jetzt nur noch jemand 16K auf sein Gerät schreiben und alle sehen 16K.
Früher hat man die Bildauflösung noch in Bilddetails angegeben. Die Broadcaster machen das heute noch. .... wie altmodisch.
Sie sollten sich ein Beispiel an den Amateuren nehmen, bei denen ist 4 K schon lange ein alter Hut .... frage ist eben nur, was da drin steckt.
Darin besteht wohl auch heute noch ein Unterschied.
Und auch das Argument der Cropper oder Pan&scanner in der Post, man könne aus 4k mehr Details ziehen ... wenn im Bild nur 2K Bilddetails stecken haben sie bei jedem Crop entsprechend weniger, denn mit der Reduktion der Pixels, reduzieren sich zwangsläufig auch die Bilddetails im Verhältnis.
Aber ... super Idee, wenn man sowieso nur SD braucht, das aber messerscharf gerechnet.

Nee, nee IASI, all die selbsternannten Praktiker hier sollten den Test mal machen.
Sie trauen sich nur nicht ran, weil ihre neue Kamera sie dann desillusioniert.
Geoff Boyle hat schon Recht, auch wenn ich heute entlang seiner Argumentation nicht mehr unbedingt gehen würde, aber wenn er SR berücksichtigen würde, auf alle Fälle.

Ich verstehe wirklich nicht, wo das Problem sein soll.
Die Hersteller schreiben 4k auf eine Kamera mit 4k-Pixeln. Was ist daran nicht legitim?

Das Problem ist doch eher, dass das, was die Kamera liefert immer mit dem gleichgesetzt wird, was am Ende steht. Das klingt immer ganz so, als würde das Filmnegativ am Ende durch den Projektor geschickt.

Du wirfst ständig Zahlen in den Raum und postulierst sie als Grenzwerte - nun stecken plötzlich 2k Bilddetails in einem Bild.

Nee, Nee WoWu - es ist eben wie beim Negativ: Es gibt nicht die eine Bildauflösung, die Negative erzielen.

Boyle steckt in einem Glauben fest und nimmt technische Entwicklung gar nicht mehr wahr.
Es tut sich in allen Bereichen von Sensoren bis zu Objektiven erstaunlich viel. Und aufgrund der enorm gestiegenen Rechenpower eröffnen sich nun eben auch neue Lösungen - eben auch bei Bayer-Sensoren.
Selbst eine GH5 errechnet die 4k aus einer höheren Pixelanzahl.
Und aus einer Red Helium 8k bekommst du am Ende eben auch 4k - selbst bei leichtem Crop.
Mehr als das, was man aus einer Alexa herausholen kann, ist es sicherlich.

Auflösung ist nicht alles, aber es ist hilfreich.



Antwort von iasi:


Alles gut und recht, aber nix davon ist in der Praxis relevant.

Alle Kameras (ab ner gewissen Liga), die man 2017 kaufen kann, machen Bilder, die gut genug für alles sind.
da gebe ich dir recht - wobei "für alles" etwas übertrieben ist

Jedes Licht, jede Flag, jedes Set Design machen einen größeren Unterschied als Auflösung.
Auflösung ist IMHO der unwichtigste Faktor in einem Film.
Wahrscheinlich ist sogar das Catering am Set wichtiger :-)

Dem würde ich widersprechen.
Je besser das Ausgangsmaerial ist, umso besser sind auch die Gestaltungsmöglichkeiten in der Post. Wo das GH2-Team beim Camerashootout mit vielen zusätzlichen Lichtern feinarbeit am Set leisten musste, wurden beim Alexa-Material in der Post nur einige Fenster gesetzt und leicht aufgehellt.
Zeitaufwand am GH2-Set war größer.

Und wenn du von Praxis sprichst. Es hat eine enorme Wirkung, wenn man z.B. durch ein leichtes Hineinzoomen in ein Bild den Blick kaum wahrnehmbar verengt. In der Post mit entsprechendem Material schnell, problemlos und unter absoluter Kontrolle gemacht, ist der Aufwand am Set enorm, will man es mit einer Fahrt machen.

Die ganze Diskussion - vor allem Auflösung und das was für "Schärfe" gehalten wird - ist sowieso hauptsächlich ne Hobby Diskussion.
Das Kamera Department, dessen Filme für gewöhnlich Oscars gewinnen, sind mit ner Alexa die bestenfalls echte 2K macht, oder sogar mit 2K gescanntem 16mm Film erfolgreich.

na na na - das stimmt so aber auch nicht ganz.



Antwort von Jott:

Vor zehn Jahren wurde behauptet, dass "Full HD" (1080) nicht funktionieren kann, weil die Objektive das gar nicht darstellen können. Daher sei 720p das einzig wahre Format. Seltsam, irgendwas muss sich seitdem verändert haben ...



Antwort von Frank Glencairn:



Was hat denn die Diashow mit Motion BlurBlur im Glossar erklärt an der Mütze?! Was hat ne statische Motiveinstellung damit zu tun???
Warum "halbiert" Motion BlurBlur im Glossar erklärt die Auflösung, die exakte Herleitung wird "allgemein" unmöglich zu halten sein, es ist einfach falsch.
Die Reduzierung der Auflösung durch Bewegung ist von der VerschlusszeitVerschlusszeit im Glossar erklärt und der Geschwindigkeit der Bewegung abhängig - das kann von Bruchteilen eines Pixels bis zu mehreren Pixeln führen.
Mach Dich auch von "Mythen" frei wie VerschlusszeitVerschlusszeit im Glossar erklärt gleich halbe Framegeschwindigkeit ;-), das "kann" man in beide Richtungen variieren, führt trotzdem in keinem Fall allgemein zu einer Halbierung der Auflösung!

Wenn du solche Fragen stellen mußt, ist das nix für dich.



Antwort von WoWu:

@IASI
"Boyle steckt in einem Glauben fest und nimmt technische Entwicklung gar nicht mehr wahr"

Du schließt aus, dass es auch anders herum sein könnte und Du auf eine "Entwicklung" hereinfällst, die in Marketingbüros stattgefunden hat und man statt dessen, was man sieht, einfach das angibt, was man überträgt.

Ich dachte immer, in der Videotechnik hätte man es mit einem optischen Medium zu tun, das das, was man real sieht auch technisch überträgt.
Aber dass es mittlerweile Patches sind, die man vorgesetzt bekommt, das ist so, als würde in Deinem morgendlichen Kellogg's 40% der Flocken aus Plastik bestehen.
Ich denke, dass Boyle näher an der Entwicklung dran ist, als so mancher, hier im Forum.



Antwort von 7nic:


@7nic

"Und im Bezug auf deine "Patches": Mir ist keine Kamera bekannt, die künstliche Bildinhalte "content-aware" generieren würde. Natürlich werden beim Demosaicing selbst und einer Rauschunterdrückung oder Kantenaufsteilung PixelPixel im Glossar erklärt errechnet- aber das ja nur auf Mikroebene und ohne, dass da (intelligente) Inhalte hinzugefügt würden. Und in RAW kannst du diese Prozesse ja meist ganz umgehen. Könntest du da mal etwas konkreter werden? Das klingt mir doch alles zu sehr nach einer Verschwörungstheorie..."

Das ist alles nachzulesen in "Super resolution" und dass Dir keine Kamera, die solche Algorithmen einsetzt, bekannt ist, spricht eine eigene Sprache, sagt aber nichts darüber aus, dass die Algorithmen nicht eingesetzt werden.
Und dass wir übereinstimmen, dass 4K keine 4k sind, ist ja schon mal ein Schritt in die richtige Richtung.
Und wenn wir dann genügend 8K Objektive haben, können wir uns 4K mal wieder näher betrachten.

Es spricht vor allem eine eindeutige Sprache, dass du erstaunlicherweise nicht auf meine Frage eingehst. Ein bisschen überhebliches Blabla - und das war's. Super resoultion hat nichts mit dem von dir genannten "content-aware patching" zu tun. So etwas ist heutzutage kameraseitig schlicht noch unmöglich.

4K sind natürlich 4K. Nur sind eben 4K Bayer Pattern keine 4K RGB. Worüber diskutieren wir da? Es gibt schlicht keine sinnvollere Möglichkeit die Auflösung eines Sensors zu deklarieren. Also gibt man die "photosites" an. Die finale Detailauflösung variiert letztlich von Aufnahme zu Aufnahme. Also sorgst du bei der Aufnahme für ein entsprechendes Oversampling zur Ausgabeauflösung. Das muss dem Anwender bewusst sein... und ist es auch.



Antwort von iasi:


@IASI
"Boyle steckt in einem Glauben fest und nimmt technische Entwicklung gar nicht mehr wahr"

Du schließt aus, dass es auch anders herum sein könnte und Du auf eine "Entwicklung" hereinfällst, die in Marketingbüros stattgefunden hat und man statt dessen, was man sieht, einfach das angibt, was man überträgt.

Ich dachte immer, in der Videotechnik hätte man es mit einem optischen Medium zu tun, das das, was man real sieht auch technisch überträgt.
Aber dass es mittlerweile Patches sind, die man vorgesetzt bekommt, das ist so, als würde in Deinem morgendlichen Kellogg's 40% der Flocken aus Plastik bestehen.
Ich denke, dass Boyle näher an der Entwicklung dran ist, als so mancher, hier im Forum.

Eigentlich falle ich auf die Bilder herein, die die Kameras liefern. Die bieten mir den Gestaltungsspielraum, den ich mir wünsche.
Und ich stelle nun einmal einen Unterschied zwischen Kameras e der Auflösung fest, auch wenn du behauptest, er wäre nicht vorhanden.
Es kommt mir aber eben wieder einmal so vor, als hätte man zähneknirschent 4k geschluckt und schießt nun auf die 8k.

Wie oben schon gesagt: eine 8k/8bit-Kamera interessiert mich nicht.
Eine Helium 8k könnte aber für bestimmte Projete interessant sein - oder auch eine Alexa65 - aber meist genügt schon weniger bzw. kommt es auf andere Aspekte an.



Antwort von WoWu:

@IASI
Ja, aber das ist doch genau der Kern, dass wir uns heute über gute HD Bilder freien können und nur die Amateure darauf abfahren, was an goldenen Ziffern auf der Kamera steht.
Mehr sagt das Interview ja auch nicht aus.
Es steht nur immer die Behauptung im Raum, man könne 4K Auflösung (sichtbar, also als Bilddetailauflösung) nutzen und das ist etwas, was nun mehrfach ad absurdum geführt wurde und mittlerweile ja auch mehr und mehr Anwender hier im Forum sich von ihrem 4K Glauben sich auf die Position zurückziehen ... " na ja, aber besser als früher sind die Bilder ja schon ..."
Das ist doch ein Fortschritt und wir haben endlich vernünftiges HD.
Und .. wie gesagt, wenn wir dann die 8 oder 16k Kameras und die passenden Objektive (und die Kohle dafür) haben, sprechen wir über 4K Bilder.

@7nic
Außer Dir spricht hier niemand von "content-aware patching".
Du musst über den Tellerrand von Photoshop schon mal hinausschauen.
Ich spreche von Algorithmen, die in SR eingesetzt werden und Patches aus CNNs bilden.



Antwort von Starshine Pictures:

Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

Sorry, kann mir das mal jemand für nen S35 Sensor ausrechnen? Ich war schon immer scheisse in Mathe und Physik. Ausserdem bin ich mit den Kindern im Garten, und die Sonne brutzelt aufn Kopp. Aber ich würde das schon gern mal testen. Schliesslich hat die C100 ja einen 4k Sensor drin. Muss das zu filmende winzige Objekt irgend eine besondere Eigenschaft haben? Also z.B. Farblos oder gleiche Farbe wie Hintergrund oder sowas? Eignet sich ein roter Legostein auf einem Gartenzaun?



Antwort von mediavideo:

@IASI
Du hast es immer noch nicht verstanden:
Es geht generell nicht darum, dass man nach dem Debayern natürlich weniger optische Auflösung als Pixelauflösung auf dem Sensor hat.

Es geht darum, dass man auf jeder Sensorgröße (z.B. S35) eine maximale Pixelanzahl hat ab der die optische Bildqualität wieder sinkt. Und der Punkt liegt bei S35 offenbar bei ca. 4.5k Auflösung. 6k können dann eine niedrigere optische Bildqualität als 4k bringen.

Das zeigt doch der Vergleich von zwei aktuellen Kameramodellen in einem unabhängigen Qualitätstest der EBU/BBC nach Tech-3335:

4k-Kamera Canon C300 Mark II im unabhängigen Tech-3335 EBU/BBC-Test:
https://tech.ebu.ch/docs/tech/tech3335_s18.pdf
Gemessenes Rauschen im dunklen Bereich: -48 dB (siehe 3.4 NoiseNoise im Glossar erklärt - auf Seite 15 -> Figure 9 bei ca. 0.2)
Gemessene brauchbare Dynamik in Blendenstufen: ca. 15 Stops (siehe 3.2 GammaGamma im Glossar erklärt curves - auf Seite 13 - 11 pus 4.8 stops)
Gemessene optische maximale Auflösung: 3300x1750 (siehe 3.3.1 Resolution for 4k - auf Seite 14 -> vom 4k/UHD-Sensor-Readout)

6k-Kamera RED-Dragon im unabhängigen Tech-3335 EBU/BBC-Test:
https://tech.ebu.ch/docs/tech/tech3335_s16.pdf
Gemessenes Rauschen im dunklen Bereich: -44 dB (siehe 2. Dynamic range and NoiseNoise im Glossar erklärt - Seite 5 - Figure 6 bei ca. 0.2)
Gemessene brauchbare Dynamik in Blendenstufen: ca. 13,5 Stops (siehe 2. Dynamic range and NoiseNoise im Glossar erklärt - auf Seite 6 - 14 stops or less delivering useful pictures)
Gemessene optische maximale Auflösung: 2450x1380 (siehe 1. Resolution for 4k - Seite 2 -> 4k mode readout)
Gemessene optische maximale Auflösung: 2930x1650 (siehe 1. Resolution for 4k - Seite 2 -> 5k mode readout)
Gemessene optische maximale Auflösung: 3400x1900 (siehe 1. Resolution for 4k - Seite 2 -> 6k mode readout - allerdings nur noch außerhalb vom S35-Objektiv-Standard )

Und jetzt bitte nicht die RED S35-8k-Helium ins Spiel bringen, denn die Qualitätsproblematik wird doch immer schlimmer bei mehr k-Sensor-Auflösung bei S35 ... - das kann man schon an der Preisgestaltung bei RED sehen, denn die S35-8k-Helium ist preisgleich zur S35-6k-Dragon - warum wohl ?

Dazu verlangen Hersteller auch noch absurde Mondpreise für die schlechtere Bildqualität:
82485.- Euro - RED-6k-Dragon als drehfertiges Kit (ohne Akkus/Ladegerät ?)
- 49500.- Euro - RED 6k-Dragon Brain (ohne alles)
- 22685.- Euro - Cinemount Package (Side-Handle, Sucher, 7-Zoll Monitor, Breakout-Box, ...)
- 295.- Euro - Skin-Tone OLPF
- 5680.- Euro - 2 Stück 960GB RED-Mini-Mag
- 4325.- Euro - RED-Rocket X für schnelles TranscodingTranscoding im Glossar erklärt etc.

14004.- Euro - Canon C300 Mark III (ab Anfang 2018 dann inkl. internem RAW wie bei der C200) als drehfertiges Kit (mit Akku/Ladegerät)
- 12500.- Euro - Canon C300 Mk III (inkl. internes RAW, Sucher, Monitor, Side-Handle)
- 1504.- Euro - 8 Stück CFAST 256 GB Karten bis 250 MB/S reicht bei Canon 1:2.4 KompressionKompression im Glossar erklärt (günstigste Transcend 600x reichen)

Dabei hat die Canon C300 Mark III weitere erhebliche technische und bildqualitative Vorteile:
- So etwas wie das von RED empfohlene RED-Rocket X braucht man nicht
- Man hat extremst rauschfreie Verstärkung, sogar bis ISO 32000 (32-tausend) nutzbar (siehe: https://player.vimeo.com/moog/219685676 ... _start=off )
- Man hat eine sehr gute ColorScience und braucht dafür keinen OLPF-Tausch am dann offen liegenden Sensor am Set (bei Regen und Staub ...)
- Man hat zusätzlich den Top-Autofocus im S35-Bereich
- Man hat interne Objektivkorrekturen für Canon Foto- und Cine-Optiken (sehr gute und direkte in-kamera Korrektur von Verzeichnung und chromatischer Abberation)
- Man hat mit XF-AVC-4k-10/12bit den moderneren/besseren CodecCodec im Glossar erklärt gegenüber dem veralteten Apple-ProRes CodecCodec im Glossar erklärt (auf DCT-Basis)
- Man hat interne ND-Filter
- Die 120 Bilder/sek Zeitlupe ist gegenüber RED nicht gecroppt (Canon vom Full-Sensor-Readout)
- Integrierter GPS-Empfänger mit Einbettung in Aufnahmen
- Viele frei belegbare Tasten und Funktionen
- Canon-Kamerafernbedienungs-App für Smartphone/Tablet zur kompletten Remote-Kontrolle der Kamera über WLAN/Funk
- In Deutschland und vielen Ländern ist eine Herstellerniederlassung mit speziellem Pro-Service

Wo ist da der Sinn für mehr Auflösung bei S35-Sensoren? - Die RED 6k-Dragon kostet ca. 68500.- Euro mehr und ist technisch/optisch deutlich schlechter - das ist doch nur noch grotesk !!!

Mehr Auflösung geht nur noch sinnvoll mit wesentlich größeren Sensoren, siehe Alexa 65. Und 99% der Konsumenten interessiert mehr als 2k/HD-Auflösung sowieso nicht - teilweise interessiert die nicht mal 2k/HD, siehe DVD-Verkäufe zu BluRay-Verkäufe ...

IASI, hast Du das jetzt verstanden ?



Antwort von 7nic:

Bist du Canon-Händler? Oder welches Interesse steht hinter dieser Auslassung?



Antwort von Peppermintpost:

@mediavideo

du kaufst bei red halt nicht nur die technik, sondern du kaufst dich in eine bestimmt klasse von produktion ein. niemand dreht high-end werbung oder spielfilm mit einer canon (auch nicht wenn du jetzt eine liste mit 5 produktionen postest, statistisch ist das unerheblich).
ob das von der technischen seite her sinn macht oder nicht, das steht auf einem anderen blatt. aber so funktioniert das geschäft nunmal.
auf der anderen seite hab ich schon einiges an canon Cxxx footage bekommen und es war IMMER scheisse. das kann ich bei red beim besten willen nicht sagen. da hatte ich in der anfangszeit auch mal den einen oder anderen aussetzer dabei, aber seit dragon hab ich definitiv nicht ein einziges mal mehr schlechtes footage bekommen. selbst die sachen die der kameraman definitiv vergurkt hatte waren noch problemlos nutzbar.
man sein das canon auf den tech specs super aussieht, aber ne red ist schon eine ganz andere klasse wenn wir über bildqualität sprechen.



Antwort von WoWu:


Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

Sorry, kann mir das mal jemand für nen S35 Sensor ausrechnen? Ich war schon immer scheisse in Mathe und Physik. Ausserdem bin ich mit den Kindern im Garten, und die Sonne brutzelt aufn Kopp. Aber ich würde das schon gern mal testen. Schliesslich hat die C100 ja einen 4k Sensor drin. Muss das zu filmende winzige Objekt irgend eine besondere Eigenschaft haben? Also z.B. Farblos oder gleiche Farbe wie Hintergrund oder sowas? Eignet sich ein roter Legostein auf einem Gartenzaun?

Muss zwar gleich aus dem Haus, komme aber damit hinterher durch ...
Muss nur noch wissen, welche Objektivbrennweite Du hast.
Du kannst auch eine Euromünze nehmen, die hat 2,3 cm Durchmesser.
Erst wenn Du auch Informationen zum Chroma haben willst, musst Du 4 identisch große Bauteile unterschiedlicher Farben nehmen, dann aber doppelt soweit weggehen. Aber fang mal mit ner Münze an. Lego geht natürlich auch.



Antwort von Abercrombie:

4K sind natürlich 4K. Nur sind eben 4K Bayer Pattern keine 4K RGB. Worüber diskutieren wir da? Es gibt schlicht keine sinnvollere Möglichkeit die Auflösung eines Sensors zu deklarieren. Also gibt man die "photosites" an. Die finale Detailauflösung variiert letztlich von Aufnahme zu Aufnahme. Also sorgst du bei der Aufnahme für ein entsprechendes Oversampling zur Ausgabeauflösung. Das muss dem Anwender bewusst sein... und ist es auch.

+1
Und ein HD-Bayer-Sensor kann weniger Informationen einfangen als ein 4K-Bayer-Sensor. Warum also nicht in 4K filmen, sofern Dynamik, Farben, Ergonomie, Postproduktion und so weiter für das Projekt passen?



Antwort von iasi:


@IASI
Du hast es immer noch nicht verstanden:
Es geht generell nicht darum, dass man nach dem Debayern natürlich weniger optische Auflösung als Pixelauflösung auf dem Sensor hat.

Es geht darum, dass man auf jeder Sensorgröße (z.B. S35) eine maximale Pixelanzahl hat ab der die optische Bildqualität wieder sinkt. Und der Punkt liegt bei S35 offenbar bei ca. 4.5k Auflösung. 6k können dann eine niedrigere optische Bildqualität als 4k bringen.

IASI, hast Du das jetzt verstanden ?

Wieder einmal so eine Größe, die als gegeben in den Raum gestellt wird.

Es ist doch interessant, dass der 8k-Helium eine höhere Bildqualität liefert, als der 6k-Dragon.

Es ist wie bei den Foto-Sensoren: Immer werden Grenzen postuliert, die dann aber eben durch neue Kameras einfach eingerissen werden.

Da schneidet eine A7s2 doch sogar selbst beim LowLight schlechter ab, als eine A7r2
https://www.dxomark.com/Cameras/Compare ... 7_1035_963
und dies, obwohl hier 12 Mpix mit 42 Mpix verglichen werden.



Antwort von WoWu:



+1
Und ein HD-Bayer-Sensor kann weniger Informationen einfangen als ein 4K-Bayer-Sensor. Warum also nicht in 4K filmen, sofern Dynamik, Farben, Ergonomie, Postproduktion und so weiter für das Projekt passen?

Stimmt leider nur, wenn Du einen entsprechend großen Sensor hast und/oder ein Objekiv mit einer dazugehörigen Auflösung und einem perfekten Punktbild.
Gibt es alles, aber oberhalb von 50.000 EUR.
Sagt ja keiner, dass man mit viel Mühe und nochmehr Geld keine 4K Bildauflösung machen kann.
Nur eben nicht mit erschwinglichen Bordmitteln und unterdimemsionierten Sensoren.
Insofern sollte man Deinen Vergleich unter identischen Tahmenbedingungen betrachten ansonsten stimmt das Ergebnis leider nicht.



Antwort von Frank Glencairn:



du kaufst bei red halt nicht nur die technik, sondern du kaufst dich in eine bestimmt klasse von produktion ein. niemand dreht high-end werbung oder spielfilm mit einer canon ..

Naja, niemand wird bei dieser Klasse von Produktionen angeheuert, weil er eine bestimmte Kamera besitzt.
Normal werden Kameras von der Produktion gemietet, die meisten DPs wollen sowieso eine Alexa/Alexa Mini.
Die Mietkosten sind im Vergleich zu den anderen Produktionskosten so lächerlich niedrig, daß man sich mit einer bestimmten Kamera-Marke nirgendwo "einkaufen" kann.



Antwort von Starshine Pictures:

@ WoWu

Ich hab hier grad alles zwischen 11mm und 135mm zur Verfügung. Alles Fotoobjektive von ungefähr gleicher Schärfegüte.



Antwort von 7nic:



+1
Und ein HD-Bayer-Sensor kann weniger Informationen einfangen als ein 4K-Bayer-Sensor. Warum also nicht in 4K filmen, sofern Dynamik, Farben, Ergonomie, Postproduktion und so weiter für das Projekt passen?

Stimmt leider nur, wenn Du einen entsprechend großen Sensor hast und/oder ein Objekiv mit einer dazugehörigen Auflösung und einem perfekten Punktbild.
Gibt es alles, aber oberhalb von 50.000 EUR.
Sagt ja keiner, dass man mit viel Mühe und nochmehr Geld keine 4K Bildauflösung machen kann.
Nur eben nicht mit erschwinglichen Bordmitteln und unterdimemsionierten Sensoren.
Insofern sollte man Deinen Vergleich unter identischen Tahmenbedingungen betrachten ansonsten stimmt das Ergebnis leider nicht.

Oberhalb von 50.000 Euro? Es gibt keine gängigen Primes, die auch nur annähernd so teuer sind. Selbst Master Primes bekommst du für 20k das Stück. Und die lösen dir dann so 200lp/mm auf. Offenblende. Aber selbst abgeblendete Samyang Billigoptiken schaffen das...

6k auf S35 (Helium 8K) entsprächen allerdings nur etwa 130lp/mm. Wenn ich mich nicht irre.

Und da ein Bayer-Sensor sowieso keine 8k auflöst, dürften Objektive mit rund 100lp/mm doch noch von der Auflösung profitieren...



Antwort von klusterdegenerierung:


Aber selbst abgeblendete Samyang Billigoptiken schaffen das...

Wobei man bei den Samyangs getrost von preiswert statt billig sprechen kann! ;-))



Antwort von Jott:

Was sagen eigentlich Fotografen dazu, dass gerade mal 8 Megapixel nicht auflösbar sein sollen?



Antwort von klusterdegenerierung:

Kommt immer auf die Megapixel an.
Meine erste Digi war die legendäre Coolpix 990 mit Schwenkoptik.
Die hatte 3MP, aber die waren immer noch besser als die der Sparte von Cams, die schon 3x soviel hatten.

Auch meine erste DSLR, die Fuji S2 mit 6MP war ein Knaller,
die Daten waren so sauber, die macht so mancher Cam noch was vor.

Mir waren die MP immer recht schnuppe, aber die Werbeagenturen machten immer richtig Druck
mit diesem MP hype, aber das lag wohl daran, das viele wie damals auch,
immer noch nicht vertstehen, das man Großformatplots nicht mit 300dpi druckt. ;-)

Der ewige Spruch klingelt mir immer noch in den Ohren:
"Aber 300dpi, ne!"



Antwort von iasi:

Es ist immer dieselbe Art der Diskussion:
Die Theoretiker werfen mit Zahlen und scheinbaren Fakten um sich, während die Praktiker ihre Eindrücke zu untermauern versuchen.

http://blog.vincentlaforet.com/2017/06/ ... ualifiers/

das sieht eben nun einmal beeindruckend aus, was die Kamera an Bilder ausgibt

und dass das alles eben nicht so einfach in einigen Größen zu erfassen ist, sagt auch unser Red-Mann:
http://www.reduser.net/forum/showthread ... tion/page5

I'm not happy predicting in theory what is going to work best on the sensor side of things. There's too many variables and pixel design advances along with the electronics and processing. Unfortunately that means we'll have to wait on good empirical data before I can answer that! But my guess is that the size of the sensor is intimately tied to the lenses used with it, and that is a major influence on the image we see. PixelPixel im Glossar erklärt density is going to interact with the lens MTF too, and that is partly why Helium sensors look so good. It's a very interesting question.

Graeme




Antwort von Peppermintpost:

das problem ist nur, immer wenn die theoretiker mal was zu lachen haben wollen, dann laden sie eine gruppe leute ein und machen einen A/B test, und alle die die vorher sagen wie toll doch der unterschied ist und im dilirium davon faseln das das endlich ist wie ein blick durchs fenster und das ganze bla bla, genau die praktiker sind dann aber halt doch nicht in der lage hd von 4k zu unterscheiden. komisch oder?



Antwort von Roland Schulz:


Die 100m sind die Variable denn die richten sich nach der Sensorgrösse und der Brennweite. Es liegt also zwischen 80 und 120m
Es gilt die Formel für den Bildwinkel, um die Entfernung zu ermitteln:
Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

Servus Wolfgang,
ganz ehrlich, damit kann ich als Ingenieur nichts anfangen, das ist sehr stark interpretierbar bzw. macht keinen Sinn. In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels? Welche Breite ist gemeint? Die des Sensors oder die der aufzunehmenden Szene? Wie hängt Bildwinkel mit Entfernung zusammen, da fehlt die Formel bzw. die Beschreibung des Zusammenhangs. Du schreibst nur "richten sich nach", das ist kein reproduzierbarer Zusammenhang.
WAS willst Du eigentlich zeigen oder wiederlegen mit dem genau 2cm großen Quadrat in 100m Entfernung? Soll dieses noch sichtbar sein? Viel einfacher - bei welcher Aufnahme-/Abbildungsbreite soll das 2cm Rechteck noch zu sehen sein - würde für mich mehr Sinn machen.
Das kann ich je nach Bildwinkel in vergleichsweise kurzer wie langer Entfernung praktizieren.



Antwort von Jörg:

im dilirium davon faseln das das endlich ist wie ein blick durchs fenster und das ganze bla bla, genau die praktiker sind dann aber halt doch nicht in der lage hd von 4k zu unterscheiden

wie oft habe ich das schon erlebt ;-))



Antwort von iasi:


das problem ist nur, immer wenn die theoretiker mal was zu lachen haben wollen, dann laden sie eine gruppe leute ein und machen einen A/B test, und alle die die vorher sagen wie toll doch der unterschied ist und im dilirium davon faseln das das endlich ist wie ein blick durchs fenster und das ganze bla bla, genau die praktiker sind dann aber halt doch nicht in der lage hd von 4k zu unterscheiden. komisch oder?

klar - weil wenn sie einen Unterschied sehen, dann erzählen ihnen die Theoretiker etwas über Kanten und Schärfung und und und ...

Also ich sehe jedenfalls die Unterschiede - und mir genügt das dann auch schon, um mich für 4k statt HD zu entscheiden.



Antwort von Roland Schulz:



Was hat denn die Diashow mit Motion BlurBlur im Glossar erklärt an der Mütze?! Was hat ne statische Motiveinstellung damit zu tun???
Warum "halbiert" Motion BlurBlur im Glossar erklärt die Auflösung, die exakte Herleitung wird "allgemein" unmöglich zu halten sein, es ist einfach falsch.
Die Reduzierung der Auflösung durch Bewegung ist von der VerschlusszeitVerschlusszeit im Glossar erklärt und der Geschwindigkeit der Bewegung abhängig - das kann von Bruchteilen eines Pixels bis zu mehreren Pixeln führen.
Mach Dich auch von "Mythen" frei wie VerschlusszeitVerschlusszeit im Glossar erklärt gleich halbe Framegeschwindigkeit ;-), das "kann" man in beide Richtungen variieren, führt trotzdem in keinem Fall allgemein zu einer Halbierung der Auflösung!

Wenn du solche Fragen stellen mußt, ist das nix für dich.

Deine Aussage bzgl. Halbierung der Auflösung ist einfach völlig falsch bzw. nur für eine relative Bewegungsgeschwindigkeit korrekt, vielleicht ist ein variabler Faktor zur Reduzierung der Auflösung einfach nichts für Dich ;-)!?!
Du hast allerdings Recht das bei einer Diashow das Standbild bereits mit "langer" VerschlusszeitVerschlusszeit im Glossar erklärt aufgenommen worden sein kann und somit in der Auflösung reduziert ist, mein Fehler wobei ich hier davon ausgegangen wäre dass das abgeleitet wurde - zuviel erwartet.
Bei der im Weiteren angeführten "statischen" Szene ist es aber eindeutig, hier wird nichts durch Bewegung in der Auflösung reduziert weil sich im Bild (-Ausschnitt) NICHTS bewegt!



Antwort von Roland Schulz:

Ich weiß gar nicht warum hier einige immer noch Auflösungen über 2K in Frage stellen und behaupten, dass diese nicht existent seien. Guckt Euch das hier bitte nochmal an, am besten über den Link, dann ist fertig, auch wenn ihr es nicht glaubt und euch weiter lächerlich macht.

~10K vs. 8,7K vs. 6K vs. 4K

10k-4k.PNG
10k-4k_2.PNG
Quelle: https://www.dpreview.com/reviews/image- ... 8718881343



Antwort von Frank Glencairn:

Wir haben mal so nen Test mit 2 x identischem HD footage gemacht, einer der beiden HD Monitore hatte leicht erhöhten Kontrast, sonst waren alle Parameter gleich. Den Probanden haben wir gesagt, daß auf einem der Monitore 4k Material laufen würde -und selbstverständlich haben die ganzen "Spezialisten" Stein und Bein geschworen, sie könnten da deutlich mehr Details sehen, viel schärfer blah... und das sei natürlich eindeutig 4K Material, das sehe doch ein Blinder usw.

War im Rahmen eines Workshops über Wahrnehmungs-Psychologie in der Film/TV Technik.

Ich hab tagelang das Grinsen nicht mehr vom Gesicht bekommen :-)



Antwort von Frank Glencairn:



Deine Aussage bzgl. Halbierung der Auflösung ist einfach völlig falsch bzw. nur für eine relative Bewegungsgeschwindigkeit korrekt, vielleicht ist ein variabler Faktor zur Reduzierung der Auflösung einfach nichts für Dich ;-)!?!
Du hast allerdings Recht das bei einer Diashow das Standbild bereits mit "langer" VerschlusszeitVerschlusszeit im Glossar erklärt aufgenommen worden sein kann und somit in der Auflösung reduziert ist, mein Fehler wobei ich hier davon ausgegangen wäre dass das abgeleitet wurde - zuviel erwartet.
Bei der im Weiteren angeführten "statischen" Szene ist es aber eindeutig, hier wird nichts durch Bewegung in der Auflösung reduziert weil sich im Bild (-Ausschnitt) NICHTS bewegt!

Du hast immer noch nicht mal im Ansatz verstanden, was ich gesagt hab.



Antwort von Olaf Kringel:


klar - weil wenn sie einen Unterschied sehen, dann erzählen ihnen die Theoretiker etwas über Kanten und Schärfung und und und ...

...wie oft habe ich "genau das" auch schon hier bei manchen Diskussionen gedacht ;)

Ich schnapp mir dann halt die cam und mache eigene praktische Tests und die Ergebnisse decken sich von der visuellen Wahrnehmung her nicht immer mit der Theorie.

Wer lieber in FHD drehen mag, soll das aber selbstverständlich machen, solange es Spaß macht...



Antwort von Funless:


War im Rahmen eines Workshops über Wahrnehmungs-Psychologie in der Film/TV Technik.

Vielleicht wird ja auch einigen hier einfach nur Unrecht getan, weil sie vielleicht keine Menschen sind, sondern Androiden, so wie Data aus TNG, deren Augen >16 Blenden wahrnehmen und aus jedem PixelPixel im Glossar erklärt x^12 Bilddetails extrahieren können?

Wer weiß das schon?



Antwort von Olaf Kringel:

...sorry, das ich noch mal kurz dazwischen schreibe,

bzgl. der Frage im thread Titel, wäre meine Antwort übrigens ganz klar nein, sofern der Erfolg eines Filmes damit gemessen werden sollte.



Antwort von Roland Schulz:



Deine Aussage bzgl. Halbierung der Auflösung ist einfach völlig falsch bzw. nur für eine relative Bewegungsgeschwindigkeit korrekt, vielleicht ist ein variabler Faktor zur Reduzierung der Auflösung einfach nichts für Dich ;-)!?!
Du hast allerdings Recht das bei einer Diashow das Standbild bereits mit "langer" VerschlusszeitVerschlusszeit im Glossar erklärt aufgenommen worden sein kann und somit in der Auflösung reduziert ist, mein Fehler wobei ich hier davon ausgegangen wäre dass das abgeleitet wurde - zuviel erwartet.
Bei der im Weiteren angeführten "statischen" Szene ist es aber eindeutig, hier wird nichts durch Bewegung in der Auflösung reduziert weil sich im Bild (-Ausschnitt) NICHTS bewegt!

Du hast immer noch nicht mal im Ansatz verstanden, was ich gesagt hab.

Du hast geschrieben dass schon ein einziger PixelPixel im Glossar erklärt Motion BlurBlur im Glossar erklärt die Auflösung um die Hälfte reduziert - bitte, technisch falschere Aussagen hats hier selten gegeben.



Antwort von Roland Schulz:


Wir haben mal so nen Test mit 2 x identischem HD footage gemacht, einer der beiden HD Monitore hatte leicht erhöhten Kontrast, sonst waren alle Parameter gleich. Den Probanden haben wir gesagt, daß auf einem der Monitore 4k Material laufen würde -und selbstverständlich haben die ganzen "Spezialisten" Stein und Bein geschworen, sie könnten da deutlich mehr Details sehen, viel schärfer blah... und das sei natürlich eindeutig 4K Material, das sehe doch ein Blinder usw.

War im Rahmen eines Workshops über Wahrnehmungs-Psychologie in der Film/TV Technik.

Ich hab tagelang das Grinsen nicht mehr vom Gesicht bekommen :-)

...kannst mal sehen was für Blindgänger Du da eingeladen hast.
Welche Unterschiede fallen Dir im von mir verlinken dpreview Vergleich auf??? Auch keine - alles das selbe?? Dann ist es Zeit für ne neue Brille, Augen OP oder nen ganz anderes Diskussionsumfeld.



Antwort von cantsin:



Du hast geschrieben dass schon ein einziger PixelPixel im Glossar erklärt Motion BlurBlur im Glossar erklärt die Auflösung um die Hälfte reduziert - bitte, technisch falschere Aussagen hats hier selten gegeben.

Die Aussage von Frank war wohl so gemeint, dass wenn Motion BlurBlur im Glossar erklärt im ganzen Bild (z.B. bei einem Kameraschwenk) für einen PixelPixel im Glossar erklärt Unschärfe sorgt (also fürs Ineinanderlaufen jedes Pixels mit seinem Nachbarpixel auf einer Achse), sich die Auflösung des Bilds halbiert. Was bei bewegter Kamera praktisch ständig passiert, i.d.R. sogar noch drastischer.



Antwort von cantsin:


Ich weiß gar nicht warum hier einige immer noch Auflösungen über 2K in Frage stellen und behaupten, dass diese nicht existent seien. Guckt Euch das hier bitte nochmal an, am besten über den Link, dann ist fertig, auch wenn ihr es nicht glaubt und euch weiter lächerlich macht.

Drei der vier Kameras haben ein Sensorformat, das doppelt bzw. sogar viermal größer ist als das bei digitalen Kinokameras übliche s35mm. Ausserdem sagen Deine Testbilder nichts über den Betrachtungsabstand aus.



Antwort von Jan Reiff:

Geoff Boyle, ... wen interessiert eigentlich Geoff Boyle ?



Antwort von Roland Schulz:



Ich weiß gar nicht warum hier einige immer noch Auflösungen über 2K in Frage stellen und behaupten, dass diese nicht existent seien. Guckt Euch das hier bitte nochmal an, am besten über den Link, dann ist fertig, auch wenn ihr es nicht glaubt und euch weiter lächerlich macht.

Drei der vier Kameras haben ein Sensorformat, das doppelt bzw. sogar viermal größer ist als das bei digitalen Kinokameras übliche s35mm. Ausserdem sagen Deine Testbilder nichts über den Betrachtungsabstand aus.

Das ist auch beides völlig unerheblich bzgl. der beabsichtigten Darstellung! Primär geht es darum zu zeigen, dass Kameras sowie Optiken ohne weiteres deutlich mehr als 2K auflösen können. Ich denke das zeigt der Vergleich eindrucksvoll.



Antwort von Roland Schulz:



Du hast geschrieben dass schon ein einziger PixelPixel im Glossar erklärt Motion BlurBlur im Glossar erklärt die Auflösung um die Hälfte reduziert - bitte, technisch falschere Aussagen hats hier selten gegeben.

Die Aussage von Frank war wohl so gemeint, dass wenn Motion BlurBlur im Glossar erklärt im ganzen Bild (z.B. bei einem Kameraschwenk) für einen PixelPixel im Glossar erklärt Unschärfe sorgt (also fürs Ineinanderlaufen jedes Pixels mit seinem Nachbarpixel auf einer Achse), sich die Auflösung des Bilds halbiert. Was bei bewegter Kamera praktisch ständig passiert, i.d.R. sogar noch drastischer.

Das ist häufig das Problem hier, dass Aussagen gepostet werden die vielleicht was bestimmtes sagen wollen, am Ende aber nur wenn überhaupt interpretierbares Wischi Waschi geschrieben wird. Eine Halbierung der Auflösung, was eine sehr spezifische Aussage ist, trifft nur für eine ganz genaue relative Motivgeschwindigkeit ein. Allgemein wird die Auflösung in Bewegungsrichtung reduziert, dass kann ein Teil eines Pixels sein, kann aber auch ein Vielfaches dessen sein.

Ein "einziger PixelPixel im Glossar erklärt Motion Blur" reduziert zudem die Auflösung ÜBERHAUPT NICHT (!!) sondern nur den Kontrast zu den benachbarten beiden Pixeln. Viele bringen Kontrast und Auflösung durcheinander.



Antwort von kmw:



Die 100m sind die Variable denn die richten sich nach der Sensorgrösse und der Brennweite. Es liegt also zwischen 80 und 120m
Es gilt die Formel für den Bildwinkel, um die Entfernung zu ermitteln:
Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

Servus Wolfgang,
ganz ehrlich, damit kann ich als Ingenieur nichts anfangen, das ist sehr stark interpretierbar bzw. macht keinen Sinn. In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels? Welche Breite ist gemeint? Die des Sensors oder die der aufzunehmenden Szene? Wie hängt Bildwinkel mit Entfernung zusammen, da fehlt die Formel bzw. die Beschreibung des Zusammenhangs. Du schreibst nur "richten sich nach", das ist kein reproduzierbarer Zusammenhang.
WAS willst Du eigentlich zeigen oder wiederlegen mit dem genau 2cm großen Quadrat in 100m Entfernung? Soll dieses noch sichtbar sein? Viel einfacher - bei welcher Aufnahme-/Abbildungsbreite soll das 2cm Rechteck noch zu sehen sein - würde für mich mehr Sinn machen.
Das kann ich je nach Bildwinkel in vergleichsweise kurzer wie langer Entfernung praktizieren.

Es geht doch gar nicht darum ob es geht oder nicht.
Es ist sein persönliches Totschlagargument und es wäre doch katastrophal der Versuchsaufbau würde konkretisiert. Oder sogar begründet... im Vergleich zu FHD ect... Dann könnte es ja mal jemand probieren ;-)



Antwort von motiongroup:

Ich finde diesen Fred extrem interessant und möcht euch bitten nicht wieder ins persönliche abzudriften. Unabhängig davon das die Leistung eines gesunden jungen Auges als Maßstab für alle Versuchsaufbauten, ist dieses Problem doch ach lange in den Printmedien und der Werbung festgelegt worden.
Am Beipiel von Plakatwänden ist Gleichung aus Sichtfeld/Abstand/dpi schon lange kein Thema und jeder der davorgestanden hat weis wie die Geschichte funktioniert

Wer einen iMac 2,5k und einen iMac 5k nebeneinander gesehen im richtigen Sichtabstand sieht keinen Unterschied in der Auflösung

Klar wird es immer wieder die Glory Hole Fraktion geben die sich an einer 8k Fototapete reiben und ihr Sichtfeld
trotzdem nur in Fullhd wahrnehmen



Antwort von dienstag_01:



Die 100m sind die Variable denn die richten sich nach der Sensorgrösse und der Brennweite. Es liegt also zwischen 80 und 120m
Es gilt die Formel für den Bildwinkel, um die Entfernung zu ermitteln:
Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

Servus Wolfgang,
ganz ehrlich, damit kann ich als Ingenieur nichts anfangen, das ist sehr stark interpretierbar bzw. macht keinen Sinn. In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels? Welche Breite ist gemeint? Die des Sensors oder die der aufzunehmenden Szene? Wie hängt Bildwinkel mit Entfernung zusammen, da fehlt die Formel bzw. die Beschreibung des Zusammenhangs. Du schreibst nur "richten sich nach", das ist kein reproduzierbarer Zusammenhang.
WAS willst Du eigentlich zeigen oder wiederlegen mit dem genau 2cm großen Quadrat in 100m Entfernung? Soll dieses noch sichtbar sein? Viel einfacher - bei welcher Aufnahme-/Abbildungsbreite soll das 2cm Rechteck noch zu sehen sein - würde für mich mehr Sinn machen.
Das kann ich je nach Bildwinkel in vergleichsweise kurzer wie langer Entfernung praktizieren.

Da kann dem Ingenieur doch geholfen werden ;)
Gleichschenkliges Dreieck, ein Winkel (der Bildwinkel) und eine Seitenlänge (4000 2cm Stücke nebeneinander für 4k) sind bekannt, das heisst dann Mathe.



Antwort von Jan Reiff:

"Wer einen iMac 2,5k und einen iMac 5k nebeneinander gesehen im richtigen Sichtabstand sieht keinen Unterschied in der Auflösung"

äh, doch.
Hab hier genau diese Kombi stehen in einem Raum. 1x ein Hasselblad Foto li, 1x rechts aufm iMac.
Sieht sogar die Kochhilfe unseres Food-Designers hier, grade mal gestestet ...

und auf dem großen 4K Screen sieht zumindest hier ein skaliertes 8K Helium Bild viel geiler aus als alles was von 2K Mühlen kommt.
Gerne vorbeikommen, gibt ein Bierchen und eine Vorführung.
Mathe hatte ich ne 5, interessiert mich nicht, ich sehe. Video, wie der Lateiner sagt.



Antwort von klusterdegenerierung:

Huaaaaahh.... kann mich mal jemand wieder wach machen,
oder spult da immer noch ein technik verliebter stolz seine Equipmentliste runter? Gähn....



Antwort von pixelschubser2006:

Es ist erstaunlich, daß eine Horde gestandener Filmer sich bei bestimmten Reizworten immer wieder spontan in die Haare bekommt. Dank @Jott, der zwischendurch weise und beruhigende Worte einstreut.

Eigentlich wird hier über Fakten diskutiert, die die kein Mensch hier wirklich in Frage stellt. Natürlich bringen 4K und 8K gegenüber Full-HD deutliche Auflösungs-Sprünge, wenn man Sensoren gleicher Bauart vergleicht. Ob man diese Auflösung praktisch braucht, sei dahin gestellt. Und ob die Objektive da noch mitspielen. Diesbezüglich kann man aber einfach mehr Toleranz gegenüber dem anderen Lager aufbringen. Im Nikon-Forum habe ich mal die Diskussion angestoßen, warum man eine D810 wegen ihrer Auflösung kauft, wenn man uralte Optiken verwendet, die die 36 MP nicht ausreizen. Nach einer heißen Schlammschlacht kam der hochinteressante Tenor, daß es legitim sei, NICHT die Auflösung als Limit der Kette zu betrachten. Vielmehr kann man sich diesbzezüglich auch viel Spielraum wünschen und sich freuen, daß man den speziellen Charakter bestimmer Linsen ausreizt. Eine philosophische Betrachtung, aber angesichts der traumhaften Bilder, mit der ein D810-Besitzer die besonderen Eigenschaften einiger Nikkore im Bild einbaute, absolut bewundernswert.

Natürlich ist schiere Auflösung kein Allheilmittel und der Betrachtungsabstand spielt auch eine große Rolle, wenn es um die Notwendigkeit geht. Aber wen juckt das? Schon heute gibt es 4K-Camcorder für knapp 2000 Euro, die von Fachleuten bescheinigt bekommen, nach dem Runterskalieren auf 1080p1080p im Glossar erklärt ein Wahnsinns-Full-HD-Bild zu liefern. Was will der Mensch mehr?

Schon mit der nächsten Generation 2000-Euro-Camcorder bekommen wir quasi 4K geschenkt. Das ist so in der technischen Entwicklung. Wer es nutzt, kann es tun. Wer es nicht nutzt, zahlt nicht groß drauf. Bei den Ergebnissen einiger gängiger Modelle kann man sich dem Nutzen aber kaum entziehen.

Die Frage, ob 4K oder 8K inhaltlich nötig sind, ist doch eine philosophisch-künstlerische. Ich habe schon extrem unscharfe James-Bond-Filme im Kino gesehen, wo m.E. die Auflösung kein großes Limit gewesen sein kann. Andererseits können Multivisions-Shows von extremen Auflösungen durchaus profitieren. Das ist so. Bekannte von mir machen sowas, mit Fotos auf 4K-Monitoren. Die stellen alles in den Schatten, was mit Bewegtbild-Kameras derzeit möglich ist. Wer das sieht, kann nicht bestreiten, daß Auflösung was bringt.

Natürlich ist sie kein Allheilmittel, und vermutlich wird es bandbreitentechnisch mittelfristig kaum möglich, abseits von IP-TV on Demand solche hohen Auflösungen ohne extreme Komprimierung ins Wohnzimmer zu bringen. Aber da selbst im internetlahmen Deutschland immer mehr mit Amazon Prime und Netflix fernsehen, scheint die Technik schon einigermaßen massentauglich zu sein.

Also freuen wir uns über die Möglichkeiten, anstatt uns ständig wegen Formeln zu prügeln!



Antwort von Jott:

Ist aber unterhaltsam. Zumal diejenigen am meisten prügeln, die noch nie eine 4K-Kamera in der Hand hatten, geschweige denn jemals etwas damit gedreht hatten. Merkt man ja deutlich bei bestimmten Auslassungen.

Schade nur, dass nichts Neues kommt. Ist bisher ein teilweise fast wortgetreuer Copy and Paste-Thread von früheren Exemplaren! :-)



Antwort von klusterdegenerierung:


Ist aber unterhaltsam. Zumal diejenigen am meisten prügeln, die noch nie eine 4K-Kamera in der Hand hatten, geschweige denn jemals etwas damit gedreht hatten. Merkt man ja deutlich bei bestimmten Auslassungen.

Schade nur, dass nichts Neues kommt. Ist bisher ein teilweise fast wortgetreuer Copy and Paste-Thread von früheren Exemplaren! :-)

Das liegt wohl massgeblich an dieser dumpfen Frage!
Wenn so allgemein gefragt wird, muß man sich ja nicht wundern, das jeder seinen Senf dazu gibt.

Wenn jemand weiß das er noch Ausschnitte aus seinen Totalen braucht, oder wildes postsliding dazu kommt,
der stellt sich bei einer min Ausgabe von FHD wohl kaum die Frage ob er in 4K oder 2K drehen sollen!

Ansonsten bin ich da ganz bei Frank.
Wer in FHD raus will und keine extramätzen braucht,
der kann auch heutzutage mit jeder halbwegs professionellen Filmcam in 2K aufzeichnen!

Nur mal zur Erinnerung, machen wir ja schon faßt seit mehr als 10 Jahren! ;-))



Antwort von Abercrombie:


In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels?
Die BrennweiteBrennweite im Glossar erklärt müsstest du dir noch ausrechnen.
Pragmatiker können es auch so machen:
1. Miss an einer Wand eine Breite von 4,1 m (exakt 4096mm) ab und mach zwei Markierungen rechts und links.
2. Wähle an deiner Kamera eine mittlere BrennweiteBrennweite im Glossar erklärt (z.B. 35 oder 50 mm bei S35) und eine passende BlendeBlende im Glossar erklärt (je nach Objektiv 2.8 bis 5.6)
3. Stell eine Kamera rechtwinklig zu einer Wand auf, so dass der vorher markierte Bereich der Wand exakt Bild erscheint
4. Drucke ein 1 mal 1 mm großen Punkt auf ein Blatt Papier und häng ihn an die Wand.

Voraussichtlich wird dieser nur schwach, wenn überhaupt zu erkennen sein, obwohl er theoretisch von einem Photosite "gesehen" wird. Der Algorithmus hinter dem Bayer-Sensor muss diese Information aber einordnen und dabei kann er verloren gehen. Wenn der Punkt auch noch rot oder blau ist, wird es noch schwieriger.

Entsprechend kann das Experiment natürlich auf 8,2 oder 12,3m skaliert werden. Wer mag das mal praktisch umsetzen?



Antwort von Frank Glencairn:



Diese "Blindgänger waren Leute, die teilweise seit über 25 Jahren hinter der Kamera stehen, bzw. in der Post arbeiten.
Aber natürlich sind das alles ewiggestrige Nostalgie-Idioten, die keine Ahnung haben.
Womöglich wäre es angebracht, ab und zu von deinem hohen Ross zu steigen.

Was deine dpreview Bildchen betrifft: genau das hab ich mit Diashow gemeint.
Für gewöhnlich haben wir Bewegung im Bild, und bewegen oft auch noch die Kamera.
Durch das entstehende Motion BlurBlur im Glossar erklärt gehen sämtliche Auflösungs-Diskussionen - egal ob Sensor oder Optik - aus dem Fenster.
Das ist bestenfalls für Fotografen ein Thema, die mit hohen ShutterShutter im Glossar erklärt Geschwindigkeiten arbeiten.

Aber selbst das war nicht mein Punkt.
Mein Punkt war, daß der psychologische Impact - oder Immersion, wenn du so willst - nur durch die Reduktion von Information zu erreichen ist, weil nur dann dein Gehirn aktiv mit an dem Bild das du wahrnimmst (nicht das Bild, welches tatsächlich auf der Leinwand steht), beteiligt ist. Nur dann hast du einen emotionalen Zugang zu Charakteren und Story. Das wurde mehrfach untersucht, bewiesen, und niemand der halbwegs Ahnung von der Materie hat, bestreitet das noch.

Gibt schon einen Grund, warum fast alle Oskar Gewinner auf ner Alexa gedreht wurden.

Natürlich kann man Filme auch zur reinen Selbstbefriedigung drehen, aber bei mir liegt der Fokus - oder Pflicht als Filmemacher - auf einer möglichst guten Unterhaltung des Publikums. Deshalb wähle ich die technischen Mittel, welche die Erwartungshaltung - emotional bewegt zu werden - am besten gerecht werden.



Antwort von Jan Reiff:


Huaaaaahh.... kann mich mal jemand wieder wach machen,
oder spult da immer noch ein technik verliebter stolz seine Equipmentliste runter? Gähn....

falls Du mich meinst ...



Antwort von Jan Reiff:



Diese "Blindgänger waren Leute, die teilweise seit über 25 Jahren hinter der Kamera stehen, bzw. in der Post arbeiten.
Aber natürlich sind das alles ewiggestrige Nostalgie-Idioten, die keine Ahnung haben.
Womöglich wäre es angebracht, ab und zu von deinem hohen Ross zu steigen.

Was deine dpreview Bildchen betrifft: genau das hab ich mit Diashow gemeint.
Für gewöhnlich haben wir Bewegung im Bild, und bewegen oft auch noch die Kamera.
Durch das entstehende Motion BlurBlur im Glossar erklärt gehen sämtliche Auflösungs-Diskussionen - egal ob Sensor oder Optik - aus dem Fenster.
Das ist bestenfalls für Fotografen ein Thema, die mit hohen ShutterShutter im Glossar erklärt Geschwindigkeiten arbeiten.

Aber selbst das war nicht mein Punkt.
Mein Punkt war, daß der psychologische Impact - oder Immersion, wenn du so willst - nur durch die Reduktion von Information zu erreichen ist, weil nur dann dein Gehirn aktiv mit an dem Bild das du wahrnimmst (nicht das Bild, welches tatsächlich auf der Leinwand steht), beteiligt ist. Nur dann hast du einen emotionalen Zugang zu Charakteren und Story. Das wurde mehrfach untersucht, bewiesen, und niemand der halbwegs Ahnung von der Materie hat, bestreitet das noch.

Gibt schon einen Grund, warum fast alle Oskar Gewinner auf ner Alexa gedreht wurden.

Natürlich kann man Filme auch zur reinen Selbstbefriedigung drehen, aber bei mir liegt der Fokus - oder Pflicht als Filmemacher - auf einer möglichst guten Unterhaltung des Publikums. Deshalb wähle ich die technischen Mittel, welche die Erwartungshaltung - emotional bewegt zu werden - am besten gerecht werden.

also dieses Argument mit Oscars ... ich frage mich dann immer, wieso Arri letztlich auch die Auflösung mehr und mehr nach oben schraubt, und das 2K is enough Gelabber auch nicht mehr anführt. Arri ist eine derart etablierte Firma in der Filmgeschichte, oh welch Wunder das der Name so gut funktioniert. Ich persönlich finde die Leistung z.B. Reds innerhalb von 10 Jahren aus dem Nichts eine Kamera wie die Red VV 8K zu bauen trotzdem beeindruckender. Sorry. Was passiert eigentlich wenn Arri eine 8K vorstellt. Dann ist das sowas von supi, dieses 8K.



Antwort von 7nic:



Diese "Blindgänger waren Leute, die teilweise seit über 25 Jahren hinter der Kamera stehen, bzw. in der Post arbeiten.
Aber natürlich sind das alles ewiggestrige Nostalgie-Idioten, die keine Ahnung haben.
Womöglich wäre es angebracht, ab und zu von deinem hohen Ross zu steigen.

Was deine dpreview Bildchen betrifft: genau das hab ich mit Diashow gemeint.
Für gewöhnlich haben wir Bewegung im Bild, und bewegen oft auch noch die Kamera.
Durch das entstehende Motion BlurBlur im Glossar erklärt gehen sämtliche Auflösungs-Diskussionen - egal ob Sensor oder Optik - aus dem Fenster.
Das ist bestenfalls für Fotografen ein Thema, die mit hohen ShutterShutter im Glossar erklärt Geschwindigkeiten arbeiten.

Aber selbst das war nicht mein Punkt.
Mein Punkt war, daß der psychologische Impact - oder Immersion, wenn du so willst - nur durch die Reduktion von Information zu erreichen ist, weil nur dann dein Gehirn aktiv mit an dem Bild das du wahrnimmst (nicht das Bild, welches tatsächlich auf der Leinwand steht), beteiligt ist. Nur dann hast du einen emotionalen Zugang zu Charakteren und Story. Das wurde mehrfach untersucht, bewiesen, und niemand der halbwegs Ahnung von der Materie hat, bestreitet das noch.

Gibt schon einen Grund, warum fast alle Oskar Gewinner auf ner Alexa gedreht wurden.

Natürlich kann man Filme auch zur reinen Selbstbefriedigung drehen, aber bei mir liegt der Fokus - oder Pflicht als Filmemacher - auf einer möglichst guten Unterhaltung des Publikums. Deshalb wähle ich die technischen Mittel, welche die Erwartungshaltung - emotional bewegt zu werden - am besten gerecht werden.

Ganz schön viele Behauptungen. Die Untersuchungen und den Beweis möchte ich sehen. Bis dahin kann ich auf deinen Argumentation gar nicht eingehen, da sie meiner Meinung nach einfach aus der Luft gegriffen ist.

Dein "Experiment" mit den Kontrasteinstellungen beweist übrigens nur, dass Kantenaufsteilung als Bildschschärfe wahrgenommen wird. Deshalb schärft man ja in der Post nach. Ein gutes 4K Bild wirkt aber nicht in erster Linie schärfer, sondern plastischer.

Und letztlich widersprichst du dir ständig nur selbst. Was denn nun?
Die Sensorauflösung kommt gar nicht im aufgezeichneten Bild an?
Oder: Zu viel Auflösung mindert die Empathiefähigkeit des Betrachters?



Antwort von cantsin:

Die Alternative ist doch ganz simpel:
- Man will 35mm-Kinolook. Dann reichen (echte, d.h. ca. 3K Sensorpixeln runtergesamplete) 2K, und selbst dann noch landet man wegen u.a. Bewegungsunschärfe, Diffusion, Schärfetiefe-Freistellung/Bokeh bei einer optisch effektiv niedrigeren Auflösung.
- Man will 70mm-iMax-Naturdoku- oder hyperrealistischen Fernseh-Look. Dann sind 4K oder mehr angesagt (bei 6K Sensorpixeln und entsprechend leistungsfähigen Optiken, und möglichst auch Sensorformaten oberhalb von s35mm/APS-C.)



Antwort von Frank Glencairn:


Die Untersuchungen und den Beweis möchte ich sehen. Bis dahin kann ich auf deinen Argumentation gar nicht eingehen, da sie meiner Meinung nach einfach aus der Luft gegriffen ist...

Ein gutes 4K Bild wirkt aber nicht in erster Linie schärfer, sondern plastischer.

Das scheint mir tatsächlich ein aus der Luft gegriffene Behauptung ohne Beleg zu sein. Wie soll diese angebliche "Plastizität" (was immer das sein soll), denn durch höhere Sensorauflösung entstehen?
Passt aber zu dem sonstigen esoterischen 4K Voodoo Geschwätz, daß einige unsere Probanden beim Betrachten von HD Material, auf nem HD Monitor auch von sich gegeben haben.

Gefühltes 4k scheint für viele Leute völlig auszureichen :-)



Antwort von Jörg:

Dank @Jott, der zwischendurch weise und beruhigende Worte einstreut.

ich freue mich auch jedesmal, wenn er kurze, aber immer passende Einwürfe, zu solchen langatmigen Beiträgen, rauslässt.



Antwort von motiongroup:

Sorry Jan die Kombi steht auch bei uns hier ink. der thb Displays.
Du merkst nur den Unterschied der Displaytypen nicht aber die Auflösung bei regulärem Sichtabstand. Das war im übrigen auch der Grund warum sie in den AppleShops genau nur eine Woche nebeneinander präsentiert wurden und danach diagonal im Raum platziert wurden, die geneigten Käufer merkten keinen Unterschied erst wenn sie sich die Nasen platt drückten und Fettflecken hinterließen
Die glory hole Fraktion eben.
Wie das funktioniert kann jeder anhand seines und schmatphones nachstellen



Antwort von 7nic:



Die Untersuchungen und den Beweis möchte ich sehen. Bis dahin kann ich auf deinen Argumentation gar nicht eingehen, da sie meiner Meinung nach einfach aus der Luft gegriffen ist...

Ein gutes 4K Bild wirkt aber nicht in erster Linie schärfer, sondern plastischer.

Das scheint mir tatsächlich ein aus der Luft gegriffene Behauptung ohne Beleg zu sein. Wie soll diese angebliche "Plastizität" (was immer das sein soll), denn durch höhere Sensorauflösung entstehen?
Passt aber zu dem sonstigen esoterischen 4K Voodoo Geschwätz, daß einige unsere Probanden beim Betrachten von HD Material, auf nem HD Monitor auch von sich gegeben haben.

Gefühltes 4k scheint für viele Leute völlig auszureichen :-)

Ich habe hier eine 8K Kamera, ich habe Material davon vor mir und ich habe einen 4k-Monitor. Ich kann es mir anschauen - und das Material mit dem unserer 4K Kamera vergleichen. Und wenn ich den Unterschied beschreiben möchte, versuche ich das, indem ich von Plastizität rede.

Ich kann auch sagen, dass einfach deutlich mehr Details da sind, ohne, dass das Bild schärfer wirkt. Ich kann auch sagen, dass mehr vom Charakter der Optik übrig bleibt - und, dass kleine handwerkliche Fehler viel deutlicher hervortreten.

Das sind persönliche Eindrücke - und ich rede hier nicht von durch "Untersuchungen" "bewiesene" Tatsachen, die niemand, der auch nur "halbwegs von der Materie Ahnung hat" bezweifeln kann.

Mit deinem "Test" hast du ein paar Leute verarscht. Und die sind auf den Unterschied zwischen Schärfe und Auflösung hereingefallen. Gut gemacht. Und jetzt?



Antwort von Jan Reiff:


Sorry Jan die Kombi steht auch bei uns hier ink. der thb Displays.
Du merkst nur den Unterschied der Displaytypen nicht aber die Auflösung bei regulärem Sichtabstand. Das war im übrigen auch der Grund warum sie in den AppleShops genau nur eine Woche nebeneinander präsentiert wurden und danach diagonal im Raum platziert wurden, die geneigten Käufer merkten keinen Unterschied erst wenn sie sich die Nasen platt drückten und Fettflecken hinterließen
Die glory hole Fraktion eben.
Wie das funktioniert kann jeder anhand seines und schmatphones nachstellen

ein Foto der Hasselblad wirkt in sich detailreicher auf einem großen 4K Monitor als ein Bild einer DSLR mit 25MP. Das sind sichtbare Fakten.
Bei großen Printouts ebenfalls.
Es ist schlichtweg mehr da.

Hier im Nachbarstudio steht ein LG 4K 86". Spiele ich da 4K Material einer 2K bzw HD Kamera drauf (z.B. Alexa 2K Footage) und runterskaliertes Helium Material ist es deutlich zu sehen. Das hat auch nichts damit zu tun, ob das Bild dann unemotionaler wird, völliger Unsinn, es wirkt plastischer, reicher an Details, alsob ein James Bond auf VHS spannender war als die crispen HD Versionen ... Brillianz von Bild und Details sind für manche anscheinend eine chronische Phobie. Ich finde schon lange dass digitales Kino gerne brillianter und detailreicher werden darf, so toll ist 2K nun auch nicht für die Ewigkeit. Sobald Arri seine nächste Generation vorstellt reden wir wieder, ... ich stell schonmal Popcorn bereit



Antwort von Peppermintpost:



Gefühltes 4k scheint für viele Leute völlig auszureichen :-)

geiler spruch Frank, daumen hoch! ;-)



Antwort von motiongroup:

Da ist doch nichts ungewöhnliches daran jan was du hier erzählst hat aber nichts mit der Auflösung zu tun

Allein bei der Wiedergabe von absolute gleichen Szenen mit unterschiedlichen Gläsern und Einstellungen hast du diese Erfahrung

Am einfachsten ist es am Beispiel einer 709 preview Lut zu erahnen
Das hat nichts mit Auflösung zu tun und mit dem was das Auge leisten kann und dem Verhältnis welches schon zum xten mal angeführt wurde
Für Marty Feldmann wirds eventuell auch eine curved 180grad 8k Projektion tun, für uns normalos ist bei 4K die Grenze erreicht und der Rest ist für die Post, Cadrage, Tracking usw. und vor allem fürs ranking



Antwort von Jan Reiff:


Da ist doch nichts ungewöhnliches daran jan was du hier erzählst hat aber nichts mit der Auflösung zu tun

Allein bei der Wiedergabe von absolute gleichen Szenen mit unterschiedlichen Gläsern und Einstellungen hast du diese Erfahrung

Am einfachsten ist es am Beispiel einer 709 preview Lut zu erahnen
Das hat nichts mit Auflösung zu tun und mit dem was das Auge leisten kann und dem Verhältnis welches schon zum xten mal angeführt wurde
Für Marty Feldmann wirds eventuell auch eine curved 180grad 8k Projektion tun, für uns normalos ist bei 4K die Grenze erreicht und der Rest ist für die Post, Cadrage, Tracking usw. und vor allem fürs ranking

ne. kommt auf die Größe der Leinwand an.
Selbst bei IMAX 4K ist es zuwenig um den vollen "Wow" Effekt zu haben. Sowas kann nicht genug Auflösung und Detail haben.
Oder das neue Voletarium im Europa-Park. Diese Attraktion würde mit 2K Mühlen schonmal gar nicht funktionieren.



Antwort von motiongroup:

Nicht auf die Größe sondern auf den Abstand dazu

Was nützt es dir wenn ich im 4K Kino in der ersten Reihe sitze und ich der Kopf rollen muss oder mir die Augen aushängen darf um den Randbereich abzudecken.

Schau dir die idealen Sitzplätze in imax Kinos an besonders die Betrachtungswinkel



Antwort von klusterdegenerierung:

Frauen sagen ja auch immer das es nicht auf die Größe ankommt,
was ja erwiesenermaßen auch nicht stimmt! ;-)))



Antwort von Funless:

Die Frage ist doch "Kommt es auf Auflösung an?" und zwar im Bezug zu einem cinematischem Erlebnis bei Filmen.

Die Frage kann kurz und knapp mit einem "nein, das tut es nicht" beantwortet werden, jedenfalls definitiv nicht für das cinematische (was für ein beklopptes Wort, gibt es das überhaupt?) Erlebnis.

Als einen schönen Vergleich (meinetwegen auch Bestätigung) kann man bspw. Mad Max II - The Road Warrior und Mad Max - Fury Road gegenüberstellen. Beide Filme sind vom selben Regisseur, folgen dem selben Muster in Framing sowie Montage und es gibt sogar einige Sequenzen in Fury Road die nahezu 1:1 von The Road Warrior übernommen wurden.

Davon abgesehen, dass beide Filme für sich super Klasse sind, stinkt was das cinematische Erlebnis betrifft Fury Road nicht mal ansatzweise gegen Road Warrior an.

Die BD's kosten einen Appel und'n Ei, kann jeder bei sich Zuhause den Vergleich selber durchführen.

Was anderes ist es bei Video- und Computer-Games, da sind 4K, HFR und HDR ein absoluter Mehrwert.



Antwort von WoWu:



Die 100m sind die Variable denn die richten sich nach der Sensorgrösse und der Brennweite. Es liegt also zwischen 80 und 120m
Es gilt die Formel für den Bildwinkel, um die Entfernung zu ermitteln:
Bildwinkel = 2 x arctan (Breite / 2 / Brennweite)

Servus Wolfgang,
ganz ehrlich, damit kann ich als Ingenieur nichts anfangen, das ist sehr stark interpretierbar bzw. macht keinen Sinn. In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels? Welche Breite ist gemeint? Die des Sensors oder die der aufzunehmenden Szene? Wie hängt Bildwinkel mit Entfernung zusammen, da fehlt die Formel bzw. die Beschreibung des Zusammenhangs. Du schreibst nur "richten sich nach", das ist kein reproduzierbarer Zusammenhang.
WAS willst Du eigentlich zeigen oder wiederlegen mit dem genau 2cm großen Quadrat in 100m Entfernung? Soll dieses noch sichtbar sein? Viel einfacher - bei welcher Aufnahme-/Abbildungsbreite soll das 2cm Rechteck noch zu sehen sein - würde für mich mehr Sinn machen.
Das kann ich je nach Bildwinkel in vergleichsweise kurzer wie langer Entfernung praktizieren.

Die Bildwinkelformel scheint Dir nicht so geläufig zu sein. Daraus ergibt sich nämlich ein Dreieck und "h" im Dreieck entspricht der Aufnahmeentfernung.
Dreiecksberechnung ist Dir hoffentlich noch geläufig.
Auch dass die "Breite" auf der Projektionsseite liegt, lässt eigentlich nur zu, dass es sich um die Sensorbreite handelt (weil Projektionsfläche).
Errechnet man sich aus solchen Projektionswinkeln eine Szenengrösse und zerlegt die in 4k horizontsl und 2K vertikal, ergibt sich pro PixelPixel im Glossar erklärt eine definierbare Größe in der Szene. Bei 2 cm ist die Szene etwa 76x43m und "h" im Dreieck (je nach Sensor und Brennweite) ist ca. 100m
Du kannst auch andere Objektgrössen nehmen, dann werden aus den 100m eben größere Abstände.
Damit löst Du also 4K auf. Das ist übrigens auch etwa Grenzauflösung des menschlichen Auges.
Wahrscheinlich sagst Du gleich wieder, dass Du die €-Münze noch in 10km erkennen kannst ... hatten wir ja schon bei den 20 Blenden, die Du siehst.
Müssen wir also nicht wieder drauf eingehen.
Nimm erst mal die Bildwinkelformel zum Einstieg.



Antwort von Jan Reiff:


Nicht auf die Größe sondern auf den Abstand dazu

Was nützt es dir wenn ich im 4K Kino in der ersten Reihe sitze und ich der Kopf rollen muss oder mir die Augen aushängen darf um den Randbereich abzudecken.

Schau dir die idealen Sitzplätze in imax Kinos an besonders die Betrachtungswinkel

Auch auf den idealen Sitzen kann es gerne noch mehr Details haben.
Der Schwachsinn nur ein "softer" Film ist cineastisch ist der größte Bullshit ever.
Wer definiert den in Zukunft was "cineastisch" ist ?
Wir sind aufgewachsen mit VHS und sonstigem Schrott, dachten immer Film ist soft und weich, und haben uns verwundert die Augen gerieben, als man erste Abtastungen von 35mm sah in HD und sogar 4K, wie "eklig" scharf so Film doch ist wenn man es mal "richtig" sieht.
Die Entwicklung wird nicht stehenbleiben, der Rest kann hier weiter die immer weiter im Repeat labbernde Retro Nummer abziehen.
Ich habe im Voletarium im Europa Park wieder gesehen, was für visuelle Kraft weiter möglich ist (und auch diese Riesenleinwand dort wartet auf noch mehr Details) und was für neue Seherlebnisse bzw Möglichkeiten noch warten.
Wer den Film als "Event" nicht mag und sich lieber Autorenfilme anschaut, braucht das alles nicht. Auch richtig. Aber ursprünglich wurde das Kino genau dafür erfunden. Boyle ist ein alter Mann der auch nicht sonderlich Großes gerissen hat als DOP.
So gesehen viel zu viel Aufmerksamkeit für sein Geschwätz.



Antwort von Jan Reiff:


Die Frage ist doch "Kommt es auf Auflösung an?" und zwar im Bezug zu einem cinematischem Erlebnis bei Filmen.

Die Frage kann kurz und knapp mit einem "nein, das tut es nicht" beantwortet werden, jedenfalls definitiv nicht für das cinematische (was für ein beklopptes Wort, gibt es das überhaupt?) Erlebnis.

Als einen schönen Vergleich (meinetwegen auch Bestätigung) kann man bspw. Mad Max II - The Road Warrior und Mad Max - Fury Road gegenüberstellen. Beide Filme sind vom selben Regisseur, folgen dem selben Muster in Framing sowie Montage und es gibt sogar einige Sequenzen in Fury Road die nahezu 1:1 von The Road Warrior übernommen wurden.

Davon abgesehen, dass beide Filme für sich super Klasse sind, stinkt was das cinematische Erlebnis betrifft Fury Road nicht mal ansatzweise gegen Road Warrior an.

Die BD's kosten einen Appel und'n Ei, kann jeder bei sich Zuhause den Vergleich selber durchführen.

Was anderes ist es bei Video- und Computer-Games, da sind 4K, HFR und HDR ein absoluter Mehrwert.

sorry, wenn ich z.B. den neuen Blade Runner in kristallklarem 4K sehe mit seinen Totalen und detailverliebten Shots ist das cineastische Erlebnis visuell größer als eine 720p Kopie. Es kommt auf den Inhalt an, ja, aber wenn ich dank hoher Detail Auflösung in dieser Sci-Fi Welt dabei sein kann finde ich das spannender als die nächsten Jahre dieses langweilige "früher war alles viel schöner" Gejammere. Nach der Therorie einiger hier kann Arri z.B. dien Laden dichtmachen. Ist ja das Ende des Seherlebnis erreicht

Mad Max 2 ist auf 35mm gedreht, gab sogar 70mm blowup. Der Vergleich ist deswegen recht seltsam, da Du das Negativ in 4K abgestatet dahin bekommst was viele hier ja dann als "nicht cineastisch" ansehen würden.



Antwort von Funless:


Wir sind aufgewachsen mit VHS und sonstigem Schrott, dachten immer Film ist soft und weich, und haben uns verwundert die Augen gerieben, als man erste Abtastungen von 35mm sah in HD und sogar 4K, wie "eklig" scharf so Film doch ist wenn man es mal "richtig" sieht.

Warst Du in deiner Jugend nie im Kino? Hast du alle deine Filme damals nur Zuhause auf VHS geguckt? Falls ja, dann haste was verpasst. Denn schon damals waren die Filme im Kino (vorausgesetzt ordentlich projeziert) "scharf" und nicht "soft".

Ich habe im Voletarium im Europa Park wieder gesehen, was für visuelle Kraft weiter möglich ist (und auch diese Riesenleinwand dort wartet auf noch mehr Details) und was für neue Seherlebnisse bzw Möglichkeiten noch warten.

Von Jahrmarkt-Attraktionen redet hier doch niemand, erst recht nicht Mr. Boyle. Bei solchen Spielchen können sogar 32K eingesetzt werden, da gilt das selbe wie für Video- und Computergames.

Die Frage ist doch "Kommt es auf Auflösung an?" und zwar im Bezug zu einem cinematischem Erlebnis bei Filmen.

Die Frage kann kurz und knapp mit einem "nein, das tut es nicht" beantwortet werden, jedenfalls definitiv nicht für das cinematische (was für ein beklopptes Wort, gibt es das überhaupt?) Erlebnis.

Als einen schönen Vergleich (meinetwegen auch Bestätigung) kann man bspw. Mad Max II - The Road Warrior und Mad Max - Fury Road gegenüberstellen. Beide Filme sind vom selben Regisseur, folgen dem selben Muster in Framing sowie Montage und es gibt sogar einige Sequenzen in Fury Road die nahezu 1:1 von The Road Warrior übernommen wurden.

Davon abgesehen, dass beide Filme für sich super Klasse sind, stinkt was das cinematische Erlebnis betrifft Fury Road nicht mal ansatzweise gegen Road Warrior an.

Die BD's kosten einen Appel und'n Ei, kann jeder bei sich Zuhause den Vergleich selber durchführen.

Was anderes ist es bei Video- und Computer-Games, da sind 4K, HFR und HDR ein absoluter Mehrwert.

sorry, wenn ich z.B. den neuen Blade Runner in kristallklarem 4K sehe mit seinen Totalen und detailverliebten Shots ist das cineastische Erlebnis visuell größer als eine 720p Kopie. Es kommt auf den Inhalt an, ja, aber wenn ich dank hoher Detail Auflösung in dieser Sci-Fi Welt dabei sein kann finde ich das spannender als die nächsten Jahre dieses langweilige "früher war alles viel schöner" Gejammere. Nach der Therorie einiger hier kann Arri z.B. dien Laden dichtmachen. Ist ja das Ende des Seherlebnis erreicht

Von was für einer 720p Kopie redest du da? Meine Blade Runner BD hat 1080p1080p im Glossar erklärt und da sehe ich nix "softes" wenn ich mir den Film anschaue. Hast du BD's (damit sind BluRays gemeint) eigentlich Zuhause oder schaust du dir hochskalierte DVDs an?

Offenbar hast du auch Mad Max II nur auf VHS angeguckt?



Antwort von Jan Reiff:

Deine Arroganz mit "Jahrmarkt Attraktion" kannst Dir sparen, erschaffe erstmal selber so Projekte. Das ist pures Kino im Sinne klassischten aller Sinne. Nämlich Illusionen zu schaffen.
Übrigens bei dieser "Jahrmarkt Attraktion" waren die Piloten von James Bond am Start.

Dann wirf Deinen HD Blade Runner mal auf eine riesige Leinwand.

Ne Kinokopie in den 70ern und 80ern hatte nie die Qualität einer heutigen nativen 4K Projektion. Vielleicht auf ner Leinwand im Dorf die nicht größer war als heutige Standard TV Screens in 4K.



Antwort von motiongroup:

Nochmals Jan du projizierst das immer auf 4K im Kino, es betrifft dich überall im Leben vollkommen egal ob das nun Printmedien,Kino, Fernsehen, Computermonitore oder auch Smartphonedisplays sind, ab einer gewissen, egal wie du das nun nennst, Auflösung der Punkt überschritten an dem es erkennbar ist und zwar nur Auflösungtechnisch

4K reinweißes Bild bleibt 4K auch wenn du nur eine homogene Fläche siehst auch wenn du noch so nahe hin gehst an die Bildebene
Und nun das ganze gestreift schwarz und weiß und weiter kariert das ganze
Das ganze mit 2k und schon wird des DR. Beitrag sonnenklar



Antwort von domain:

Der Unterschied zwischen maximal realistischer Abbildung und Kunst liegt in der Abstraktion und Steigerung. Eine Stufe ist z.B. schon SW und dann gibt es noch viele Stufen der Verfremdung, z.B. im Pointilismus von Seurat (sehr grobkörnig). Dass es da aber auch kein Einsehen gibt, immer die Mannerleut mit ihren eingefahrenen Ansichten.

zum Bild https://s-media-cache-ak0.pinimg.com/or ... 35ac11.jpg



Antwort von Jan Reiff:


Nochmals Jan du projizierst das immer auf 4K im Kino, es betrifft dich überall im Leben vollkommen egal ob das nun Printmedien,Kino, Fernsehen, Computermonitore oder auch Smartphonedisplays sind, ab einer gewissen, egal wie du das nun nennst, Auflösung der Punkt überschritten an dem es erkennbar ist und zwar nur Auflösungtechnisch

4K reinweißes Bild bleibt 4K auch wenn du nur eine homogene Fläche siehst auch wenn du noch so nahe hin gehst an die Bildebene
Und nun das ganze gestreift schwarz und weiß und weiter kariert das ganze
Das ganze mit 2k und schon wird des DR. Beitrag sonnenklar

4K ist mir egal, nennen wir es 8K, 16K ... Willy oder Heinz.
Fakt ist, dass große Leinwände und Projektionen bislang noch nicht am Ende des Machbaren sind. Und die Entwicklung von Film und den Kameras war nie dazu da Abstraktion und Reduktion zu erreichen, ein großer Irrtum. Man versuchte erstmal immer nahe an die Realität zu kommen, das war beim Farbfilm, und dann bei der weiteren Entwicklung der Optiken und Materialien so. Der grobkörnige Schwarzweiss Film ist ein Stilmittel, aber nicht der Traum eines Filmentwicklers. Der Look and Feel des Films, ist eine andere Baustelle. Aber nicht das Quellmaterial, da tut man all den Pionieren Unrecht, die analog Film, und auch jetzt Digitalfilm auf den heutigen Stand gebracht haben.



Antwort von Roland Schulz:


Ich finde diesen Fred extrem interessant und möcht euch bitten nicht wieder ins persönliche abzudriften. Unabhängig davon das die Leistung eines gesunden jungen Auges als Maßstab für alle Versuchsaufbauten, ist dieses Problem doch ach lange in den Printmedien und der Werbung festgelegt worden.
Am Beipiel von Plakatwänden ist Gleichung aus Sichtfeld/Abstand/dpi schon lange kein Thema und jeder der davorgestanden hat weis wie die Geschichte funktioniert

Wer einen iMac 2,5k und einen iMac 5k nebeneinander gesehen im richtigen Sichtabstand sieht keinen Unterschied in der Auflösung

Klar wird es immer wieder die Glory Hole Fraktion geben die sich an einer 8k Fototapete reiben und ihr Sichtfeld
trotzdem nur in Fullhd wahrnehmen

Bei den Macs kann ich (nicht leider) nicht mitreden, iPad 2 und iPad 3 sind aber schon Welten wenn man sowas mal in der Hand hatte! Den 5K Mac kenne ich nur vom vorbeigehen, da sehe ich keine PixelPixel im Glossar erklärt bei normaler Betrachtung, auf meinem CG276 mit 2560px/h dagegen schon!



Antwort von Frank Glencairn:

Jeeesus Christ!

Daß es einen Sweetspot zwischen Sichtfeld, Abstand, Leinwand/Monitor Größe und Auflösung gibt, haben wir hier doch schon mehr als einmal geklärt. Da ändert sich auch nix daran - Science!



Antwort von Roland Schulz:



Servus Wolfgang,
ganz ehrlich, damit kann ich als Ingenieur nichts anfangen, das ist sehr stark interpretierbar bzw. macht keinen Sinn. In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels? Welche Breite ist gemeint? Die des Sensors oder die der aufzunehmenden Szene? Wie hängt Bildwinkel mit Entfernung zusammen, da fehlt die Formel bzw. die Beschreibung des Zusammenhangs. Du schreibst nur "richten sich nach", das ist kein reproduzierbarer Zusammenhang.
WAS willst Du eigentlich zeigen oder wiederlegen mit dem genau 2cm großen Quadrat in 100m Entfernung? Soll dieses noch sichtbar sein? Viel einfacher - bei welcher Aufnahme-/Abbildungsbreite soll das 2cm Rechteck noch zu sehen sein - würde für mich mehr Sinn machen.
Das kann ich je nach Bildwinkel in vergleichsweise kurzer wie langer Entfernung praktizieren.

Da kann dem Ingenieur doch geholfen werden ;)
Gleichschenkliges Dreieck, ein Winkel (der Bildwinkel) und eine Seitenlänge (4000 2cm Stücke nebeneinander für 4k) sind bekannt, das heisst dann Mathe.

Das ist wodurch bedingt?!?!?! (Vorsicht, hatte Mathe-LK ;-), hab" auch "bestanden" ;-) ;-) ;-)!!!)
Welche "eine" Seitenlänge, Schenkel oder Basis? Welcher Winkel, Basiswinkel oder Spitze? -> Wischi Waschi, dabei haben wir schon fast Freitag!!
Nehmen wir mal an wir haben "die" 80m Basis und "die" 100m "Länge/Höhe", dann kommen wir auf einen Bildwinkel von 43,6°, entspricht bezogen auf Kleinbild einer BrennweiteBrennweite im Glossar erklärt von 23,33mm... gut, warum das jetzt ~24mm, warum 2cm Rechtecke, warum nicht 1- oder 3cm große Teile usw... Warum genau 2cm in 100m (+/- "ein bisschen") und warum fehlen dann die weiteren Angaben???



Antwort von Funless:


Deine Arroganz mit "Jahrmarkt Attraktion" kannst Dir sparen, erschaffe erstmal selber so Projekte. Das ist pures Kino im Sinne klassischten aller Sinne. Nämlich Illusionen zu schaffen.
Übrigens bei dieser "Jahrmarkt Attraktion" waren die Piloten von James Bond am Start.

Dann wirf Deinen HD Blade Runner mal auf eine riesige Leinwand.

Ne Kinokopie in den 70ern und 80ern hatte nie die Qualität einer heutigen nativen 4K Projektion. Vielleicht auf ner Leinwand im Dorf die nicht größer war als heutige Standard TV Screens in 4K.

Sorry dich enttäuschen zu müssen, aber Blade Runner und mehr als 90% aller Filme die ich zwischen 1976 und 2004 im Kino geschaut habe (u.a. auch Sci-Fi-SFX/VFX-Perlen wie Star Wars, die Matrix-Trilogie, Total Recall, Starship Troopers, alle Star Trek Filme bis einschl. Nemesis, Mad Max I - III, etc. pp. und ja auch alle Bond Filme, die in diesem Zeitraum rauskamen) habe ich im Saal 1 des Royal Palast gesehen. Und da war absolut garnichts "soft" obwohl damals ja kein 4K DCP, sondern dieses pfui-rückständig analoge. Wahrscheinlich haben die wohl gezaubert.

Das hat auch nix mit Arroganz zutun, eher Wehmut darüber, dass dieses Kino geschlossen wurde, weil mir bislang hier in Berlin kein anderes begegnet ist welches seinen Platz hätte einnehmen können. Nicht mal dieses ach so tolle 4K Laser IMAX am Potsdamer Platz.

Aber stimmt ja, ich leb' ja im Dorf.



Antwort von 7nic:


Jeeesus Christ!

Daß es einen Sweetspot zwischen Sichtfeld, Abstand, Leinwand/Monitor Größe und Auflösung gibt, haben wir hier doch schon mehr als einmal geklärt. Da ändert sich auch nix daran - Science!

Deine Weltsicht scheint in Stein gemeißelt. Hinterfragst du auch manchmal? Oder weißt du einfach?

Es gibt keinen Sweet Spot. Irgendwann übersteigt die Auflösung des Bildes auf der Leinwand die Auflösung deines optischen Systems, danach ändert sich der Eindruck nicht mehr. Gut. Und? Das mag in der letzten Reihe im kleinen Kino 2K sein. In den vorderen Reihen im Multiplex 8k oder 10k.

Was ist jetzt der Sweet Spot? Wieso ist für den Hinterbänkler seine maximal auflösbaren 2K plötzlich doch nicht zu scharf? Aber 4K etwas näher dran schon? Und sind 720p auf einer Briefmarke hyperrealistisch oder Trash TV? Oder großes Kino?

Ich habe neulich einen Film in SD gesehn. War gut. Wäre er in 4K schlechter gewesen? Wer kann es mir erklären?

2K reichen aus um gute Filme zu drehen. 1K auch. 8 Blenden reichen, um einen guten Film zu drehen. Schwarz-Weiß reicht aus, um einen guten Film zu drehen. Eine VHS-Kamera reicht aus, um eine tolle Geschichte zu erzählen. Eine Bühne reicht aus, um eine tolle Geschichte zu erzählen. Auch wenn die Realität viel zu hoch auflöst...



Antwort von Roland Schulz:



Diese "Blindgänger waren Leute, die teilweise seit über 25 Jahren hinter der Kamera stehen, bzw. in der Post arbeiten.
Aber natürlich sind das alles ewiggestrige Nostalgie-Idioten, die keine Ahnung haben.
Womöglich wäre es angebracht, ab und zu von deinem hohen Ross zu steigen.

Was deine dpreview Bildchen betrifft: genau das hab ich mit Diashow gemeint.
Für gewöhnlich haben wir Bewegung im Bild, und bewegen oft auch noch die Kamera.
Durch das entstehende Motion BlurBlur im Glossar erklärt gehen sämtliche Auflösungs-Diskussionen - egal ob Sensor oder Optik - aus dem Fenster.
Das ist bestenfalls für Fotografen ein Thema, die mit hohen ShutterShutter im Glossar erklärt Geschwindigkeiten arbeiten.

Aber selbst das war nicht mein Punkt.
Mein Punkt war, daß der psychologische Impact - oder Immersion, wenn du so willst - nur durch die Reduktion von Information zu erreichen ist, weil nur dann dein Gehirn aktiv mit an dem Bild das du wahrnimmst (nicht das Bild, welches tatsächlich auf der Leinwand steht), beteiligt ist. Nur dann hast du einen emotionalen Zugang zu Charakteren und Story. Das wurde mehrfach untersucht, bewiesen, und niemand der halbwegs Ahnung von der Materie hat, bestreitet das noch.

Gibt schon einen Grund, warum fast alle Oskar Gewinner auf ner Alexa gedreht wurden.

Natürlich kann man Filme auch zur reinen Selbstbefriedigung drehen, aber bei mir liegt der Fokus - oder Pflicht als Filmemacher - auf einer möglichst guten Unterhaltung des Publikums. Deshalb wähle ich die technischen Mittel, welche die Erwartungshaltung - emotional bewegt zu werden - am besten gerecht werden.

...bestimmt gute Filmemacher, will ich auch Dir bestimmt nicht aberkennen...



Antwort von Roland Schulz:



Das scheint mir tatsächlich ein aus der Luft gegriffene Behauptung ohne Beleg zu sein. Wie soll diese angebliche "Plastizität" (was immer das sein soll), denn durch höhere Sensorauflösung entstehen?
Passt aber zu dem sonstigen esoterischen 4K Voodoo Geschwätz, daß einige unsere Probanden beim Betrachten von HD Material, auf nem HD Monitor auch von sich gegeben haben.

Gefühltes 4k scheint für viele Leute völlig auszureichen :-)

Ich habe hier eine 8K Kamera, ich habe Material davon vor mir und ich habe einen 4k-Monitor. Ich kann es mir anschauen - und das Material mit dem unserer 4K Kamera vergleichen. Und wenn ich den Unterschied beschreiben möchte, versuche ich das, indem ich von Plastizität rede.

Ich kann auch sagen, dass einfach deutlich mehr Details da sind, ohne, dass das Bild schärfer wirkt. Ich kann auch sagen, dass mehr vom Charakter der Optik übrig bleibt - und, dass kleine handwerkliche Fehler viel deutlicher hervortreten.

Das sind persönliche Eindrücke - und ich rede hier nicht von durch "Untersuchungen" "bewiesene" Tatsachen, die niemand, der auch nur "halbwegs von der Materie Ahnung hat" bezweifeln kann.

Mit deinem "Test" hast du ein paar Leute verarscht. Und die sind auf den Unterschied zwischen Schärfe und Auflösung hereingefallen. Gut gemacht. Und jetzt?

++1 von mir!
Die "Plastizität", "Tiefe" oder den "3D Effekt" eines Bildes sehen anscheinend nicht viele, besonders die nicht die "fast" FHD Material durch zwanzig Filter und Nodes schieben (sorry, graden) und dann noch die Graduation eines Comics übrighalten.



Antwort von Jan Reiff:



Deine Arroganz mit "Jahrmarkt Attraktion" kannst Dir sparen, erschaffe erstmal selber so Projekte. Das ist pures Kino im Sinne klassischten aller Sinne. Nämlich Illusionen zu schaffen.
Übrigens bei dieser "Jahrmarkt Attraktion" waren die Piloten von James Bond am Start.

Dann wirf Deinen HD Blade Runner mal auf eine riesige Leinwand.

Ne Kinokopie in den 70ern und 80ern hatte nie die Qualität einer heutigen nativen 4K Projektion. Vielleicht auf ner Leinwand im Dorf die nicht größer war als heutige Standard TV Screens in 4K.

Sorry dich enttäuschen zu müssen, aber Blade Runner und mehr als 90% aller Filme die ich zwischen 1976 und 2004 im Kino geschaut habe (u.a. auch Sci-Fi-SFX/VFX-Perlen wie Star Wars, die Matrix-Trilogie, Total Recall, Starship Troopers, alle Star Trek Filme bis einschl. Nemesis, Mad Max I - III, etc. pp. und ja auch alle Bond Filme, die in diesem Zeitraum rauskamen) habe ich im Saal 1 des Royal Palast gesehen. Und da war absolut garnichts "soft" obwohl damals ja kein 4K DCP, sondern dieses pfui-rückständig analoge. Wahrscheinlich haben die wohl gezaubert.

Das hat auch nix mit Arroganz zutun, eher Wehmut darüber, dass dieses Kino geschlossen wurde, weil mir bislang hier in Berlin kein anderes begegnet ist welches seinen Platz hätte einnehmen können. Nicht mal dieses ach so tolle 4K Laser IMAX am Potsdamer Platz.

Aber stimmt ja, ich leb' ja im Dorf.

erklär mir nicht die Filmwelt, ich habe ne komplette Ausbildung an 35mm Kameras und war auch in den 70ern im Kino. Allerhand was !? Und trotzdem verharre ich nicht wie hier viele im Jetzt oder Gestern oder bei einem Rentner wie Boyle der jedes Jahr so einen Schmarrm raushaut wie man weiss (wahrscheinlich brummt noch sein Kopf wegen Jannard), sondern sehe massiv mehr Möglichkeiten neuer visueller Erlebnisse. Ich habe z.B. nie 3D gemocht, bis ich den IMAX 3D Trailer in Sinsheim gesehen habe und dann doch merkte, wie gut dass sein kann wenn man es wirklich richtig macht, und zwar detailreich und realistisch (weiss nicht wer hier die Flugzeugträger Szene kennt vom IMAX, aber die ist gigantisch und tatsächlich ein neues Seherlebnis)



Antwort von Roland Schulz:



Servus Wolfgang,
ganz ehrlich, damit kann ich als Ingenieur nichts anfangen, das ist sehr stark interpretierbar bzw. macht keinen Sinn. In Deiner Formel taucht die ominösen Entfernung von 100m (bzw. 80-120) gar nicht mehr auf. Wieso ergibt sich dann eine Abhängigkeit des Bildwinkels? Welche Breite ist gemeint? Die des Sensors oder die der aufzunehmenden Szene? Wie hängt Bildwinkel mit Entfernung zusammen, da fehlt die Formel bzw. die Beschreibung des Zusammenhangs. Du schreibst nur "richten sich nach", das ist kein reproduzierbarer Zusammenhang.
WAS willst Du eigentlich zeigen oder wiederlegen mit dem genau 2cm großen Quadrat in 100m Entfernung? Soll dieses noch sichtbar sein? Viel einfacher - bei welcher Aufnahme-/Abbildungsbreite soll das 2cm Rechteck noch zu sehen sein - würde für mich mehr Sinn machen.
Das kann ich je nach Bildwinkel in vergleichsweise kurzer wie langer Entfernung praktizieren.

Die Bildwinkelformel scheint Dir nicht so geläufig zu sein. Daraus ergibt sich nämlich ein Dreieck und "h" im Dreieck entspricht der Aufnahmeentfernung.
Dreiecksberechnung ist Dir hoffentlich noch geläufig.
Auch dass die "Breite" auf der Projektionsseite liegt, lässt eigentlich nur zu, dass es sich um die Sensorbreite handelt (weil Projektionsfläche).
Errechnet man sich aus solchen Projektionswinkeln eine Szenengrösse und zerlegt die in 4k horizontsl und 2K vertikal, ergibt sich pro PixelPixel im Glossar erklärt eine definierbare Größe in der Szene. Bei 2 cm ist die Szene etwa 76x43m und "h" im Dreieck (je nach Sensor und Brennweite) ist ca. 100m
Du kannst auch andere Objektgrössen nehmen, dann werden aus den 100m eben größere Abstände.
Damit löst Du also 4K auf. Das ist übrigens auch etwa Grenzauflösung des menschlichen Auges.
Wahrscheinlich sagst Du gleich wieder, dass Du die €-Münze noch in 10km erkennen kannst ... hatten wir ja schon bei den 20 Blenden, die Du siehst.
Müssen wir also nicht wieder drauf eingehen.
Nimm erst mal die Bildwinkelformel zum Einstieg.

Die Formel habe ich weiter oben schon den Waschzettelautoren erklärt. Wolfgang, manchmal polierst Du Stecknadelspitzen, ein anderes Mal glaubst Du selbst nicht was Du mit eigenen Augen siehst (~10 statt ~6 Blenden nach meinem ND Filter Versuch) - dann kommt "hier" wieder Prof. Dr. "Wischi Waschi" (heute wohl mein Lieblingswort)...

">h< ist im Dreieck je nach Sensor und BrennweiteBrennweite im Glossar erklärt ca. 100m" - was ist denn das für eine Aussage für einen Akademiker?!?!?! Die Sonnenscheindauer einer Dachlatte beträgt genau einen Eimer pro Winter ;-)!!
Selbst wenn ich jetzt mal abgeleitet hätte dass ~4K "2cm" Rechtecke nebeneinander betrachtet werden, warum sollte ich das genau nach 100m auflösen, die "Entfernung" ist einfach vom Bildwinkel abhängig - FERTIG AUS!!
Wenn Du 100m hinschreibst dann bitte auch die anderen Größen dazu (dann kann ich wenigstens weitere Fehler nachweisen ;-) ), "100m" bzw. 2cm sind überhauptgarnichtirgendkeine Bedingung!!!

Ich stelle auch wieder fest dass Du glaubst der "Weltmeister im Worte-im-Mund verdrehen" bist - da kann ich aber ne Menge "Drehmoment" dagegen stellen wie Du weisst ;-)!! Ich würde auch nicht ständig versuchen mir die dritten Zähne an Granit auszubeißen, waren doch teuer, nicht ;-) ;-)??!!
20 Blenden habe "ich" auch nie behauptet, glaube das war der andere Wolfgang der UHDR Augen hat (*Neid!!*)

ICH WEISS ABER DASS AUS 4:2:04:2:0 im Glossar erklärt IM FAKTOR 2 DOWNSCALE 4:4:44:4:4 im Glossar erklärt WIRD und Du nicht ;-p!!!

In dem Sinne, Dir sonnige Grüße nach La Vega und noch viel Spaß hier...!!



Antwort von WoWu:

Ich habe es extra einfach für Dich gehalten, nachdem Dir schon die Elementarformel nichts gesagt hat.
Und Deine Erkenntnis, dass die Entfernung aus dem Bildwinkel hervorgeht ist ja überwältigend. Was glaubst Du, warum ich die Bildwinkelformel gegeben habe.
Du blickst es, glaube ich, wirklich nicht.
Dann sag mir doch mal, welchen Abstand Du mit einer BrennweiteBrennweite im Glossar erklärt von 50mm und einem FF Sensor von einem Scenario haben musst, das 70 x 40 m misst.
Die Formel sagt nämlich erst mal gar nichts, sondern gibt Dir nur den Winkel.
Und daraus errechnest Du dir dann erst die Entfernung.
Einfache Geometrie scheint aber nicht Dein Ding zu sein.
Von mir aus kannst Du aber auch die Höhe in einem Dreieck bezeichnen, wie es Dir passt, aber in der Geometrie wird dafür nun mal "h" gewählt.
Aber ... ich hatte vergessen ... einfache Geometrie ist nicht Dein Ding. Sorry

Ansonsten ... außer Polemik mal wieder substanzlos.
Hätte mich auch gewundert.



Antwort von Starshine Pictures:

Ok. Also da bis jetzt noch keine wirklich praxisgerechte Anleitung von den Kampfhähnen gekommen ist habe ich mir nun nach dem Sonnenuntergang kurz das Hirn angekurbelt. Ich gehe mal davon aus dass der Legostein oder die Euro-Münze einen PixelPixel im Glossar erklärt des 4k Bildes repräsentieren soll. Ich gehe dabei aber gnädigerweise mal von einer UHD Auflösung (3840 × 2160) aus da ich gerade nicht weiss ob mein C100 Sensor die 4096 PixelPixel im Glossar erklärt in der Breite hat. Der Einfachheit halber nehme ich mal ein 1cm Objekt um den Versuchsaufbau nicht unsinnig gross und die Wege kurz zu halten.

Ich nehme also einen 1cm Legostein und positioniere ihn auf dem Gartenzaun. Anschliessend bewege ich mich 19,4m nach rechts vom Stein und setze dort eine Markierung. Und dann nochmal 19,4m nach links am Zaun entlang für eine erneute Markierung. Anschliessend schnappe ich mir die Kamera mit meiner schärfsten Linse und gehe so weit vom Zaun weg bis die beiden Markierungen exakt an den Rändern des Bildes liegen. Wenn ich nun in der Mitte des Bildes den Legostein erkennen kann löst meine Cam 4k bzw UHD auf. Richtig oder?

Grüsse, Stephan



Antwort von Roland Schulz:


Ich habe es extra einfach für Dich gehalten, nachdem Dir schon die Elementarformel nichts gesagt hat.
Und Deine Erkenntnis, dass die Entfernung aus dem Bildwinkel hervorgeht ist ja überwältigend. Was glaubst Du, warum ich die Bildwinkelformel gegeben habe.
Du blickst es, glaube ich, wirklich nicht.
Dann sag mir doch mal, welchen Abstand Du mit einer BrennweiteBrennweite im Glossar erklärt von 50mm und einem FF Sensor von einem Scenario haben musst, das 70 x 40 m misst.
Die Formel sagt nämlich erst mal gar nichts, sondern gibt Dir nur den Winkel.
Einfache Geometrie scheint nicht Dein Ding zu sein.
Von mir aus kannst Du aber auch die Höhe in einem Dreieck bezeichnen, wie es Dir passt, aber in der Geometrie wird dafür nun mal "h" gewählt.
Aber ... ich hatte vergessen ... einfache Geometrie ist nicht Dein Ding. Sorry

Ansonsten ... außer Polemik mal wieder substanzlos.
Hätte mich auch gewundert.

...die Retourkutsche war jetzt aber mal schlapp wie"n Smart mit Turboschaden, die Rhetorik wurde >wieder< auf "Polemik" gekürzt (laaaangweilig) und der Humor hatte auch schon mal mehr Druck. Vielleicht habe ich auch einfach den 100m Joke nicht ausreichend gebührend gefeiert...
Herzchen, damit"s hier wieder richtig brennt musst Du schon etwas mehr als 180° Winkelsumme auf die Pfanne kippen!
Bin enttäuscht...

Substanz hat u.A. Karfreitag oben schon gekriegt, zwischen den Zeilen lesen ist bestimmt auch schwierig mit 1K Fielmann Glas auf der Ansaugung.



Antwort von klusterdegenerierung:


ICH WEISS ABER DASS AUS 4:2:04:2:0 im Glossar erklärt IM FAKTOR 2 DOWNSCALE 4:4:44:4:4 im Glossar erklärt WIRD und Du nicht ;-p!!!

Das ist doch mumpits!
Das ganze Netz ist voll mit dieser Frage,
aber keine wirklich Antwort und schon garnicht von einem der es wirklich wissen müßte!

Um mal wieder den Milch Vergleich heran zu ziehen, 4 Liter H-Milch mit 1% Fett,
also 8Bit mit 256 Werten, runter gedrückt auf 1Liter, ergibt dies 1L H-MIlch mit 1% Fett und nicht 4%,
also 10Bit 1024 Werte, weil die 4L 1% kein anderes Fett enthält wie zb. das 4%ige!

Ebenso bei den 8Bit 256 Werten, das sind die gleichen, aus denen kannst Du keine 1024 machen,
da es nicht 4x verschiedene 256 Werte sind, sondern 4x die gleichen!

Der Gedanke ist verlockend, aber wenn dem so wäre,
hätten schon alle Vollprofis diese Praxis groß auf ihrer Homepage stehen etc.!



Antwort von Frank Glencairn:

Der Trend, was die Auflösung betrifft geht sowieso schon wieder in die andere Richtung :-)

https://motherboard.vice.com/en_us/arti ... ting-again



Antwort von Roland Schulz:



ICH WEISS ABER DASS AUS 4:2:04:2:0 im Glossar erklärt IM FAKTOR 2 DOWNSCALE 4:4:44:4:4 im Glossar erklärt WIRD und Du nicht ;-p!!!

Das ist doch mumpits!
Das ganze Netz ist voll mit dieser Frage,
aber keine wirklich Antwort und schon garnicht von einem der es wirklich wissen müßte!

Um mal wieder den Milch Vergleich heran zu ziehen, 4 Liter H-Milch mit 1% Fett,
also 8Bit mit 256 Werten, runter gedrückt auf 1Liter, ergibt dies 1L H-MIlch mit 1% Fett und nicht 4%,
also 10Bit 1024 Werte, weil die 1% kein anderes Fett enthält wie zb. das 4%ige!

Ebenso bei den 8Bit 256 Werten, das sind die gleichen, aus denen kannst Du keine 1024 machen,
da es nicht 4x verschiedene 256 Werte sind, sondern 4x die gleichen!

Der Gedanke ist verlockend, aber wenn dem so wäre,
hätten schon alle Vollprofis diese Praxis groß auf ihrer Homepage stehen etc.!

...ich bin mir sehr wohl bewußt das ich oft mehr weiß als viele andere hier ;-)!
"Vollprofis" wie Panne-sonic haben das recht groß in einem ihrer Techsheets stehen, wobei der Bengel der das im gleichen "Dokument" in die 8>10bit QuantisierungQuantisierung im Glossar erklärt weitergeführt hat schon ne Riefe im Zylinder hat.
4:2:0 wird aber zu 4:4:44:4:4 im Glossar erklärt im Faktor 2 Downscale, das steckt schon im Prinzip/Definition der 4:2:04:2:0 im Glossar erklärt Farbunterabtastung, dass die Auflösung des Chromasignals horizontal wie vertikal gegenüber der Lumaauflösung halbiert ist.



Antwort von WoWu:


Ok. Also da bis jetzt noch keine wirklich praxisgerechte Anleitung von den Kampfhähnen gekommen ist habe ich mir nun nach dem Sonnenuntergang kurz das Hirn angekurbelt. Ich gehe mal davon aus dass der Legostein oder die Euro-Münze einen PixelPixel im Glossar erklärt des 4k Bildes repräsentieren soll. Ich gehe dabei aber gnädigerweise mal von einer UHD Auflösung (3840 × 2160) aus da ich gerade nicht weiss ob mein C100 Sensor die 4096 PixelPixel im Glossar erklärt in der Breite hat. Der Einfachheit halber nehme ich mal ein 1cm Objekt um den Versuchsaufbau nicht unsinnig gross und die Wege kurz zu halten.

Ich nehme also einen 1cm Legostein und positioniere ihn auf dem Gartenzaun. Anschliessend bewege ich mich 19,4m nach rechts vom Stein und setze dort eine Markierung. Und dann nochmal 19,4m nach links am Zaun entlang für eine erneute Markierung. Anschliessend schnappe ich mir die Kamera mit meiner schärfsten Linse und gehe so weit vom Zaun weg bis die beiden Markierungen exakt an den Rändern des Bildes liegen. Wenn ich nun in der Mitte des Bildes den Legostein erkennen kann löst meine Cam 4k bzw UHD auf. Richtig oder?

Grüsse, Stephan

Jau, so geht das auch



Antwort von Roland Schulz:


Der Trend, was die Auflösung betrifft geht sowieso schon wieder in die andere Richtung :-)

https://motherboard.vice.com/en_us/arti ... ting-again

...finde ich in echt mit 56K(g) echt spannender!



Antwort von Roland Schulz:



Ok. Also da bis jetzt noch keine wirklich praxisgerechte Anleitung von den Kampfhähnen gekommen ist habe ich mir nun nach dem Sonnenuntergang kurz das Hirn angekurbelt. Ich gehe mal davon aus dass der Legostein oder die Euro-Münze einen PixelPixel im Glossar erklärt des 4k Bildes repräsentieren soll. Ich gehe dabei aber gnädigerweise mal von einer UHD Auflösung (3840 × 2160) aus da ich gerade nicht weiss ob mein C100 Sensor die 4096 PixelPixel im Glossar erklärt in der Breite hat. Der Einfachheit halber nehme ich mal ein 1cm Objekt um den Versuchsaufbau nicht unsinnig gross und die Wege kurz zu halten.

Ich nehme also einen 1cm Legostein und positioniere ihn auf dem Gartenzaun. Anschliessend bewege ich mich 19,4m nach rechts vom Stein und setze dort eine Markierung. Und dann nochmal 19,4m nach links am Zaun entlang für eine erneute Markierung. Anschliessend schnappe ich mir die Kamera mit meiner schärfsten Linse und gehe so weit vom Zaun weg bis die beiden Markierungen exakt an den Rändern des Bildes liegen. Wenn ich nun in der Mitte des Bildes den Legostein erkennen kann löst meine Cam 4k bzw UHD auf. Richtig oder?

Grüsse, Stephan

Jau, so geht das auch

...um 100m zu erreichen müsste ich dann mit nem 200er an der Scheibe ein paar Mal hin- und herfahren?!?!?! Weißt Du eigentlich was so"n Turbo S an Sprit wegmacht?!?!?



Antwort von Roland Schulz:



Ok. Also da bis jetzt noch keine wirklich praxisgerechte Anleitung von den Kampfhähnen gekommen ist habe ich mir nun nach dem Sonnenuntergang kurz das Hirn angekurbelt. Ich gehe mal davon aus dass der Legostein oder die Euro-Münze einen PixelPixel im Glossar erklärt des 4k Bildes repräsentieren soll. Ich gehe dabei aber gnädigerweise mal von einer UHD Auflösung (3840 × 2160) aus da ich gerade nicht weiss ob mein C100 Sensor die 4096 PixelPixel im Glossar erklärt in der Breite hat. Der Einfachheit halber nehme ich mal ein 1cm Objekt um den Versuchsaufbau nicht unsinnig gross und die Wege kurz zu halten.

Ich nehme also einen 1cm Legostein und positioniere ihn auf dem Gartenzaun. Anschliessend bewege ich mich 19,4m nach rechts vom Stein und setze dort eine Markierung. Und dann nochmal 19,4m nach links am Zaun entlang für eine erneute Markierung. Anschliessend schnappe ich mir die Kamera mit meiner schärfsten Linse und gehe so weit vom Zaun weg bis die beiden Markierungen exakt an den Rändern des Bildes liegen. Wenn ich nun in der Mitte des Bildes den Legostein erkennen kann löst meine Cam 4k bzw UHD auf. Richtig oder?

Grüsse, Stephan

Jau, so geht das auch

...um 100m zu erreichen müsste ich dann mit nem Fisheye an der Scheibe ein paar Mal hin- und herfahren?!?!?! Weißt Du eigentlich was so"n Turbo S an Sprit wegmacht?!?!?



Antwort von mediavideo:

@7nic - Zu deinem 4k zu 8k-Kameravergleich:

Ich habe hier eine 8K Kamera, ich habe Material davon vor mir und ich habe einen 4k-Monitor. Ich kann es mir anschauen - und das Material mit dem unserer 4K Kamera vergleichen ...
... Ich kann auch sagen, dass einfach deutlich mehr Details da sind, ohne, dass das Bild schärfer wirkt. ...

Du hast genau das Problem erkannt was ich mit dem Praxistest bzw. EBU/BBC Kameravergleich von Canon 4k und RED 6k belegt habe. Ich nehme mir vielleicht morgen mal die Zeit um das anschaulich zu erklären warum du mehr Details siehst aber das Bild nicht schärfer wirkt. Das ist kein Widerspruch, das ist genau das Problem der 6k/8k-Kameras: Die optische Auflösung steigt nicht mehr an!

@Starshine Pictures - Zum Kameratest mit Kacheln auf ca. 100m

Macht es doch nicht so kompliziert, es ist doch ganz einfach:

1. Nimm Word/LibreOffice oder Excel/LibreTabellenkalkulation und mache ein 6x6 großes Tabellenobjekt.

2. Verändere die Zellengröße so, dass jede Zelle 0.5 x 0.5 cm ist.

Jetzt wird es allerdings wichtig, damit es auch "echt toll" funktioniert - also genau so weiter machen wie es hier steht (Bitte nicht fragen warum).

Jetzt werden die Hintergrundfarben der Zellen gesetzt, entweder 100% ROT oder 100% GRÜN oder 100% BLAU, allerdings genau so:

3. Nimm einen Würfel und würfele: Bei 1,2 nimmst du 100% ROT, bei 3,4 nimmst du 100% GRÜN, bei 5,6 nimmst du 100% BLAU.

4. Z.B. von oben links, zeilenweise - Nach 36 mal würfeln hast du ein buntes 6x6 Farbfeld zu je 0.5 x 0.5 cm

5. Drucke das Blatt 5 mal aus und kontrolliere nochmals die 0.5 x 0.5 cm.

6. Suche eine ca. 20 bzw. 40 Meter breite Wand oder Zaum und hänge den ersten Ausdruck in ca. 1m Höhe in der horizontalen Mitte der Wand bzw. dem Zaun.

7. Je nach Aufnahmeauflösung/Sensorauflösung rechts und links eine Markierung anbringen:
- 4k Aufnahme = 4096x0.5 cm = 2048 cm Gesamtbreite, also 10.24 m nach recht und links von der Mitte
- UHD Aufnahme = 3840x0.5 cm = 1920 cm Gesamtbreite, also 9.60 m nach rechts und links von der Mitte
- andere Auflösungen/RAW-Aufnahme entsprechend ausrechnen (bis 8k reichen dann die ca. 40m)

8. Die BrennweiteBrennweite im Glossar erklärt des Objektives ist jetzt eigentlich egal, denn du schiebst die Kamera mit der eingestellten BrennweiteBrennweite im Glossar erklärt einfach nur bis die Randmarkierungen rechts/links gerade noch im Bild sind. Dann stimmt das genau: ein 0.5 x 0.5 cm Farbfeld ist "so groß wie ein Pixel" bzw. entspricht einem PixelPixel im Glossar erklärt in der Kamera.

9. Im Rechteck des Kamerabildes noch ca. recht oben, ca. rechts unten, ca. links oben und ca. links unten die restlichen 4 Ausdrucke anbringen.

10. Filmaufnahme machen und ein Ergebnisbild hier posten.

11. Jetzt gehe mit der Kamera immer weiter zur Wand/Zaun bis das Videobild qualitativ/optisch genau dem 6x6 Farbfeld entspricht. Messe die Breite des Bildes an der Wand/Zaun. Diese neue Bildbreite im Verhältnis zu der Originalauflösungsbreite ergibt den Auflösungsverlust in % der Kamera. Das Ergebnisbild und die neue Bildbreite hier posten.

Stelle das Text- oder Tabellendokument für alle hier zum Download, dann kann das jeder sehr einfach ausdrucken und selber ausprobieren.

Da vermutlich alle nach der Aufnahme ihre Kamera direkt zum Hersteller/Service zur Reparatur schicken wollen, ein Hinweis:
Ruhig bleiben, es ist alles OK, das passiert auch bei jeder ARRI Alexa 65 - die Kamera ist völlig in Ordnung. Wer bei der Originalauflösungsbreite schon ein "ordentliches Bild" der 6x6 Farbfelder heraus bekommt hat mächtig was falsch gemacht oder "vorsätzlich beschissen" ...

Wenn das einige hier so machen und die Ergebnisse nicht "getürkt" werden, dann nehme ich mir vielleicht auch die Zeit das mal anschaulich zu erklären. Ich hatte den Trugschluss schon mal erwähnt, das wir ähnlich lustig wie das mit der Auflösung ...



Antwort von Jörg:

Wenn man jetzt noch eine tote schwarze Katze, Punkt Mitternacht...;-))



Antwort von WoWu:

Das funktioniert leider nicht, weil die Kameras mittlerweile Linien, Kreise oder Funktionskurven nachrechnen und als Bildergebnis die Errechnung präsentieren.
SMPTE ist genau aus diesem Grund dabei, neue Messmethoden zu entwickeln, die wieder Bilddetails und keine Rechenergebnisse präsentieren.
Testcharts aus dr analogen Welt zeigen nicht mehr die optische sondern die substituierten Bilddetails.
Hier geht es aber darum, echte, optische Bilddetails zu sehen, die keiner fortlaufenden Rechnung entspringen.

Und ich würde mal gar keinen Schwerpunkt auf die Farbe legen. Die Kameras sollen erst mal die Luminanzauflösung bringen, bevor man sich der Farbe widmet.

Wir haben das damals mal mit 1080 gemacht und schon da hat die Kantenschärfung ein x für ein U gemacht.
Kachel und realer Abstand zeigt die Wahrheit und ist deutlich Praxisnäher.



Antwort von mediavideo:

Wowu, nicht fragen warum - hatte ich doch geschrieben. Du hast den Sinn offenbar nicht verstanden - also lass dich überraschen, ich erkläre es dir ja auch vielleicht danach ...

Ist im übrigen genau das was du immer wolltest mit dem Kacheltest, nur hat nicht so bekloppt kompliziert. Dein Test auf 100m wäre OK gewesen, aber der wesentlich elegantere gleichartige Test ist jetzt nicht praktikabel oder sinnvoll ??? - Bitte.

Die Einwände sind doch völliger Quatsch. Nimm eine RAW-Kamera, da kommt genau pro PixelPixel im Glossar erklärt ein Farbhelligkeitswert heraus. Der steht dann auch so ca. 1:1 in den Daten, deswegen ist es RAW. Keine dieser S35-Kameras rechnet irgendwelche Kreise, Linien oder so etwas ins Bild - was soll so was ???



Antwort von WoWu:

Er kann ja mal beides machen.
Bei RAW ist auch die Frage, was da eigentlich als RAW rauskommt denn 1 Luminanzwert pro PixelPixel im Glossar erklärt wäre ja der Idealfall.
Kommt aber eben immer seltener vor.

Aber so oder so wird bei manchem wahrscheinlich die Kinnlade sinken.
Lass Dich mal überraschen, wie groß der Unterschied ist.
Klar rechnen moderne Kameras Kanten nach ... und wie... nicht umsonst haben sie immer besser werdende Algorithmen für die Kantenortsbestimmung.



Antwort von mediavideo:

Die Antwort ist schon besser Wowu - Genau das mit der Kinnlade ist die richtige Therapie für die Kamera-Auflösungsgläubigen ...

...und wenn ich das dann mal korrekt erkläre was da eigentlich alles schief läuft in so einer Bayer-Singlechip-Kamera wird es nochmals bunter.

Beim Nachschärfen gebe ich dir ja völlig recht. Daher vermute ich stark, dass die RED S35-8k-Helium in alle Trickkisten greifen muss (erst Entrauschung dann wieder Schärfung) um dem Nutzer ein rauscharmes und scharfes Originalbild vorzugaukeln.



Antwort von WoWu:

Das mit den Kanten ins Bild rechnen hab ich auch vielleicht ungenügend ausgedrückt, aber da, wo der Kontrast bereits so schwach ist, das die Comparation nicht mehr klappt, greift der Algorithmuns auf den bekannten Verlauf der Linie zurück und beginnt zu schätzen (berechnen) wie der wahrscheinliche Verlauf weiter geht und setzt identische Kontrastpunkte.
So entsteht Kontrast (künstlich höhere MTF) an Stellen, die die Kamera eigentlich gar nicht mehr auflöst.
Deswegen sind solche linear angeordnete Testcharts für mittlerweile jede drittklassig Kamera keine Hürde mehr und zeigen noch Auflösung auf feinsten Strukturen, solange man sie vorhersehen kann (Kreise, Linien und logische Verläufe).
Und das schönste, solche künstlichen Bildpunkte erzeugen keine Moirebildung weil sie erst relativ spät im Bild eingerechnet werden.
Aber es ist eben keine reale Kameraauflösung mehr bei MTF 0%
Aber bei solchem "random" Test (Kachel) kann die Kamera nur zeigen, was sie wirklich sieht.



Antwort von 7nic:


Beim Nachschärfen gebe ich dir ja völlig recht. Daher vermute ich stark, dass die RED S35-8k-Helium in alle Trickkisten greifen muss (erst Entrauschung dann wieder Schärfung) um dem Nutzer ein rauscharmes und scharfes Originalbild vorzugaukeln.

Sehr interessant. Du hast also offensichtlich überhaupt keine Ahnung - aber willst uns hier allen die Welt erklären? Darauf kann ich verzichten...



Antwort von iasi:


Das mit den Kanten ins Bild rechnen hab ich auch vielleicht ungenügend ausgedrückt, aber da, wo der Kontrast bereits so schwach ist, das die Comparation nicht mehr klappt, greift der Algorithmuns auf den bekannten Verlauf der Linie zurück und beginnt zu schätzen (berechnen) wie der wahrscheinliche Verlauf weiter geht und setzt identische Kontrastpunkte.
So entsteht Kontrast (künstlich höhere MTF) an Stellen, die die Kamera eigentlich gar nicht mehr auflöst.
Deswegen sind solche linear angeordnete Testcharts für mittlerweile jede drittklassig Kamera keine Hürde mehr und zeigen noch Auflösung auf feinsten Strukturen, solange man sie vorhersehen kann (Kreise, Linien und logische Verläufe).
Und das schönste, solche künstlichen Bildpunkte erzeugen keine Moirebildung weil sie erst relativ spät im Bild eingerechnet werden.
Aber es ist eben keine reale Kameraauflösung mehr bei MTF 0%
Aber bei solchem "random" Test (Kachel) kann die Kamera nur zeigen, was sie wirklich sieht.

Unterscheidest du jetzt zwischen "gutem" und "schlechten" Rechnen?
Beim Bayer-Sensor wird schon immer das Bild errechnet.
Aber das geschieht - wie du selbst weiter oben sagst - mit immer besser werdenden Algorithmen.
Und: Je breiter die Datenbasis ist, umso besser können dann eben auch die Ergebnisse errechnet werden.

Beim Negativ wechselt von Bild zu Bild nun einmal auch die Kornstruktur und deine Abbildung von realen Bilddetails zerfließt in den 24fps.
Wenn dann auch noch eine Kopie erstellt wird, dann werden deine Kanten bei der Projektion nur noch zu weichen Wolken.
Bei 2k hast du dann derart "große" und klare Kanten, dass sich der Bildeindruck viel eher unterscheidet. Denn: Bei 4k sind diese Kanten feiner und damit "cineastisher", da sie dem Negativeindruck näher kommen.



Antwort von domain:

Das wäre wirklich ein Argument für 4K, obwohl feinere scharfe Kanten meiner Meinung nach eher weniger cineastisch wirken, als vielmehr pseudorealistisch. Außerdem zerfließen die Kanten bei Analogfilmen bei 24 fps nicht, sondern werden durch Integration mehrerer Bilder im Hirn erst so richtig sichtbar.
So nebenbei: Kantenschärfung ist ein alter Hut und ist uns schon von der Analogfotografie her recht vertraut, wenn auch nicht so dramatisch sichtbar wie bei dieser Pseudosolarisation, wo das Negativ während der Entwicklung diffus nachbelichtet wurde

zum Bild https://upload.wikimedia.org/wikipedia/ ... sation.jpg



Antwort von Jan Reiff:


Die Antwort ist schon besser Wowu - Genau das mit der Kinnlade ist die richtige Therapie für die Kamera-Auflösungsgläubigen ...

...und wenn ich das dann mal korrekt erkläre was da eigentlich alles schief läuft in so einer Bayer-Singlechip-Kamera wird es nochmals bunter.

Beim Nachschärfen gebe ich dir ja völlig recht. Daher vermute ich stark, dass die RED S35-8k-Helium in alle Trickkisten greifen muss (erst Entrauschung dann wieder Schärfung) um dem Nutzer ein rauscharmes und scharfes Originalbild vorzugaukeln.

schon die Helium in der Hand gehabt ? Damit gearbeitet ? Anscheinend nein. Aber das ist ja nichts Neues hier.
Schick mir Deine Email ich schicke Dir original frames dann siehst Du endlich mal was von der Trickkiste.



Antwort von Frank Glencairn:

Wenn überhaupt, kann der Test nur mit unkomprimiertem raw funktionieren - jede Form von Komprimierung - also auch die Wavelett von RED schmeißt schon Bildinformationen aus dem Fenster, bei ProResProRes im Glossar erklärt (DCT) und H264, können wir das sowieso komplett vergessen.



Antwort von mediavideo:

@Frank Glencairn - nein, genau darum geht es bei dem Test:
Was kommt aus der Kamera letztendlich für den Konsumenten am Bildschirm für eine optische Auflösung/Qualität heraus.

Was die Kamera mal intern für ein Bild hatte interessiert den Betrachter nicht - hat die Kamera nur hohe Komprimierung, dann ist das auch immer das reale optische Ergebnis für den Konsumenten oder den Cutter. Und dabei kommt sogar noch ein besseres Bild als normal heraus, da bei dem Test keine Bewegung im Bild ist, die noch bei der Komprimierung das Gesamtbild negativ beeinträchtigen würde.

Und schon der Test von 7nic (hier weiter oben von mir zitiert) mit dem 4k und 8k-Kamera-Bildvergleich auf einem 4k-Monitor belegt eindeutig, dass er keinen optischen Schärfe-/Auflösungsunterschied am Bildschirm zwischen einer 4k und 8k-Kamera sieht ...



Antwort von Frank Glencairn:

Dann sollten wir aber auch das lausige H264 oder MPEG2MPEG2 im Glossar erklärt mit Testen, das dann zu Hause am Bildschirm ankommt. :-)



Antwort von mediavideo:

Frank, das mit der Delivery-Kompression kann man in einem zweiten Schritt ruhig anschließen um die Auflösungsdiskussion von Kameras völlig ad absurdum zu führen ...

Mir ging es um das was der Cutter an Qualität/Auflösung aus der Kamera bekommt - also die maximale Kamera-Originalqualität/Auflösung in der Post.



Antwort von 7nic:


Und schon der Test von 7nic (hier weiter oben von mir zitiert) mit dem 4k und 8k-Kamera-Bildvergleich auf einem 4k-Monitor belegt eindeutig, dass er keinen optischen Schärfe-/Auflösungsunterschied am Bildschirm zwischen einer 4k und 8k-Kamera sieht ...

Was schreibst du für einen Quatsch? Natürlich sieht man einen Unterschied. Könntest du bitte auch dieses Fettgedruckte weglassen, dann fällt es mir einfacher deine Beiträge schlicht zu überlesen, dann muss ich mir nicht so oft entsetzt auf die Stirn klopfen.



Antwort von motiongroup:

Bei den Macs kann ich (nicht leider) nicht mitreden, iPad 2 und iPad 3 sind aber schon Welten wenn man sowas mal in der Hand hatte! Den 5K Mac kenne ich nur vom vorbeigehen, da sehe ich keine PixelPixel im Glossar erklärt bei normaler Betrachtung, auf meinem CG276 mit 2560px/h dagegen schon!

Aber sicher ist das in diesem Falle so und auch sichtbar.. das Roland zeigt genau den sweetspot von Frank beschrieben auf.. so du ein Falkenauge hast, nimm dein Ipad3 und führe es an dein Auge heran und Vergleiche den Abstand und dein Sichtfeld ab dem du das gelesene in PixelPixel im Glossar erklärt auflösen kannst oder erahnst.. mir gelingt es nicht mehr aufgrund meiner Weitsichtigkeit mitsamt der Lesebrille ;))

Selbiges ist auch bei iMacs bei ca 90cm Sichtabstand zu bemerken, dass war auch der Grund warum sie in den Stores die 2,5 und die 5k Macs soweit als möglich voneinander weg präsentierten.. der 5k iMac hätte eine Größe ab 34" aufwärts verdient um als adäquater Nachfolger das Must have zu generieren.. das sich Qualität der neunen Bildschirme extrem verbessert haben bleibt dabei unbestritten.. von den 2017 Versionen gar nicht zu reden

Das ganze führt wieder zurück zum Thema Aufzeichnung und da scheiden sich die Geister was auch gut ist..das wir bei 4K aufwärts angelangt sind ist auch unbestritten und das ist auch gut so... das nennt sich innovation



Antwort von iasi:


Das wäre wirklich ein Argument für 4K, obwohl feinere scharfe Kanten meiner Meinung nach eher weniger cineastisch wirken, als vielmehr pseudorealistisch. Außerdem zerfließen die Kanten bei Analogfilmen bei 24 fps nicht, sondern werden durch Integration mehrerer Bilder im Hirn erst so richtig sichtbar.

Bei 24fps erhältst du aber immer noch einen weichen "Fluss". Bei Bayer-Sensoren bekommst du das maximal durch die "Rechenungenauigkeiten", was aber wohl eher nicht vergleichbar ist.
Was viele vei Digital als "zu scharf" sehen, ist das Fehlen dieses Korn-"Flusses" bei 24fps ... bei höheren Bildraten geht diese Weichheit dann auch beim Negativ zunehmend verloren.



Antwort von WoWu:

@IASI

Ich unterscheide gar nicht zwischen gutem und schlechtem Rechnen sondern zwischen optischem und nicht optischem Bilddetails, also ob Feinheiten auch in der Szene vorhanden sind, oder nicht.
Das Betrifft aber nicht nur Objekte sondern auch das Verhalten von Licht, so wie der Mensch es wahrnimmt.
Wird eine Überstrahlung also durch eine Linie einfach weggerechnet oder sieht man das natürliche Lichtverhalten noch, um nur ein Beispiel zu nennen.
Solche Beispiele der Nachteile künstlicher Bildgestaltung könnte man beliebig fortsetzen.
Die Frage ist ohnehin, wann wir über optische Bildauflösung in Kameras gar nicht mehr reden, denn solange immer deutlicher wird, dass optische Bildauflösung sich zukünftig ohnehin in TV Geräten aus bestehendem, gering aufgelösten Material errechnet, das jedes billige Kamera macht und KI Einzug in NLEs und Übertagungen hält, sind solche Überlegungen sowieso obsolet.
Der Paradigmenwechsel von realem Bild zum künstlich entstandenen Bild hat längst stattgefunden.
Interessant ist nur, dass die Diskussion bei 8 und mehr K weiter geht, obwohl der Mensch im natürlichen Umfeld sowieso nur 4K sehen kann.
Aber wenn es 16K braucht, um reale 4K darzustellen, ist das ja ok.
Nur das, was heute 4K heißt, ist nun mal Marketing, auf das ziemlich viele reinfallen.
Nun kommt wahrscheinlich gleich wieder "der Blick aus dem Fenster" von all denen, die Physik noch nicht verstanden haben.
Nur zu....



Antwort von Frank Glencairn:



Bei 24fps erhältst du aber immer noch einen weichen "Fluss". Bei Bayer-Sensoren bekommst du das maximal durch die "Rechenungenauigkeiten", was aber wohl eher nicht vergleichbar ist.
Was viele vei Digital als "zu scharf" sehen, ist das Fehlen dieses Korn-"Flusses" bei 24fps ... bei höheren Bildraten geht diese Weichheit dann auch beim Negativ zunehmend verloren.

Deswegen trauere ich der Digital Aaton immer noch hinterher, die genau deshalb den Sensor bei jedem FrameFrame im Glossar erklärt, nach Zufallsprinzip, um einige PixelPixel im Glossar erklärt bewegt hat, um das zu simulieren. Eigentlich kurios, daß das sonst noch keiner gemacht hat. War ein irrsinig gutes Bild, an das bis heute keine Kamera dran kommt, wenn es um Motion Rendering/Candence (Korn-Fluss) geht.

So sehr ich - was die technischen "auf dem Papier" Aspekte betrifft - bei WoWu bin, ganz ehrlich Leute, unsere Kameras machen heute alle miteinander ein fantastisches Bild. Ob das nun alles "echt" ist, was wir sehen, oder irgendwie hingerechnet - drauf geschissen. Es ist immer noch um Welten beser, als alles was wir bisher hatten. Das Material, das wir heute herstellen können ist exzellent.

Womöglich solltet ihr mal aufhören auf irgendwelche Charts zu starren, und euch sowas wie die dritte Staffel von Fargo ansehen. Was DP Dana Gonzales da abgeliefert hat ist der Hammer - und nach der perversen KompressionKompression im Glossar erklärt von Netflix, spielt es auch keine Rolle mehr, ober er auf ner Alexa gedreht hat, oder auf ner Weapon. Was da womöglich an mehr Bildinhalt drin war, wird sowieso zum Teufel komprimiert, und was ich am Bildschirm sehe ist bestenfalls knapp über DVD Qualität und Auflösung. Egal, sieht trotzdem extrem gut aus, das Gehirn macht das schon.



Antwort von motiongroup:

So sehr ich - was die technischen "auf dem Papier" Aspekte betrifft - bei WoWu bin, ganz ehrlich Leute, unsere Kameras machen heute alle miteinander ein fantastisches Bild. Ob das nun alles "echt" ist, was wir sehen, oder irgendwie hingerechnet - drauf geschissen. Es ist immer noch um Welten beser, als alles was wir bisher hatten. Das Material, das wir heute herstellen können ist exzellent.

Ein wahres Wort...



Antwort von Daniel P Rudin:

Ahh.. jetzt weiss ich endlich warum meine Helium so teuer war.. da eine KI drin welche den Bildinhalt analysiert und das Bild künstlich in 8K nachzeichnet.. Super Sache die RED da macht, weil auf meinem 4K Monitor sieht eine 8K aquirierte Aufnahme tatsächlich besser aus als eine 4K aquirierte..

Schön dass ich nicht der einzige bin dem die Hitze in den Kopf steigt..



Antwort von WoWu:

@Frank
Ich bin da ja völlig bei Dir, dass sich die Bildqualitäten verbessert haben, wenn auch die Darstellung immer weiter von natürlichen Darstellungen abweicht und der Bildgestaltung damit immer weniger Raum gelassen wird.
Das ist eben der Paradigmenwechsel, der stattgefunden hat.
In ein paar Jahrzehnten weiß wahrscheinlich auch keiner mehr, was Lichtbrechung ist und wozu man eine Kamera braucht, wenn man alle Hintergründe doch von Google bezieht.
Aber wir sind uns darin sicher einig, das wir endlich saubere HD Auflösung sehen.
Dass Bilddarstellungen als "besser" oder "schlechter" bezeichnet werden hat eigentlich mehr mit Geschmack zu tun.
Hier ging es aber um den Unterschied der physikalische Auflösung einer Szene und der Übertragung einer bestimmten Pixelmengen und dass dies eben nicht gleich zu setzen ist.
Ansonsten ... an guten Bildern bin ich auch seit 40 Jahren interessiert. Da liegen wir gar nicht auseinander.



Antwort von iasi:



Der Paradigmenwechsel von realem Bild zum künstlich entstandenen Bild hat längst stattgefunden.

Gab es da jemals einen Wechsel?
Das "reale Bild" gab es doch eigentlich nie. Auch nicht beim Negativ.

Du machst es immer nur an der Auflösung fest und ärgerst dich über Zahlenangaben.
Natürlich hast du recht, wenn du sagst, dass man keine 8k-Abbildung der Realität erhält, wenn man einen 8k-Sensor benutzt. Das hast du aber auch bei einem 2k-Sensor, der eben auch kein 2k-Abbild liefert.

Beim Negativ hast du die wechselnde Kornstruktur usw. ... beim Bayer-Sensor das Berechnen der Farbwerte etc ...

Interessant ist nur, dass die Diskussion bei 8 und mehr K weiter geht, obwohl der Mensch im natürlichen Umfeld sowieso nur 4K sehen kann.
Aber wenn es 16K braucht, um reale 4K darzustellen, ist das ja ok.
Nur das, was heute 4K heißt, ist nun mal Marketing, auf das ziemlich viele reinfallen.
Nun kommt wahrscheinlich gleich wieder "der Blick aus dem Fenster" von all denen, die Physik noch nicht verstanden haben.
Nur zu....

Es sind doch die Bildwirkung und der Gestaltungsspielraum, die zählen. Ich will doch gar keine reale Abbildung der Wirklichkeit, die ich eh nie erhalte.
Es geht um die Wirkung eines "Blicks aus dem Fenster".
Es geht um filmsprachliche Mittel, die ich einsetzen kann, um Wirkungen und Aussagen zu transportieren.

Wenn der Hersteller 8k auf seine Kamera schreibt, dann betrachte ich die anderen technischen Daten und kann daraus folgern, dass mir die Kamera mehr Gestaltungsspielraum und eine bestimmte Bildwirkung liefert, als eine 2k-Kamera - oder eben nicht (ein 8k-Telefon-Sensor schafft das natürlich nicht.)

Auch wenn du es immer anzweifelst, aber eine Red 8k-Helium-Aufnahme bietet eben doch nochmal mehr als eine Red 4k-Scarlet-Aufnahme.

Eine Alexa liefert für ein 4k-Endformat eben nicht das beste Ausgangsmaterial - hier sind Kameras mit 4k und mehr eben doch besser geeignet - auch die Alexa65 - und das ist dann eben nicht nur Marketing.



Antwort von WoWu:

Immerhin bist Du schon so weit zu differenzieren, was der Hersteller auf die Kamera schreibt und wie das zu bewerten ist.
Das ist doch ein Fortschritt.
Noch vor ein paar Monaten war das von Dir auch gleichgesetzt.
Ich freue mich ja auch, dass wir endlich bei HD angekommen sind und bei einigen Kameras eben auch einwenig mehr.

Komischerweise machst Du, was die Kameras angeht, wieder den Mengenschnitt und sagst ... mehr PixelPixel im Glossar erklärt = besser.
Ich denke, gerade bei Kameras ist es eine Frage des Geschmackes, ob man steil hochgezogene Kanten vor einem gleißenden Sonnenuntergang besser findet als natürliche Lichtbrechung an der KanteKante im Glossar erklärt, oder nicht. (um bei dem Beispiel zu bleiben)
Das hat mit Pixelmenge nun überhaupt nichts zu tun.
Jedenfalls bei mir nicht.



Antwort von iasi:


Immerhin bist Du schon so weit zu differenzieren, was der Hersteller auf die Kamera schreibt und wie das zu bewerten ist.
Das ist doch ein Fortschritt.
Noch vor ein paar Monaten war das von Dir auch gleichgesetzt.
Ich freue mich ja auch, dass wir endlich bei HD angekommen sind und bei einigen Kameras eben auch einwenig mehr.

Nein - ich hatte nie behauptet, dass eine 4k-Bayer-Kamera am Ende 4k liefert.
Du hingegen reitest immer auf den Zahlen herum. Auch jetzt mit diesem bei HD angekommen.

Komischerweise machst Du, was die Kameras angeht, wieder den Mengenschnitt und sagst ... mehr PixelPixel im Glossar erklärt = besser.

Auch das mache ich nicht. Das wäre mir ebenso viel zu pauschal, wie dein bei HD angekommen.
Ich kann nicht wirklich etwas über die Alexa65 sagen, nehme aber an, dass deren 6k-Material mehr bietet, als das 8k-Helium-Material - du weißt sehr gut weshalb.
Ich sagte auch schon: Ich betrachte immer auch die anderen technischen Daten.

Ich denke, gerade bei Kameras ist es eine Frage des Geschmackes, ob man steil hochgezogene Kanten vor einem gleißenden Sonnenuntergang besser findet als natürliche Lichtbrechung an der KanteKante im Glossar erklärt, oder nicht.
Das hat mit Pixelmenge nun überhauptichts zu tun.
Jedenfalls bei mir nicht.

Schon früher war auch die Auswahl des Negativ-Materials Geschmackssache. Eben weil es keine "natürliche" Abbildung gibt.
Ich habe den Eindruck, dass höhere Pixelzahlen eben gerade bei einem gleißenden Sonnenuntergang hilfreich sein kann - aber mehr k bedeutet nicht automatisch einen schöneren Verlauf in den Lichtern.
Nur: Zu sagen, mehr PixelPixel im Glossar erklärt würde generell nichts bringen, ist eben auch falsch.



Antwort von WoWu:

IASI
Wirf mir doch nicht Zahlenzählerei vor, wenn Du selbst alles mögliche an (Zahlen) 6k ... 8k reflektierst.
HD bemisst sich an Zahlen, nämlich 1920x1080 und Du hältst Dich an dieser Menge übertragener Pixels fest und ich eben an der Menge übertragener Bilddetails.
Im Grunde genommen reflektieren wir beide es nur an Zahlen, mit dem Unterschied, dass Du die Übertragungsmenge meinst, die mir ziemlich wurscht ist, und ich die Bildinhaltsmenge, also die Reproduktion dessen, was ich auch mit dem Auge sehen kann.
Das ist der einzige Unterschied unserer beider Wahrnehmungen.
Und wenn ich jetzt von HD rede, dann sind wir endlich da angekommen, dass wir auch 2K Bildinhalte sehen können.
Um mehr geht es gar nicht.



Antwort von dienstag_01:


IASI
Wirf mir doch nicht Zahlenzählerei vor, wenn Du selbst alles mögliche an (Zahlen) 6k ... 8k reflektierst.
HD bemisst sich an Zahlen, nämlich 1920x1080 und Du hältst Dich an dieser Menge übertragener Pixels fest und ich eben an der Menge übertragener Bilddetails.
Im Grunde genommen reflektieren wir beide es nur an Zahlen, mit dem Unterschied, dass Du die Übertragungsmenge meinst, die mir ziemlich wurscht ist, und ich die Bildinhaltsmenge, also die Reproduktion dessen, was ich auch mit dem Auge sehen kann.
Das ist der einzige Unterschied unserer beider Wahrnehmungen.
Und wenn ich jetzt von HD rede, dann sind wir endlich da angekommen, dass wir auch 2K Bildinhalte sehen können.
Um mehr geht es gar nicht.

Aber errechnete Bildinhalte, keine nativen. Zumindest teilweise ;)



Antwort von WoWu:

Na ja, wenn ich 6 oder mehr K auf gleichbleibenden Fläche brauche, um 2K zu reproduzieren, dann muss eben mehr gerechnet werden und da bleibt dann schon mal die eine oder andere natürliche Darstellung auf der Strecke.
Aber der Mensch zieht die kontrastreiche Darstellung (allgemein) ja sowieso der höheren Gradation vor.

Nicht ohne Grund sind wir mittlerweile beim Mittelformat in der professionellen Videotechnik angekommen.
Das machen die Firmen ja nicht aus Lust und Tollerei.



Antwort von Peppermintpost:



Aber der Mensch zieht die kontrastreiche Darstellung (allgemein) ja sowieso der höheren Gradation vor.

wowu das stimmt nur bedingt, und das kannst du im fernsehen auch beobachten. wenn der mensch (als gruppe) ein bild mit besser/schlechter bewerten soll, dann wählt er das kontrastreichere bild, das stimmt. wenn sich ein mensch (wieder als gruppe) aber mit einem bild identifizieren soll, dann ist das gegenteil der fall. am besten kannst du die entwicklung in der werbung beobachten. diese über scharfen, mega kontrastigen bilder wie wir sie von jahren mal hatten sind inzwischen weitestgehend gestorben. gerade bei image commercials die speziell auf die marke einzahlen und weniger ein produkt verkaufen siehst du das. die bunten super kontrastigen sachen sind entweder für kinder produkte, da gelten andere regeln, oder es sind wirkliche schlechte werbungen, klassisch: "kauf das putzmittel jetzt"



Antwort von WoWu:

Ich denke, das ist nur ein Trend.

Gerade die Werbeondustrie ist das schlechteste Beispiel, weil sie auf jeden fahrenden Zug aufspringt, um sich irgendwie abzuheben.
Ich erinnere nur an die überlauten und hoch komprimierten Töne, um die Werbung herauszuheben.
Schon in den 80 er Jahren hat die ABC eine Netzwerkstudie veröffentlicht, bei der es um die Erhöhung der Zuschauer- Verweildauer auf TV Kanälen ging und zu lauten Ton als kontraproduktiv gezeigt hat und schärfsten davon abgeraten hat.
(Begründung spare ich mir jetzt)
Solche Begründungen der Bildidentifikation kommen mal wieder aus derselben (Werbeecke) um die Besonderheit ihres Produktes (Werbung) zu begründen.
Stell mal zwei Fernseher, einen mit weniger und einen mit mehr Kontrast irgendwo auf und frag jeden X-beliebigen, welches das bessere Bild ist.

Und dass Hamilton-Bilder eine bestimmte Stimmung erzeugen, daran zweifelt ja keiner, aber daraus abzuleiten, dass eine Kamera nun eine ganz bestimmte Stimmung erzeugen müsste, halte ich für weit nach vorn gelehnt.
Mal ganz abgesehen davon, dass man dazu andere Stilmittel als unbedingt den Kamerakopf hat.

Und Thema hier war ja auch die Auflösung von Bildern, und bei vielen Pixels auf wenig Raum bleiben nun eben nur Nachrechnungen und wenig Schatten an Kanten und damit meistens hohe Kontrastwerte.



Antwort von Olaf Kringel:


Ich denke, das ist nur ein Trend.

Gerade die Werbeondustrie ist das schlechteste Beispiel, weil sie auf jeden fahrenden Zug aufspringt, um sich irgendwie abzuheben.

...sehe ich genauso,

denn diese ganze flache farblose Matsche geht nicht nur mir mittlerweile bereits auf den Senkel.

Ich kenne Menschen, die genau deswegen besonders positiv auf klassisch gegradete Werbespots reagieren und denke, die Werbeindustrie checkt das auch irgendwann mal.

Aber wer weiß, evtl. beglückt man uns im nächsten Jahr ja auch mit Graustufen clips (außer für Putzmittel natürlich ;)

Immerhin stammen einige Entscheidungsträger ja bereits aus der Generation YT Smombie und bei denen ist man vor nichts mehr sicher...



Antwort von Peppermintpost:



Stell mal zwei Fernseher, einen mit weniger und einen mit mehr Kontrast irgendwo auf und frag jeden X-beliebigen, welches das bessere Bild ist.

hab ich ja geschrieben im A/B vergleich bewerten menschen das kontrastige bild als das bessere bild. aber welche bedeutung hat das? ahnungslose geben eine technische einschätzung, so what? ahnungslose sind nunmal ahnungslos, daher ist es mir egal. die überwältigende mehrheit der menschen wissen garnicht was die medien mit ihnen machen also warum sollte ich deren einschätzung ernst nehmen.

es ist übrigens keine neue sau die die werbung da durchs dorf treibt, das ist ein trend der vor ca 20 jahren angefangen hat und sich seither nur weiter ausgebreitet hat.

Und Thema hier war ja auch die Auflösung von Bildern, und bei vielen Pixels auf wenig Raum bleiben nun eben nur Nachrechnungen und wenig Schatten an Kanten und damit meistens hohe Kontrastwerte.

eine red ist etwas kontrastiger und mit etwas gesättigteren farben als eine alexa, das stimmt. allerdings ist der unterschied so gering, das das im grading auch leicht ins gegenteil gedreht werden kann, geschieht ja auch oft genug. ausserdem hat die red diverse farb profile die man benutzen kann, also je nach farbprofil kann das ergebniss auch entgegengesetzt ausfallen.

du weist ich brauche 8k so dringend wie ein loch im kopf, diese ganze ultra high res geschichte geht mir monstermässig auf den sack, aber zu sagen das das bild aus ner red irgendwie errechnet und damit schlechter ist als bei ner alexa, sorry, das kann ich nicht nachvollziehen. das deckt sich mit meinen erfahrungen so garnicht. ich finde beide kameras total geil und qualitativ tuen die sich auch nichts.



Antwort von iasi:


IASI
Wirf mir doch nicht Zahlenzählerei vor, wenn Du selbst alles mögliche an (Zahlen) 6k ... 8k reflektierst.

Ich relativiere diese Zahlen - das ist ein großer Unterschied.

HD bemisst sich an Zahlen, nämlich 1920x1080 und Du hältst Dich an dieser Menge übertragener Pixels fest und ich eben an der Menge übertragener Bilddetails.

Im Grunde genommen reflektieren wir beide es nur an Zahlen, mit dem Unterschied, dass Du die Übertragungsmenge meinst, die mir ziemlich wurscht ist, und ich die Bildinhaltsmenge, also die Reproduktion dessen, was ich auch mit dem Auge sehen kann.
Das ist der einzige Unterschied unserer beider Wahrnehmungen.
Und wenn ich jetzt von HD rede, dann sind wir endlich da angekommen, dass wir auch 2K Bildinhalte sehen können.
Um mehr geht es gar nicht.

Genau - ich stelle fest, dass es diese Anzahl von Pixeln sind - nicht mehr.
Du aber versuchst die "Menge übertragener Bilddetails" zu quantifizieren. Und das kannst aufgrund der vielen Variablen eigentlich nur empirisch. Dann aber eben auch immer nur in ganz spezifischen Konstellationen.
Aber du stellst immer bestimmte Werte als allgemeingültige Größe bzw Grenzwerte in den Raum. Und da kann ich eben nicht mitgehen.
Dabei hast du mir bei unseren Diskussionen immer sehr viel Input gegeben und auf viele Aspekte hingewiesen, die ich noch nicht im Blick hatte.
Ich finde, differenziertere Betrachtungsweisen sind viel hilfreicher, als solche pauschalen Behauptungen.
Du musst mich nicht davon überzeugt, dass ein 4k-Bayer-Kamerasystem keine 4k-Bilddetails überträgt - schon das Objektiv wird dies spätestens in den Ecken verhindern. Aber daraus zu folgern, dass 8k keine Vorteile bringen kann, finde ich falsch.

Es ist doch auch keine Marketing-Lüge, wenn ein Hersteller eine Kamera, die 5120x2700 liefert, als 5k-Kamera bezeichnet.
Ein Projektor, der in 4k arbeitet, hat nun einmal die vierfache Auflösung eines 2k-Projektors. Und die Zuschauer stellen einen Unterschied fest. Den zu bemessen, ist eben kaum möglich.



Antwort von WoWu:

@Pepper
Ich will auch gar keine Kamerawertungen vornehmen nur die Ansicht, 8 K sei besser als 4K und erst Recht als 2K ist mindestens genau so windig.
Das ist reine Pixeleuphorie, wie mediainfo es genannt hat.
Nach wie vor ist Bildverarbeitung -oder besser gesagt Bildreproduktion- eine Frage der einzelnen Pixelqualität und des Bearbeitungsbedarfs.
Wenn das soweit geht, dass es dann nur noch eine Rekonstruktion wird, ist sicher eine Grenze der Toleranz erreicht, an der sich viele Amateure, da geb ich Dir Recht, sicher auch nicht reiben, weil kontrastreiche Bilder ziemlich blenden und nur Wenige auf Details achten.
Die Frage ist also, was ist nötig um nach wie vor Bilder zu reproduzieren.
Vielleicht ist ja doch etwas dran, dass Pixelgrössen eher dazu führen, Bilder besser wiedergeben zu können und vielleicht ist ja doch was am Mittelformat.
Wir werden es sehen.
Aber hier ging es ja primär um die Auflösung.

@IASI
Irgendwann werden 5000x2000 (hab die exakten Werte nicht im Kopf) zum Verständnisproblem.
Warum hat denn vor ein paar Jahren die Canon D5Mk2 keiner als 6K Kamera bezeichnet ?
Das wäre dann ja das, was Du meinst.
Vielleicht, weil Canon noch (altmodisch) in Bilddetailsgedacht hat?
Komischerweise hat RED nie in Bilddetails gedacht.
Ein Schelm, der schlechtes dabei denkt.



Antwort von dienstag_01:



IASI
Wirf mir doch nicht Zahlenzählerei vor, wenn Du selbst alles mögliche an (Zahlen) 6k ... 8k reflektierst.

Ich relativiere diese Zahlen - das ist ein großer Unterschied.

HD bemisst sich an Zahlen, nämlich 1920x1080 und Du hältst Dich an dieser Menge übertragener Pixels fest und ich eben an der Menge übertragener Bilddetails.

Im Grunde genommen reflektieren wir beide es nur an Zahlen, mit dem Unterschied, dass Du die Übertragungsmenge meinst, die mir ziemlich wurscht ist, und ich die Bildinhaltsmenge, also die Reproduktion dessen, was ich auch mit dem Auge sehen kann.
Das ist der einzige Unterschied unserer beider Wahrnehmungen.
Und wenn ich jetzt von HD rede, dann sind wir endlich da angekommen, dass wir auch 2K Bildinhalte sehen können.
Um mehr geht es gar nicht.

Genau - ich stelle fest, dass es diese Anzahl von Pixeln sind - nicht mehr.
Du aber versuchst die "Menge übertragener Bilddetails" zu quantifizieren. Und das kannst aufgrund der vielen Variablen eigentlich nur empirisch. Dann aber eben auch immer nur in ganz spezifischen Konstellationen.
Aber du stellst immer bestimmte Werte als allgemeingültige Größe bzw Grenzwerte in den Raum. Und da kann ich eben nicht mitgehen.
Dabei hast du mir bei unseren Diskussionen immer sehr viel Input gegeben und auf viele Aspekte hingewiesen, die ich noch nicht im Blick hatte.
Ich finde, differenziertere Betrachtungsweisen sind viel hilfreicher, als solche pauschalen Behauptungen.
Du musst mich nicht davon überzeugt, dass ein 4k-Bayer-Kamerasystem keine 4k-Bilddetails überträgt - schon das Objektiv wird dies spätestens in den Ecken verhindern. Aber daraus zu folgern, dass 8k keine Vorteile bringen kann, finde ich falsch.

Es ist doch auch keine Marketing-Lüge, wenn ein Hersteller eine Kamera, die 5120x2700 liefert, als 5k-Kamera bezeichnet.
Ein Projektor, der in 4k arbeitet, hat nun einmal die vierfache Auflösung eines 2k-Projektors. Und die Zuschauer stellen einen Unterschied fest. Den zu bemessen, ist eben kaum möglich.

Iasi, schau dir nochmal das Interview an, um das sich der Thread dreht. Dort kommt nicht vor, dass es keine hohen Auflösungen gibt, sondern... - Hier kannst du deine Antwort einfügen. Manchmal muss man einfach Aussagen aufschreiben, dann versteht man sie auch ;)



Antwort von iasi:



Ich will auch gar keine Kamerawertungen vornehmen nur die Ansicht, 8 K sei besser als 4K und erst Recht als 2K ist mindestens genau so windig.
Das ist reine Pixeleuphorie, wie mediainfo es genannt hat.

Umgekehrt ist die Ansicht, 8k würde im Vergleich zu 4k und erst Recht zu 2k generell nichts bringen genau so windig.
Das ist dann reine Pixelphobie.



Antwort von Frank Glencairn:



Es geht um die Wirkung eines "Blicks aus dem Fenster".
Es geht um filmsprachliche Mittel, die ich einsetzen kann, um Wirkungen und Aussagen zu transportieren.

Der "Blick aus dem Fenster" ist so ziemlich das Gegenteil eines filmsprachlichen Mittels.

Das letzte was man will, wenn man einen Film sieht, ist ein realistisches Bild - hat man ja gesehen, was das beim Hobbit für ein Desaster war, wenn man bei Gandalf die Kontaktlinsen sieht, und die angeklebten falschen Zwergennasen, wie angeklebte falsche Zwergennasen aussehen.



Antwort von iasi:



Iasi, schau dir nochmal das Interview an, um das sich der Thread dreht. Dort kommt nicht vor, dass es keine hohen Auflösungen gibt, sondern... - Hier kannst du deine Antwort einfügen. Manchmal muss man einfach Aussagen aufschreiben, dann versteht man sie auch ;)

Oh doch - es geht in diesem Thread doch wieder einmal genau darum: Hohe Auflösung bringt nichts!



Antwort von iasi:



Es geht um die Wirkung eines "Blicks aus dem Fenster".
Es geht um filmsprachliche Mittel, die ich einsetzen kann, um Wirkungen und Aussagen zu transportieren.

Der "Blick aus dem Fenster" ist so ziemlich das Gegenteil eines filmsprachlichen Mittels.

Das letzte was man will, wenn man einen Film sieht, ist ein realistisches Bild - hat man ja gesehen, was das beim Hobbit für ein Desaster war, wenn man bei Gandalf die Kontaktlinsen sieht, und die angeklebten falschen Zwergennasen, wie angeklebte falsche Zwergennasen aussehen.

Der "Blick aus dem Fenster" ist doch in der Wirkung genau der, der sich eben nicht ins Bewußtsein drängt.



Antwort von WoWu:

"Oh doch - es geht in diesem Thread doch wieder einmal genau darum: Hohe Auflösung bringt nichts!"

Du verwechselst wieder Pixelmengen mit Detailauflösung.
Dein altes Verständnisproblem.



Antwort von Olaf Kringel:


hab ich ja geschrieben im A/B vergleich bewerten menschen das kontrastige bild als das bessere bild.

...richtig, alter Trick von TV Verkäufern :)

aber welche bedeutung hat das?

...ganz einfach, das man "Lust" auf das Produkt bekommt, denn dazu ist Werbung nun mal da:



ahnungslose sind nunmal ahnungslos, daher ist es mir egal

Nunja, ich würde die Produktionsfirma für die Ferrero Spots jetzt nicht unbedingt als "ahnungslos" bezeichen, aber jeder wie er mag.



Antwort von motiongroup:

Jetzt wäre es dann fast an der Zeit wenn die Protagonisten hier im Fred eigene Aussagekräftige Beispiele bringen würden .... der Jan hat das schon mal gemacht.. die ganze ownCloud featurittis mach das mittlerweile ohne wenn und aber möglich..



Antwort von Peppermintpost:


@Pepper
Ich will auch gar keine Kamerawertungen vornehmen nur die Ansicht, 8 K sei besser als 4K und erst Recht als 2K ist mindestens genau so windig.

stimmt

Das ist reine Pixeleuphorie, wie mediainfo es genannt hat.

hat mediainfo gut auf den punkt gebracht

Nach wie vor ist Bildverarbeitung -oder besser gesagt Bildreproduktion- eine Frage der einzelnen Pixelqualität und des Bearbeitungsbedarfs.

tja, und genau da scheiden sich doch die geister. heutige kameras sind viel zu dicht bei einander, aber schau doch mal ein paar jahre zurück in die Film und DigibetaDigibeta im Glossar erklärt zeit. was hat eine präziesere reproduktion? also was pixel auflösung angeht, da ist film deutlich besser gewesen als digibeta, was farbwiedergabe angeht da ist digibeta zweifelsfrei besser, dynamic range, da ist film besser da kann man bestimmt noch 100 weitere pro/contra argumente bringen, aber was dabei abhanden geht ist sich einfach mal das footage anzusehen, also ohne messinstrumente. film und digibeta haben halt total unterschiedlich ausgesehen, vollkommen abseits von jeder technischen diskussion über vor und nachteile.

jetzt sollte man erwarten das alle film viel besser fanden, aber auch das war nicht generell so. gerade von den technisch halbwissenden kenne ich jede menge die bigi beta total geil fanden und film total kotzig.

Boyle sagt im interview, das bei heutigen digital kameras ja sowieso jeder erst mal einen soft filter benutzt damit das bild erträglich wird. genau da liegt der der hund begraben. klar wer einen soft filter benutzt, dem ist auflösung egal, weil der filter ja die ganze wunderbare auflösung sowieso klein schreddert. da hat er recht, und da ich auch auf so einen look stehe sehe ich das auch genau so wie er, highres ist schwachsinn.

aber ich muss natürlich auch zur kenntniss nehmen, das es menschen gibt die das anders sehen und am liebsten 4k - stereo - 120fps machen wollen. denen geht es am a**** vorbei ob das gerechnet ist oder nicht, hauptsache es ist so scharf das einem das blut aus den augen spritzt. ja ok. so what? sollen die doch ihre filme machen, die zuschauer stimmen mit den füssen ab.

ich schaue weiterhin Scorsese und die anderen sollen halt Michael Bay gucken, kann mir doch egal sein.



Antwort von Peppermintpost:



Nunja, ich würde die Produktionsfirma für die Ferrero Spots jetzt nicht unbedingt als "ahnungslos" bezeichen, aber jeder wie er mag.

ne die produktionsfirma (ich glaube das ist markenfilm oder?) würde ich auch nicht als ahnungslos bezeichnen, die setzten ja nur um was die agentur will, und aleine um die wünsche eines anderen auf den punkt zu treffen zeigt ja schon das da kompetenz vorhanden ist. der spot selbst sieht aber aus wie werbung vor 20 jahren und das lockt heute keinen mehr hinter dem ofen hervor. da ist von der agentur halt einfach ein epic fail.



Antwort von Olaf Kringel:



Nunja, ich würde die Produktionsfirma für die Ferrero Spots jetzt nicht unbedingt als "ahnungslos" bezeichen, aber jeder wie er mag.

ne die produktionsfirma (ich glaube das ist markenfilm oder?) würde ich auch nicht als ahnungslos bezeichnen, die setzten ja nur um was die agentur will, und aleine um die wünsche eines anderen auf den punkt zu treffen zeigt ja schon das da kompetenz vorhanden ist. der spot selbst sieht aber aus wie werbung vor 20 jahren und das lockt heute keinen mehr hinter dem ofen hervor. da ist von der agentur halt einfach ein epic fail.

...da gehen die Empfindungen, was die Wirkung betrifft halt deutlich ausseinander.

Ein Epic fail wäre es m.M.n gewesen, diesen Spot flat zu graden denn das macht irgendwie keine gute Laune... wäre auch irgendwie schade um den schönen Karibikflair des Spots.

Für Hakle z.B. würde vermutlich auch ein flacher look funktionieren, da man im Anwendungsfall eh grade nicht von der Karibik träumt aber auch die mögens lieber bunt:



Mann wird halt sehen, in welche Richtung sich das entwickelt.



Antwort von iasi:



Du verwechselst wieder Pixelmengen mit Detailauflösung.
Dein altes Verständnisproblem.

Ich sag"s ja - immer dasselbe Lied.

Oben schreibe ich zwar ausführlich, dass Pixelmenge und Detailauflösung nicht dasselbe sind, aber du kommst mir wieder mit so etwas.

Was bringt uns das - mal abgesehen davon, dass du dich schlauer fühlst?



Antwort von Funless:


ich schaue weiterhin Scorsese und die anderen sollen halt Michael Bay gucken, kann mir doch egal sein.

Ich finde das ist eine gute Einstellung.

Letztendlich bringt eine Pauschalisierung doch eh' nix. Jeder arbeitet damit womit er es am liebsten mag, am besten zurecht kommt oder wie's gewünscht wird, bzw. beauftragt wurde. Am Ende des Tages entscheidet eh' das Publikum, respektive der gemeine Verbraucher was gefällt und was nicht und was daraus resultierend erfolgreich ist und was nicht.



Antwort von iasi:



Boyle sagt im interview, das bei heutigen digital kameras ja sowieso jeder erst mal einen soft filter benutzt damit das bild erträglich wird.


ja - das sagt er - und deshalb wird"s stimmen.



Antwort von mediavideo:

@7nic - Zu deinem 4k zu 8k-Kameravergleich - hier auf Seite 4 vom 22. Jun 2017 - 14:57:

Ich habe hier eine 8K Kamera, ich habe Material davon vor mir und ich habe einen 4k-Monitor. Ich kann es mir anschauen - und das Material mit dem unserer 4K Kamera vergleichen ...
... Ich kann auch sagen, dass einfach deutlich mehr Details da sind, ohne, dass das Bild schärfer wirkt. ...

Du hast genau das Problem erkannt was ich mit dem Praxistest bzw. EBU/BBC Kameravergleich von Canon 4k und RED 6k belegt habe. Warum du "mehr Details" siehst aber das Bild nicht schärfer wirkt ist kein Widerspruch, das ist genau das Problem der 6k/8k-Kameras: Die optische Auflösung steigt nicht mehr an!

Hier die versprochene Erläuterung:

7nic bemerkt also "mehr Details" im 8k-Bild allerdings kann er keine höhere Schärfe bzw. Auflösung als im 4k-Bild erkennen. Klingt wie ein Widerspruch, ist es aber nicht.
Schauen wir dazu auf ein anschauliches Beispiel:
(um es einfacher zu machen mit 0-255 schwarz/weiß Werten bzw. Sensor und wir betrachten nur einen Teil einer Bildzeile)

1. Wir haben im Original eine "unendliche" Auflösung und z.B einen Helligkeitssprung zwischen zwei Flächen. Dazu die 0-255 schwarz/weiß Werte aus dem Teil einer Zeile:
... 250 250 250 250 250 250 90 90 90 90 90 90 ...

2. Wir müssen leider ein Objektiv verwenden und das ist niemals ideal, sondern "verschleift" das Signal bzw. begrenzt die Auflösung, sagen wir genau auf 4k bei S35 Breite. Ergibt nach dem Objektiv dann in etwa so etwas:
... 250 250 240 220 200 180 160 140 120 100 90 90 ...

3. Wir tasten das Bild mit einem idealen S35-4k-Sensor ab und erhalten:
... 250 250 240 220 200 180 160 140 120 100 90 90 ...

Wenn wir aber jetzt mit einem S35-8k-Sensor abtasten würden, dann erhalten wir auch die Zwischenwerte, die in 4k "nicht gesehen" werden, also doppelt so viele Werte mit den dann interpolierten Zwischenwerten, ungefähr so:
... 250 250 250 250 240 230 220 210 200 190 180 170 160 150 140 130 120 110 100 90 90 90 90 90 ...

Als normaler Betrachter hat man den Eindruck, dass "mehr Details" im 8k-Bild sein müssen, da man ja mehr verschiedene Werte sieht.
Das ist leider falsch - denn es ist das gleiche Bild in der gleichen optischen Auflösung von 4k.

Genau das ist der "mehr Details" aber gleiche Schärfe Effekt, den 7nic beschreibt:
- Er erkennt die gleiche Schärfe (Auflösung) in der 4k- und der 8k-Aufnahme
- Trotzdem unterscheiden sich die 4k- und die 8k-Abtastung von der Wertevielfalt ("mehr Details") deutlich

- Und/Oder: Deine "mehr Details" kann aber auch einfach das zwangsweise etwas hörere Rauschen im 8k-Bild sein, dass man als Änderungen wahrnimmt.

- Und/Oder: Der 8k-Kamerahersteller greift in die "digitale Trickkiste" und entrauscht erst und schärft danach wieder um ein rauscharmes und scharfes Bild vorzugaukeln. Dabei entsteht ein neues Bild, dass dem Original sehr ähnelt, nur in vielen Details nicht mehr. Das Vorgehen halte ich sogar für sehr realistisch.

Um das nochmals an dem Praxisbeispiel-Vergleich zu zeigen:

Nachfolgende Tests sind alle von Alan Roberts von der BBC für die EBU (European Broadcasting Union) gemacht worden. Alan Roberts ist sehr erfahren und macht vergleichbare Tests zur Qualitätsbegutachtung von High-End-Kameras schon seit mehr als 15 Jahren für die BBC. Das ist ein echt unabhängiger Vergleich verschiedenster Kameras nach vergleichbaren Testbedingungen nach der Tech-3335 Norm.

4k-S35-Kamera Canon C300 Mark II im unabhängigen Tech-3335 EBU/BBC-Test:
https://tech.ebu.ch/docs/tech/tech3335_s18.pdf
ca. 85% von UHD-Sensor-Readout - Gemessene optische maximale Auflösung: 3300x1750 (siehe 3.3.1 Resolution for 4k - auf Seite 14 -> vom 4k/UHD-Sensor-Readout)

6k-S35-Kamera RED-Dragon im unabhängigen Tech-3335 EBU/BBC-Test:
https://tech.ebu.ch/docs/tech/tech3335_s16.pdf
ca. 60% von 6k-Sensor-Readout - Gemessene optische maximale Auflösung: 3400x1900 (siehe 1. Resolution for 4k - Seite 2 -> 6k mode readout)

8k-S35-Kamera (z.B. RED S35-8k-Helium) in einer realistischen Abschätzung bzw. im 7nic Praxisvergleich:
Bei 6k braucht man schon Linsen von etwa 220 Linen/mm (6144/28 = ca. 220). 200 Linen/mm ist das Maximum und das schaffen nur die Zeiss Master Primes Festbrennweiten für über 20000.- Euro je Einzelobjektiv. Bei 8k braucht man ca. 300 Linen/mm - da gibt es keine Objektive mehr am Markt um die PixelPixel im Glossar erklärt qualitativ korrekt "zu belichten". Das dürfte eine zusätzliche Qualitäts-/Auflösungseinbuße bedeuten.
Im realen Betrieb kommt auch noch eine Mindestkompression von ca. 1:6 dazu um auf maximal 300 MB/sMB/s im Glossar erklärt zu den RED-Mini-Mags (SSD"s) runter zu kommen. Das kostet auch mal reichlich Details/Auflösung.
Dazu muss man sehen, dass von 4k nach 8k zusätzlich fast 25% Sensor zu Realauflösung fehlen, da wird es von 6k zu 8k bestimmt auf ca. 40-45% runter gehen. Das wären maximal eine ca. 3600er Auflösung.
Da 7nic schon optisch keinen Schärfeunterschied von 4k nach 8k erkennen kann dürfte ein S35-8k-Sensor vielleicht nur noch bei einer ca. 3500er Auflösung liegen, sonst sähe man einen Schärfeunterschied.
Von dem rechnerisch 6k zu 8k sinkenden Dynamikumfang bzw. höheren Rauschwerten mal ganz abgesehen.

Daher will ja RED auch seit Jahren den schon angedachten größeren VistaVision Sensor mit 8k - das scheint bisher nicht sinnvoll zu klappen, bzw. gibt es dort kaum Cine-Linsen und maximal 300 MB/sMB/s im Glossar erklärt zu den RED-Mini-Mags sind da ein Witz ... - also dreht man den Kunden eine S35-8k-Kamera mit all den beschriebenen gravierenden Nachteilen an.

Wie das Geoff Boyle sieht ist es doch genau richtig:
2k-Delivery - reicht für alles
4k-S35-Kamera - maximal für etwas Spielraum in der Post für 2k-Delivery nötig
6k-S35-Kamera - nicht sinnvoll, zu teuer und mit dann zu hohen Datenraten ohne sichtbaren Qualitätsgewinn, ...
8k-S35-Kamera - absoluter Schwachsinn, zu teuer und schon wegen der extrem hohen Datenraten ohne sichtbaren Qualitätsgewinn, ...

Alle anderen Hersteller bringen aktuell nur maximal 4.5k-S35-Kameras, obwohl Canon, Sony und Panasonic technologisch sicher auch 8k-S35 bauen könnten. Canon hat die 8k-S35 in 2015 vorgestellt und macht nun nur die 4.5k-S35 C700 - warum wohl? - Die wollen die maximale optische Qualität. Und die scheint bei 4 bis 4.5k zu liegen, darüber sinkt die optische Qualität wieder!

Wer IMAX, ... macht der braucht natürlich was vernünftiges mit maximaler bzw. weit über 4k optischer Auflösung:
ARRI Alexa 65 mit vermutlich echter 5000-5500er Auflösung



Antwort von dienstag_01:

Letztendlich sagt uns Boyle nur, dass für das Filmemachen Auflösung eine ehr untergeordnete Rolle spielt, vielmehr geht es um ästhetische Entscheidungen.
Aber man kann natürlich auch mit dem Unwichtigsten zuerst anfangen ;)



Antwort von Funless:


Letztendlich sagt uns Boyle nur, dass für das Filmemachen Auflösung eine ehr untergeordnete Rolle spielt, vielmehr geht es um ästhetische Entscheidungen.

So habe ich die Aussage von Boyle auch verstanden.



Antwort von WoWu:

Dar wendet er aber für die Auflösungserklärung ziemlich viel Zeit auf.
Das hätte er auch in wenigen Worten machen können.



Antwort von Funless:

Das hätte er wohl. Doch es gibt Menschen für die der Weg das Ziel ist und vielleicht gehört Boyle auch dazu.



Antwort von dienstag_01:


Dar wendet er aber für die Auflösungserklärung ziemlich viel Zeit auf.
Das hätte er auch in wenigen Worten machen können.

In dieser Zeit erklärt er den Bayer Sensor.
Und zuckt mit den Schultern.



Antwort von 7nic:


@7nic - Zu deinem 4k zu 8k-Kameravergleich - hier auf Seite 4 vom 22. Jun 2017 - 14:57:

Ich habe hier eine 8K Kamera, ich habe Material davon vor mir und ich habe einen 4k-Monitor. Ich kann es mir anschauen - und das Material mit dem unserer 4K Kamera vergleichen ...
... Ich kann auch sagen, dass einfach deutlich mehr Details da sind, ohne, dass das Bild schärfer wirkt. ...

Du hast genau das Problem erkannt was ich mit dem Praxistest bzw. EBU/BBC Kameravergleich von Canon 4k und RED 6k belegt habe. Warum du "mehr Details" siehst aber das Bild nicht schärfer wirkt ist kein Widerspruch, das ist genau das Problem der 6k/8k-Kameras: Die optische Auflösung steigt nicht mehr an!

Hier die versprochene Erläuterung:

7nic bemerkt also "mehr Details" im 8k-Bild allerdings kann er keine höhere Schärfe bzw. Auflösung als im 4k-Bild erkennen. Klingt wie ein Widerspruch, ist es aber nicht.
Schauen wir dazu auf ein anschauliches Beispiel:
(um es einfacher zu machen mit 0-255 schwarz/weiß Werten bzw. Sensor und wir betrachten nur einen Teil einer Bildzeile)

1. Wir haben im Original eine "unendliche" Auflösung und z.B einen Helligkeitssprung zwischen zwei Flächen. Dazu die 0-255 schwarz/weiß Werte aus dem Teil einer Zeile:
... 250 250 250 250 250 250 90 90 90 90 90 90 ...

2. Wir müssen leider ein Objektiv verwenden und das ist niemals ideal, sondern "verschleift" das Signal bzw. begrenzt die Auflösung, sagen wir genau auf 4k bei S35 Breite. Ergibt nach dem Objektiv dann in etwa so etwas:
... 250 250 240 220 200 180 160 140 120 100 90 90 ...

3. Wir tasten das Bild mit einem idealen S35-4k-Sensor ab und erhalten:
... 250 250 240 220 200 180 160 140 120 100 90 90 ...

Wenn wir aber jetzt mit einem S35-8k-Sensor abtasten würden, dann erhalten wir auch die Zwischenwerte, die in 4k "nicht gesehen" werden, also doppelt so viele Werte mit den dann interpolierten Zwischenwerten, ungefähr so:
... 250 250 250 250 240 230 220 210 200 190 180 170 160 150 140 130 120 110 100 90 90 90 90 90 ...

Als normaler Betrachter hat man den Eindruck, dass "mehr Details" im 8k-Bild sein müssen, da man ja mehr verschiedene Werte sieht.
Das ist leider falsch - denn es ist das gleiche Bild in der gleichen optischen Auflösung von 4k.

Genau das ist der "mehr Details" aber gleiche Schärfe Effekt, den 7nic beschreibt:
- Er erkennt die gleiche Schärfe (Auflösung) in der 4k- und der 8k-Aufnahme
- Trotzdem unterscheiden sich die 4k- und die 8k-Abtastung von der Wertevielfalt ("mehr Details") deutlich

- Und/Oder: Deine "mehr Details" kann aber auch einfach das zwangsweise etwas hörere Rauschen im 8k-Bild sein, dass man als Änderungen wahrnimmt.

- Und/Oder: Der 8k-Kamerahersteller greift in die "digitale Trickkiste" und entrauscht erst und schärft danach wieder um ein rauscharmes und scharfes Bild vorzugaukeln. Dabei entsteht ein neues Bild, dass dem Original sehr ähnelt, nur in vielen Details nicht mehr. Das Vorgehen halte ich sogar für sehr realistisch.

Um das nochmals an dem Praxisbeispiel-Vergleich zu zeigen:

Nachfolgende Tests sind alle von Alan Roberts von der BBC für die EBU (European Broadcasting Union) gemacht worden. Alan Roberts ist sehr erfahren und macht vergleichbare Tests zur Qualitätsbegutachtung von High-End-Kameras schon seit mehr als 15 Jahren für die BBC. Das ist ein echt unabhängiger Vergleich verschiedenster Kameras nach vergleichbaren Testbedingungen nach der Tech-3335 Norm.

4k-S35-Kamera Canon C300 Mark II im unabhängigen Tech-3335 EBU/BBC-Test:
https://tech.ebu.ch/docs/tech/tech3335_s18.pdf
ca. 85% von UHD-Sensor-Readout - Gemessene optische maximale Auflösung: 3300x1750 (siehe 3.3.1 Resolution for 4k - auf Seite 14 -> vom 4k/UHD-Sensor-Readout)

6k-S35-Kamera RED-Dragon im unabhängigen Tech-3335 EBU/BBC-Test:
https://tech.ebu.ch/docs/tech/tech3335_s16.pdf
ca. 60% von 6k-Sensor-Readout - Gemessene optische maximale Auflösung: 3400x1900 (siehe 1. Resolution for 4k - Seite 2 -> 6k mode readout)

8k-S35-Kamera (z.B. RED S35-8k-Helium) in einer realistischen Abschätzung bzw. im 7nic Praxisvergleich:
Bei 6k braucht man schon Linsen von etwa 220 Linen/mm (6144/28 = ca. 220). 200 Linen/mm ist das Maximum und das schaffen nur die Zeiss Master Primes Festbrennweiten für über 20000.- Euro je Einzelobjektiv. Bei 8k braucht man ca. 300 Linen/mm - da gibt es keine Objektive mehr am Markt um die PixelPixel im Glossar erklärt qualitativ korrekt "zu belichten". Das dürfte eine zusätzliche Qualitäts-/Auflösungseinbuße bedeuten.
Im realen Betrieb kommt auch noch eine Mindestkompression von ca. 1:6 dazu um auf maximal 300 MB/sMB/s im Glossar erklärt zu den RED-Mini-Mags (SSD"s) runter zu kommen. Das kostet auch mal reichlich Details/Auflösung.
Dazu muss man sehen, dass von 4k nach 8k zusätzlich fast 25% Sensor zu Realauflösung fehlen, da wird es von 6k zu 8k bestimmt auf ca. 40-45% runter gehen. Das wären maximal eine ca. 3600er Auflösung.
Da 7nic schon optisch keinen Schärfeunterschied von 4k nach 8k erkennen kann dürfte ein S35-8k-Sensor vielleicht nur noch bei einer ca. 3500er Auflösung liegen, sonst sähe man einen Schärfeunterschied.
Von dem rechnerisch 6k zu 8k sinkenden Dynamikumfang bzw. höheren Rauschwerten mal ganz abgesehen.

Daher will ja RED auch seit Jahren den schon angedachten größeren VistaVision Sensor mit 8k - das scheint bisher nicht sinnvoll zu klappen, bzw. gibt es dort kaum Cine-Linsen und maximal 300 MB/sMB/s im Glossar erklärt zu den RED-Mini-Mags sind da ein Witz ... - also dreht man den Kunden eine S35-8k-Kamera mit all den beschriebenen gravierenden Nachteilen an.

Wie das Geoff Boyle sieht ist es doch genau richtig:
2k-Delivery - reicht für alles
4k-S35-Kamera - maximal für etwas Spielraum in der Post für 2k-Delivery nötig
6k-S35-Kamera - nicht sinnvoll, zu teuer und mit dann zu hohen Datenraten ohne sichtbaren Qualitätsgewinn, ...
8k-S35-Kamera - absoluter Schwachsinn, zu teuer und schon wegen der extrem hohen Datenraten ohne sichtbaren Qualitätsgewinn, ...

Alle anderen Hersteller bringen aktuell nur maximal 4.5k-S35-Kameras, obwohl Canon, Sony und Panasonic technologisch sicher auch 8k-S35 bauen könnten. Canon hat die 8k-S35 in 2015 vorgestellt und macht nun nur die 4.5k-S35 C700 - warum wohl? - Die wollen die maximale optische Qualität. Und die scheint bei 4 bis 4.5k zu liegen, darüber sinkt die optische Qualität wieder!

Wer IMAX, ... macht der braucht natürlich was vernünftiges mit maximaler bzw. weit über 4k optischer Auflösung:
ARRI Alexa 65 mit vermutlich echter 5000-5500er Auflösung

Das ist mit Abstand der dümmste Beitrag, den du hättest formulieren können. Du beziehst dich auf meine Beobachtungen? Dann solltest du zuerst wissen was ich beobachtet habe... statt mir die Worte im Mund herumzudrehen... denn so ziemlich alles was du schreibst, ist falsch. Vergleicht man die 4K Kamera und die 8K Kamera auf Pixelebene, liegen da Welten dazwischen. Du kannst In 8K (Bayer) Objektstrukturen erkennen, die du in 4K (Bayer) noch nichteinmal erahnst. Trotz allem wirkt das 8K Bild in 4K RGBRGB im Glossar erklärt dargestellt nicht überschärft, sondern weicher, plastischer.

Du schreibst so wunderbar
überheblich den größten Mist zusammen. Die Schärfewahrnehmung hat nichts mit der optischen Auflösung zu tun. Sondern mit einer Kontrastanhebung an den Kanten.

Hier unsortiert ein paar deiner Falschaussagen korrigiert:

Die Auflösung von Objektiven wird nicht in Linien pro Millimeter gemessen, sondern in Linienpaaren pro Millimeter. Du brauchst also 100lp/mm um für einen (Red-)S35 6K-Sensor aufzulösen. Und das schafft aber auch jede modernere Optik, wenn du sie auch nur um eine BlendeBlende im Glossar erklärt schließt. Die etwas besseren erreichen das ohne Probleme auch offen. Die von dir benannten Master Primes lösen gar doppelt so hoch auf...

Für den VV gibt es (mittlerweile) eine richtige Fülle an Objektiven.

2K Delivery reicht für alles? Unreflektierte Pauschalaussage. Hast du jemals richtiges 4K RGBRGB im Glossar erklärt angeschaut?

Der Helium rauscht weniger als der Alev III und hat einen vergleichbaren Dynamikbereich. Da kannst du auch noch dein Leben lang schwadronieren, dass das unmöglich sei...

Die Weapon VV funktioniert tadellos, nur die Sensorproduktion kommt nicht hinterher...

Dein EBU-Test ist hierbei doch irrelevant. Die Ergebnisse der RED sind grob aussagenkräftig, da das Bild nur simpel debayert wurde. Auch wenn unklar ist, welche Optik benutzt wurde. 6K Bayer reicht wohl knapp für echte 4K. Mit dem aktuellen, verbesserten Algorithmus von RED dürfte das Ergebnis evtl. etwas besser ausfallen. Dein Canon-Test ist Schwachsinn. Das Bild, das ausgewertet wurde, ist kameraintern doch schon verarbeitet worden, die Kanten wurden erkannt und komplettiert... wo die reale Auflösung der C300 liegt? Mir egal, jedenfalls nicht da, wo sie der Test verortet. Das ist durch den 4K-Bayer-Sensor und den verwendeten OLPF schlicht nicht möglich.

Dein kompletter Anfangsteil ist auch Schwachsinn. Zum Beispiel, weil du von einem Objektiv ausgehst, das maximal 4K an Auflösung liefert... also gehe ich von einem SD Objektiv aus und schlussfolgere daraus, dass HD nicht exisitieren KANN!?

Und nein, RED greift nicht in die "digitale Trickkiste", sie zeichnen schlicht die durch das Blackshading bereinigten komprimierten Sensordaten auf. Ich schreibe ab und an mit Graeme, der sich genau dafür bei RED verantwortlich zeichnet - und er beantwortet immer hilfsbereit meine manchmal naiven Fragen zu dem Thema.

Bitte, bitte höre auf so viele Märchen in diesem Forum zu verbreiten!!!



Antwort von dienstag_01:

Die Auflösung von Objektiven wird nicht in Linien pro Millimeter gemessen, sondern in Linienpaaren pro Millimeter. Du brauchst also 100lp/mm um für einen (Red-)S35 6K-Sensor aufzulösen. Und das schafft aber auch jede modernere Optik, wenn du sie auch nur um eine BlendeBlende im Glossar erklärt schließt. Die etwas besseren erreichen das ohne Probleme auch offen. Die von dir benannten Master Primes lösen gar doppelt so hoch auf...
Oh, oh, oh.
Wenn man von Linienpaaren spricht, bezieht sich das natürlich auf ein Kleinbildäquivalent, also Full FrameFrame im Glossar erklärt, nicht S35.
Daher wird diese Angabe auch in der digitalen Fotografie (+ Video) nicht mehr verwendet.
Bei Kameratests mit ISO Testbildern ist die Angabe Linien/Bildhöhe.
Oh, oh, oh.



Antwort von WoWu:

Da würde ich nicht so drauf rumreiten.
Unterm Strich kommt nämlich dasselbe dabei heraus und ob nun lp/mm oder lines/mm ist auch schnurz egal.
Viel wichtiger ist, welche MTF sie bei welcher Ortsfrequenzen machen, denn die meisten greifen sich einfach den besten Wert aus der Liste und merken gar nicht, dass das bei 10% MTF ist.
Ich hab von den entsprechenden Zeiss Primes leider kein Datenblatt so schnell finden können aber wenn man Test glauben kann, dann liegt der beste Wert bei BlendeBlende im Glossar erklärt 4 mit 70% MTF bei 70 lp/mm und entsprechend schwächer im Randbereich.
Das haut mit den 100lp/mm bei etwa 50%, die man normalerweise als ungefährem Vergleich der Objektive untereinander annimmt, schon hin.
Das würde also grad so passen, kostet aber eben auch 'n Haufen Kohle.

Natürlich macht das Objektiv auch 200 lp/mm nur säuft es mit unter 10% MTF dann bereits ab.
Man muss also immer schauen, mit welcher Zeichnung das Objektiv bei welcher Ortsfrequens noch arbeitet und da schneiden billigere Gläser auch entsprechend schlechter ab.
Die machen dann vielleicht auch noch 200 lp/mm aber nur noch mit 2% MTF, was absolut indiskutabel ist und haben ihre 50% dann bei 60 lp/mm und ihre 70% bei 50 lp/mm. Man darf also nicht nur auf die größte Zahl schauen sondern auf die Performanz.
Alles was unter 10% ist nicht verwertbar.



Antwort von 7nic:


Da würde ich nicht so drauf rumreiten.
Unterm Strich kommt nämlich dasselbe dabei heraus und ob nun lp/mm oder lines/mm ist auch schnurz egal.
Viel wichtiger ist, welche MTF sie bei welcher Ortsfrequenzen machen, denn die meisten greifen sich einfach den besten Wert aus der Liste und merken gar nicht, dass das bei 10% MTF ist.
Ich hab von den entsprechenden Zeiss Primes leider kein Datenblatt so schnell finden können aber wenn man Test glauben kann, dann liegt der beste Wert bei BlendeBlende im Glossar erklärt 4 mit 70% MTF bei 70 lp/mm und entsprechend schwächer im Randbereich.
Das haut mit den 100lp/mm bei etwa 50%, die man normalerweise als ungefährem Vergleich der Objektive untereinander annimmt, schon hin.
Das würde also grad so passen, kostet aber eben auch 'n Haufen Kohle.

Natürlich macht das Objektiv auch 200 lp/mm nur säuft es mit unter 10% MTF dann bereits ab.
Man muss also immer schauen, mit welcher Zeichnung das Objektiv bei welcher Ortsfrequens noch arbeitet und da schneiden billigere Gläser auch entsprechend schlechter ab.
Die machen dann vielleicht auch noch 200 lp/mm aber nur noch mit 2% MTF, was absolut indiskutabel ist und haben ihre 50% dann bei 60 lp/mm und ihre 70% bei 50 lp/mm. Man darf also nicht nur auf die größte Zahl schauen sondern auf die Performanz.
Alles was unter 10% ist nicht verwertbar.

Das ist mir schon klar. Es ging mir aber lediglich darum, dass für den Helium 137 lp/mm ausreichen. Und nicht 300lp/mm notwendig sind.

Aber danke für die genauere Ausführung. :)



Antwort von 7nic:


Oh, oh, oh.
Wenn man von Linienpaaren spricht, bezieht sich das natürlich auf ein Kleinbildäquivalent, also Full FrameFrame im Glossar erklärt, nicht S35.
Daher wird diese Angabe auch in der digitalen Fotografie (+ Video) nicht mehr verwendet.
Bei Kameratests mit ISO Testbildern ist die Angabe Linien/Bildhöhe.
Oh, oh, oh.

Ist doch irrelevant, Die Angabe lp/mm steht ja nicht in Relation zur Sensorgröße.



Antwort von domain:

Am Ende des Ramadans ein Bild aus Mekka, wo es heute ziemlich crowded zugehen wird. Hat nur etwas mehr als die Hälfte einer 2K Auflösung. Reicht doch zu einer eindrücklichen Information über das noch ziemlich leere Gelände. Kriegt man bei 4K einen anderen Eindruck?

zum Bild http://images.derstandard.at/2017/06/23/mekka.jpg



Antwort von iasi:


Letztendlich sagt uns Boyle nur, dass für das Filmemachen Auflösung eine ehr untergeordnete Rolle spielt, vielmehr geht es um ästhetische Entscheidungen.
Aber man kann natürlich auch mit dem Unwichtigsten zuerst anfangen ;)

Banale und eben auch falsche Sprüche.

Eine höhere Auflösung bietet mir nun einmal mehr Gestaltungsspielraum.
Jede Erweiterung meiner Ausdrucksmittel ist wichtig.
Warum will ich denn mehr DR, mehr Auflösung, mehr ... Je größer das "Vokabular" meiner Filmsprache ist, umso größer ist mein kreativer Spielraum, meine Ausdrucksmöglichkeiten.

Boyle kommt mir vor wie ein Handwerker, der neue Ausdrucks- und Gestaltungsmöglichkeiten gar nicht sucht, da er eben so arbeitet, wie er es mal von seinen Meistern gelernt hat.
Dann fehlt aber auch die Reflektion von Aussage, Wirkung und filmsprachlicher Mittel - also fehlt es an Kreativität.

Was wirklich eine untergeordnete Rolle spielt, ist ob die Grashalme auf der Wiese nun eine absolut realitische Wiedergabe sind oder realistisch aussehen.
Wichtig ist, dass man in der Post einen erweiterten Gestaltungsspielraum hat.
Wer sich einzig auf die Arbeitsweise und damit Möglichkeiten von Negativ-Drehs beschränkt, nutzt das, was digitale Technik bietet nicht kreativ und beschränkt sich in seiner ästhetische Entscheidung.



Antwort von Jott:

Zeit, mal wieder über die Japaner herzuziehen:

https://www.nhk.or.jp/corporateinfo/eng ... 160913.pdf



Antwort von iasi:


Am Ende des Ramadans ein Bild aus Mekka, wo es heute ziemlich crowded zugehen wird. Hat nur etwas mehr als die Hälfte einer 2K Auflösung. Reicht doch zu einer eindrücklichen Information über das noch ziemlich leere Gelände. Kriegt man bei 4K einen anderen Eindruck?

zum Bild http://images.derstandard.at/2017/06/23/mekka.jpg

Welche gestalterischen Möglichkeiten bietet dir diese Aufnahme noch?
Welche Wirkung hat sie?

Ich behaupte mal, dass 4k einen anderen Eindruck beim Zuschauer hinterlässt.

Allein schon, dass er sich Bildbereiche näher betrachten kann.
Bei 4k würden eben noch mehr Informationen in dem Bild stecken.
Im Bildviertel rechts oben hat man doch nur noch grobe Pixelhaufen - da sind keine Menschen zu erkennen. Damit reduziert sich alles auf architektonische Strukturen.



Antwort von Jott:

http://www.meta-media.fr/2016/10/28/le- ... en-8k.html

Auf sie mit Gebrüll! :-)



Antwort von WoWu:

@IASI
Ist "Gestaltungsspielraum" nicht auch nur so eine Worthülse, die dem Marketingrepertuar entspringt ?
Definier doch mal und grenz mal ab, was Du mit geringerer Auflösung nicht "gestalten" kannst.
Aber warten wir doch erst mal ab, was Stephans Ergebnisse sind, ob wir nicht wirklich um "rixari de lana caprina" reden und "Gestaltungsspielräume", die sowieso nicht existent sind.



Antwort von iasi:


@IASI
Ist "Gestaltungsspielraum" nicht auch nur so eine Worthülse, die dem Marketingrepertuar entspringt ?
Definier doch mal und grenz mal ab, was Du mit geringerer Auflösung nicht "gestalten" kannst.
Aber warten wir doch erst mal ab, was Stephans Ergebnisse sind, ob wir nicht wirklich um "rixari de lana caprina" reden und "Gestaltungsspielräume", die sowieso nicht existent sind.

Es ist doch recht einfach:
Wenn ich ein Bild mit hoher Auflösung habe, kann ich problemlos auch zu einer niedrigeren kommen. Umgekehrt habe ich jedoch keinelei Spielraum.

Je mehr in einem Bild steckt, umso mehr kann ich nutzen. Dabei sollte es eben mehr bieten, als das, was nachher gezeigt werden soll, eben damit ich Gestaltungsspielraum habe.
Das ist mit DR doch nicht anders. Zeichnung in den Schatten und in den Lichtern lässt mir alle Möglichkeit - wenn"s aber ein Bildbereich ins Schwarz abgesackt ist, dann bleibt"s schwarz.

Nimm das Bild von domain:
Bei höherer Auflösung kann ich eben über Details wie z.B. die einzelnen Personen in der Menge verfügen. So ist"s aber eben nur eine vage Menge.
Zudem kann ich den Zuschauer bei höherer Aufösung auch die einzelnen Bildbereiche erkunden lassen, indem ich das Bild länger stehen lassen. Ich "kann" - also habe ich Gestaltungsspielraum.



Antwort von wolfgang:

Jetzt hat man hier 6 Seiten, und außer dass sich einige wieder lieb haben erfährt man kaum was lesenswertes.

Großartig.

Dabei ist einfach: Reserven zu haben ist gut. Falls man sie eben braucht. Aber die haben eben Grenzen - wie Alles im Leben.

Und heute haben wir mehr an Kamera als noch vor wenigen Jahren. Reicht aber einigen noch immer nicht. Na die warten dann auf 6K oder 8K. Ich will mal das sinnvoll nutzen was heute (ohne zu grobe künstliche Beschneidung) machbar ist. Mit 422 hat man demnach gleich die doppelte Auflösung? Na wohl kaum, zeigt auch die Absurdität auf das nur am debayering aufzuhängen - denn es hat
ja Gründe warum 420 bei Zuseher funktioniert.

Der Rest ist viel zu sehr akademisch.



Antwort von Funless:

Bei sowas kann der Einsatz von 4K (und mehr) aus meiner Sicht nicht schnell genug vonstatten gehen.

https://youtu.be/x6CRrupTAzo

Da macht das auch Sinn.



Antwort von WoWu:

Und das ist eben der große Irrtum denn außer einer größeren Pixelmatrix steckt kein größerer Bildinhalt darin.
Wenn nicht jedes PixelPixel im Glossar erklärt einen individuellen optischen Bildpunkt repräsentiert (und das gilt es in dem Test ja zusehen) ist der Bildinhalt optisch gleich dem einer (z.B.) HD Matrix.
Verkleinert man das Bild ( egal ob ganz oder nur durch einen Chrop) z. B. von 4K auf 2 K, dann verringert sich die Menge der PixelPixel im Glossar erklärt, als auch die Menge der optischen Bildpunkte um Faktor 4.
Aus der Pixelmenge 4K wird dann 2K und aus der Menge der optischen Bildinhalte wird aus HD dann SD.
Solche Bildverkleinerungen gibt es nur im optischen weg, in dem sich die Schärfe positiv verändert.
Auf der Pixelebene gibt es das nicht, weil die PixelPixel im Glossar erklärt nicht kleiner werden sondern gleich groß bleiben und nur die Menge der Pixels sich verändert.

Na, schauen wir doch mal, ob Stephan seinen 1cm Baustein in einem PixelPixel im Glossar erklärt oder in 4Pixels wiederfindet.
Dann wissen wir ja, ob 4K Bildinhalt oder nur 2K Bildinhalt vorhanden ist.



Antwort von Funless:

Das was ich da gepostet habe ist ein zu 100% computergeneriertes Videospiel und kein gefilmtes Motiv.

Und in dieser Branche macht meines Erachtens die Devise "mehr Auflösung bringt mehr Inhalt" durchaus Sinn.

Das war alles was ich mit dem Beispielvideo sagen wollte.



Antwort von WoWu:

Im Computerspiel unbedingt.
Da entspricht ja auch jedes PixelPixel im Glossar erklärt einem Bildinhalt.
Mein Posting war mehr auf den "Gestaltungsspielraum" bezogen, der gar keiner ist.



Antwort von Roland Schulz:

Bei nem Computerspiel bringt jede Auflösung über der einer XBoxOne bzw. PS4 derzeit so gut wie nichts! Warum, weil die allermeisten Spiele mittlerweile für Consolen programmiert und ggf. für den PC abgewandelt werden. In Computerspielen werden Konturen der Polygone etc. durch höhere Auflösungen zwar feiner (weniger "Treppen"), mehr Details kommen aber nicht rein. Bei Video ist das anders, da werden die detaillierteren Inhalte der Szene auch tatsächlich höher aufgelöst als bei geringerer Auflösung.



Antwort von wolfgang:

Und was war bei SD? Richtig, Luminanzinformation (die gibts ja auch!) mit teils geteilten Farbinformationen. Und dann kam HD und es waren entsprechend mehr Informationen. Und bei UHD waren es wieder mehr.

Die Qualitätszunahme ist durchaus erkennbar. Der Rest ist pure Theorie.



Antwort von Funless:

Roland bitte nicht wieder dieselbe Leier um der Leier Willen.

Erst mit der Xbox One X (a.k.a. Scorpio) und der PS4 Pro hält 4K in Videospielen mit mindestens durchgehenden 60 fps ohne Einbrüche der Frames Einzug in die heimischen Glotzen, bei der Xbox One X sogar auch noch HDR. Vorher war das auf den Konsolen nicht ohne weiteres möglich.

Dein Ingenieurswissen in allen Ehren, aber was soll diese andauernde Gegenschießerei?

Oder hast Du neben all Deinen bekannten Talenten auch schon Spiele auf der Unreal4 Engine oder der CryEngine entwickelt?

Schau Dir einfach zum Beispiel die Vergleichsbilder von Rise Of The Tomb Raider auf der PS4 in 1080p1080p im Glossar erklärt und auf der PS4 Pro in 4K an, die Unterschiede sind nicht feinere Kantentreppchen, sondern mehr Details, also Inhalt.

Ansonsten kannst Du dir noch tonnenweise Infos von der E³ zum aktuellen Stand der Dinge im Internet reinziehen, also komm' jetzt mal bitte runter.



Antwort von WoWu:


Und was war bei SD? Richtig, Luminanzinformation (die gibts ja auch!) mit teils geteilten Farbinformationen. Und dann kam HD und es waren entsprechend mehr Informationen. Und bei UHD waren es wieder mehr.

Die Qualitätszunahme ist durchaus erkennbar. Der Rest ist pure Theorie.

Warten wir doch einfach mal ab, was Stephans Test ergibt und sehen dann, wie groß das "Delta" zwischen Theorie und Praxis ist.



Antwort von iasi:


Und das ist eben der große Irrtum denn außer einer größeren Pixelmatrix steckt kein größerer Bildinhalt darin.
Wenn nicht jedes PixelPixel im Glossar erklärt einen individuellen optischen Bildpunkt repräsentiert (und das gilt es in dem Test ja zusehen) ist der Bildinhalt optisch gleich dem einer (z.B.) HD Matrix.
Verkleinert man das Bild ( egal ob ganz oder nur durch einen Chrop) z. B. von 4K auf 2 K, dann verringert sich die Menge der PixelPixel im Glossar erklärt, als auch die Menge der optischen Bildpunkte um Faktor 4.
Aus der Pixelmenge 4K wird dann 2K und aus der Menge der optischen Bildinhalte wird aus HD dann SD.
Solche Bildverkleinerungen gibt es nur im optischen weg, in dem sich die Schärfe positiv verändert.
Auf der Pixelebene gibt es das nicht, weil die PixelPixel im Glossar erklärt nicht kleiner werden sondern gleich groß bleiben und nur die Menge der Pixels sich verändert.

Na, schauen wir doch mal, ob Stephan seinen 1cm Baustein in einem PixelPixel im Glossar erklärt oder in 4Pixels wiederfindet.
Dann wissen wir ja, ob 4K Bildinhalt oder nur 2K Bildinhalt vorhanden ist.

Nun ja - du gehst immer von gleichmäßig verteilten optischen Bildpunkten aus, die genau auf deinen Pixeln liegen. So schematisch betrachtet braucht es dann keine feinere Auflösung durch mehr Pixel. Aber dem ist eben in der Realität nicht so.
Zudem kann ich aus einer größeren Anzahl an Pixeldaten eine genauere Annäherung berechnen - auch was die Farbwerte betrifft.
Ebenso bieten mir feinere Pixelstrukturen eine bessere Basis zur Berechnung geringerer Auflösungen.
Und auch wenn deine Argumentationsweise immer den gegenteiligen Eindruck erweckt, so werden auch bei 2k-Sensoren die Bildpunkte errechnet.

Der Faktor 4 stimmt z.B. schon mal gar nicht, denn wenn nach deiner Theorie in dem 4k-Bild nur 2k Bildinformationen stecken, dann müssten 4 PixelPixel im Glossar erklärt jeweils einen Bildpunkt abbilden. Selbst wenn dies der Fall wäre, könnte aus der genaueren Ab- und Begrenzung ein sehr sauberes 2k Bild errechnet werden.



Antwort von WoWu:

Das ist leider falsch und die typische Milchmädchenrechnung, die so durch die Blogs schwirrt.
Je weniger Pixels und Bildpunkte (wie in Deinem Beispiel angeführt) übereinstimmen, umso geringer sind die Kontrastwerte und umso schlechter werden die sich daraus ergebenden Unterabtastungen bei Bildveränderungen.
Mediainfo hat es oben in seinem Beitrag angerissen.

Es lässt sich auch aus größeren Pixelmengen keine "feinere" Annäherung errechnen, sofern nicht mehr Bildinformation enthalten ist. Ganz im Gegenteil, wenn beieinander liegende PixelPixel im Glossar erklärt gleiche oder ähnliche Werte haben, ist das berechnete Ergebnis entsprechend gröber und die Pixelmenge ist nicht die Basis, sondern die Pixelinhalte, weil die Matrix lediglich mathematisch linear berechnet wird, die Inhaltswerte aber den Inhalt des Zielpixels bestimmen.
Es steigt allerdings der Kontrast, weil vet. vorhandene Nuancen nicht mehr aufgelöst werden.
Du wirfst immer PixelPixel im Glossar erklärt und Inhalt durcheinander, wie ich oben schon sagte.

Es stimmt, auch bei 2K Sensoren geschieht die Berechnung so, nur dass ein 2K Sensor meistens einen individuellen optischen Wert pro PixelPixel im Glossar erklärt repräsentiert (idealerweise).
Selbst das ist noch durch Unterabtastungen eingeschränkt, gegenüber 4K aber entsprechend genauer.

Du vergisst beim Faktor 4 aus 4K nach 2K, da es bereits die zweite Unterabtastungen ist, insofern ist das Resultat vielleicht durch die nochmalige Kantenschärfung etwas kantiger, aber alles Andere als "sauberer".
Aber - ich sag ja immer- wenn man knackige bunte Bilder mag, dann mag man das für ein gutes Bild halten.

Und auch, wenn Du aus einem 4 K cropped oder einzoomst .... Du zoomst dann in die vorhandenen 2K Bildinhalte und selektierst lediglich einen Teil davon, den Du hinterher wieder zum Vollbild aufzoomst.
Du hast also nur noch eine Untermenge von 2K als Ergebnis.
Ein Crop ist immer nur die Teilmenge der Bilddetails, egal wieviele Pixels das sind.
Pixels und Bildauflösung sind zwei paar Schuhe.



Antwort von Roland Schulz:


Roland bitte nicht wieder dieselbe Leier um der Leier Willen.

Erst mit der Xbox One X (a.k.a. Scorpio) und der PS4 Pro hält 4K in Videospielen mit mindestens durchgehenden 60 fps ohne Einbrüche der Frames Einzug in die heimischen Glotzen, bei der Xbox One X sogar auch noch HDR. Vorher war das auf den Konsolen nicht ohne weiteres möglich.

Dein Ingenieurswissen in allen Ehren, aber was soll diese andauernde Gegenschießerei?

Oder hast Du neben all Deinen bekannten Talenten auch schon Spiele auf der Unreal4 Engine oder der CryEngine entwickelt?

Schau Dir einfach zum Beispiel die Vergleichsbilder von Rise Of The Tomb Raider auf der PS4 in 1080p1080p im Glossar erklärt und auf der PS4 Pro in 4K an, die Unterschiede sind nicht feinere Kantentreppchen, sondern mehr Details, also Inhalt.

Ansonsten kannst Du dir noch tonnenweise Infos von der E³ zum aktuellen Stand der Dinge im Internet reinziehen, also komm' jetzt mal bitte runter.

Die Gewinne der 4K Version auf der PS4 Pro sind in Bezug auf Detailszuwachs vergleichsweise klein wie dir auch verschiedene Tests belegen werden, das ist kein Vergleich dazu was UHD Video im Vergleich zu FHD Video leistet.
Du brauchst auf ner Konsole eine unvergleichlich hohe Prozessorleistung um mehr Details/Informationen/Inhalte reinzubringen und diese gleichzeitig noch höher aufzulösen. Faktor 4 brauchst du alleine dafür, die gleichen Inhalte in 4K darzustellen - dann hast du aber noch kein einziges Element mehr gerendert. Merkste selbst das die notwendige Leistungsexplosion bei der gegenständlichen Entwicklung nicht zu erwarten ist, oder?! Da wird sicherlich was kommen, aber zum Zeitpunkt ist der Gewinn an Realismus sehr überschaubar.
UHD Video greift dagegen vorhandene Details aus der Szene ab - die müssen nicht erzeugt/gerendert werden.
Hier muss nur abgetastet und gespeichert werden, vergleichsweise einfaches Spiel.



Antwort von Roland Schulz:

Ich verstehe nicht warum hier einige immer noch nicht einsehen dass UHD Video eindeutig mehr Details wiedergeben kann und es bei nicht völlig verpeilter Technik im Vergleich zu FHD Video auch tut.



Antwort von WoWu:

Quod erat demonstrandum.



Antwort von Funless:



Roland bitte nicht wieder dieselbe Leier um der Leier Willen.

Erst mit der Xbox One X (a.k.a. Scorpio) und der PS4 Pro hält 4K in Videospielen mit mindestens durchgehenden 60 fps ohne Einbrüche der Frames Einzug in die heimischen Glotzen, bei der Xbox One X sogar auch noch HDR. Vorher war das auf den Konsolen nicht ohne weiteres möglich.

Dein Ingenieurswissen in allen Ehren, aber was soll diese andauernde Gegenschießerei?

Oder hast Du neben all Deinen bekannten Talenten auch schon Spiele auf der Unreal4 Engine oder der CryEngine entwickelt?

Schau Dir einfach zum Beispiel die Vergleichsbilder von Rise Of The Tomb Raider auf der PS4 in 1080p1080p im Glossar erklärt und auf der PS4 Pro in 4K an, die Unterschiede sind nicht feinere Kantentreppchen, sondern mehr Details, also Inhalt.

Ansonsten kannst Du dir noch tonnenweise Infos von der E³ zum aktuellen Stand der Dinge im Internet reinziehen, also komm' jetzt mal bitte runter.

Die Gewinne der 4K Version auf der PS4 Pro sind in Bezug auf Detailszuwachs vergleichsweise klein wie dir auch verschiedene Tests belegen werden, das ist kein Vergleich dazu was UHD Video im Vergleich zu FHD Video leistet.
Du brauchst auf ner Konsole eine unvergleichlich hohe Prozessorleistung um mehr Details/Informationen/Inhalte reinzubringen und diese gleichzeitig noch höher aufzulösen. Faktor 4 brauchst du alleine dafür, die gleichen Inhalte in 4K darzustellen - dann hast du aber noch kein einziges Element mehr gerendert. Merkste selbst das die notwendige Leistungsexplosion bei der gegenständlichen Entwicklung nicht zu erwarten ist, oder?! Da wird sicherlich was kommen, aber zum Zeitpunkt ist der Gewinn an Realismus sehr überschaubar.
UHD Video greift dagegen vorhandene Details aus der Szene ab - die müssen nicht erzeugt/gerendert werden.
Hier muss nur abgetastet und gespeichert werden, vergleichsweise einfaches Spiel.

Was zum Teufel laberst du da?

Hast du dir denn überhaupt mal die Tech-Specs der Xbox One X und die Demos der E3 von vorletzter Woche angeschaut oder lässt du wieder einfach nur den allwissenden Ingenieur raushängen? Hast du dir auch nur ein einziges fucking E3-Interview mit den Entwicklern von Codemasters, Ubisoft, Square Enix, Crytek, Microsoft und Sony reingezogen oder mutierst du hier zum Steffen Hensler von slashCAM?

Wenn es dir hier nicht um konstruktiven Austausch, sondern nur darum geht mit Besserwissersprüchen auf Teufel komm' raus Recht zu haben, dann hab' wenigstens soviel cojones das klar und deutlich vorher anzukündigen. Denn dann brauche ich dich und deine Beiträge nicht mehr für voll nehmen und kann meine Zeit und Energie für diejenigen verwenden, die Interesse an einem Austausch haben.



Antwort von Roland Schulz:



Die Gewinne der 4K Version auf der PS4 Pro sind in Bezug auf Detailszuwachs vergleichsweise klein wie dir auch verschiedene Tests belegen werden, das ist kein Vergleich dazu was UHD Video im Vergleich zu FHD Video leistet.
Du brauchst auf ner Konsole eine unvergleichlich hohe Prozessorleistung um mehr Details/Informationen/Inhalte reinzubringen und diese gleichzeitig noch höher aufzulösen. Faktor 4 brauchst du alleine dafür, die gleichen Inhalte in 4K darzustellen - dann hast du aber noch kein einziges Element mehr gerendert. Merkste selbst das die notwendige Leistungsexplosion bei der gegenständlichen Entwicklung nicht zu erwarten ist, oder?! Da wird sicherlich was kommen, aber zum Zeitpunkt ist der Gewinn an Realismus sehr überschaubar.
UHD Video greift dagegen vorhandene Details aus der Szene ab - die müssen nicht erzeugt/gerendert werden.
Hier muss nur abgetastet und gespeichert werden, vergleichsweise einfaches Spiel.

Was zum Teufel laberst du da?

Hast du dir denn überhaupt mal die Tech-Specs der Xbox One X und die Demos der E3 von vorletzter Woche angeschaut oder lässt du wieder einfach nur den allwissenden Ingenieur raushängen? Hast du dir auch nur ein einziges fucking E3-Interview mit den Entwicklern von Codemasters, Ubisoft, Square Enix, Crytek, Microsoft und Sony reingezogen oder mutierst du hier zum Steffen Hensler von slashCAM?

Wenn es dir hier nicht um konstruktiven Austausch, sondern nur darum geht mit Besserwissersprüchen auf Teufel komm' raus Recht zu haben, dann hab' wenigstens soviel cojones das klar und deutlich vorher anzukündigen. Denn dann brauche ich dich und deine Beiträge nicht mehr für voll nehmen und kann meine Zeit und Energie für diejenigen verwenden, die Interesse an einem Austausch haben.

Wir brauchen auf keine Messe rennen - guck Dir einfach Vergleichsscreenshots zwischen PS4 Pro und PS4 im Netz an und lies die Berichte dazu bevor Du hier Konsolen hypst, die irgendwann mal rauskommen und in den Präsentationen an der Hand abzählbares Material zeigen, welches genau für die neue Wunderkiste optimiert wurde. Klar kann das besser sein, klar wird der Fortschritt irgendwann eintreten, wir werden aber nicht in einer Generation die Rechenleistung für die vierfache Auflösung auf den Tisch kriegen UND gleichzeitig Faktor ~16 an Rechenleistung für die erforderliche Anzahl der benötigten Polygone, um auch einen DEUTLICHEN Detailgewinn zu erzielen!! Das GEHT produktpolitisch BERECHTIG UND VERSTÄNDLICH durch keine kaufmännische Abteilung!!
Der Gewinn an Realismus wird in der neuen Generation KLEIN ausfallen, das unterschreib ich Dir!!
Aber jetzt Schluss mit dem Konsolenthema hier...



Antwort von domain:

Also die Fähigkeiten von Bildgeneratoren für professionelle Flugsimulatoren (z.B. beim Rockwell EP-8000 System) sind ja unbestritten, aber im Grunde erreicht der dabei verwendete JVC Kenwood VS2500 Laserhybridprojektor auch nur mit einem Trick 3840x2160 Auflösung, wobei ich vermute, dass hier nur die Pixelmatrix verfeinert aber nicht die Auflösung erhöht wird. Wenn 2K für Lufthansapiloten bei ihren Trockenübungen ausreichen, dann wird mehr wohl auch nicht notwendig sein.

"JVC Visual Systems Division is introducing its new BLU-Escent™ laser hybrid illumination projector technology at I/ITSEC 2014, the leading event for training and simulation.
The DLA-VS2500 and DLA-VS2300 use three, 0.7-inch 1920x1080 D-ILA imagers. The VS2500 comes equipped with JVC’s unique e-shift technology, which shifts the image by 1/2 pixel in the diagonal direction at 120Hz, achieving 3840x2160 precision."




Antwort von Roland Schulz:

Wolfgang, Dein Vorgehen hier kennen die
"mit Durchblick" ja nun zur genüge, selbst wenn Du's selbst siehst glaubst du nicht was du siehst und berufst dich auf irgendwelche Wissenschaftler, die gegenteiliges festgestellt haben - denk da mal drüber nach ob das noch der richtige Weg ist (u.a. DR Auge Thema).
Ich bin es leid hier Versuche zu entwickeln und zehnmal zu erklären, die trotz ihrer Einfachheit anscheinend niemand richtig versteht oder mal nachvollzieht und bestätigt. Ich bin es auch leid die Farbunterabtastung und den Downscale dazu zu erklären - alles ganz EINDEUTIGE Zusammenhänge, bestätigen tut's doch kaum einer - aus Angst vor irgendwas, weiterhin aus Unvermögen 1 und 1 zusammenzählen zu können, meine Erklärung/Darstellung nicht zu bestätigen und meine Arroganz damit nicht zu stützen - ich weiß es nicht.

Weißt Du Wolfgang, mach's Dir selbst!! Wenn die bereits zweimal von mir referenzierten Vergleiche von dpreview in Kolumbien geblockt zu sein scheinen geh in den "Baumarkt" und kauf ne Sony FDR-AX53, die sollte es auch bei euch geben und ist ausreichend. Filme ne Seite Zeitung und verkleinere sukzessiv den Abbildungsmaßstab, bis du den Text der Zeitung nur noch so gerade lesen kannst. Der verfochtene "Wowu-Wunder-Voodoo-Algorithmus" wird es nicht schaffen die Kanten und Linien so nachzurechnen das auf einmal lesbarer und sinnvoller Text (wie im Original) dabei rauskommt!!!
Die Aufnahme skalierst du mit nem NLE auf FHD und du wirst sehen, dass du den Text nun nicht mehr lesen kannst, da zu viele Informationen/Pixel fehlen.
Der Downscale wäre aber maximal das, was ne FHD Kamera liefern könnte -> UHD toppt FHD -> qed

"Ich" mach's diesmal nicht, hab keine Lust mehr Stunden zu verballern mit Testaufbauten und Dokumentation dazu um am Ende wieder keine Bestätigung bzw. nur Unverständnis zu erhalten bzw. das zu zeigen, was die nicht Querulanten hier ohnehin schon wissen.
Wolfgang gib Gas, wir wollen was sehen, in der kommenden Woche!!
Mach's Dir selbst, beweise Du dir dass ne UHD Kamera mehr Auflösung liefert als ne FHD Kamera überhaupt liefern kann.
Etwas selbst zu sehen ist eigentlich die beste Vorgehensweise sich selbst zu überzeugen, wirst Du vielleicht auch irgendwann mal einsehen.

Wenn Du richtig vom Stuhl fallen willst (Delta UHD-FHD) kauf gleich ne a6300/6500 und nen relativ streuungsimmunes SEL50/1.8OSS dazu, kostet alles kein Geld und man kann das Ding sogar in ne Tasche kriegen.
Allein in Bezug auf Auflösung geht die Büchse bezogen auf UHD aber mit jeder 6K RED mit!!

Am Ende wirst Du aber genau das sehen was dpreview bei den verschiedenen Kameras mit den Textfeldern bereits gezeigt hat - da funktioniert spätestens kein Voodoo-Algorithmus mehr!!



Antwort von Roland Schulz:


Also die Fähigkeiten von Bildgeneratoren für professionelle Flugsimulatoren (z.B. beim Rockwell EP-8000 System) sind ja unbestritten, aber im Grunde erreicht der dabei verwendete JVC Kenwood VS2500 Laserhybridprojektor auch nur mit einem Trick 3840x2160 Auflösung, wobei ich vermute, dass hier nur die Pixelmatrix verfeinert aber nicht die Auflösung erhöht wird. Wenn 2K für Lufthansapiloten bei ihren Trockenübungen ausreichen, dann wird mehr wohl auch nicht notwendig sein.

"JVC Visual Systems Division is introducing its new BLU-Escent™ laser hybrid illumination projector technology at I/ITSEC 2014, the leading event for training and simulation.
The DLA-VS2500 and DLA-VS2300 use three, 0.7-inch 1920x1080 D-ILA imagers. The VS2500 comes equipped with JVC’s unique e-shift technology, which shifts the image by 1/2 pixel in the diagonal direction at 120Hz, achieving 3840x2160 precision."


OHNE FRAGE kann ein UHD System mehr "Informationen" darstellen als ein FHD System, habe ich nirgends in Frage gestellt. Es ging aktuell um "gängige" Computerspiele vom MM und Satarn. Da ist der Detailgewinn derzeit geringst bis nicht vorhanden. Da werden überwiegend einfach vorhandene Details/Polygone "feiner" aufgelöst - ein überschaubarer Zugewinn.



Antwort von wolfgang:



Und was war bei SD? Richtig, Luminanzinformation (die gibts ja auch!) mit teils geteilten Farbinformationen. Und dann kam HD und es waren entsprechend mehr Informationen. Und bei UHD waren es wieder mehr.

Die Qualitätszunahme ist durchaus erkennbar. Der Rest ist pure Theorie.

Warten wir doch einfach mal ab, was Stephans Test ergibt und sehen dann, wie groß das "Delta" zwischen Theorie und Praxis ist.

Wozu? DASS die Systeme seit SD über HD hin zu UHD besser geworden sind bestreitet hier hoffentlich keiner. DASS es wie immer Grenzen gibt auch nicht.

Der Sinn der ganzen Diskussion erschließt sich mir daher unverändert nicht.



Antwort von domain:

Ich denke, dass ein permanentes Missverständnis hinsichtlich Auflösungsvermögen von Objektiven im Zusammenhang mit der Modulationsübertragungfunktion besteht. Selbst wenn man sich Diagramme von Zeiss-Primes ansieht, dann reicht das Messfeld nie über 40 Linienpaare hinaus, weil uninteressant und zwar deswegen, weil die Kontrastdifferenz zwischen schwarzen und weißen Linien in mehrfacher Hinsicht unbrauchbar wird. Also mit möglichen 100 oder gar 200 Linienpaaren/mm zu argumentieren ist völlig unrealistisch.
Und darauf bezieht sich WoWu m.E. immer wieder und zwar im Zusammenhang mit Sensorgrößen, ihren Möglichkeiten und Pixelabständen, wobei die auflösungsvermindernden OLPF-Filter noch gar nicht berücksichtigt sind.

zum Bild https://diglloyd.com/articles/Understan ... otated.jpg



Antwort von Roland Schulz:

Ich denke mal der Großteil hier ist sich bewusst dass UHD Video mehr Auflösung/Details liefert als FHD - wir werden aber den Blinden nicht das Sehen beibringen.
Vielleicht sollten wir auch aufhören den ständigen Provokationen aus Drug-Valley weiter Benzin ins Feuer zu kippen, ich denke mit einfacher Ignoranz wird sich das irgendwann von selbst erledigen.
Ich hab's (freundlich und sachlich) versucht, wenn aber Leute nicht mehr an das glauben was sie sehen kann ich auch nichts mehr tun.



Antwort von klusterdegenerierung:

Sagt einer aus Drug-Valley ;-)))



Antwort von dienstag_01:


Ich denke, dass ein permanentes Missverständnis hinsichtlich Auflösungsvermögen von Objektiven im Zusammenhang mit der Modulationsübertragungfunktion besteht. Selbst wenn man sich Diagramme von Zeiss-Primes ansieht, dann reicht das Messfeld nie über 40 Linienpaare hinaus, weil uninteressant und zwar deswegen, weil die Kontrastdifferenz zwischen schwarzen und weißen Linien in mehrfacher Hinsicht unbrauchbar wird. Also mit möglichen 100 oder gar 200 Linienpaaren/mm zu argumentieren ist völlig unrealistisch.
Und darauf bezieht sich WoWu m.E. immer wieder und zwar im Zusammenhang mit Sensorgrößen, ihren Möglichkeiten und Pixelabständen, wobei die auflösungsvermindernden OLPF-Filter noch gar nicht berücksichtigt sind.

zum Bild https://diglloyd.com/articles/Understan ... otated.jpg

Wenn ich mir Tests auf DPreview ansehe, kommt z.B. ein Nikon 24 an einer D810 auf etwas mehr als 150 Linien pro mm (MTF 50). Natürlich nur im Center.
Verstehe das nicht.
Und das Diagramm auch nicht. Was bedeuten die mm?



Antwort von Roland Schulz:

Die mm im Diagramm beziehen sich auf die Position von der Mitte aus gesehen, also zum Bildrand hin, wo die Modulation/Kontrast erwartungsgemäß nachlässt.
Eine EOS 5dsR wird z.B. als 8,7k Kamera sogar noch ins Aliasing getrieben - da kann man dann von immerhin etwas unter 240 Linien/mm ausgehen (Debayering).
Was oft tricky ist ist die Angabe Linien/mm selbst. Einige meinen Linienpaare, andere einzelne Linien, wobei ein LP dann aus zwei Linien besteht und einen Faktor 2 in sich birgt.



Antwort von Funless:



Was zum Teufel laberst du da?

Hast du dir denn überhaupt mal die Tech-Specs der Xbox One X und die Demos der E3 von vorletzter Woche angeschaut oder lässt du wieder einfach nur den allwissenden Ingenieur raushängen? Hast du dir auch nur ein einziges fucking E3-Interview mit den Entwicklern von Codemasters, Ubisoft, Square Enix, Crytek, Microsoft und Sony reingezogen oder mutierst du hier zum Steffen Hensler von slashCAM?

Wenn es dir hier nicht um konstruktiven Austausch, sondern nur darum geht mit Besserwissersprüchen auf Teufel komm' raus Recht zu haben, dann hab' wenigstens soviel cojones das klar und deutlich vorher anzukündigen. Denn dann brauche ich dich und deine Beiträge nicht mehr für voll nehmen und kann meine Zeit und Energie für diejenigen verwenden, die Interesse an einem Austausch haben.

Wir brauchen auf keine Messe rennen - guck Dir einfach Vergleichsscreenshots zwischen PS4 Pro und PS4 im Netz an und lies die Berichte dazu bevor Du hier Konsolen hypst, die irgendwann mal rauskommen und in den Präsentationen an der Hand abzählbares Material zeigen, welches genau für die neue Wunderkiste optimiert wurde. Klar kann das besser sein, klar wird der Fortschritt irgendwann eintreten, wir werden aber nicht in einer Generation die Rechenleistung für die vierfache Auflösung auf den Tisch kriegen UND gleichzeitig Faktor ~16 an Rechenleistung für die erforderliche Anzahl der benötigten Polygone, um auch einen DEUTLICHEN Detailgewinn zu erzielen!! Das GEHT produktpolitisch BERECHTIG UND VERSTÄNDLICH durch keine kaufmännische Abteilung!!
Der Gewinn an Realismus wird in der neuen Generation KLEIN ausfallen, das unterschreib ich Dir!!
Aber jetzt Schluss mit dem Konsolenthema hier...

Alles klar, wie ich mir schon gedacht habe.

Du hast kein Spiel entwickelt und hast auch keinen Plan wie'ne Game Engine funktioniert. Du liest nicht einmal die Beiträge von anderen hier, drehst die Worte wie's dir gefällt und blubberst nur substanzlose heiße Luft.

Schönes Leben noch.



Antwort von dienstag_01:

Die mm im Diagramm beziehen sich auf die Position von der Mitte aus gesehen, also zum Bildrand hin, wo die Modulation/Kontrast erwartungsgemäß nachlässt.
Die Linie mit 21,6 mm für Full FrameFrame im Glossar erklärt hast du gesehen.



Antwort von Roland Schulz:

...bin kein Spieleentwickler - wo habe ich das behauptet???
Zeig doch mal Vergleichsscreenshots die bei der PS4 Pro den Detailzuwachs gegenüber der PS4 zeigen!



Antwort von Funless:

Ich hab's dir oben schon geschrieben welche direkten Vergleichsshots es gibt. Benutz' Google. Und das war nur ein einziges Beispiel, derer gibt es viele. Soviel zum Thema "Beiträge anderer hier richtig lesen".

Und die Xbox One X erscheint nicht "irgendwann", sondern am 7. November 2017 zum Preis von 499,- Euro.

Im Gegensatz zu Dir behaupte ich nicht von alles und jedem Ahnung zu haben und im Gegensatz zu dir sehe ich dieses Forum als Ort zum Austausch. Austausch interessiert dich einen feuchten Scheißdreck.

Und deswegen wie oben bereits geschrieben: schönes Leben noch.



Antwort von Roland Schulz:

...das mit den Erscheinungsdaten kenne ich, HEUTE gibt's das Ding nicht zu kaufen, was morgen kommt... da wird sich sicherlich alles weiterentwickeln. Wann kommt Gran Turismo noch für die PS4 Pro...???

Du hast für "heute" die PS4 Pro gegenüber der PS4 beworben - nochmal, schreib hier nicht viel dummes Zeug, zeig Vergleichsscreenshots, Links davon, irgendwas!! Deine Belletristik und dein schönes Leben interessiert hier keinen.



Antwort von WoWu:

@domain

Du hast da ein chart aus der Abteilung .... "pro pictured hight" erwischt.
In dieser Darstellung wird die Modulation gegenüber der Bildhöhe dargestellt.
Da sich vom optischen Zentrum bis hin zum Bildrand die Abbildungsleistung deutlich verschlechtert, wird diese Kontrastfunktion besonders gerne von Optik-Herstellern benutzt, und zwar in tangentialer Richtung, wie auch sagittaler Richtung zum optischen Zentrum der Linse.

Die Grenzauflösung ist ja immer abhängig vom effektiven Sensormass und der Anzahl der darauf verwendeten Pixels und wird durch die Nyquist-Frequenz beschrieben:

NyquistFrequenz= 1 / ( 2*Pixelgröße)

wobei die Pixelgrösse sich eben wieder aus den effektiven Massen ergibt.



Antwort von Roland Schulz:


NyquistFrequenz= 1 / ( 2*Pixelgröße)

Falsch ;-).



Antwort von WoWu:

Du untermauerst Funless Zweifel an Deiner Fachkompetenz eindrucksvoll.



Antwort von Starshine Pictures:

Hab den Test mal gemacht. Hab einen Pocket ColorChecker benutzt. Die einzelnen Farbfelder sind ungefähr 1x1cm gross. Wenn ich heut Abend aus dem Kino komme (Wonder Woman 3D) lad ich die Screenshots mal hoch. Hab mit angepasstem CLog (Schärfe 0) gefilmt, VerschlusszeitVerschlusszeit im Glossar erklärt auf 1/300 um Bewegungsunschärfe zu verringern da ich kein Stativ dabei hatte. Durch den Sucher konnte ich noch nicht mal den ColorChecker selbst erkennen, geschweige denn die einzelnen Farbfelder. Schauen wir mal wie es sich dann am Rechner darstellt.

Hab den Test in 2 Varianten durchgeführt, HD und UHD. Also einmal mit 40m Breite und einmal mit 20m. Ist schon faszinierend wenn man quasi die Dimensionen eines solchen Sensors im Verhältnis zur Senselgrösse direkt vor Augen hat.



Antwort von WoWu:

Leider hat der Color checker ja wieder eine grösserflächige Symmetrie, die die Kantennachberechnung genügend anregen kann, Details wieder künstlich zu erstellen.
Der wäre gut, für die nachfolgende Farbbeurteilung.
Ein einzelnes Detail wäre für eine Auflösungsbeurteilung besser gewesen,
Aber schauen wir mal, was dabei herauskommt.



Antwort von Roland Schulz:


Du untermauerst Funless Zweifel an Deiner Fachkompetenz eindrucksvoll.

...und in mir wächst die Unsicherheit immer mehr, dass Du a) Ing. geschweige denn b) Dr. Ing. bist, überhaupt mal irgendwas mit Physik zu tun hattest.
Deine Gleichung ist falsch!!



Antwort von WoWu:

Ja, ja ... also klar.



Antwort von Roland Schulz:

...schrumpfen oder wachsen deine Pixel??



Antwort von Roland Schulz:

...unvermögen und hilflos - dieses Elend kann sich doch niemand mehr ansehen.
STOP!! Bitte keine Gartenzäune mehr vermessen und auch keine Einheiten mehr zusammen in die Wäschetrommel werfen, da kommt keine Buntwäsche bei raus sondern physikalischer Nonsense!

Wieviel Hilfestellung braucht man hier noch um zu zeigen, dass UHD Kameras eindeutig mehr auflösen können als FHD Kameras - es wurde doch schon alles mehrfach erklärt und der Weg beschrieben!
UHDvsFHD.jpg
Quelle: https://www.dpreview.com/reviews/sony-alpha-a6500/8
Quelle Screenshot: https://www.dpreview.com/reviews/image- ... 10cd90.jpg

Das Bild (zum vergrößern anklicken) zeigt links einen Ausschnitt eines Screenshots einer UHD Videoaufname einer Sony Alpha 6500, welcher rein zur besseren Darstellung hier auf 200% per Pixelwiederholung vergößert wurde. Auf der rechten Seite wurde der UHD Screenshoot bikubisch (oder was auch immer euch gefällt) um 50% in der Auflösung von UHD 3840x2160 auf FHD 1920x1080 reduziert, zur Herstellung der Größengleichheit folglich auf 400% per Pixelwiederholung skaliert.

Was stellen wir fest? Die UHD Aufnahme zeigt Details (Schrift), welche kein Interpolationsverfahren der Welt aus der FHD Aufnahme hätte wiederherstellen können, da die FHD Aufnahme keine ausreichend hochauflösende Pixelmatrix zur Verfügung stellt.
Der FHD Downscale zeigt das Maximum an Details, welches eine ideale FHD Kamera hätte darstellen können - mehr geht in diesem Abbildungsmaßstab nicht!

Damit ist der Beweis erbracht dass UHD Kameras wie z.B. eine Sony a6500 mehr Details/Auflösung was weiß ich noch alles liefern können als FHD Kameras.
Ich habe fertig.



Antwort von Roland Schulz:

...jetzt bin ich mal auf die Strampelei aus La Vega gespannt ;-)!



Antwort von Roland Schulz:

...schiere Überwältigung und tiefe Ergriffenheit in der Dom. Rep. ;-) ;-) ;-)!!!



Antwort von iasi:


Das ist leider falsch und die typische Milchmädchenrechnung, die so durch die Blogs schwirrt.
Je weniger Pixels und Bildpunkte (wie in Deinem Beispiel angeführt) übereinstimmen, umso geringer sind die Kontrastwerte und umso schlechter werden die sich daraus ergebenden Unterabtastungen bei Bildveränderungen.
Mediainfo hat es oben in seinem Beitrag angerissen.

Es lässt sich auch aus größeren Pixelmengen keine "feinere" Annäherung errechnen, sofern nicht mehr Bildinformation enthalten ist. Ganz im Gegenteil, wenn beieinander liegende PixelPixel im Glossar erklärt gleiche oder ähnliche Werte haben, ist das berechnete Ergebnis entsprechend gröber und die Pixelmenge ist nicht die Basis, sondern die Pixelinhalte, weil die Matrix lediglich mathematisch linear berechnet wird, die Inhaltswerte aber den Inhalt des Zielpixels bestimmen.
Es steigt allerdings der Kontrast, weil vet. vorhandene Nuancen nicht mehr aufgelöst werden.
Du wirfst immer PixelPixel im Glossar erklärt und Inhalt durcheinander, wie ich oben schon sagte.

Es stimmt, auch bei 2K Sensoren geschieht die Berechnung so, nur dass ein 2K Sensor meistens einen individuellen optischen Wert pro PixelPixel im Glossar erklärt repräsentiert (idealerweise).
Selbst das ist noch durch Unterabtastungen eingeschränkt, gegenüber 4K aber entsprechend genauer.

Du vergisst beim Faktor 4 aus 4K nach 2K, da es bereits die zweite Unterabtastungen ist, insofern ist das Resultat vielleicht durch die nochmalige Kantenschärfung etwas kantiger, aber alles Andere als "sauberer".
Aber - ich sag ja immer- wenn man knackige bunte Bilder mag, dann mag man das für ein gutes Bild halten.

Und auch, wenn Du aus einem 4 K cropped oder einzoomst .... Du zoomst dann in die vorhandenen 2K Bildinhalte und selektierst lediglich einen Teil davon, den Du hinterher wieder zum Vollbild aufzoomst.
Du hast also nur noch eine Untermenge von 2K als Ergebnis.
Ein Crop ist immer nur die Teilmenge der Bilddetails, egal wieviele Pixels das sind.
Pixels und Bildauflösung sind zwei paar Schuhe.

Mal theoretisch und schematisch betrachtet:
Wenn ich eine Bildinformation in der Größe eines Pixels eines 2k-Sensors über einen 4k-Sensor lege - wieviele PixelPixel im Glossar erklärt wird dieser wohl abdecken?
Nun verschiebe diesen Bildpunkt leicht um die Größe eines dieser 4k-Pixel. Was du immer als Kantenschärfung bezeichnest, ist eben doch auch Bildinformation. Denn wo nun noch immer dieselbe Pixelzahl bei 4k abgedeckt wird, hast du bei 2k eine Unschärfe durch das Ansprechen zweier benachbarter Pixel.
Es stecken somit eben doch mehr Bildinformationen in 4k als in 2k.
Es ist ähnlich (nicht genauso) dem Negativ, bei dem das Einzelbild weniger Bildinformationen besitzt, als mehrere aufeinanderfolgende Bilder - Stichwort: wechselnde Kornstruktur.

Die von dir immer wieder angeführten 2k Bildinhalt sind ein behaupteter Wert - du berücksichtigst nicht alle Faktoren.



Antwort von iasi:


...unvermögen und hilflos - dieses Elend kann sich doch niemand mehr ansehen.
STOP!! Bitte keine Gartenzäune mehr vermessen und auch keine Einheiten mehr zusammen in die Wäschetrommel werfen, da kommt keine Buntwäsche bei raus sondern physikalischer Nonsense!

Wieviel Hilfestellung braucht man hier noch um zu zeigen, dass UHD Kameras eindeutig mehr auflösen können als FHD Kameras - es wurde doch schon alles mehrfach erklärt und der Weg beschrieben!
UHDvsFHD.jpg
Quelle: https://www.dpreview.com/reviews/sony-alpha-a6500/8
Quelle Screenshot: https://www.dpreview.com/reviews/image- ... 10cd90.jpg

Das Bild (zum vergrößern anklicken) zeigt links einen Ausschnitt eines Screenshots einer UHD Videoaufname einer Sony Alpha 6500, welcher rein zur besseren Darstellung hier auf 200% per Pixelwiederholung vergößert wurde. Auf der rechten Seite wurde der UHD Screenshoot bikubisch (oder was auch immer euch gefällt) um 50% in der Auflösung von UHD 3840x2160 auf FHD 1920x1080 reduziert, zur Herstellung der Größengleichheit folglich auf 400% per Pixelwiederholung skaliert.

Was stellen wir fest? Die UHD Aufnahme zeigt Details (Schrift), welche kein Interpolationsverfahren der Welt aus der FHD Aufnahme hätte wiederherstellen können, da die FHD Aufnahme keine ausreichend hochauflösende Pixelmatrix zur Verfügung stellt.
Der FHD Downscale zeigt das Maximum an Details, welches eine ideale FHD Kamera hätte darstellen können - mehr geht in diesem Abbildungsmaßstab nicht!

Damit ist der Beweis erbracht dass UHD Kameras wie z.B. eine Sony a6500 mehr Details/Auflösung was weiß ich noch alles liefern können als FHD Kameras.
Ich habe fertig.

Das ist aber leider kein Gegenbeweis für WoWus 2k-Bildinformations-These.



Antwort von WoWu:

Du beschreibst grad die Methode des Pixeshift.
Hat man gebraucht, als man noch nicht soviele PixelPixel im Glossar erklärt unterbringen konnte, mit den bekannten Nachteilen.
Ich gehe ja mal davon aus, dass sowohl dasObjektiv, als auch der Sensor 4K kann.
Darum geht es ja und nicht darum, dass davon einem schmalen Bildpunkt 2 Ereignisse ableitest. Dann hast Du nämlich wieder (wie beim Schielen) ein Ereignis auf 2 Pixels gelegt. Es bleibt aber ein Ereignis.
Du gehst in Deiner Denkweise davon aus, das auch das Objektiv die 4-Fache Auflösung von HD hat, weil Du sagst, dass das Bilddetails 4Pixels überstreicht.
Dann muss aber gar nix mehr geshiftet werden, weil dann die Bedingungen für 4K bereits erfüllt sind.
Wie Du es als drehst oder wendest ... 4K sind nur dann 4K Bilddetails, wenn jedes PixelPixel im Glossar erklärt ein Bilddetails enthält. Sonst sind es nur 4K Überttagungswerte, in dem weniger Bilddetails stecken.

Aber warten wir es doch einfach ab, was Stephan da aufgezeichnet hat.



Antwort von iasi:


Du beschreibst grad die Methode des Pixeshift.
Hat man gebraucht, als man noch nicht soviele PixelPixel im Glossar erklärt unterbringen konnte, mit den bekannten Nachteilen.
Ich gehe ja mal davon aus, dass sowohl dasObjektiv, als auch der Sensor 4K kann.
Darum geht es ja und nicht darum, dass davon einem schmalen Bildpunkt 2 Ereignisse ableitest. Dann hast Du nämlich wieder (wie beim Schielen) ein Ereignis auf 2 Pixels gelegt. Es bleibt aber ein Ereignis.
Du gehst in Deiner Denkweise davon aus, das auch das Objektiv die 4-Fache Auflösung von HD hat, weil Du sagst, dass das Bilddetails 4Pixels überstreicht.
Dann muss aber gar nix mehr geshiftet werden, weil dann die Bedingungen für 4K bereits erfüllt sind.
Wie Du es als drehst oder wendest ... 4K sind nur dann 4K Bilddetails, wenn jedes PixelPixel im Glossar erklärt ein Bilddetails enthält. Sonst sind es nur 4K Überttagungswerte, in dem weniger Bilddetails stecken.

Aber warten wir es doch einfach ab, was Stephan da aufgezeichnet hat.

Pixelshift? Nein - genau das meine ich nicht. Im Gegenteil.
Ideal ist eine höhere Sensorauflösung, als das, was das optische System an Auflösung bieten kann. Ist dies nicht der Fall, zerfließen die Kanten - was du als Kantenaufsteilung bei 4k bezeichnest ist doch die Vermeidung diese Zerfließens - es sind echte Bilddetails.

Und: Du bist doch derjenige, der immer davon spricht, dass es nur 2k-Bildinhalte seien.
Ich lese ständig, dass 4k und mehr nichts bringen würden.

Also: Optimal sind mehr PixelPixel im Glossar erklärt als Bilddetails. Auch, weil wir es mit aufeinanderfolgenden Bildern zu tun haben. Beim Negativ wirkt die wechselnde Kornstruktur von Bild zu Bild positiv auf das Auflösungsvermögen - beim Sensor hat man das nicht. Aber man hat Bewegungen - auch minimalste - bei den Bilddetails.



Antwort von Roland Schulz:

...euch ist hier wirklich nicht mehr zu helfen ;-) ;-) ;-)!!!



Antwort von Starshine Pictures:

Ich habe diese Aufnahmen mit der C100mkII gemacht. Die hat einen 4K Sensor, der allerdings wie ein 3-Chip-Gespann ausgelesen wird. Also 4 Sensel Grün/Grün/Rot/Blau werden zu einem PixelPixel im Glossar erklärt zusammen gerechnet der dann 1:1 in die FullHDFullHD im Glossar erklärt Matrix überführt wird. Es wird nicht im klassischen Sinne Debayering betrieben weil nichts dazwischen gerechnet wird. Mann sieht ganz klar dass im Bild mit 4000 cm Breite die 1cm Details des Colorcheckers in der Mitte des Bildes zwischen den Garagengebäuden am Zaunpfahl völlig verschwinden.

4K Auflösungstest.png

Im FullHDFullHD im Glossar erklärt Test mit 2000 cm Breite kann man schon eher erahnen dass da eine Kästchen-Struktur auf dem ColorChecker sein soll.

2K Aufklösungstest.png

Hier stellt sich nun die Frage was an Informationen da gewesen ist bevor der 28 Mbit CodecCodec im Glossar erklärt das RAW aus dem Sensor komprimiert hat. Ausserdem kann man sich die Frage stellen ob vielleicht ein einzelnes farbiges Objekt von 1cm Grösse doch erkennbar gewesen sein könnte, selbst im 4k Test? Denn die Schellenhalterung der Dachrinne die ins Garagengebäude geschraubt wurde ist ebenfalls gut zu erkennen. Und wie dick sind wohl solche Schrauben? Sicher nicht viel dicker als 1cm.



Antwort von dienstag_01:


Ich habe diese Aufnahmen mit der C100mkII gemacht. Die hat einen 4K Sensor, der allerdings wie ein 3-Chip-Gespann ausgelesen wird. Also 4 Sensel Grün/Grün/Rot/Blau werden zu einem PixelPixel im Glossar erklärt zusammen gerechnet der dann 1:1 in die FullHDFullHD im Glossar erklärt Matrix überführt wird. Es wird nicht im klassischen Sinne Debayering betrieben weil nichts dazwischen gerechnet wird. Mann sieht ganz klar dass im Bild mit 4000 cm Breite die 1cm Details des Colorcheckers in der Mitte des Bildes zwischen den Garagengebäuden am Zaunpfahl völlig verschwinden.

4K Auflösungstest.png

Im FullHDFullHD im Glossar erklärt Test mit 2000 cm Breite kann man schon eher erahnen dass da eine Kästchen-Struktur auf dem ColorChecker sein soll.

2K Aufklösungstest.png

Hier stellt sich nun die Frage was an Informationen da gewesen ist bevor der 28 Mbit CodecCodec im Glossar erklärt das RAW aus dem Sensor komprimiert hat. Ausserdem kann man sich die Frage stellen ob vielleicht ein einzelnes farbiges Objekt von 1cm Grösse doch erkennbar gewesen sein könnte, selbst im 4k Test? Denn die Schellenhalterung der Dachrinne die ins Garagengebäude geschraubt wurde ist ebenfalls gut zu erkennen. Und wie dick sind wohl solche Schrauben? Sicher nicht viel dicker als 1cm.

Naja, Schweiz, das zählt doch nicht. Die haben bestimmt nur Zentimeterlis ;)



Antwort von WoWu:

Hallo Stephan,
erst einmal besten Dank für die Mühe und dafür, dass Du einer der Wenigen bist, die einen Teil zur Aufklärung beitragen, obwohl dies Forum an Praktikern doch keinen Mangel hat.
Das Ergebnis dürfte, wie erwartet, etwas Euphorie dämpfen, entspricht aber dem, was wir vor etlichen Jahren auch bei unsern Versuchen von 1080 und 720 an Erfahrungen gemacht haben.
Nicht ohne Grund haben wir uns damals für die 720 in 50 entschieden statt schlechtes 1080, weil solide 720 sich deutlich besser in der Nachbearbeitung zu 1080 haben machen lassen.
Ich denke auch heute ist das so, nur mit dem Offset zu 4K.
Ansonsten sprechen die Bilder für sich.
Ich denke auch, dass man mit etwas weniger KompressionKompression im Glossar erklärt und einiger Nachbearbeitung noch etwas verbessern kann, aber von 4K bleibt man noch eine ganze Ecke weg.
Sicher wird auch ein 6 oder 8 K Sensor uns mit entsprechend guten Objektiven noch näher an 4 K bringen, aber das ist ja auch gar nicht bezweifelt.
Besten Dank nochmals.



Antwort von dienstag_01:

Meinen Spass oben in allen Ehren, ich möchte hier aber auch mal ausdrücklich die Konstruktivität loben.

Freue mich schon auf die da kommenden riesigen Dateianhänge ;)



Antwort von Roland Schulz:

UHDvsFHD.jpg
Quelle: https://www.dpreview.com/reviews/sony-alpha-a6500/8
Quelle Screenshot: https://www.dpreview.com/reviews/image- ... 10cd90.jpg

...reales UHD (echter Screenshot einer existierenden "Video"kamera!!) vs. "ideales" FHD - für jeden mit gesunden Augen ein deutlicher Schritt nach vorne... Wenn das was neues sein würde wäre ich jetzt total "euphorisch", ich nenne das aber einfach mal "Stand der Technik"!!



Antwort von Starshine Pictures:

Wonder Woman ist übrigens klasse! Hach ... Gal ... seufz ... ;-)



Antwort von Funless:


Wonder Woman ist übrigens klasse! Hach ... Gal ... seufz ... ;-)

Der soll wirklich gut sein, habe ich schon von vielen gehört. Ich denke ich schau mir den wohl auch noch im Kino an, obwohl bei den Comics damals mich die gute Dame am wenigsten interessiert hat.

Btw. auch von mir danke für die Testaufnahme.



Antwort von rkunstmann:

Cool! Wonder Woman! Ich muss auch noch gucken...



Antwort von WoWu:

Ach .... bevor ich es vergesse ...

Jeder, der glaubt, dass Physikalische Gesetze für seine Kamera nicht gelte ist herzlich eingeladen so einen Test mit seinem speziellen Stück auch mal durchzuführen und ein paar fortlaufende Frames hier zu poste.



Antwort von Roland Schulz:


Ach .... bevor ich es vergesse ...

Jeder, der glaubt, dass Physikalische Gesetze für seine Kamera nicht gelte ist herzlich eingeladen so einen Test mit seinem speziellen Stück auch mal durchzuführen und ein paar fortlaufende Frames hier zu poste.

...das mit der Physik lass' Dir mal lieber von einem zeigen der's kann, da gibt's so'n paar Grundvoraussetzungen die zu beachten sind!



Antwort von klusterdegenerierung:

Wow, nach 8 Seiten quasi immer noch am Anfang! ;-)



Antwort von Roland Schulz:

...nicht wirklich, aus dem von mir geposteten Vergleich geht eindeutig hervor, dass UHD Kameras existieren, welche auch praktisch eine höhere Auflösung aufweisen als FHD systembedingt überhaupt nur darstellen kann, dabei auch mehr echte Details der aufgenommenen Szene wiedergeben.
Gut, ich denke das war für die allermeisten auch nix neues, aber wir haben hier zumindest eine Person mit/an ner ziemlich langen Leitung...



Antwort von 7nic:



Sicher wird auch ein 6 oder 8 K Sensor uns mit entsprechend guten Objektiven noch näher an 4 K bringen, aber das ist ja auch gar nicht bezweifelt.

Von einigen hier wurde das durchaus angezweifelt. Aber dann sind wir uns ja zumindest hierbei einig.



Antwort von wolfgang:


Ich habe diese Aufnahmen mit der C100mkII gemacht. Die hat einen 4K Sensor, der allerdings wie ein 3-Chip-Gespann ausgelesen wird. Also 4 Sensel Grün/Grün/Rot/Blau werden zu einem PixelPixel im Glossar erklärt zusammen gerechnet der dann 1:1 in die FullHDFullHD im Glossar erklärt Matrix überführt wird. Es wird nicht im klassischen Sinne Debayering betrieben weil nichts dazwischen gerechnet wird. Mann sieht ganz klar dass im Bild mit 4000 cm Breite die 1cm Details des Colorcheckers in der Mitte des Bildes zwischen den Garagengebäuden am Zaunpfahl völlig verschwinden.

4K Auflösungstest.png

Im FullHDFullHD im Glossar erklärt Test mit 2000 cm Breite kann man schon eher erahnen dass da eine Kästchen-Struktur auf dem ColorChecker sein soll.

2K Aufklösungstest.png

Hier stellt sich nun die Frage was an Informationen da gewesen ist bevor der 28 Mbit CodecCodec im Glossar erklärt das RAW aus dem Sensor komprimiert hat. Ausserdem kann man sich die Frage stellen ob vielleicht ein einzelnes farbiges Objekt von 1cm Grösse doch erkennbar gewesen sein könnte, selbst im 4k Test? Denn die Schellenhalterung der Dachrinne die ins Garagengebäude geschraubt wurde ist ebenfalls gut zu erkennen. Und wie dick sind wohl solche Schrauben? Sicher nicht viel dicker als 1cm.

Danke für den Test. Ich verstehe auch zunächst deinen Ansatz, zu versuchen die 4x höhere Auflösung von UHD gegenüber von HD durch eine größere Kadrierung zu kompensieren. Das sollte theoretisch richtig sein, allerdings gibt es vermutlich mindestens 2 Faktoren die mir das problematisch erscheinen lassen:

1. ich vermute, dass die Kamera bei HD brav an die Systemauflösung heran kommt, aber auch dass dies bei UHD nicht der Fall ist. Wenn das richtig ist, dann ist die Halbierung der Bildbasis falsch, da sie das nicht berücksichtigt.

2. in der Praxis steht man nicht zwischen der Entscheidung, eine Totale oder Halbtotale zu nehmen. Sondern man nimmt eben eine bestimmte Kadrierung. Von der Seite her müßte man eigentlich das HD und das UHD Bild mit exakt dem gleichen Bildausschnitt aufnehmen und dann vergleichen.



Antwort von Starshine Pictures:

Hier liegt eventuell ein Missverständnis vor! Die C100 ist KEINE 4K Kamera! Sie bringt "nur" FullHD. Allerdings ist ein 4K Sensor verbaut. Ich habe den "4k Test" nur gemacht um zu schauen wie stark die Differenz zwischen FullHDFullHD im Glossar erklärt und 4k Matrix ist und wie Viel kleiner die PixelPixel im Glossar erklärt wären. Und was man sehen kann ist, dass die C100, obwohl die Kamera mit dem besten FullHDFullHD im Glossar erklärt out of the box am Markt glänzt, den FullHDFullHD im Glossar erklärt Auflösungstest nur mit einem Fragezeichen besteht (Colorchecker vs. Dachrinnenschelle). Trotz der einzigartigen Sensorauslesung. Aber das ist ja in der Theorie nichts neues. Ist aber trotzdem interessant mal Selbst zu testen.



Antwort von Jott:

Trotzdem wird dein Test mit einer HD-Kamera ab sofort immer als Beweis dafür herhalten, dass es 4K nicht gibt! :-)



Antwort von Roland Schulz:

Vorsicht! Es muss nicht unbedingt negativ sein dass eine Kamera nicht die (FHD-)Systemgrenze erreicht.
An der Systemgrenze erhält man oft Aliasingeffekte, Kantenflimmern bzw. harte, stufige Kanten welche das Sehverhalten "anstrengend" machen können.
Die Frage ist was man will bzw. wie am Ende das ganze System zusammenspielt. Mit sehr scharfen Objektiven kriegt man mit einer hochauflösenden Kamera Probleme. Hat man aber eine Kamera mit weniger Auflösung/Schärfung etc. und auch weniger scharfe Linsen kommt "TV" dabei raus ;-), also vergleichsweise wenig Detailgrad und Schärfe.



Antwort von iasi:



Sicher wird auch ein 6 oder 8 K Sensor uns mit entsprechend guten Objektiven noch näher an 4 K bringen, aber das ist ja auch gar nicht bezweifelt.

Hups ... das ist aber jetzt neu aus deinem "Munde".
Ich vernehme doch von dir immer "2k Bilddetails".

Dass dieser Snapshot keine 4k-Bilddetails hat, obwohl 4k "drauf" steht, ist natürlich unbestritten.
:)
Aber wie du sagst: mit entsprechendem Objektiv, CodecCodec im Glossar erklärt etc. holt man eben aus hoher Pixelzahl auch mehr Bilddetails heraus.



Antwort von Roland Schulz:


Trotzdem wird dein Test mit einer HD-Kamera ab sofort immer als Beweis dafür herhalten, dass es 4K nicht gibt! :-)

Guck mal, ich führe dann "meinen Beweis" an dass "halbwegs echte" 4K Kameras deutlich sichtbar mehr Details der Szene wiedergeben können als es selbst idealste FHD Kameras könnten.

Vielleicht stelle ich später mal dar wie nah eine (intern 6K) "Weltmeisterkamera" wie die a6300/6500 an der UHD Systemgrenze ist.
Idee dazu ist eine Szene mit größerem Abbildungsmaßstab (Faktor 2 oder größer) aufzunehmen und das per Downscale Richtung Systemgrenze zu bringen.
Daneben soll dann die nativ aufgenommene Szene mit "richtigem"/unskaliertem Abbildungsmaßstab gestellt werden.
Anhand von Text in verschiedenen Größen wird man dann erkennen, wie gut die Kamera bereits nativ ist denn in einem Punkt hat WoWu-Wolfgang nicht ganz unrecht: wir werden mit keinem System mit fester Auflösung basiert durch die Punktmatrix die Auflösung mit einem Frequenzbesen o.ä. ermitteln können. Die Aliasinggrenze wird da immer verschwimmen oder durch die Punktmatrix unwirklich weit "mitgezogen". Das hat aber weniger mit intelligenten Algorithmen, welche Linien oder Kreise nachziehen, zu tun.

Bei Text in unterschiedlichen Größen wird die Sache dann recht schnell eindeutig - lesbar oder nicht -> mehr echte Detailauflösung oder Wischi Waschi.



Antwort von Roland Schulz:



Sicher wird auch ein 6 oder 8 K Sensor uns mit entsprechend guten Objektiven noch näher an 4 K bringen, aber das ist ja auch gar nicht bezweifelt.

Hups ... das ist aber jetzt neu aus deinem "Munde".
Ich vernehme doch von dir immer "2k Bilddetails".

...den plötzlich doch "lesbaren Text" kann man wohl einfach nicht mehr in aufgesteilte, interpolierte Kanten und Kreise wegdiskutieren ;-)!

Denke wir alle (zumindest viele) lernen hier das ein- oder andere dazu, manchmal ist dabei auch etwas Stunk in der Bude ;-).

Beim nächsten Mal werden Physiker vielleicht auch keine Einheiten (Zeit, Flächen) mehr zusammenwürfeln und statt "Nyquistfrequenz" besser "Nyquistgrenze" an eine Gleichung schreiben. Zu meiner Zeit war sowas eine Totsünde und wurde mit Vermerk geahndet, zu Recht wie ich im Nachhinein finde.



Antwort von dienstag_01:

Beim nächsten Mal werden Physiker vielleicht auch keine Einheiten (Zeit, Flächen) mehr zusammenwürfeln und statt "Nyquistfrequenz" besser "Nyquistgrenze" an eine Gleichung schreiben. Zu meiner Zeit war sowas eine Totsünde und wurde mit Vermerk geahndet, zu Recht wie ich im Nachhinein finde.
Bist du eigentlich wirklich Ingenieur oder eher sowas wie Kasper?
https://de.wikipedia.org/wiki/Nyquist-Frequenz



Antwort von Roland Schulz:


Beim nächsten Mal werden Physiker vielleicht auch keine Einheiten (Zeit, Flächen) mehr zusammenwürfeln und statt "Nyquistfrequenz" besser "Nyquistgrenze" an eine Gleichung schreiben. Zu meiner Zeit war sowas eine Totsünde und wurde mit Vermerk geahndet, zu Recht wie ich im Nachhinein finde.
Bist du eigentlich wirklich Ingenieur oder eher sowas wie Kasper?
https://de.wikipedia.org/wiki/Nyquist-Frequenz

Ich glaube das ist ne Nummer zu hoch für Dich, wir haben erst Montag und zudem verstehen sowas nur min. Diplom-Kasper: Nyquist beschreibt das Abtasttheorem, soweit, so gut.

Wowu"s Gleichung lautete:

NyquistFrequenz= 1 / ( 2*Pixelgröße)

Eine Frequenz definiert sich durch eine zeitliche, periodische Veränderung .
In WoWu"s Gleichung wurde aber die "Frequenz" mit dem Kehrwert der zweifachen Pixelgröße gleichgesetzt ;-), das ist nicht nur "wunderlich" sondern physikalisch gesehen auch Nonsense!
In der Physik und der Wissenschaft allgemein ist es eine Totsünde ungleiche Einheiten gleich zu setzen, es ist einfach falsch!

Wowu reitet immer auf den Praktikern und deren experimentellem, "fehlerbehafteten Getue" rum, hält sich primär immer an die "Wissenschaft" - hin und wieder muss man dem Praktiker aber mal die Backe hinhalten ;-)!

Bei komplexeren Zusammenhängen ist es dringend ratsam Einheiten korrekt mitzuführen oder (korrekt) zu transformieren, dann erhält man auch ein Ergebnis mit dem man was anfangen kann bzw. welches belastbar ist. Diese Vorgehensweise trägt nicht dazu bei!

Schreibt man Nyquist"grenze" dran dann ist das erst mal einheitenlos und würde die Einheit des Kehrwertes einer Fläche annehmen, dagegen wäre formal nichts auszusetzen.

Wowu"s Formel hatte aber noch einen weiteren Fehler, nämlich den dass sie nur für die Pixelbreite oder -höhe gilt, nicht für die zweidimensionale Größe als Fläche!!

...ich muss sagen diese Diskussionen halten mich fit was das angeht ;-).
Wolfgang, nun sag auch mal was dazu - kommt das ein- oder andere wieder ;-)?!?!



Antwort von WoWu:



Sicher wird auch ein 6 oder 8 K Sensor uns mit entsprechend guten Objektiven noch näher an 4 K bringen, aber das ist ja auch gar nicht bezweifelt.

Hups ... das ist aber jetzt neu aus deinem "Munde".
Ich vernehme doch von dir immer "2k Bilddetails".

Dass dieser Snapshot keine 4k-Bilddetails hat, obwohl 4k "drauf" steht, ist natürlich unbestritten.
:)
Aber wie du sagst: mit entsprechendem Objektiv, CodecCodec im Glossar erklärt etc. holt man eben aus hoher Pixelzahl auch mehr Bilddetails heraus.

Das ist wohl Dein zweites Problem, dass Du Postings nicht liest.
Mit einer entsprechenden Sensor/Pixelgrösse und einem Objektiv, dass dem angepasst ist, wird es sicher möglich sein, auch 4K zu generieren.
Nicht umsonst geht der Trend hier zu Mittelformat und mit Objektiv landet man dann im 6-stelligen Dollarbereich.
Dass sollte jedem klar sein, der seine Fotoknipse für 4k fähig hält.
Du solltest also meine Postings daraufhin einmal genauer lesen, denn das war von je her mein Standpunkt zu dem Thema.
Ich kann gut nachvollziehen, dass Dir von Test zu Test der Boden unter den Füßen schwindet aber anstatt mit bunten Bildern und leeren Behauptungen zu kommen solltest Du Deine Kamera mal benutzen, um einen solchen Test zu machen.
Zeig uns doch einmal, dass Deine Kamera 4K auflöst.



Antwort von iasi:



Hups ... das ist aber jetzt neu aus deinem "Munde".
Ich vernehme doch von dir immer "2k Bilddetails".

Dass dieser Snapshot keine 4k-Bilddetails hat, obwohl 4k "drauf" steht, ist natürlich unbestritten.
:)
Aber wie du sagst: mit entsprechendem Objektiv, CodecCodec im Glossar erklärt etc. holt man eben aus hoher Pixelzahl auch mehr Bilddetails heraus.

Das ist wohl Dein zweites Problem, dass Du Postings nicht liest.
Mit einer entsprechenden Sensor/Pixelgrösse und einem Objektiv, dass dem angepasst ist, wird es sicher möglich sein, auch 4K zu generieren.
Nicht umsonst geht der Trend hier zu Mittelformat und mit Objektiv landet man dann im 6-stelligen Dollarbereich.
Dass sollte jedem klar sein, der seine Fotoknipse für 4k fähig hält.
Du solltest also meine Postings daraufhin einmal genauer lesen, denn das war von je her mein Standpunkt zu dem Thema.
Ich kann gut nachvollziehen, dass Dir von Test zu Test der Boden unter den Füßen schwindet aber anstatt mit bunten Bildern und leeren Behauptungen zu kommen solltest Du Deine Kamera mal benutzen, um einen solchen Test zu machen.
Zeig uns doch einmal, dass Deine Kamera 4K auflöst.

ohhh - 6-stelligen Dollarbereich - na das ist natürlich ein Argument.

Aber eigentlich ist es mir egal.

Denn den Trend zu Mittelformat sehe ich eher auch in der Abgrenzung zu den Consumerprodukten.
Wobei ich gar nicht anzweifle, dass Mittelformat Vorteile bringt.

Nur: Dem Kodakchrome 25 hatte man mal nachgesagt, dass er in der FF-Kamera an so manchen Mittelformatfilm heranreichen konnte. Ich selbst war durchaus auch immer wieder sehr erstaunt, wenn ich es selbst verglich.

Was tust du eigentlich, wenn wirklich jemand mal eine Kamera mit 2k und eine mit 4k und eine mit 8k (mit gleicher Sensorgröße, gleichem Objektiv und RAW) auf ein weit entferntes Objekt hält und die Ergebnisse Unterschiede bei den Bilddetails zeigen?



Antwort von Jott:

Einen Vortrag über Super Resolution halten (und dass deshalb bei 4K-Kameras immer alles von hinten bis vorne scharf sei)?



Antwort von Roland Schulz:

Was passiert eigentlich wenn ne Fotoknipse tatsächlich ~4K auflösen könnte?!?!



Antwort von WoWu:

@IASI
Jede Kamera zeigt Unterschiede zu einer andern Kamera in der Bildqualität.
Insofern ist Deine Frage also nicht zu beantworten.
Aber Du weißt hoffentlich, dass ein hoch auflösendes Objektiv auf gering auflösenden Kameraköpfen auch kontraproduktiv sein kann.
Wer also mit seinem Objekriv über unterschiedliche Kameraköpfe hinweghidelt ist sowieso Anfänger und hat das Prinzip noch nicht verstanden.

Ansonsten bin ich zielorientiert.
Mir ist das ziemlich schnurz, mit welchem technischen Aufwand 4K optischer Auflösung erreicht werden, wenn sie denn erreicht sind.

Nur mit dicken goldenen Ziffern auf dem Karton werden sie eben nicht erreicht.
Das, was wir derzeit haben, ist anständiges HD in einigen Kameras .... lange noch nicht in den meisten Kameras.

Aber da soll jeder selbst mal den Versuch machen.
Das es Sinn macht, haben wir gesehen.



Antwort von wolfgang:


Hier liegt eventuell ein Missverständnis vor! Die C100 ist KEINE 4K Kamera! Sie bringt "nur" FullHD. Allerdings ist ein 4K Sensor verbaut. Ich habe den "4k Test" nur gemacht um zu schauen wie stark die Differenz zwischen FullHDFullHD im Glossar erklärt und 4k Matrix ist und wie Viel kleiner die PixelPixel im Glossar erklärt wären. Und was man sehen kann ist, dass die C100, obwohl die Kamera mit dem besten FullHDFullHD im Glossar erklärt out of the box am Markt glänzt, den FullHDFullHD im Glossar erklärt Auflösungstest nur mit einem Fragezeichen besteht (Colorchecker vs. Dachrinnenschelle). Trotz der einzigartigen Sensorauslesung. Aber das ist ja in der Theorie nichts neues. Ist aber trotzdem interessant mal Selbst zu testen.

Ähhh ... wie machst du mit einer HD-Kamera einen UHD/4K Test?

Trotzdem wird dein Test mit einer HD-Kamera ab sofort immer als Beweis dafür herhalten, dass es 4K nicht gibt! :-)

Na der war gut! :)

Wowu"s Gleichung lautete:

NyquistFrequenz= 1 / ( 2*Pixelgröße)

Eine Frequenz definiert sich durch eine zeitliche, periodische Veränderung .
In WoWu"s Gleichung wurde aber die "Frequenz" mit dem Kehrwert der zweifachen Pixelgröße gleichgesetzt ;-), das ist nicht nur "wunderlich" sondern physikalisch gesehen auch Nonsense!
In der Physik und der Wissenschaft allgemein ist es eine Totsünde ungleiche Einheiten gleich zu setzen, es ist einfach falsch!
Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben. Ohne von dieser Materie oder Theoriebildung jetzt viel zu verstehen, die Formel kann aus diesen grundsätzlichen Überlegungen heraus so tatsächlich nicht stimmen. Das kann vielleicht noch eine nicht-physikalische Praktikerformel sein...



Antwort von WoWu:

Im Contaxt ging es um die Abtastgrenze.
Nach Nyquist-Abtasttheorem muss zum SamplingSampling im Glossar erklärt eines Signals mehr als die doppelte Frequenz gegeben sein, um sich dem Ausgangssignal sauber anzunähern.
Analog gilt das Abtasttheorem auch genauso bei Bildern, wobei die Abtastfrequenz dann in Pixeln oder Linienpaaren/mm bestimmt werden kann.
Es bring doch in diesem Zusammenhang überhaupt nichts, das in MHz anzugeben.
Denkt Ihr eigentlich irgendwann auch mal mit ?

Man kann eine theoretische Betrachtung natürlich auch aus dem Context lösen und dann darüber lamentieren.

Rolands Postings poppen bei mir übrigens nicht mehr auf.



Antwort von iasi:


@IASI
Jede Kamera zeigt Unterschiede zu einer andern Kamera in der Bildqualität.
Insofern ist Deine Frage also nicht zu beantworten.
Aber Du weißt hoffentlich, dass ein hoch auflösendes Objektiv auf gering auflösenden Kameraköpfen auch kontraproduktiv sein kann.
Wer also mit seinem Objekriv über unterschiedliche Kameraköpfe hinweghidelt ist sowieso Anfänger und hat das Prinzip noch nicht verstanden.


Nun - je mehr Variabeln desto schwieriger der Vergleich.
Jede Wette, dass bei Verwendung unterschiedlicher Objektive die Diskussion über Auflösungsvermögen losbrechen würde.
Aber mal ganz praktisch betrachtet: Ein MasterPrime dürfte an einer Alexa wohl kaum kontraproduktiv wirken. Mir ist nicht wirklich klar, ab welcher (geringen) Auflösung du einen kontraproduktiven Effekt erwartest.

Übrigens steht auf den "Verpackungen" die Pixelzahl - was ist denn deiner Meinung nach daran so falsch?
Es dürfte wohl den meisten Leuten klar sein, dass eine Alexa65 mit ihren 6k bessere Ergebnisse liefert, als eine 8k-Telefonkamera. Was stört dich denn immer so sehr an der Angabe eines Wertes, der schließlich nicht falsch ist.

Letztlich muss ich auch feststellen, dass du durch das, was du oben schreibst, zugibst, dass hochauflösende Sensoren aus den immer höher auslösenden Objetiven schlicht mehr herausholen können.
Ich weiß: Nun kommst du sicherlich wieder mit Bilddetails, die dabei nicht vorhanden seien.
Den Beweis dafür hast du aber auch noch nicht angetreten - deine theoretischen Auslassung genügen dafür nicht, zumal die Praxis wohl anderes zeigt.



Antwort von wolfgang:

Das erklärt noch immer nicht wieso die von dir genannte Formel den Reziprokwert einer Längenangabe in eine Frequenz - als Anzahl pro Zeit - umsetzt.

Das geht tatsächlich physikalisch einfach nicht.

War deine Formel vielleicht doch einfach nur falsch? Kann ja mal passieren.



Antwort von WoWu:

@ Iasi,
es ist eher anders herum, dass die Praxis zeigt, dass die Theorie stimmt denn die Praxis hat bisher keine 4K Bildauflösung geliefert, wo 4K drauf stand und die ganzen 4K Enthusiasten das auch immer angenommen haben.
Komm mir also nicht mehr mit der Praxis, es sei denn, Du machst mit Deiner Kamera mal keine bunten Bilder, sondern einen nachvollziehbaren Auflösungstest.
Was das Kontraproduktive von hoch auflösenden Optiken auf unangepassten Kameraköpfen betrifft, solltest Du Dich nocheinmal mit dem Thema Aliasing auseinandersetzen.
Denn Aliasing ist keine Bildauflösung.
Ich weiß nicht, wieviel Jahre wir nun schon über die Zusammenhänge zwischen Objektiv und Sensorbeschaffenheit posten ... aber es ist ziemlich traurig, dass Du nach 9 Jahren immernoch damit kommst.



Antwort von wolfgang:

Und, läßt sich diese Frage nach der Formel noch klären? Denn das wüßten hier sicherlich einige doch gerne.



Antwort von WoWu:

Du bist nur wieder auf Zoff gebürstet. Kennen wir ja schon.
Du hast schon verstanden, was ich oben erklärt habe.
Wenn nicht, dann lamentier nur weiter.



Antwort von domain:

http://www.vision-doctor.com/optische-q ... esung.html

Unter Frequenz oder Ortsfrequenz wird hier wohl das Auflösungsvermögen eines Kamerasystems verstanden.

"Die theoretische Auflösung eines Kamerasensors wird dabei durch die Nyquist-Frequenz beschrieben:

NyquistFrequenz= 1 / ( 2*Pixelgröße)

... Pixelgrößen moderner Kamera-Sensoren in der industriellen Bildverarbeitung von ca. 3,5 bis 14µm reichen. Dies ergibt ein theoretisches physikalisches Auflösungsvermögen von 7 bis 28µm bei der Abbildung feinster Strukturen."

Also so ungewöhnlich ist die von WoWu angeführte Formel auch wieder nicht und sagt einfach aus, dass man min. doppelt so viele PixelPixel im Glossar erklärt braucht um eine angepeilte Auflösung theoretisch zu erreichen



Antwort von WoWu:

Es geht ihnen auch nicht um die "Formel", sondern darum, ihren Stuhlgang abzusondern.
(Sorry)



Antwort von 7nic:

Jetzt wird es sehr skurril hier...



Antwort von wolfgang:

Entschuldigung, hier wurde von dir eine recht einfache Formel genannte.

Diese Formel hält den einfachsten physikalischen Fragen - dem Abgleich der physikalischen Dimensionen - nicht stand.

Das hat nichts mit Stuhlgang oder Lamentieren zu tun - sondern einfach mit trivialer physikalischer Richtigkeit. Was ist so schwer daran das richtig zu stellen bzw. aufzuklären?

Aber wenn dir das bei der einfachen Formel nicht möglich ist - ok ist mir auch recht.



Antwort von WoWu:

alles klar ... und tschüss

@7nic
Das Niveau dürfte doch nicht unbekannt sein.



Antwort von domain:

Die Nyquistfrequenz kommt aber auch in einem anderen Zusammenhang zum Vorschein, nämlich z.B. bei der Abtastfrequenz von CD"s von 44.1 kHz. Die Bitbreite spielt dabei eigentlich keine Rolle, sondern ermöglicht nur feinere Abstufungen.
Also beträgt die dort erfassbare höchste Tonfrequenz ca. 22 Kilohertz.
WoWu hat das Nyquisttheorem vollkommen korrekt dargestellt, was sollen da alle unprofessionellen Einwürfe?



Antwort von dienstag_01:

WoWu hat das Nyquisttheorem vollkommen korrekt dargestellt, was sollen da alle unprofessionellen Einwürfe?
So ganz wundert mich das nicht ;)



Antwort von domain:

Wundert mich auch nicht, weil hier viele physikalisch Unwissende unterwegs sind, sich dafür aber um so lautstärker zu Wort melden, wie z.B. der gerne Zoff anstachelnde Wolfgang aus Wien :-)



Antwort von 7nic:

Ich bin kein Physiker. Bisher dachte ich aber, dass die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße liegt. Und, dass damit eine höhere Abtastrate natürlich eine immer höhere theoretische optische Auflösung erlaubt. Wenn es die Optik zulässt, natürlich. Durch den OLPF werden noch feinere Strukturen (unterhalb der Auflösungsgrenze, sollte die Optik höher auflösen als der Sensor) um Aliasing zu vermeiden dann abgeschnitten. Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen) und, dass durch die Beugung an der BlendeBlende im Glossar erklärt ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist... Letztlich erhalte ich für jedes Sensel aber immer einen echten eigenen Wert, der sich von denen in seiner Nachbarschaft unterscheidet. Und diese Zwischenwerte fehlen mir eben bei geringerer Abtastung. Selbst wenn Kontrastkanten unterhalb der Auflösungsgrenze - egal ob vom Sensor oder der Optik - systembedingt nicht abgebildet werden. Sprich: wird die Pixelmatrix größer, verringert sich die Auflösungsgrenze.

Also, so lange ich mich innerhalb dieser Parameter bewege und weiß, dass ich in 6K weniger als 3K Kontrastkanten horizontal abbilden kann (was dann natürlich auch bei einem Versuchsaufbau berücksichtigt werden sollte), ist doch alles okay?

Oder wo liegt der Denkfehler?



Antwort von WoWu:

Im Grunde besteht kein Denkfehler, nur Oversampling ( und das entspricht ja der Erhöhung der Abtastrate) bringt kein einziges neues Bilddetails, erhöht aber den Verarbeitungsqualität- und Übertragungsaufwand drastisch.
Liegt nämlich die Nutzbandbreite sehr nahe bei der Abtastfrequenz so werden sehr hohe Anforderungen an die Flankensteilheit des Tiefpassfilters gestellt.
Diese analogen Filter können häufig nur mit großem Aufwand abgeglichen werden.
Oversampling erlaubt es aber die Anforderungen an das analoge Tiefpassfilter drastisch zu reduzieren in dem die steilflankige Bandbegrenzung auf ein präzises Digitalfilter hoher Ordnung verlagert wird.
(In der Praxis wird häufig ein Oversampling­ Faktor 2 oder 4 gewählt).
Somit braucht man weniger steile analoge Filter vor dem Abtasten.
Nach der AbtastungAbtastung im Glossar erklärt wird dann das digitale Filter angewendet und gleichzeitig die Abtastfrequenz reduziert.
Aber da ist die Entwicklung mittlerweile einen andern Weg gegangen, auch um OLPF einzusparen.
Dabei geht man davon aus, dass die gestörten Signale noch alle Nutzinformationen enthalten und mit einem Mathematischen Modell rechnet man diese heraus, rekonstruiert sie und fügt sie wieder ins Bild ein.
Auf der basis der Eingangsdaten wird quasi eine höhere Abtastrate simuliert.
Mit so einem Raumverfahren im Frequenzbereich können so die Samples rekonstruiert werden.
Aber all das trägt natürlich nicht dazu bei, dass die klassischen Engpässe, z.B. das Objektiv überwunden werden.
Nicht ohne Not ist man daher dazu übergegangen zu patchen oder andere Arten der Konstruktion vorzunehmen, die allerdings nicht mehr viel mit einer optischen Reproduktion zu tun haben.
Scharfe Bilder ...ja, optische Bilder... sehr begrenzt.



Antwort von mediavideo:


Ich bin kein Physiker. Bisher dachte ich aber, dass die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße liegt. Und, dass damit eine höhere Abtastrate natürlich eine immer höhere theoretische optische Auflösung erlaubt. Wenn es die Optik zulässt, natürlich. Durch den OLPF werden noch feinere Strukturen (unterhalb der Auflösungsgrenze, sollte die Optik höher auflösen als der Sensor) um Aliasing zu vermeiden dann abgeschnitten. Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen) und, dass durch die Beugung an der BlendeBlende im Glossar erklärt ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist... Letztlich erhalte ich für jedes Sensel aber immer einen echten eigenen Wert, der sich von denen in seiner Nachbarschaft unterscheidet. Und diese Zwischenwerte fehlen mir eben bei geringerer Abtastung. Selbst wenn Kontrastkanten unterhalb der Auflösungsgrenze - egal ob vom Sensor oder der Optik - systembedingt nicht abgebildet werden. Sprich: wird die Pixelmatrix größer, verringert sich die Auflösungsgrenze.

Also, so lange ich mich innerhalb dieser Parameter bewege und weiß, dass ich in 6K weniger als 3K Kontrastkanten horizontal abbilden kann (was dann natürlich auch bei einem Versuchsaufbau berücksichtigt werden sollte), ist doch alles okay?

Oder wo liegt der Denkfehler?

Das ist schon mal ein völlig unentschuldbarer Gesamtfehler drin:
- Du stellst im Wesentlichen nur unbelegte Vermutungen zu technisch/naturwissenschaftlichen Zusammenhängen an. Man kann solche Zusammenhänge aber nur logisch herleiten bzw. belegen.

Da sind absurd gravierende grundsätzliche Denkfehler drin:
1. Was soll so eine absurde Aussage? - die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße
- Wie kommst du darauf? Soll das heißen man muss die Sensorauflösung durch 2.2-2.4 teilen oder was? Das wären ca. 40-45% der Sensorauflösung, also wie von mir laut deinen Aussagen für 8k Sensoren vermutet wurde und du das dann als den größten Mist bezeichnet hast?

2. Was soll so eine absurde Aussage? - Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen)
- Seit wann hat Full-Well der Sensel was direkt mit der Auflösung zu tun? 1000 e- mehr oder weniger spielen für die Auflösung garantiert keine Rolle.

3. Was soll so eine absurde Aussage? - dass durch die Beugung an der BlendeBlende im Glossar erklärt ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist...
- Wie kommst du auf diese Grenze bei S35 und 6k?

Du hast mal ein wenig mit Kameras "Praxis gespielt" und merkst jetzt, dass das ohne mathematisch/technisch/wissenschaftliches Grundlagenwissen wohl doch nicht geht - oder? - Willkommen im Club von Jott, iasi und Jan Reif ...

Genau das habe ich mir genau so vorgestellt. Das was ich schreibe ist wörtlich von dir "der größte Mist" - Was ist das hier dann von dir?
Schämst du dich denn überhaupt nicht jetzt im Forum auch noch so unbeholfen um dringende Hilfe für dein Verständnis zu fragen?
Du polterst hier herum und hast wohl offensichtlich noch nie eine Entwicklungsabteilung von innen gesehen, nicht mal die Klinke in der Hand gehabt. Und High-Tech bzw. Forschung ist noch mal ein ganz anderes Niveau ...

Oder hast du mal bei mir rückwärts die Posts nachgelesen, mit jemand darüber gesprochen und kommst irgendwie ins grübeln über deine "Praxis-Meinung"?



Antwort von Roland Schulz:

Hier geht so einiges durcheinander:
Wowu's Formel ist und bleibt wie dargestellt aus den bereits genannten Gründen falsch, einige haben's erkannt, andere noch nicht. Die Physik basiert auf der Mathematik, eine Gleichung muss auf beiden Seiten erfüllt sein, mit grundsätzlich verschiedenen Einheiten funktioniert das nicht!

Von Frequenzen sollten wir sprechen wenn wir periodische Signale haben, Audiosignale zum Beispiel. Hier muss ich eine Periode mindestens zweimal abtasten, sonst kann ich sie nicht (in Annäherung) reproduzieren.

Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGBRGB im Glossar erklärt Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.
Ich brauche im Gegensatz zur Akustik auch keine Schwingungen um ein Signal überhaupt wahrnehmen zu können, sehen kann ich homogene Bildanteile genau so gut!
Viele Bezüge stammen zudem auch noch aus der Modulation, deshalb Vorsicht mit Nyquist!

Schade Wowu, alter Sportsfreund, das ein oder andere Thema haben wir hier zusammen gut gerockt, ich auf der einen, Du auf der anderen Seite ;-)!
Hast auch hier wieder was dazugelernt - na ja, irgendwann muss auch mal "Ruhestand" sein.
Mir ist klar dass das mit mir mitunter auch stressig sein kann, der Joker (hier Auflösungsnachweis durch nichtinterpolierbaren Text) meist zum Ende oft schwer im Hals sitzt. Hat trotzdem Spaß gemacht!

Vielen Dank an Wolfgang (A) für die Unterstützung hier! Wir zwei hatten uns auch schon bis auf's Messer in den Haaren ohne gemeinsamen Nenner.
Sowas hier lebt davon wenn man dann trotzdem persönliches oder besser "sportliches" beiseite lassen kann und die Richtigkeit gewinnt.
Das zeigt wirklich Stärke und gibt so einer Diskussion zumindest wieder etwas Qualität zurück!
Danke dafür!!



Antwort von 7nic:



Das ist schon mal ein völlig unentschuldbarer Gesamtfehler drin:
- Du stellst im Wesentlichen nur unbelegte Vermutungen zu technisch/naturwissenschaftlichen Zusammenhängen an. Man kann solche Zusammenhänge aber nur logisch herleiten bzw. belegen.

Da sind absurd gravierende grundsätzliche Denkfehler drin:
1. Was soll so eine absurde Aussage? - die Auflösungsgrenze für Kamerasensoren beim etwa 2,2-2,4fachen der Pixelgröße
- Wie kommst du darauf? Soll das heißen man muss die Sensorauflösung durch 2.2-2.4 teilen oder was? Das wären ca. 40-45% der Sensorauflösung, also wie von mir laut deinen Aussagen für 8k Sensoren vermutet wurde und du das dann als den größten Mist bezeichnet hast?

2. Was soll so eine absurde Aussage? - Gegen eine hohe Auflösung sprechen nur die Full-Well-Kapazität der Sensel, bzw. der geringere Lichteinfall pro Sensel (bzgl. Grundrauschen)
- Seit wann hat Full-Well der Sensel was direkt mit der Auflösung zu tun? 1000 e- mehr oder weniger spielen für die Auflösung garantiert keine Rolle.

3. Was soll so eine absurde Aussage? - dass durch die Beugung an der BlendeBlende im Glossar erklärt ab f/5,6 für APS-C/S35 Sensoren bei 6K auch wieder Schluss ist...
- Wie kommst du auf diese Grenze bei S35 und 6k?

Du hast mal ein wenig mit Kameras "Praxis gespielt" und merkst jetzt, dass das ohne mathematisch/technisch/wissenschaftliches Grundlagenwissen wohl doch nicht geht - oder? - Willkommen im Club von Jott, iasi und Jan Reif ...

Genau das habe ich mir genau so vorgestellt. Das was ich schreibe ist wörtlich von dir "der größte Mist" - Was ist das hier dann von dir?
Schämst du dich denn überhaupt nicht?
Du polterst hier herum und hast wohl offensichtlich noch nie eine Entwicklungsabteilung von innen gesehen, nicht mal die Klinke in der Hand gehabt. Und High-Tech bzw. Forschung ist noch mal ein ganz anderes Niveau ...

Oder hast du mal bei mir rückwärts die Posts nachgelesen, mit jemand darüber gesprochen und kommst irgendwie ins grübeln über deine "Praxis-Meinung"?

Ich könnte jetzt auf jede deiner Anmerkungen antworten, aber dann würdest du mich sicher einfach noch etwas persönlicher angreifen.



Antwort von WoWu:

Na, da bin ich auf die Begründung aber mal gespannt.
Denn wenn man das Rayleight Kriterium bei 6K, apsc und f5.6 anwendet, ist man bereits deutlich bei Auflösungsreduktion angekommen.

Was die Auflösung aus SNR Gründen betrifft ist es schon eine Abwägung, wo man das Limit setzt.
Irgendwo wird es sein, also stimmt die Antwort zunächst mal und ist richtig gedacht.

Beim 2,5 fachen der Pixelgrösse könnte man Diskutieren, weil es unterschiedliche Annäherungen gibt. Aber wo soll da nun wieder der Denkfehler liegen ?

Bin gespannt.



Antwort von mediavideo:

Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?

Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..



Antwort von 7nic:



Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGBRGB im Glossar erklärt Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.

Du vergisst nur den OLPF, der die tatsächliche Auflösung schon unter die Grenzauflösung des Sensors bringt, um Aliasing zu vermeiden. Aber von Überabtastung kann man da noch nicht sprechen.
Also misst natürlich trotzdem ein jedes Sensel seinen individuellen Wert.

Insofern ist es natürlich sehr schwer Bilddetails überhaupt zu definieren.



Antwort von 7nic:


Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?

Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..

Ich habe dich korrigiert, als du unsinnige Behauptungen in großer Menge gepostet hast und zu allem Überfluss meine Aussagen aus dem Zusammenhang gerissen hast, um sie für deine Ausführungen zu missbrauchen.

Willst du dich jetzt
mit noch ein paar unsinnigen Anschuldigungen dafür revanchieren? Na dann bitte...



Antwort von WoWu:


Wowu, es geht darum, dass man sofort erkennt dass der Typ nur irgendwo gegoogelte Sachen in den Post geworfen hat - aber gleichzeitig hier vor ein paar Tagen so absurd rumgepoltert hat. Soll ich dem jetzt noch nett helfen?

Der kann gar nichts erklären und die drei Aussagen sind alle so nicht richtig wie sie formuliert wurden. Klar kann man das in bestimmten Sichtweisen so biegen, dass die Formulierungen einen Sinn geben könnte ..

Das mit dem gegoogelt würde ich mal dahingestellt sein lassen. Dazu ist der Gesamtkomplex zu dicht und ich finde nicht, das signifikante Kritikpunkte vorhanden sind.
Und das mit dem Poltern ist uns allen schon so gegangen.
Ich halte es daher für viel wichtiger, sofern inhaltlichen Differenzen vorliegen, der Sache doch lieber auf den Grund zu gehen.
Es gibt immer ein paar Detail, die man in seinen eigenen Überlegungen übersehen haben könnte und die wird man nie erfahren, wenn man Point Blank zieht.
Lass uns doch lieber die Sache diskutieren.



Antwort von wolfgang:


alles klar ... und tschüss

@7nic
Das Niveau dürfte doch nicht unbekannt sein.

Es ist schon eine absurde Entgleisung anderen Niveaulosigkeit zu unterstellen, wenn man selbst von "Stuhlgang" und "Lamentieren" spricht.

Und sich eben immer mit der "Wissenschaft" schmückt, und dann mit einer inhaltlich unhaltbaren Formel derart daneben haut, die eher auf Grundschulniveau angesiedelt ist (was die Übereinstimmung physikalischer Dimensionen angeht).



Antwort von Frank Glencairn:

Gentlemen - please...

Leute get raus und dreht was



Antwort von wolfgang:


Wundert mich auch nicht, weil hier viele physikalisch Unwissende unterwegs sind, sich dafür aber um so lautstärker zu Wort melden, wie z.B. der gerne Zoff anstachelnde Wolfgang aus Wien :-)

Na wenn du die Inkonsistenz in den physikalischen Dimensionen nicht erkennst, zeigt dies eher von deiner eigenen Unwissenheit.

Denn um die Aussagen dieser Theorie geht es noch nicht mal, sondern darum dass diese Formel so nicht stimmen kann. Da fehlt was, wurde was vergessen - aber das richtig zu stellen ist ja offenbar nicht möglich.

Und mit Zoff hat das nichts zu tun, sondern mit grundlegenden Unstimmigkeiten. Der Unterschied ist dir unklar?

Und nein: es geht auch nicht darum was zu drehen, das macht man nicht in einem Forum. Nur ist viel von dieser Diskussion eben arg absurd.



Antwort von Roland Schulz:



Fange ich jetzt an periodische Bildsignale, z.B. abwechselnd weiße und schwarze Linien abzutasten und darzustellen gilt das Nyquist Theorem ebenfalls, pro Linienpaar benötige ich dann mindestens zwei Pixelreihen zur Abtastung!
Was aber wenn ich jetzt individuelle Bildpunkte oder Linien abtasten will? Zumindest bei monochromen Sensoren kann hier jeder Sensel einen individuellen Helligkeitswert annehmen! Bei RGBRGB im Glossar erklärt Systemen wird das durch das Bayerpattern und den Demosaicingalgorithmus begrenzt. Ich brauche aber nicht doppelt so viele Pixellinien für Linien der Szene. Das trifft nur zu wenn wir von Linienpaaren oder "Wechseln" sprechen. Jede Linie kann aber eine eigene, individuelle, sinnvolle Information tragen.

Du vergisst nur den OLPF, der die tatsächliche Auflösung schon unter die Grenzauflösung des Sensors bringt, um Aliasing zu vermeiden. Aber von Überabtastung kann man da noch nicht sprechen.
Also misst natürlich trotzdem ein jedes Sensel seinen individuellen Wert.

Insofern ist es natürlich sehr schwer Bilddetails überhaupt zu definieren.

Ein OLPF ist nicht zwingende Bedingung, schon gar nicht bei monochromen Kameras. Eine Tiefpassfilterung kann aber schon durch die Optik gegeben sein.



Antwort von Roland Schulz:



Wundert mich auch nicht, weil hier viele physikalisch Unwissende unterwegs sind, sich dafür aber um so lautstärker zu Wort melden, wie z.B. der gerne Zoff anstachelnde Wolfgang aus Wien :-)

Na wenn du die Inkonsistenz in den physikalischen Dimensionen nicht erkennst, zeigt dies eher von deiner eigenen Unwissenheit.

Denn um die Aussagen dieser Theorie geht es noch nicht mal, sondern darum dass diese Formel so nicht stimmen kann. Da fehlt was, wurde was vergessen - aber das richtig zu stellen ist ja offenbar nicht möglich.

Und mit Zoff hat das nichts zu tun, sondern mit grundlegenden Unstimmigkeiten. Der Unterschied ist dir unklar?

Und nein: es geht auch nicht darum was zu drehen, das macht man nicht in einem Forum. Nur ist viel von dieser Diskussion eben arg absurd.

+1!
Was mir hier auch ziemlich auf den Keks geht ist dass "einige" Fehler und/oder gewonnene Einsichten nicht eingestehen und stattdessen an ner anderen Stelle weiternageln. Da kann man auch langsam ne Wissenschaft draus machen!



Antwort von dienstag_01:

Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben.
Ohne Kommentar: https://de.wikipedia.org/wiki/Ortsfrequenz



Antwort von Roland Schulz:


Ich muss Roland recht geben - eine reziproke Pixelgröße mit einer Längeneinheit kann physikalisch nie eine Frequenz ergeben.
Ohne Kommentar: https://de.wikipedia.org/wiki/Ortsfrequenz

...ganz ruhig, wir haben ja gleich Dienstag!
Manche schnallen es nicht...



Antwort von Roland Schulz:

So, für alle die noch wach sind, mir hier ständig für meine Beiträge danken und auch meine hier entstandene Arroganz feiern ( ;-) !! ) noch nen kleinen Nachbrenner vorm Schlafengehen.
Da Wowu endlich resigniert hat ;-p und mich auf seine Ignorelist gesetzt hat kann ich dass auch mit ruhigem Gewissen posten, der zweimalige Zusammenbruch des persönlichen Weltbilds an nur einem Tag hätte sonst ggf. schwerwiegende, gesundheitliche Folgen nach sich ziehen können ;-).

Es existieren (Video-)Kameras und Objektive, welche nicht nur eine höhere Auflösung als FHD leisten, sondern sogar echte 4K/UHD Auflösung liefern, dabei sogar schon für ganz günstiges Geld im "Baumarkt" zu erwerben sind!

Die Ergebnisse werden sich für den ein oder anderen der die Pace noch mitgehen kann von selbst erschliessen, deshalb erstmal die "Schlagzeilen". Vorweg, das Ergebnis hat mich selbst überrascht:
a6500_res_BW.jpg
a6500_res_BG.jpg
a6500_res_BR.c.jpg
EDIT: 4:2:04:2:0 im Glossar erklärt Simulation ergänzt
(click for big)

Was hat sich dieser Troll hier nun wieder ausgedacht ;-) ?!?! Verglichen werden sollte, in wie weit die Auflösung einer Kamera an die zugehörige Systemgrenze heranragt. Soll heißen, schafft eine 4K Kamera wirklich 4K oder wie weit ist das "subjektiv" von der theoretischen Systemgrenze entfernt. Ich betone nochmal, es geht hier um keine "Messung"!

Ablauf wie folgt: Ein synthetischer, hochauflösender Testchart wurde erzeugt. Damit von der Kamera keine Linien interpoliert, fortgeführt etc. werden können (da ist wirklich was dran, auch ich bin davon überzeugt) wurde Text als Vergleichsmittel gewählt. Dieses hochauflösende Testchart wurde auf einem iPad (Retina) dargestellt.

Mit dem Prüfling, hier eine Sony a6500 und einem "hochwertigen" Objektiv (Sony/Zeiss SEL24F18Z) wird der Bildschirminhalt des iPads idealerweise orthogonal abgefilmt, dabei aber so, dass das iPad nur einen kleinen Teil des Videobildes einnimmt, um die relative Auflösung des iPad Bildschirms viel höher werden zu lassen als die Kameraauflösung.

Aus dem aufgenommenen XAVC-S UHD/25p/100Mbps Video wird nun der darstellende Bereich des iPad Bildschirms gecropped, die Dimension (Größe h*v) wird notiert.
Der hochauflösende, synthetische Testchart wird nun ebenfalls auf die exakt gleiche Größe des Kameracrops skaliert. Der Testchart hat nun die in dieser Auflösung maximal mögliche Detaillierung. Die Darstellung entspricht "100%" der Pixelmatrix, unabhängig der Aufnahmeauflösung.

Der Crop der Kamera und der skalierte Testchart werden nun nebeneinandergelegt. Das gesamte Bild wird zum einfacheren Vergleich per Pixelwiederholung auf 200% skaliert.

Ergebnis: Ich denke man kann den ersten Vergleich (Schwarz/Weiss) durchaus als identisch in Bezug auf die Auflösung bewerten. Der Text verliert in beiden Hälften die Lesbarkeit an der gleichen Stelle.
Da die Auswertung faktisch auf 100% Pixelebene erfolgt, die Aufzeichnung dabei in UHD erfolgt ist bleibt festzustellen, dass der Prüfling volle UHD Luminanzauflösung bei SW Bildinhalten aufweist!

Sehr ähnlich sieht es beim Auflösungsvergleich mit grünem Bildinhalt aus. Die Lumaauflösung erreicht wieder volle UHD Auflösung, einige "Farbfehler" bedingt durch das Debayering u.a. sind jedoch an einigen Stellen zu erkennen.

Zuletzt die schlimmste Tortur - rot auf blau. Bedingt durch das Bayerpattern gibt es weniger rote und blaue Sensel als grüne. Weiterhin haben wir nicht nur eine Luminanzänderung (Y-Kanal) in der Quelle, sondern auch eine Farbänderung (UV-Kanal). Die Reduzierung der Auflösung der Kameraaufnahme im Vergleich zur Quelle ist erheblich! Ursachen sind die genannten roten und blauen Sensel, welche in geringerer Anzahl als grüne vorkommen, die Farbunterabtastung in 4:2:04:2:0 im Glossar erklärt sowie ggf. die Optimierung des Debayeringalgorithmus zugunsten des Lumakanals.

Ich persönlich finde die Leistung trotzdem sehr gut, ich hätte nicht mit diesem Ergebnis gerechnet. Zugegeben handelt es sich bei der a6500 bereits um eine Oversamplingkamera, welche ihr ausgegebenes 4K Bild aus einem 6K-Bayer-Bild gewinnt und damit ohne Frage Vorteile hat.

Wie das ganze jetzt mit einer nur 8MP 4K Kamera ausgehen wird darf gerne jemand anders testen.



Antwort von ffm:

Das war ein interessanter Diskurs in den Bereichen Physik und "Diskussionsethik".



Antwort von Roland Schulz:

...niemand der den Test ähnlich mal mit ner ~8MP 4K Kamera durchführen will?? Der Aufwand ist doch durchaus geringer als erstmal den halben Garten zu vermessen ;-)!



Antwort von Jott:

Jeder sieht täglich den Auflösungssprung von HD zu 4K, wenn er denn damit zu tun hat und nicht nur theoretisch grübelt. Gerade sitze ich vor einer simplen Eventaufzeichnung und kann die Namensschildchen bei einer Einstellung lesen, die das in HD nie hergegeben hätte.

Ich weiß schon, die Kamera macht das künstlich: via Gesichtserkennung die Google-Datenbanken durchforsten, Name und Job Title des Gefundenen aus XING etc. herauspopeln und mit diesen Infos das Namensschildchen künstlich nachpatchen und tracken. Supi, wie perfekt das funktioniert! :-)

Diskutieren kann man eigentlich nur, ob und wie man die höhere Auflösung nutzt. Zum Beispiel darüber, dass ein Spielfilm kein 4K braucht im Kino, dem würde ich auch zustimmen. Aber darüber zu diskutieren, ob der Auflösungsgewinn überhaupt da ist, finde ich dagegen seltsam.

Lasst doch mal 4K 4K sein, das ist längst Mainstream, wie man an den ganzen goldenen Aufklebern auf den Packungen und Geräten sieht. Es ist doch viel spannender, das demnächst startende 8K-TV in Japan zu diskutieren. DIE haben mal richtig große goldene Aufkleber auf den Ü-Wagen, da erstarrt wirklich jeder in Ehrfurcht!



Antwort von 7nic:


...niemand der den Test ähnlich mal mit ner ~8MP 4K Kamera durchführen will?? Der Aufwand ist doch durchaus geringer als erstmal den halben Garten zu vermessen ;-)!

Demnächst kommt unser neues Fujinon Cabrio, da muss ich dann sowieso ein wenig testen (herumspielen). Also zumindest 6k APS-C RAW und 8K APS-H RAW kann ich dann mal einem "RL-Auflösungstest" unterziehen. Wenn ich Lust und Zeit habe auch noch APS-C 4K RAW usw...



Antwort von domain:

Für 25375.- gibts schon ein Golf-Cabrio.
Ob da das Fuji-Cabrio für 28300.- mithalten kann?



Antwort von Jott:

Objektive, die oben offen sind, halte ich für unpraktisch in staubigen Umgebungen und bei Niederschlag.



Antwort von domain:

Haha ...
Die extremen Hochleistungsobjektive für >= 4K werden ja hauptsächlich für wissenschaftliche Zwecke entwickelt, z.B. um auch die noch so kleinsten Insektenaufschläge in Zeitupe auf einer Windschutzscheibe zu registrieren.
Deren Anzahl hat übrigens in letzten 10 Jahren in erschreckender Weise abgenommen, ist euch das schon aufgefallen?



Antwort von Roland Schulz:

Ich fand's technisch interessant dass die a6500 tatsächlich echtes UHD liefert - hätte ich nicht mit gerechnet. Bei ner 8MP Cam wird das ganz sicher geringer ausfallen.

Der 4K Auflösungsvorteil ist aber ganz klar gegeben, denke die Frage haben wir eindeutig geklärt. Immerhin sind auch "Bunkermauern" dabei eingeknickt ;-)!

Sinn und Zweck von 4K haben wir genau so durch - "ich" sitze allerdings auf dem Stuhl der das auch im Kino haben möchte!! Denke da werden wir hier aber keinen geneinsamen Konsens finden, wirklich nötig ist das auch nicht.

...mir reichts schon wenn's mir ins Schiebedach reinp....! Mit Cabrios konnte ich mich noch nie anfreunden ;-)...




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Insta360 ONE X: Surround-Kamera mit höherer Auflösung und Speedramp Option
Hobbyauflösung
Panasonic GH 5 4096x2160 24.00p in kleinerer Auflösung
HTC kündigt Vive Pro VR/360° Sichtgerät mit höherer Auflösung an
DaVinci Auflösung frei wählbar ?
Auflösungsprobleme in Resolve
Re: Wieviel Auflösung benötigen Cine-Kameras - sind 4K bereits zuviel?
Bildauflösungs-Mythen (4K, 6K...) entlarvt
Kommt es auf Auflösung an? - Interview mit Geoff Boyle
Übernahme von Aufträgen durch Firmenauflösung
HPX 600 - Scene files & Auflösung
Panasonic HPX301e Bildrauschen und tatsächliches Auflösung?
Großartiges Interview mit Geoff Boyle
Zu kompliziertes Licht am Set? Weniger ist mehr (nach DOP Geoff Boyle)
Videointerview: DOP Geoff Boyle über Moiré, Diffusion, Dynamikumfang, RAW und HDR
Rig mit BMCC Objektiv Akku Mikrofon Mattebox Monitor kommt auf über 10kg??
?Altglas? vs Auflösung: Netflix Jessica Jones II auf Pvintage u. RED Weapon 6K gedreht
Wie kommt man auf viele Youtubeclicks?
Android und RAW - Was kommt da auf uns zu?
Videofilmen mit iPhone 7 - welche Bitrate, Auflösung etc. für Postproduction mit FCP?
Panasonic HX-A500 -- Actioncam mit 4K-Auflösung ab Juni
interview mit 4 ansteckmikros
Corel Videostudio X8 - FullHDprojekt auch mit geringerer Auflösung WIE?
mit Premiere Pro CS5 eine Auflösung 3840 x 1080
krasses interview mit Jim Carrey
Interessantes Interview mit Randy Ubillos

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom