Logo Logo
/// 

Hat Canon einen Sensor-Trumpf in der Tasche?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Praktisch alle CMOS-Sensoren nutzen einen sogenannten Rolling ShutterShutter im Glossar erklärt, der nicht jedes PixelPixel im Glossar erklärt des Bildes zur selben Zeit ausliest, sondern PixelPixel im Glossar erklärt sequentiell, also hinterei...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Hat Canon einen Sensor-Trumpf in der Tasche?




Antwort von CameraRick:

15 Blenden also, wie damals bei der C300 Mk II? ;)



Antwort von ruessel:

Ich frage mich, ab wann ist der Blendenumfang so groß, dass die Bilder unansehnlich wirken? Aktueller Kodak Vision 320 Film wird mit 14 Blenden im Diagramm angegeben.


zum Bild









Antwort von CameraRick:

Was wir da sehen ist ein JPEG mit einem Dynamikumfang von "nicht viel" :)
Die Wolken waren ja mit Sicherheit nicht dunkler als die Kaimauer

Am Ende des Tages ist es ja eine Frage des Tonemapping, wie viele Blenden wir in den sichtbaren Raum schieben. Am Ende des Tages habe ich lieber mehr spielraum als weniger, ob ich sie dann nachher sehe oder nicht. Nachteile hat das ja keine :)



Antwort von ruessel:

Nachteile hat das ja keine
Jaein. Bildrauschen? Alles bei der Aufnahme im Keller schieben um in der Post es gerade zu biegen sieht oft übel aus.
Eigentlich traue ich mir eine richtige Belichtung schon zu. Ich bin auch kein RAW Bastler, was ich von meiner BMD Pocket geboten bekomme ist schon nicht so schlecht (Dynamik).



Antwort von CameraRick:

Aber ich muss bei der Aufnahme doch nichts in den Keller schieben, das ist ja eine Formatfrage, nicht die der Dynamik an sich.
Wie meinst Du das, mit der richtigen Belichtung zutrauen?



Antwort von Sir Richarrdt:

Schon mal daran gedacht, dass ein Schwimbad grösser dimensioniert ist, als die Wassermenge, die da rein passt?

Dynamik ist immer gut und Reserve besser. 15 Blendenstufen sind dan halt echte
13 und gut ist es.Natürlich ist eine Rückkehr zu 6,5 Stufen in Pal-sd erwünchenswert.
So wie wir die Biebel nun wieder in 1475er Sprechstyle übersetzen, grüne 6 bit 9 zoll
Röhrenmonis haben und hipsty mit einem 32-er modem die Einwahl ins Netz von einem
Kanarienvogel singen lassen. Dazu gibt es Holzverkokungs-kessel, damit unser Ford-T
wenigstens zum Einkaufen um die Ecke kommt und gifitges Gesmüse im retro- Kontagan-style kan nun auch mit kurzen Händen auf dem Balkon der Schimmelwohnung
geernte werden und so weiter...


Das die Canon--------langsam den nächsten Schritt wagen ist doch tolle--oder machen die nun Smartphones?--- welche ja von Sklaven in China billig aus den Leibern gepresst und deren Därme und Organe frisch die toten Parteil-leichen am Lben halten möge--damit unser fetter fetter Sigmar in den Arsch dere passt--und die net kaputt gehen--weil es so verlogen nach Glutamat stinkt :)



Antwort von domain:

Meinerseel Sir Richarrdt, heute passt dein Text zum Tag ;-)

Zum von Ruessel präsentierten Foto zwei Zitate aus dieser Seite sinngemäß:
"Folgende Aufnahmen entstanden aus 3 RAW-Dateien. Photomatix errechnet daraus ein HDR-Bild. Anschließend wird daraus durch Tone-Mapping ein Bild für ein normales Display erstellt. Alle Bilder sind also keine HDR-Fotos sondern aus HDR erstellt.
Das o.a. Foto der Neckarfront in Tübingen ist aus einer RAW Datei ( -+2 Blenden) entstanden. "


Hier wohl ziemlich daneben gegangen.
Was ich nicht verstehe: ist der Dynamikumfang von RAW wirklich so groß, dass aus einer einzigen Aufnahme durch Tonmapping wirklich quasi HDR-Bilder erzeugt werden können, oder sind im betr. Bild doch 3 Aufnahmen miteinander verrechnet worden?
Dann wäre der Dynamikumfang ja keine Kunst.
Was heißt RAW Datei (-+2 Blenden)?



Antwort von CameraRick:

Was ich nicht verstehe: ist der Dynamikumfang von RAW wirklich so groß, dass aus einer einzigen Aufnahme durch Tonmapping wirklich quasi HDR-Bilder erzeugt werden können, oder sind im betr. Bild doch 3 Aufnahmen miteinander verrechnet worden?
Dann wäre der Dynamikumfang ja keine Kunst.
Was heißt RAW Datei (-+2 Blenden)? Im direkten Vergleich sieht man recht schnell, dass dem nicht so ist. Die einzelne RAW-Datei hat ja recht hohe Bittiefe und verzeiht damit mehr, als würde man ein gebackenes JPEG nehmen. Natürlich fasst so ein RAW mehr dynamik als etwa ein JPEG, klar



Antwort von domain:

Wo siehst du einen direkten Vergleich?
Meiner Erfahrung nach wäre es mit einzelnen RAW-Aufnahmen kaum möglich, einen derartigen, aber letztlich doch ziemlich danebengegangen Kontrastumfang zu bewältigen.



Antwort von nachtaktiv:

canon und trumpf in der tasche ist ja schon mal ein guter witz. die sind ja dafür bekannt, das sie ihre trümpfe nicht ausspielen.

aber selbst wenn... für halbwegs brauchbare kameras zahlt man sich bei der firma dumm und dämlich. nix für mich.



Antwort von CameraRick:

Einen direkten Vergleich, den Du selbst machen kannst: drei gescheite RAWs vs ein einzelnes :)

So ein RAW hat schon einen nicht gringen Dynamikumfang, die rechte Kamera vorausgesetzt. Das "schön" machen hängt dann von der Software ab, Photomatix ist da ja ein bekannter Kandidat zum Verschlimmbessern








Antwort von balkanesel:

...Was heißt RAW Datei (-+2 Blenden)? Das heißt üblicherweise:
ein Jpeg (oder TIFF) wird normal generiert,
eines 2 Blenden heller,
eines 2 blenden dunkler



Antwort von WoWu:

Ich denke, man kann solche, aus mehreren Bildern zusammengesetzte Bilder nicht mit dem vergleichen, was ein Sensor "in einem Rutsch" generiert.
Man erkennt am ersten Bild der Web Seite
http://fotohall.de/hdr/hdr.html
dass an den Kanten überall ein Ünerstrahlungseffekt entsteht, der die Kanten, gegenüber des menschlichen Sehvermögens, so unwirklich darstellt.
Dazu kommt natürlich noch, dass der Mensch (ohne Adaption) nur etwa 6 Blenden sieht und dann ein Bild, in dem 15 Blenden auf JPEG Niveau runtergebrachten sind, auch wieder komisch anmutet.
Schön zu erkennen, an den Tischreflektionen im obigen Link.
Dadurch wirken solche künstlichen HDR Bilder immer so unwirklich.
Aber ein Sensor hat lediglich einen größeren Störabstand, sodass höhere Ladungsmengen genutzt werden können, was zu natürlicheren Darstellungen führt.
problem ist eben nur, dass auch der Rest stimmen muss (Bandbreite, CodecCodec im Glossar erklärt usw.) damit die Dynamik auch nutzbar wird und nicht von andern Effekten überdeckt.
Der Sensor allein macht also noch kein HDR Bild, solange der Rest nicht auch stimmt.



Antwort von Jan:

Canon hechelt schon sei Jahren hinter den Nikon Kameras hinterher, die ja bekanntlich Toshiba oder Sony-Sensoren (gehört ja jetzt eh zusammen) einsetzen. Die eigenen Sensoren sind von der Performance schon immer einen Tick schlechter gewesen.

VG
Jan



Antwort von iasi:

Ich denke, man kann solche, aus mehreren Bildern zusammengesetzte Bilder nicht mit dem vergleichen, was ein Sensor "in einem Rutsch" generiert.
Man erkennt am ersten Bild der Web Seite
http://fotohall.de/hdr/hdr.html
dass an den Kanten überall ein Ünerstrahlungseffekt entsteht, der die Kanten, gegenüber des menschlichen Sehvermögens, so unwirklich darstellt.
Dazu kommt natürlich noch, dass der Mensch (ohne Adaption) nur etwa 6 Blenden sieht und dann ein Bild, in dem 15 Blenden auf JPEG Niveau runtergebrachten sind, auch wieder komisch anmutet.
Schön zu erkennen, an den Tischreflektionen im obigen Link.
Dadurch wirken solche künstlichen HDR Bilder immer so unwirklich.
Aber ein Sensor hat lediglich einen größeren Störabstand, sodass höhere Ladungsmengen genutzt werden können, was zu natürlicheren Darstellungen führt.
problem ist eben nur, dass auch der Rest stimmen muss (Bandbreite, CodecCodec im Glossar erklärt usw.) damit die Dynamik auch nutzbar wird und nicht von andern Effekten überdeckt.
Der Sensor allein macht also noch kein HDR Bild, solange der Rest nicht auch stimmt. Die Kamera ahmt ja nicht das Auge nach - sie bietet eine Art Fenter, durch das der Betrachter blicken soll. Daher greift ja auch diese Auflösungsdiskussion immer zu kurz. Das Auge wandert über das Bild und es adaptiert dabei ständig. Helle Bildbereiche ohne Zeichnung wirken unnatürlich, da das Auge vergeblich versucht, nach der Adaption etwas zu erkennen. Gesichtspartien, die clippen, sind ja nicht umsonst ein no-go.



Antwort von WoWu:

Das ist ja grad das Problem, warum dann immer die Bilder so künstlich aussehen, wenn innerhalb der 6Blenden, die das Auge aufnehmen kann, plötzlich 15 Werte zusammengefasst sind.
Übrigens funktioniert HDR im TV bereich anders, weil die oberen Helligkeitswerte auch im TV Gerät zu mehr Licht führen und das Auge dann selbsttätig nachregelt, wenn die Bereiche außerhalb der 6 Blenden liegen, also wird die normale Augenfunktion damit bedient, was bei einer 15 auf 6 nicht der Fall ist. Daher der künstliche Eindruck bei solchen HDR Fotos.



Antwort von iasi:

Das ist ja grad das Problem, warum dann immer die Bilder so künstlich aussehen, wenn innerhalb der 6Blenden, die das Auge aufnehmen kann, plötzlich 15 Werte zusammengefasst sind. Das ist leider wahr - die 15 Werte werden dem Auge nicht geboten, sondern in zusammengestauchter Form serviert.
Es ist wie mit der Auflösung: warum lässt man dem Auge nicht die Möglichkeit über Bildbereiche zu wandern - dafür benötigt man dann natürliche eine weit höhere Auflösung als die, die das Auge wahrnehmen kann.
Übrigens funktioniert HDR im TV bereich anders, weil die oberen Helligkeitswerte auch im TV Gerät zu mehr Licht führen und das Auge dann selbsttätig nachregelt, wenn die Bereiche außerhalb der 6 Blenden liegen, also wird die normale Augenfunktion damit bedient, was bei einer 15 auf 6 nicht der Fall ist. Daher der künstliche Eindruck bei solchen HDR Fotos. Das ist wünschenwert: Das Auge wechselt von einem hellen Bildbereich in einen Schattenbereich und erhält dort wie beim natürlichen Sehen Details - und durch die Nachregelung dürfen es auch gerne noch mehr als 15 Blendenstufen Unterschied sein.



Antwort von Starshine Pictures:

Bei Minute 6:15 spricht der Kollege von Canon über 14 Blenden beim Global ShutterShutter im Glossar erklärt Sensor der kommenden C700. Vielleicht ein Hinweis dass dies noch nicht der "Wundersensor" ist?






Antwort von iasi:

Bei Minute 6:15 spricht der Kollege von Canon über 14 Blenden beim Global ShutterShutter im Glossar erklärt Sensor der kommenden C700. Vielleicht ein Hinweis dass dies noch nicht der "Wundersensor" ist?


14 blendenstufen sind beachtlich ... für GS ganz besonders



Antwort von WoWu:

@ Iasi
Das Problem ist bei hoher Dynamik leider, dass jeder anfängt, beide Beiche gleichermaßen im Bild zu haben, sodass dann solche Kunstbilder entstehen.
Bei der Auflösung ist es so ziemlich dasselbe.
Das Auge kann nur etwa 4K auflösen, egal ob sich etwas bewegt oder nicht, denn der schärfste Punkt im Auge erfasst nur 1 Bogenminute.
Statt dessen generiert man Bilder so künstlich wie möglich durch Algorithmen in scheinbare Details hinein, bei denen dann das natürliche Sehen mal wieder völlig übergangen wird.
An den Bildern, die Srone neulich gepostet hat, konnte man das sehr schön sehen.
Ein Hochhaus vor einer gleißenden Sonne aber die Hochhauskanten gingen konturscharf durch die Helligkeit.
Dass Licht sich an Kanten beugt, wissen die Algorithem wahrscheinlich noch nicht.
Deswegen sehen solche Bilder auch immer so videomässig aus und haben genau mit dem nichts mehr zu tun, was wir eigentlich immer anstreben, einen möglichst natürlichen Look, von manchen auch oft als Filmlook bezeichnet.
Höher Auflösung beginn sich mittlerweile schon wieder vom natürlichen Sehvermögen zu verabschieden.
Die Handyfilmgeneration ist jetzt am Zug mit zwar künstlichen, aber dafür messerscharfen Bildern und Kamerapreisen aus der Portokasse.








Antwort von momo2000:

canon und trumpf in der tasche ist ja schon mal ein guter witz. die sind ja dafür bekannt, das sie ihre trümpfe nicht ausspielen.

aber selbst wenn... für halbwegs brauchbare kameras zahlt man sich bei der firma dumm und dämlich. nix für mich. genau..selbst wenn



Antwort von srone:

@ Iasi
Das Problem ist bei hoher Dynamik leider, dass jeder anfängt, beide Beiche gleichermaßen im Bild zu haben, sodass dann solche Kunstbilder entstehen.
Bei der Auflösung ist es so ziemlich dasselbe.
Das Auge kann nur etwa 4K auflösen, egal ob sich etwas bewegt oder nicht, denn der schärfste Punkt im Auge erfasst nur 1 Bogenminute.
Statt dessen generiert man Bilder so künstlich wie möglich durch Algorithmen in scheinbare Details hinein, bei denen dann das natürliche Sehen mal wieder völlig übergangen wird.
An den Bildern, die Srone neulich gepostet hat, konnte man das sehr schön sehen.
Ein Hochhaus vor einer gleißenden Sonne aber die Hochhauskanten gingen konturscharf durch die Helligkeit.
Dass Licht sich an Kanten beugt, wissen die Algorithem wahrscheinlich noch nicht.
Deswegen sehen solche Bilder auch immer so videomässig aus und haben genau mit dem nichts mehr zu tun, was wir eigentlich immer anstreben, einen möglichst natürlichen Look, von manchen auch oft als Filmlook bezeichnet.
Höher Auflösung beginn sich mittlerweile schon wieder vom natürlichen Sehvermögen zu verabschieden.
Die Handyfilmgeneration ist jetzt am Zug mit zwar künstlichen, aber dafür messerscharfen Bildern und Kamerapreisen aus der Portokasse. waren zwar nicht meine bilder, aber bin bei dir. :-)

lg

srone



Antwort von Roland Schulz:

Das Auge kann nur etwa 4K auflösen, egal ob sich etwas bewegt oder nicht, denn der schärfste Punkt im Auge erfasst nur 1 Bogenminute. Ohhhh, dann habe ich trotz 41 Jahren wohl immer noch SUPERAUGEN ;-)!!
Hmm, wenn ich bei 4K ein "Bandbreitenlimit" hätte dürfte ich auf meinem 4K TV keine PixelPixel im Glossar erklärt mehr differenzieren können. Dazu brauche ich aber nicht mal meinen ganzen Sichtbereich vom TV Bild bedeckt haben. Ohne jetzt davorzusitzen würde ich aber sagen, dass es mir ab ca. einem Viertel bis Drittel der vollständigen Bildhöhe noch möglich ist PixelPixel im Glossar erklärt zu differenzieren bzw. auch stufige Kanten (Aliasing) von einer "superhochauflösenden Videokamera" (a6300) zu identifizieren.

Bei bewegten Bildern würde ich das allerdings "für mich" nicht unbedingt behaupten.
Aus größerer Entfernung/kleinerem Abbildungsmaßstab ist dann "für mich" aber auch irgendwo Schluss mit der Auflösung...

...vielleicht war aber auch was anderes gemeint.



Antwort von ruessel:

Ich habe hier ein SDISDI im Glossar erklärt HD Kameramodul (ca. 150 Euro) mit extremer WDR Funktion, das steigert unheimlich die Bilddynamik - aber das Bild sieht dadurch hübsch hässlich aus, hat nix mehr mit der Wirklichkeit zu tun.

(WDR Funktion = jeder PixelPixel im Glossar erklärt wird unterschiedlich lang belichtet, ohne zu überstrahlen)

Es gibt ja schon im Kino einige Filme, die sehr Flach digital projiziert werden. Ich bekomme jedes mal eine Krise wenn ich diese ausgelutschten Bilder vorgesetzt bekomme - aber ja, dafür ist im Fensterhintergrund noch Struktur zu sehen.
Liegt wahrscheinlich an meinen Sehgewohnheiten des Kinos der 60er/70er/80er/90er Jahren. Es darf für mich auch beim guten chemischen Kodak Film helle überbelichtete Kanten geben. Es muss ja nicht gleich so mies ausschauen wie bei der z.B. GH4.


zum Bild




Antwort von domain:

Das Bild aus "Das Fenster zum Hof" von Hitchkock ist m.E. ein gutes Beispiel für wenig Angst vor starken Kontrasten. Allerdings, wenn größere Flächen abgesoffen oder ausgebrannt sind, wirken sie wirklich störend.
Ein anderes Kapitel ist Korn.
Einen Hoffnungsschimmer für körnigen Analogfilmlook scheint es neuerdings zu geben. Starshine empfahl jüngst Videomaterial erst durch einen Denoiser glatt schlecken zu lassen, dann aber möglichst natürliches Korn darüber zu legen. Die Gesamtqualität würde dadurch dramatisch ansteigen.



Antwort von WoWu:


Ohhhh, dann habe ich trotz 41 Jahren wohl immer noch SUPERAUGEN ;-)!!
Hmm, wenn ich bei 4K ein "Bandbreitenlimit" hätte dürfte ich auf meinem 4K TV keine PixelPixel im Glossar erklärt mehr differenzieren können.
Du vergisst zu sagen, bei welchem Abstand.
Deine Augen werden aber auch nicht feiner als 2,5 μm Distanz zweier Zapfen in der Fovearegion aufweisen und damit nicht höher als rd. 1 Bogenminute auflösen können.
Und damit kannst Du Dir ja ausrechnen, was Du auflösen kannst, denn Auflösung ist immer abhängig vom Abstand.
Wenn Du natürlich mit der Nase auf den Bildschirm gehst, siehst Du jedes PixelPixel im Glossar erklärt 30x so groß. Dann reicht aber Dein Bildkreis nicht mehr, 4000 Pixels nebeneinander zu sehen.
Bildauflösungen lässt sich exakt berechnen und 1Bogenminute ist nun mal das Maximum, das der Mensch schafft.

@Domain
Du vergisst dabei nur, dass Bilddetails mit "glattgeschleckt" werden (weil hohe Ortsfrequenzen begrenzt werden) und die bringt das künstliche Korn nicht zurück.



Antwort von ruessel:

Mit geht es hier eigentlich nur um den Blendenumfang. Meine Pocket war darin schon eine Erlösung, die Bilder sehen in der Hinsicht einfach gut aus (nicht perfekt aber bis jetzt hier im Haus das beste Bild).
Da ich auch manchmal neuere Kameras in meinen Händen halte, wunder ich mich öfters über diesen Jubel (auch in diesem Forum). Oft hat sich da nix getan und es kommt nicht mehr raus als schon 2004 mit der ersten HC1. Als ich vor einiger Zeit mit der EX1R wieder einmal ein paar Aufnahmen machte, wusste ich, damit (ca. 10,5 Blenden optimal eingestellt mit Knee) werde ich nicht mehr warm und habe das Gerät ohne Schmerzen verkauft. Praktisch durch die Pocket optisch in Bezug Dynamik versaut.

Nun schaue ich zur anderen Seite, ist eine Kamera der Zukunft mit deutlich mehr als 14 Blenden wirklich der heilige Gral? Sieht das dann nicht so bescheuert aus wie die meiste HDR Fotografie? Ich weiß es nicht, ich muss sowas erst auf einen Bildschirm "sehen".
Natürlich könnten bei echten HDR Bildschirmen die Karten neu gemischt werden, aber nicht bei den jetzigen "HDR" Flats mit schlappen 1000 Nits, eine Demovorführung hat mich noch nicht überzeugt.

Wenn ich bei einen HDR gefilmten Sonnenaufgang mit 30 Blendenstufen nur mit Sonnenbrille anschauen kann, läuft auch wieder etwas verkehrt.



Antwort von TheBubble:

Deine Augen werden aber auch nicht feiner als 2,5 μm Distanz zweier Zapfen in der Fovearegion aufweisen und damit nicht höher als rd. 1 Bogenminute auflösen können. Das Auflösungsvermögen bzw. die Unterscheidbarkeit feiner Details ist bei verschiedenen Menschen aber unterschiedlich ausgeprägt.



Antwort von Jott:

Würden wir kein 4K, 8K oder viel mehr sehen können, wäre es recht schwierig, zum Beispiel im Straßenverkehr zurecht zu kommen. Einfach mal bewußt aus dem Fenster schauen, was man da so alles wunderbar erkennen kann. Das hilft enorm gegen Feststecken in theoretischen Überlegungen.








Antwort von dienstag_01:

https://de.wikipedia.org/wiki/Aufl%C3%B ... m%C3%B6gen
Selbstverständlich sehen hier einige mehr!!!



Antwort von Roland Schulz:


Ohhhh, dann habe ich trotz 41 Jahren wohl immer noch SUPERAUGEN ;-)!!
Hmm, wenn ich bei 4K ein "Bandbreitenlimit" hätte dürfte ich auf meinem 4K TV keine PixelPixel im Glossar erklärt mehr differenzieren können.
Du vergisst zu sagen, bei welchem Abstand.
Deine Augen werden aber auch nicht feiner als 2,5 μm Distanz zweier Zapfen in der Fovearegion aufweisen und damit nicht höher als rd. 1 Bogenminute auflösen können.
Und damit kannst Du Dir ja ausrechnen, was Du auflösen kannst, denn Auflösung ist immer abhängig vom Abstand.
Wenn Du natürlich mit der Nase auf den Bildschirm gehst, siehst Du jedes PixelPixel im Glossar erklärt 30x so groß. Dann reicht aber Dein Bildkreis nicht mehr, 4000 Pixels nebeneinander zu sehen.
Bildauflösungen lässt sich exakt berechnen und 1Bogenminute ist nun mal das Maximum, das der Mensch schafft. Ich schrieb dass ich noch differenzieren kann, wenn der Bildschirm geschätzt ca. 1/4 bis 1/3 der (sichtbaren) Bildhöhe abdeckt.
Der "Abstand" spielt weniger eine Rolle (Ausnahme: Fehlsichtigkeit), der Abbildungsmaßstab ist entscheidend!

Ein Beispiel welches einfach nachzuvollziehen ist: Man(n) sitzt in ca. 50cm Abstand vor einem "gängigen" 24" Computerbildschirm mit FHD Auflösung. Der Bildwinkel des Auges würde mindestens noch einen Bildschirm links und rechts daneben (angewinkelt) in gleichem Abstand (im Radius) einsehen (deshalb ggf. auch "curved" Display) - also ich erkenne da klar PixelPixel im Glossar erklärt bzw. Stufen, wenn kein Antialiasing zum Einsatz kommt. Das wären dann bereits ~6K!

Nicht anders bei einem größeren (UHD-) TV in größerem Abstand, der Maßstab ist annährbar.

Eine a6300 z.B. produziert in UHD auch ohne übertriebene Nachschärfung solche "Treppen" (Aliasingeffekte), die dann besonders bei langsamen Schwenks an harten Kanten auffallen, welche nahezu senkrecht oder waagerecht zur Aufnahmeebene verlaufen.

Solange diese Treppen erkennbar bleiben ist das Auflösungsvermögen des menschlichen Auges nicht erreicht.

Ich denke aber auch, dass nicht jeder Mensch hier das gleiche Auflösungsvermögen an den Tag legt. Gegen jüngere Kollegen ziehe ich bei sowas auch schon mal den Kürzeren ;-)...

...aber hier geht"s um den Kontrastumfang, sorry ;-)!



Antwort von CameraRick:

14 blendenstufen sind beachtlich ... für GS ganz besonders Canon hat nur die Angewohnheit mit Blendenumfang was anderes zu meinen, als alle anderen erwarten.
Die C300 Mk II sollte doch auch 14 bis 15 Blenden umfassen, und schau was es geworden ist.
Wieso erwartet man jetzt bei der C700 was anderes...?

Sony proklamiert bei ihrer GS F55 auch 14 Blenden, nur kost auch etwas weniger



Antwort von Roland Schulz:

https://de.wikipedia.org/wiki/Aufl%C3%B ... m%C3%B6gen
Selbstverständlich sehen hier einige mehr!!! ...1mm auf 3-6m -> 3-6K - damit hätte Wolfgang mit 4K absolut Recht!!!

Wenn ich hier allerdings in Photoshop mal eine harte S/W Linie (kein Antialiasing, fast orthogonal) erstelle und in 100% (Pixelgröße) ansehe, erkenne ich auch bei "fiktiven" 8K+ (hab"zwei 24"er nebeneinander (-> 4K), Betrachtungsabstand so dass nochmal min. 2 danebenpassen) noch klar die "Stufen", auf jeden Fall im Zentrum!!

Vielleicht einfach mal ausprobieren und den Wikieintrag hinterfragen...



Antwort von Roland Schulz:

14 blendenstufen sind beachtlich ... für GS ganz besonders Canon hat nur die Angewohnheit mit Blendenumfang was anderes zu meinen, als alle anderen erwarten.
Die C300 Mk II sollte doch auch 14 bis 15 Blenden umfassen, und schau was es geworden ist.
Wieso erwartet man jetzt bei der C700 was anderes...?

Sony proklamiert bei ihrer GS F55 auch 14 Blenden, nur kost auch etwas weniger Das Problem ist dass es bisher kein standardisiertes Messverfahren dazu gibt. Ich habe z.B. noch keine RED gesehen die einen mindestens so hohen Kontrastumfang "subjektiv wiedergibt" wie eine F65, aber das nur am Rande.

Ich habe selbst an ein paar "Spielzeugen" mal versucht sowas zu messen - am Ende sollte man die ermittelte Kurve "Übertragungsfunktion" nennen ;-)!



Antwort von dienstag_01:

Wenn ich hier allerdings in Photoshop mal eine harte S/W Linie (kein Antialiasing, fast orthogonal) erstelle und in 100% (Pixelgröße) ansehe, erkenne ich auch bei "fiktiven" 8K+ (hab"zwei 24"er nebeneinander (-> 4K), Betrachtungsabstand so dass nochmal min. 2 danebenpassen) noch klar die "Stufen", auf jeden Fall im Zentrum!!

Vielleicht einfach mal ausprobieren und den Wikieintrag hinterfragen... Auflösung heisst Trennung (von Details). Also mal 2, 3 Linien nebeneinander, Abstand auch ein Pixel. Wie sieht es dann aus.
Und das ist noch s/w, wie sieht es bei weniger Kontrast aus ;)



Antwort von CameraRick:

... das ist wohl richtig, aber wir diskutieren ja trotzdem grad um 15 Blenden herum, die am Ende des Tages (für den mehr oder minder gmeinen Konsens) keine sind, weil Canon eben offenbar anders rechnet, wie wir bereits gesehen haben.
Bin nur verwirrt dass das offenbar schon jeder wieder vergessen hat :)



Antwort von WoWu:

Da sieht man mal, wie unterschiedlich die Auflösunhseinschätzungen sein können.
Fest steht aber, dass der Mensch nur etwa 6Mill Zapfen hat und der Abstand zweier Zapfen in der Fovearegion des Auges 2,5 μm beträgt und sich daraus das Auflösungsvermögen des Auges ergibt. Eine Linie von1° Länge erzeugt auf der Netzhaut ein Bild der Größe von 290 μm. daraus ergibt sich, wie groß der kleinste Gegenstand sein kann, den das menschliche Auge noch erkennen kann (4 μm) und damit auch wie groß Gegenstände in welchem Abstand noch zu erkennen sind. (etwa 0,2 mm in einem Meter Abstand).
Völlig egal, ob im Straßenverkehr, im Kino oder Zuhaus.
Und ob das im Straßenverkehr problematisch ist, oder nicht war bei der Schöpfung wohl auch egal.

Und Bubble ... ja, es gibt so eine Art Hyper-Sehschärfe, die sich aber nur auf die Wahrnehmung dicht nebeneinander liegender Kanten bezieht und eine Differenz zweier solcher, dicht nebeneinander liegender Linien erst in der Wahrnehmung stattfindet. Der Mensch kann also, durch Bewegung des Kopfes sagen, dass es sich um zwei Lininen handelt, obwohl sie innerhalb der möglichen Detailauflösung liegen.
Das trifft aber auf eine 2D Bildbetrachtung nicht zu.

Es kann ja mal jeder bei seinem Augenarzt den Abstand zur Testtafel und anschließend die Größe der Ziffern messen, die er noch erkennen kann.
Dann hat er doch das Ergebnis.
Und das ist nur s/w. bei Farbe sieht das Ergebnis noch deutlich schlechter aus.



Antwort von WoWu:

Würden wir kein 4K, 8K oder viel mehr sehen können, wäre es recht schwierig, zum Beispiel im Straßenverkehr zurecht zu kommen. Einfach mal bewußt aus dem Fenster schauen, was man da so alles wunderbar erkennen kann. Das hilft enorm gegen Feststecken in theoretischen Überlegungen. Schon klar, es gibt immer einige, die auch Flöhe husten hören, aber nicht rechnen können.








Antwort von WoWu:

... das ist wohl richtig, aber wir diskutieren ja trotzdem grad um 15 Blenden herum, die am Ende des Tages (für den mehr oder minder gmeinen Konsens) keine sind, weil Canon eben offenbar anders rechnet, wie wir bereits gesehen haben.
Bin nur verwirrt dass das offenbar schon jeder wieder vergessen hat :) Die 15 Blenden sind bei entsprechendem Störabstand oder früher Rauschunterdrückung schon möglich, die Frage ist eben nur, wie Du oben schon geschrieben hast, was man daraus macht, ob man solche Kunstgemälde daraus fabriziert oder sie auf menschliche Sehgewohnheiten zurück führt.
Für HDR im TV Bereich sind sie jedenfalls nicht von wirklicher Relevanz.

Es ist also weniger eine Frage der Kamera, als eine Frage des Menschen im Post Prozessing.
Wem das ein Argument in der Kaufentscheidung ist, muss schon eine sehr spezielle Anwendung haben.



Antwort von Roland Schulz:

Wenn ich hier allerdings in Photoshop mal eine harte S/W Linie (kein Antialiasing, fast orthogonal) erstelle und in 100% (Pixelgröße) ansehe, erkenne ich auch bei "fiktiven" 8K+ (hab"zwei 24"er nebeneinander (-> 4K), Betrachtungsabstand so dass nochmal min. 2 danebenpassen) noch klar die "Stufen", auf jeden Fall im Zentrum!!

Vielleicht einfach mal ausprobieren und den Wikieintrag hinterfragen... Auflösung heisst Trennung (von Details). Also mal 2, 3 Linien nebeneinander, Abstand auch ein Pixel. Wie sieht es dann aus.
Und das ist noch s/w, wie sieht es bei weniger Kontrast aus ;) Auch da (1px Linien nebeneinander) sehe ich bis ~8K kein Problem, farbig bekomme "ich" bei grün auf weiß und blau auf schwarz Probleme, Rest mit R,G,B auf weiß bzw. schwarz klappt noch sehr gut, wobei das bei mir auch von der Tagesform abhängt.

Die Frage ist auch ob man Trennungen feststellen kann und ob man sie "zählen" (örtlich zuordnen) kann, da wird"s ebenfalls schwieriger denke ich. Details wahrnehmen geht aber schon recht weit, zumindest bei hohem Kontrast.



Antwort von CameraRick:

Die 15 Blenden sind bei entsprechendem Störabstand oder früher Rauschunterdrückung schon möglich, die Frage ist eben nur, wie Du oben schon geschrieben hast, was man daraus macht, ob man solche Kunstgemälde daraus fabriziert oder sie auf menschliche Sehgewohnheiten zurück führt. Ich mein gar nicht die technischen Möglichkeiten, ich meine dass Canon letztes mal auch schon ordentlich gerudert ist, als es um "ihre" 15 Blenden ging. Da hat sich doch schon raus gestellt, was sie da denken.
https://www.cinema5d.com/canon-measured ... 0-mark-ii/



Antwort von Roland Schulz:

Die 15 Blenden sind bei entsprechendem Störabstand oder früher Rauschunterdrückung schon möglich, die Frage ist eben nur, wie Du oben schon geschrieben hast, was man daraus macht, ob man solche Kunstgemälde daraus fabriziert oder sie auf menschliche Sehgewohnheiten zurück führt.
Für HDR im TV Bereich sind sie jedenfalls nicht von wirklicher Relevanz.

Es ist also weniger eine Frage der Kamera, als eine Frage des Menschen im Post Prozessing.
Wem das ein Argument in der Kaufentscheidung ist, muss schon eine sehr spezielle Anwendung haben. Alles gut, HDR fordert ja "eigentlich" gerade mal 10 Blenden bzw. können mindestens diese oder mehr am Ende dargestellt werden.

Eine KompressionKompression im Glossar erklärt im Mapping muss aber nicht unbedingt in unansehnlichen oder völlig künstlichen Ergebnissen enden.
Man kann auch bereichsweise komprimieren und andere Bereiche nahezu linear belassen, sowas macht man ja seit Ewigkeiten auch mit der Knee-funktion.
Ich kann mir sehr wohl Szenen vorstellen, in denen "alles" linear abgebildet wird, Lampen oder Scheinwerfer aber, von mir aus auch die Sonne, stark komprimiert werden.
Das tut solange im Bild nicht weh, wie keine weiteren relevanten Objekte die gleiche, hohe Helligkeit haben.

Die Kamera muss das dann aber trotzdem a) erfassen (Sensor) und b) sinnvoll über eine 1. hohe QuantisierungQuantisierung im Glossar erklärt und/oder 2. über eine geeignete Übertragungsfunktion(Gamma) transformieren können.

Glaube die Frage um die sich hier alles dreht bleibt weiterhin die unterschiedliche Interpretation von Herstellern der Übertragungsfunktion ihrer Kameras, von mir aus auch mit "nahezu endlos" wirkenden Rauschunterdrückungen.

Wie groß darf ein Helligkeitsunterschied maximal sein, damit das mindestens noch ein Inkrement (Bit) im Signal ändert?
Welcher Verlauf einer Übertragungsfunktion macht in den "Grenzen" noch "Sinn"? Wo fange ich an meine abbildbaren Blenden zu zählen, wo höre ich auf?

Teilweise hatte ich in eigenen Messungen 2EV in den Tiefen, bis sich ein LSB tatsächlich nochmal änderte - in der Praxis würde ich sowas aber als nicht brauchbar/praxisgerecht interpretieren.

Wo ist die Grenze?! Wenn es dafür einen Standard gäbe hätten wir vergleichbare Werte denke ich, mir ist hier allerdings keine Definition bekannt, deshalb macht jeder Hersteller wie er es für richtig hält oder seiner "Prospektangabe" zugute kommt...



Antwort von dienstag_01:

Auch da (1px Linien nebeneinander) sehe ich bis ~8K kein Problem, farbig bekomme "ich" bei grün auf weiß und blau auf schwarz Probleme, Rest mit R,G,B auf weiß bzw. schwarz klappt noch sehr gut, wobei das bei mir auch von der Tagesform abhängt. Für eine Bogenminute muss der Abstand vom Monitor (24 Zoll) 95 cm sein.



Antwort von Roland Schulz:

Die 15 Blenden sind bei entsprechendem Störabstand oder früher Rauschunterdrückung schon möglich, die Frage ist eben nur, wie Du oben schon geschrieben hast, was man daraus macht, ob man solche Kunstgemälde daraus fabriziert oder sie auf menschliche Sehgewohnheiten zurück führt. Ich mein gar nicht die technischen Möglichkeiten, ich meine dass Canon letztes mal auch schon ordentlich gerudert ist, als es um "ihre" 15 Blenden ging. Da hat sich doch schon raus gestellt, was sie da denken.
https://www.cinema5d.com/canon-measured ... 0-mark-ii/ Nach "meiner" Interpretation käme "ich" dabei auf tatsächlich 15 (Canon) zu 17 Blenden für die Alexa, weil sich benachbarte Balken mindestens um 2%, und damit differenzierbar, voneinander unterscheiden. Wie ich hinterher über eine Übertragungsfunktion transformiere liegt am Post (vgl. Wowu!!), zumal das dargestellte Ergebnis ebenfalls schon durch irgendeine GammaGamma im Glossar erklärt gelaufen bzw. nicht als RAW dargestellt ist.
Ob 2% sinnvoll sind lasse ich mal dahingestellt...



Antwort von WoWu:

Wenn ich hier allerdings in Photoshop mal eine harte S/W Linie (kein Antialiasing, fast orthogonal) erstelle und in 100% (Pixelgröße) ansehe, erkenne ich auch bei "fiktiven" 8K+ (hab"zwei 24"er nebeneinander (-> 4K), Betrachtungsabstand so dass nochmal min. 2 danebenpassen) noch klar die "Stufen", auf jeden Fall im Zentrum!!

Vielleicht einfach mal ausprobieren und den Wikieintrag hinterfragen... Auflösung heisst Trennung (von Details). Also mal 2, 3 Linien nebeneinander, Abstand auch ein Pixel. Wie sieht es dann aus.
Und das ist noch s/w, wie sieht es bei weniger Kontrast aus ;) Auch da (1px Linien nebeneinander) sehe ich bis ~8K kein Problem, farbig bekomme "ich" bei grün auf weiß und blau auf schwarz Probleme, Rest mit R,G,B auf weiß bzw. schwarz klappt noch sehr gut, wobei das bei mir auch von der Tagesform abhängt.

Die Frage ist auch ob man Trennungen feststellen kann und ob man sie "zählen" (örtlich zuordnen) kann, da wird"s ebenfalls schwieriger denke ich. Details wahrnehmen geht aber schon recht weit, zumindest bei hohem Kontrast. Das mag ja sein, dass Du 8k auf einem 8K Monitor siehst, dann bist Du aber 1,50 vor einer 10m Wand, weil sich die Auflösung nicht an der Menge der aufgenommenen Pixels sondern an der Größe der Darstellungspixels orientiert und weil sich diese Pixelgrösse zwischen 2,4 oder 8 K nicht unterscheidet, verändert sich auch nicht der Betrachtungsabstand zum Monitor, nur dass eben die Bildschirme riesig werden.
Es geht also nur darum, wie groß die Pixels sind und wenn auf jedem PixelPixel im Glossar erklärt eine Linie dargestellt wird, wirst Du immer denselben Abstand haben, völlig wurscht, ob nun 2000, 4000 oder 8000 Pixels nebeneinander angeordnet sind.
Du sitzt immer 1,50 davon entfernt.
Sofern es dann Retina Pixels sind, sie also kleiner werden, musst Du ich näher an den Bildschirm .... es geht also lediglich um ein einziges Verhältnis und das bestimmt die Auflösung des Auges, woraus sich der Abstand zur Darstellungsgrösse des Pixels ergibt.



Antwort von Roland Schulz:

Auch da (1px Linien nebeneinander) sehe ich bis ~8K kein Problem, farbig bekomme "ich" bei grün auf weiß und blau auf schwarz Probleme, Rest mit R,G,B auf weiß bzw. schwarz klappt noch sehr gut, wobei das bei mir auch von der Tagesform abhängt. Für eine Bogenminute muss der Abstand vom Monitor (24 Zoll) 95 cm sein. Es ging um's Auflösungsvermögen des menschlichen Auges!!!

...ne, eigentlich ging's hier um den Kontrastumfang und dessen Interpretation.



Antwort von Roland Schulz:

Wenn ich hier allerdings in Photoshop mal eine harte S/W Linie (kein Antialiasing, fast orthogonal) erstelle und in 100% (Pixelgröße) ansehe, erkenne ich auch bei "fiktiven" 8K+ (hab"zwei 24"er nebeneinander (-> 4K), Betrachtungsabstand so dass nochmal min. 2 danebenpassen) noch klar die "Stufen", auf jeden Fall im Zentrum!!

Vielleicht einfach mal ausprobieren und den Wikieintrag hinterfragen... Auflösung heisst Trennung (von Details). Also mal 2, 3 Linien nebeneinander, Abstand auch ein Pixel. Wie sieht es dann aus.
Und das ist noch s/w, wie sieht es bei weniger Kontrast aus ;) Auch da (1px Linien nebeneinander) sehe ich bis ~8K kein Problem, farbig bekomme "ich" bei grün auf weiß und blau auf schwarz Probleme, Rest mit R,G,B auf weiß bzw. schwarz klappt noch sehr gut, wobei das bei mir auch von der Tagesform abhängt.

Die Frage ist auch ob man Trennungen feststellen kann und ob man sie "zählen" (örtlich zuordnen) kann, da wird"s ebenfalls schwieriger denke ich. Details wahrnehmen geht aber schon recht weit, zumindest bei hohem Kontrast. Das mag ja sein, dass Du 8k auf einem 8K Monitor siehst, dann bist Du aber 1,50 vor einer 10m Wand, weil sich die Auflösung nicht an der Menge der aufgenommenen Pixels sondern an der Größe der Darstellungspixels orientiert und weil sich diese Pixelgrösse zwischen 2,4 oder 8 K nicht unterscheidet, verändert sich auch nicht der Betrachtungsabstand zum Monitor, nur dass eben die Bildschirme riesig werden.
Es geht also nur darum, wie groß die Pixels sind und wenn auf jedem PixelPixel im Glossar erklärt eine Linie dargestellt wird, wirst Du immer denselben Abstand haben, völlig wurscht, ob nun 2000, 4000 oder 8000 Pixels nebeneinander angeordnet sind.
Du ötztal immer 1,50 davon entfernt.
Sofern es dann Retina Pixels sind, sie also kleiner werden, musst Du ich näher an den Bildschirm .... es geht also lediglich um ein einziges Verhältnis und das bestimmt die Auflösung des Auges, woraus sich der Abstand zur Darstellungsgrösse des Pixels ergibt. Bin ich mit einverstanden - es ging aber doch ums Auflösungsvermögen des menschlichen Auges, nicht?! Hab ich was überlesen?! Bei "4K" war noch keine Ortsauflösung im Spiel...








Antwort von WoWu:

Ja genau und das ist 4K (im natürlichen Raum) und daraus ergibt sich zwangsläufig der Abstand zum TV Gerät.
Wenn Du also einen Gegenstand bestimmter Grösse (z.B. die 2 cm Kachel) soweit von der Kamera entfernst, dass der Abstand auch genau der Auflösung des menschlichen Auges entspricht, wirst Du sehen, dass die (je nach Objektiv und Bildsensor) in etwa auch ein PixelPixel im Glossar erklärt der Kamera ausfüllt.
Damit entspricht die Auflösung des Auges einer 4K Kameraauflösung.
Nimmst Du 8K, musst Du zwangsläufig doppelt so weit mit deiner Kachel (oder der Kamera) weg (bei identischer Pixelgrösse), weil Du auch in einer Achse die doppelte Pixelzahl hast. Dein Betrachtungsabstand zum Monitor bleibt aber gleich, der Monitor wird nur doppelt so gross und dass entspricht einer optischen Vergrösserung aber nicht einer höheren Detailauflösung. Gehst Du also weiter weg, um denselben Bildeindruck (Winkel) zu erzielen, siehst Du nicht mehr jedes PixelPixel im Glossar erklärt und hast optisch nun wieder 4K.



Antwort von Roland Schulz:

...Damit entspricht die Auflösung des Auges einer 4K Kameraauflösung.... Mit dieser Definition wäre "ich" dann so nicht einverstanden, da das so nur für einen (merklich) eingeschränkten Bildwinkel gilt!
Auf eine 4K Kamera setze ich auch keine Weitwinkeloptik und betrachte sie als 2K Kamera, weil ich mir nur einen die Horizontale halbierenden Crop aus der Mitte ansehe, ich muss nicht croppen! Meine Kamera (mein Auge) löst "tatsächlich" höher auf!

Ich bin völlig bei Dir wenn es um "normale" Abbildungsmaßstäbe geht, da sehe ich in >4K auch keinen Sinn.
Tatsächlich rolle ich meinen Sessel aber auch schon mal 2m vor die Glotze - wenn das Material taugt, verbieten tut mir das keiner! Dann täten 6-8K nicht weh...


BTT: Wer definiert denn für ne internationale ISO Norm jetzt mal nen Messstandard zur Messung des Kontrastumfangs ;-)?!?!



Antwort von WoWu:

Der Abstand zum TV wird lediglich durch die Pixelgrösse und der Auflösung des Auges bestimmt.
Das hat mit näher rollen nix zu tun, weil die physikalische Grösse der Pixels der TV Geräte (2 / 4 oder 8K) identisch ist.
Nur ist der Fernseher grösser bei 4 K gegenüber 2K.
Dafür hat er mehr Pixels.
Aber die Grösse je PixelPixel im Glossar erklärt verändert sich nicht, also auch nicht der Sitzabstand zum TV Gerät.

Dieser Sitzabstand bestimmt aber den Blickwinkel.

Willst Du also einen identischen Blickwinkel zwischen 2k und 4k haben, müsste der Fernseher für 4K so gross sein, wie der für 2K.

Das würde aber bedeuten, dass die PixelPixel im Glossar erklärt nur noch halb so gross sein dürfen.
Weil aber Deine Augenauflösung nicht reicht (oder bei 2K genau auf die Pixelgrösse abgestimmt war) musst Du den Abstand nun (auf die Hälfte) verringern.



Antwort von Roland Schulz:

Der Abstand zum TV wird lediglich durch die Pixelgrösse und der Auflösung des Auges bestimmt.
Das hat mit näher rollen nix zu tun, weil die physikalische Grösse der Pixels der TV Geräte (2 / 4 oder 8K) identisch ist.
Nur ist der Fernseher grösser bei 4 K gegenüber 2K.
Dafür hat er mehr Pixels.
Aber die Grösse je PixelPixel im Glossar erklärt verändert sich nicht, also auch nicht der Sitzabstand zum TV Gerät.

Dieser Sitzabstand bestimmt aber den Blickwinkel.

Willst Du also einen identischen Blickwinkel zwischen 2k und 4k haben, müsste der Fernseher für 4K so gross sein, wie der für 2K.

Das würde aber bedeuten, dass die PixelPixel im Glossar erklärt nur noch halb so gross sein dürfen.
Weil aber Deine Augenauflösung nicht reicht (oder bei 2K genau auf die Pixelgrösse abgestimmt war) musst Du den Abstand nun (auf die Hälfte) verringern. Das mag alles für diese Deine "empfohlenen" Betrachtungsabstände und Winkel stimmen, es gibt aber kein Gesetz oder verordnete Regel wie nah ich ans Display gehe oder welchen Bildwinkel ich einhalten "muss".
Der Betrachtungswinkel/Abbildungsmaßstab stimmt ohnehin seltenst mit der "Wirklichkeit" überein, sondern hängt u.a. neben der Displaygröße/dem Betrachtungsabstand (gemäß Deiner Darstellung) von der Gestaltung und des verwendeten Bildwinkels der Optik ab.

Das Auge liefert "in den von Dir dargestellten Grenzen" sicherlich je nach Augenzustand diese begrenzte Auflösung bzw. kann darüber hinaus nicht differenzieren, ich sehe aber links und rechts vom Bildschirm auch noch was ohne meinen Blickwinkel zu ändern, damit leistet "das Auge" in der horizontalen eine Auflösung von deutlich mehr als ~4000 "Pixeln" oder ~2000 Linienpaaren.

Mich stört lediglich die Aussage dass das Auge eine auf ~"4K" begrenzte Auflösung habe. Im Vergleich zu einer Kamera wäre das so nicht richtig. Bei einem "monochromen" Sensor mit 4000 horizontal angeordneten Pixeln kann ich zwar auch nur 2000 PixelPixel im Glossar erklärt horizontal auflösen wenn ich nur die halbe Horizontale durch Crop o.ä. nutze oder mein Motiv vor neutralem Hintergrund nur in einen 50% Ausschnitt setze, potentiell kann der Sensor aber mehr!
Mein Auto kann auch 200km/h über "empfohlene" Richtgeschwindigkeit fahren, auch wenn das nicht "empfohlen" ist.
Ich "kann" und "darf" mich, auch wenn es nicht "empfohlen" ist, 2m vor nen 65" UHD Bildschirm setzen und feststellen, dass ich leicht einzelne PixelPixel im Glossar erklärt differenzieren kann oder "Treppen" an Kanten im Bildinhalt erkenne - ich dabei gleichzeitig links und rechts vom Display immer noch jede Menge sehe... Mein Auge löst in der Horizontalen somit >>3840 PixelPixel im Glossar erklärt in der Horizontalen auf.

Ich kann mich im "riesigen" Kino auch in die erste Reihe setzen und mir das Bild abwechselnd von links nach rechts ansehen, dann würde sogar ~16K Sinn machen. Mein Auge löst das dann sehr wahrscheinlich über einen festen Betrachtungswinkel über die gesamte Horizontale nicht mehr auf. Die Quelle könnte ich aber so trotzdem ausnutzen, wobei auch ich sowas nicht als sinnvoll "empfehlen" würde ;-).

Vielleicht denken wir einfach in unterschiedliche Richtungen, ich betrachte die (horizontale) Auflösung des Auges über die gesamte, vom Auge sichtbare Horizontale - die beträgt bestimmt nicht nur in meinem persönlichen Fall >>4000 "Pixel".


Machen wir nochmal mit der Dynamik weiter...?!?!



Antwort von WoWu:

Das hat auch mit dem Betrachtungswinkel überhaupt im ersten Ansatz mal nichts zu tun.
Die PixelPixel im Glossar erklärt Deines Monitors haben doch physikalische Ausmaße.
Ich denke, da sind wir uns einig.
Das Auge hat,wie wir gesehen haben, ebenso eine Auflösungsgrenze.
Wenn man mal von diesen 0,2mm (genau wären es 0,29) auf 1 m ausgeht und sich die Pixelgrösse aus der Bildschirmdiagonale und der Pixelmenge ausrechnet, kommt man auf die Entfernung, die man sitzen muss, um die Bildschirmauflösung zu sehen.
Geht man weiter weg, werden die Pixelgrössen zu klein und 4K wird durch die verschmelzung der Bildpunkte zu 2K und geht man dichter ran, dann werden die Pixels nur größer, aber mehr Bildpunkte entstehen dadurch auch nicht.

Insofern gibt es doch einen Betrachtungsabstand, zumindest wenn man 4 K auch sehen will und aus einer zu großen Entfernung nicht nur ein 2 K Bild haben will.

Ich glaube, soweit kann Du mir folgen.
Daraus resultiert nämlich dieser bestimmter Abstand von dem Du sagst, es gäbe ihn nicht.

Was die Kamera betrifft, so muss man lediglich die Auflösung des menschlichen Auges mit der Sensormöglichkeit vergleichen.
Dazu stellt man fest, dass, wenn ein Objekt von 0,2 mm in einem Meter gerade noch aufgelöst werden kann, man mit einem Objekt, das 100 x Größer ist, auch 100 m weggehen kann, um dasselbe Auflösungsverhältnis zu erhalten. Das wäre also ein Objekt von 2 cm in 100 m

Geht man nun davon aus, dass ein Kamerabild von 4k rd. 4000 Pixels horizontal auflösen soll, um die Sehschärfe zu rekonstruieren, dann müsste man 4000 solcher Objekte in einem noch zu bestimmenden Abstand aufbauen, um jede Kachel ein PixelPixel im Glossar erklärt füllen zu lassen.
Diese Pixelzeile wäre dann also rd. 80m breit. (4000x2cm)
Aus der Bildwinkelformel für sein benutztes Objektiv/Sensorverhältnis erhält man den Winkel, der diese Breite abbildet. Aus einer nachgelagerten Dreiecksberechnung erhält man über diesen Winkel und die Länge 80m dann die Entfernung, in der die Kamera aufgestellt sein muss, um formatfüllend diese Auflösung zu reproduzieren.
Das sind, je nach Kamera und Objektiv, zwischen 80 und 120m, also exakt die Entfernung der in der der Mensch die Objekte auch noch gerade auflösen könnte, wenn man die Kamera wegnehmen würde.
Machst Du das ganze mit 8K, bei selber Sensorgrösse) landest Du mit denselben Objekten bei 160 bis 240m .... also einer Entfernung, die, nimmst Du die Kamera weg, das Auge keinesfalls mehr auflösen könnte.
Oder anders herum, wenn Du im selben Abstand statt 4K, 8K machen willst, hast Du zwar dieselbe Ausdehnung, aber deine Objekte wären nur noch halb so breit, also nur 1cm, was das Auge gar nicht mehr erfassen würden, wenn Du die Kamera wegnimmst, weil sie bei 50m positioniert sein müssten.

Ergo .... ist die Auflösung des Auges äquivalent zu einer 4K Auflösung.
Es geht hier um das optische Auflösungsvermögen und nicht darum, wieviele Pixels der Augenwinkel wohl haben mag. Es geht um die Schärfe und nicht um den Winkel nur muss man, um die Schärfe zu vergleichen, den identischen Winkel für die berechnung heranziehen.
Du siehst auch nicht schärfer, nur weil Du den Blickwinkel mit den Händen einengst.
Das Ganze findet sowieso nur in einem winzigen Bereich statt, in dem das Auge überhaupt nur scharf sieht.
Alle Randbereiche sind nämlich ohnehin total unscharf.

Nun aber Off Topic off.
Beschäftige Dich mal etwas näher damit. Das ist nämlich keine Frage von Ansichten oder " etwas näher an den Fernseher ranrücken", als vielmehr reproduzierbare Materie.



Antwort von Roland Schulz:

Das hat auch mit dem Betrachtungswinkel überhaupt im ersten Ansatz mal nichts zu tun.
Die PixelPixel im Glossar erklärt Deines Monitors haben doch physikalische Ausmaße.
Ich denke, da sind wir uns einig.
Das Auge hat,wie wir gesehen haben, ebenso eine Auflösungsgrenze.
Wenn man mal von diesen 0,2mm (genau wären es 0,29) auf 1 m ausgeht und sich die Pixelgrösse aus der Bildschirmdiagonale und der Pixelmenge ausrechnet, kommt man auf die Entfernung, die man sitzen muss, um die Bildschirmauflösung zu sehen.
Geht man weiter weg, werden die Pixelgrössen zu klein und 4K wird durch die verschmelzung der Bildpunkte zu 2K und geht man dichter ran, dann werden die Pixels nur größer, aber mehr Bildpunkte entstehen dadurch auch nicht.

Insofern gibt es doch einen Betrachtungsabstand, zumindest wenn man 4 K auch sehen will und aus einer zu großen Entfernung nicht nur ein 2 K Bild haben will.

Ich glaube, soweit kann Du mir folgen.
Daraus resultiert nämlich dieser bestimmter Abstand von dem Du sagst, es gäbe ihn nicht.

Was die Kamera betrifft, so muss man lediglich die Auflösung des menschlichen Auges mit der Sensormöglichkeit vergleichen.
Dazu stellt man fest, dass, wenn ein Objekt von 0,2 mm in einem Meter gerade noch aufgelöst werden kann, man mit einem Objekt, das 100 x Größer ist, auch 100 m weggehen kann, um dasselbe Auflösungsverhältnis zu erhalten. Das wäre also ein Objekt von 2 cm in 100 m

Geht man nun davon aus, dass ein Kamerabild von 4k rd. 4000 Pixels horizontal auflösen soll, um die Sehschärfe zu rekonstruieren, dann müsste man 4000 solcher Objekte in einem noch zu bestimmenden Abstand aufbauen, um jede Kachel ein PixelPixel im Glossar erklärt füllen zu lassen.
Diese Pixelzeile wäre dann also rd. 80m breit. (4000x2cm)
Aus der Bildwinkelformel für sein benutztes Objektiv/Sensorverhältnis erhält man den Winkel, der diese Breite abbildet. Aus einer nachgelagerten Dreiecksberechnung erhält man über diesen Winkel und die Länge 80m dann die Entfernung, in der die Kamera aufgestellt sein muss, um formatfüllend diese Auflösung zu reproduzieren.
Das sind, je nach Kamera und Objektiv, zwischen 80 und 120m, also exakt die Entfernung der in der der Mensch die Objekte auch noch gerade auflösen könnte, wenn man die Kamera wegnehmen würde.
Machst Du das ganze mit 8K, bei selber Sensorgrösse) landest Du mit denselben Objekten bei 160 bis 240m .... also einer Entfernung, die, nimmst Du die Kamera weg, das Auge keinesfalls mehr auflösen könnte.

Ergo .... ist die Auflösung des Auges äquivalent zu einer 4K Auflösung.
Es geht hier um das optische Auflösungsvermögen und nicht darum, wieviele Pixels der Augenwinkel wohl haben mag. Es geht um die Schärfe und nicht um den Winkel nur muss man, um die Schärfe zu vergleichen, den identischen Winkel für die berechnung heranziehen.
Du siehst auch nicht schärfer, nur weil Du den Blickwinkel mit den Händen einengst.

Nun aber Off Topic off.
Beschäftige Dich mal etwas näher damit. Das ist nämlich keine Frage von Ansichten oder " etwas näher an den Fernseher ranrücken", als vielmehr reproduzierbare Materie. Sorry, das kann mich in Bezug auf die horizontale Auflösung des menschlichen Auges nicht überzeugen - jetzt ich nochmal:

Gesichtsfeld eines erwachsenen Menschen (zugegeben mit zwei Augen die geschickt überlagern, ich hoffe hier hat niemand das Pech nur ein...):
https://de.m.wikipedia.org/wiki/Gesichtsfeld
Gesichtsfeld: ~180° bzw. ~150° (ein Auge)

(Orts-)Auflösung des menschlichen Auges in Bogenminuten:
https://de.m.wikipedia.org/wiki/Auflösungsvermögen
0,5 bis 1, in "Extremfällen" bis zu 0,2 Bogenminuten möglich!

Horizontale Auflösung des/der Auges/Augen in "Pixeln":
150°/(1/60)° bis zu 180°/(0,2/60)°

macht

9.000 bis 54.000 !!!

Kein TV wird jetzt 180° der Augen beleuchten, von daher wird die untere Grenze vielleicht schon an den von Dir verteidigten "4K" liegen.

Ich für meinen Teil sehe auf einem 4K Fernseher, auch wenn ich den ganzen Bildschirm <<im>4K zumindest "noch" Sinn machen.

"Das Auge selbst" hat nach obiger "Betrachtung" aber eine horizontale Auflösung >> "4K"!



Antwort von WoWu:

Es geht nicht um das Gesichtsfeld des Menschen!
Es geht um das Auflösungsvermögen des Auges.

Du kannst immer nur identische Felder miteinander vergleichen. Bei 8 K hast Du ja auch denselben Bildausschnitt wie bei 4 oder 2 K, solange Du identische
Objektive (angepasst) benutzt.
Du hast in einem 8 K Bild zwar mehr PixelPixel im Glossar erklärt, aber nicht mehr Inhalt.



Antwort von dienstag_01:

Roland Schulz macht bestimmt auch ein Fisheye an seine Kamera und glaubt, dass die Auflösung steigt ;)



Antwort von Roland Schulz:

Roland Schulz macht bestimmt auch ein Fisheye an seine Kamera und glaubt, dass die Auflösung steigt ;) Die Auflösung des Bildaufnehmers (Auge/Sensors) ist unabhängig vom Bildwinkel der vorgelagerten Optik, ansonsten topqualifizierter Kommentar - hoffe Dein Gesichtsfeld entspricht keinem "Fisheye" ;-)!!








Antwort von WoWu:

Na also, da haben wir' s doch.
Du kannst immer nur identische Bildfelder miteinander vergleichen.
War soll also das Gesichtfeld im Verhältnis zu einer TV Darstellung aussagen ?
Aber lassen wir's dabei.



Antwort von Roland Schulz:

...4K Das sind, je nach Kamera und Objektiv, zwischen 80 und 120m, also exakt die Entfernung der in der der Mensch die Objekte auch noch gerade auflösen könnte, wenn man die Kamera wegnehmen würde.
Machst Du das ganze mit 8K, bei selber Sensorgrösse) landest Du mit denselben Objekten bei 160 bis 240m ...das (Faktor 2) stimmt übrigens nicht.

weiter, welche Auflösung kann das Auge auf einem Beispiel TV wahrnehmen:
65" (144cm hor.) aus ~109cm:
2*tan-1(72/109)/(0,5/60) =~8.000

65" (144cm hor.) aus ~240cm:
2*tan-1(72/240)/(0,5/60) =~4.000

130" (288cm hor.) aus ~240cm:
2*tan-1(144/240)/(0,5/60) =~7.400


...ups ;-)!!!


109cm an nen 65" ist in der Praxis zugegeben schon "pervers" ;-), ich sehe trotzdem Stufen aus für mich noch akzeptablen Entfernungen!



Antwort von Roland Schulz:

...
War soll also das Gesichtfeld im Verhältnis zu einer TV Darstellung aussagen ? Die Auflösung des menschlichen Auges erstreckt sich über das Gesichtsfeld in mit ~(0,5/60)

Die Auflösung des menschlichen Auges hat mit der TV Darstellung eigentlich tatsächlich erstmal nichts zu tun...



Antwort von WoWu:

Das ist ja alles richtig, aber jetzt musst Du fragen, welche Ausmaße eine Winkelminute denn hat, also wie sie in einer Pixelmatrix dargestellt werden kann, denn das TV Gerät präsentiert ja keine Winkelminuten sondern Bilddetails mit realen Ausmaßen, die entweder noch vom Menschen identifizierbar sind, oder eben nicht.
Darum geht es, nicht welche Breite ein Fernseher darstellen kann.
Ein Meter wird ja auch nicht als 299.792.458ster Teil einer Sekunde Lichtdurchquerumg dargestellt.
Denn das Meter ist ja streng genommen auch keine Basiseinheit sondern eine von der Sekunde abgeleitete Maßeinheit. Sagt aber so leider keinem etwas.
So ist das auch mit der Winkelminute.



Antwort von Roland Schulz:

Das ist ja alles richtig, aber jetzt musst Du fragen, welche Ausmaße eine Winkelminute denn hat, also wie sie in einer Pixelmatrix dargestellt werden kann, denn das TV Gerät präsentiert ja keine Winkelminuten sondern Bilddetails mit realen Ausmaßen, die entweder noch vom Menschen identifizierbar sind, oder eben nicht.
Darum geht es, nicht welche Breite ein Fernseher darstellen kann.
Ein Meter wird ja auch nicht als 299.792.458ster Teil einer Sekunde Lichtdurchquerumg dargestellt.
Denn das Meter ist ja streng genommen auch keine Basiseinheit sondern eine von der Sekunde abgeleitete Maßeinheit. Sagt aber so leider keinem etwas.
So ist das auch mit der Winkelminute. ...ich frage mich jetzt eigentlich nur noch eins: warum habe ich noch keinen "größeren" Fernseher in einem "zu großen" Wohnzimmer ;-)?!?!

Na ja, für wirklich hochauflösendes Material könnte der tatsächlich größer sein, bei mancher Fernsehsendung kriege ich dagegen jetzt schon Haarausfall (anscheinend hab ich da schon viel "Schrott" gesehen ;-) ) - ich adaptiere das erstmal weiter mit dem Sessel... ;-)!!

In dem Sinne - hat Spaß gemacht, bin selbst nach den Rechnungen überrascht wie gut meine Augen wohl noch sind bzw. wie weit ich tatsächlich "ins Bild" rollen muss ;-)!!

Gute Nacht miteinander!!


P.S.: ...machen wir morgen die ISO-Norm zur Messung des DR "fertig"?!?!



Antwort von WoWu:

...
War soll also das Gesichtfeld im Verhältnis zu einer TV Darstellung aussagen ? Die Auflösung des menschlichen Auges erstreckt sich über das Gesichtsfeld in mit ~(0,5/60)

Die Auflösung des menschlichen Auges hat mit der TV Darstellung eigentlich tatsächlich erstmal nichts zu tun... NICHT ?

Dann lass uns das doch mal durchrechnen.
Für ein 42" TV Gerät (rd. 107 cm Diagonale) ergibt sich daraus:
107 cm x 0,49 = 52,43 cm / 540 (PAL) = 0,97 mm Zeilenhöhe.
Bei HD wären das bei 720 = 0,73 und bei 1080 = 0,48 mm
Unter Berücksichtigung der wahrnehmbaren 1mm aus 3,50m Abstand wäre dies bei 0,97mm Zeilenhöhe die ideale Kombination, bei der die Zeilenstruktur gerade nicht mehr störend wahrgenommen würde.
Bei 720 Zeilen HDTV Signal ist die Zeilenhöhe eines 42" TVs jedoch nur noch 0,73mm.
Um den Detailreichtum hier noch erkennen zu können dürfte der Zuschauer also nur noch 2,50m vom TV Gerät entfernt sitzen und für 1080 Zeilen nur noch 1,69m, weil die Zeilenhöhe nur noch 0,48mm beträgt.
Ab diesem idealen Betrachtungsabstand sind Bilder höherer Auflösung nicht mehr schärfer.
Man kann also im Abstand von 2,40 bei einem 42" TV Gerät nicht mehr den Unterschied zwischen 720 und 1080 feststellen, weil das Auflösungsvermögen des Auges nicht ausreicht.

Soviel hat das mit der Auflösung zutun.
Übrigens eigentlich schon eher, weil das Auge schon bei 75% überlappung bereits nur noch einen, statt zwei Auflösungspunkte erkennt.(Reyleigh Kriterium)
Aber lassen wir mal solche Faktoren ruhig außen vor.

Gute Nacht.... ich leg mich jetzt in die Sonne.



Antwort von Roland Schulz:

...
War soll also das Gesichtfeld im Verhältnis zu einer TV Darstellung aussagen ? Die Auflösung des menschlichen Auges erstreckt sich über das Gesichtsfeld in mit ~(0,5/60)

Die Auflösung des menschlichen Auges hat mit der TV Darstellung eigentlich tatsächlich erstmal nichts zu tun... NICHT ? NEIN, da die Auflösung des menschlichen Auges nicht von der TV Darstellung abhängt, mehr sagt der Satz nicht aus.



Antwort von WoWu:

Aber die TV Darstellung vom Auflösungsvermögen des Auges.

Denn kein 4k Fernseher nutzt Dir was, wenn Du zweit weg sitzt, weil du dann nur noch Hd oder sogar SD siehst, statt 4K.



Antwort von Roland Schulz:

...ich leg mich jetzt in die Sonne. Hmmfff!!! Hast gewonnen :-(!!



...dafür bestell' ich morgen ne größere Kiste und ruf' danach noch bei Techart an ;-p!!!








Antwort von Jott:

Aber bitte nur HD Ready (720p). Nicht über den Tisch ziehen lassen.



Antwort von Jott:

...



Antwort von Roland Schulz:

...ich leg mich jetzt in die Sonne. ...hmm, ob das mal wirklich so stimmt - gemäß Wetterbericht ist's bei euch derzeit ähnlich bescheiden wie bei uns!! Solarium gilt nicht!!
Ich steig' auch nicht ins Auto und behaupte ich fahr' zum Mond - meine Nachbarn rufen mir morgens höchstens "fahr' zur Hölle" hinterher - dabei war ich noch gar nicht bei Techart ;-)!

Fernseher muss auch noch warten, finde bei ebay keinen lieferbaren KD-100ZD9 :-..., "Weihnachtsgeld" gibt's zudem erst diesen Monat ;-)!!



Antwort von Roland Schulz:

Aber bitte nur HD Ready (720p). Nicht über den Tisch ziehen lassen. Top-Tip!! Danke!!



Antwort von domain:

Denn kein 4k Fernseher nutzt Dir was, wenn Du zweit weg sitzt, weil du dann nur noch Hd oder sogar SD siehst, statt 4K. Aus meiner Sicht kann ich WoWu nur zustimmen, deckt sich mit meinen Erfahrungen im TV-Bereich.
Habe einige Sender in HD720 aber die meisten in SD. Die Unterschiede sind bei bestimmten Aufnahmen zwar bemerkbar, für mich aber ziemlich irrelevant.
Ein Phänomen bei (Pixel-)Spezialisten dürfte aber schon zum Tragen kommen, nämlich das Gesetz der sinkenden Reizschwelle.
Das heißt, wenn man sich als Spezialist längere Zeit mit arttypischen Qualitäten beschäftigt, dann ist man in der Lage, immer feinere Nuancen zu unterscheiden, die einem Normalsterblichen gar nicht mehr auffallen, siehe Wein-, Kaffeeverkoster etc.
Ein extremes Beispiel erlebte ich mal vor vielen Jahren bei einem Soundfreak. Die Bose ist nur mehr Hintergrundbox bei mir, hör dir mal diese Elektrostaten und die Basshörner an. Die Infraschallvibrationen beutelten mich körperlich durch und die 32 KHz Obertöne malträtierten meine Trommelfelle, ein für mich schrecklicher Sound, aber er war begeistert und steckte all sein Geld in seine HiFi-Anlage und seine 5000 Platten.
Aus meiner Sicht ist es eher eine Tragödie, wenn die Reiz- und Beurteilungschwelle permanent nach unten geht, man kann eigentlich nie mehr zufrieden sein, es muss immer mehr und besser werden.



Antwort von Rudolf Max:

@: Aus meiner Sicht ist es eher eine Tragödie, wenn die Reiz- und Beurteilungschwelle permanent nach unten geht, man kann eigentlich nie mehr zufrieden sein, es muss immer mehr und besser werden.

Das bringt es für mich genau auf den Punkt...

Inhaltlich totale Scheisse, wichtig ist bloss noch Surround, HDR, möglicht viele Frames per sekunde und 8k...

Mann, wie verblödet muss man sein, um immer bloss dem allerneuesten Gugus hinterherzurennen, anstatt mal das zu geniessen, was man hat...?

Rudolf



Antwort von WoWu:

Wenn man wirklich nur den echten Verbesserungen hinterhertragen würde, ging das ja noch, die meisten jagen aber nur den neuen Aufklebern hinterher, egal wie das Bild hinterher aussieht.
Und wie schnell man solide Bildeinschätzungsparameter über den Haufen wirft, kann man auch gleich dabei beobachten.
Vor einem Jahr war der "Videolook" noch total verpönt, heute ist er total "in" weil 4K draufsteht.
Heute werden echte Sch..bilder" als Innovation verkauft.



Antwort von iasi:

Vor einem Jahr war der "Videolook" noch total verpönt, heute ist er total "in" weil 4K draufsteht.
Heute werden echte Sch..bilder" als Innovation verkauft. D und deine 4k-Phobie ... die Sch..bilde hast du doch schon lange und unabhängig von 4k ... :)

Gruslig , was man da zu sehen bekommt - selbst wenn"s mit einer Alexa gedreht wurde.



Antwort von WoWu:

Na ja, lieber kritisch betrachtet, als als Fanboy, der alles vom Typenschild abliest.
Jedem das Seine.
Bisher hat auch noch keiner so einen Realworld Test vorgezeigt, der die 4 K Auflösung zeigt.
Und solange gilt das, was die BBC getestet hat, auch wenn das Deiner religiösen Einstellung zum Thema widerspricht.








Antwort von Starshine Pictures:

Da werfe ich doch glatt auch noch mal ein aktuelles Canon Fundstück in die Arena. Ein White Paper mit Erklärungen zu HDR.


http://learn.usa.canon.com/app/pdfs/whi ... 37965741=1




Grüsse, Stephan von Starshine Pictures



Antwort von iasi:

Na ja, lieber kritisch betrachtet, als als Fanboy, der alles vom Typenschild abliest.
Jedem das Seine.
Bisher hat auch noch keiner so einen Realworld Test vorgezeigt, der die 4 K Auflösung zeigt.
Und solange gilt das, was die BBC getestet hat, auch wenn das Deiner religiösen Einstellung zum Thema widerspricht. Doch - ständig werden Realworld Tests durchgeführt.
Man sieht eben nun einmal z.B. den Unterschied zwischen einer Alexa und einer Red, was die Auflösung betrifft - neulich, sehr auffällig bei Dronenaufnahmen einer Red und "Bodenaufnahmen" einer Alexa in derselben Szene.
Es ist wie mit echtem 3D und nachträglich errechnetem 3D - man sieht"s - und darauf kommt es an.

Wenn ich Mission sehe, frage ich mich z.B. auch, ob Chris Menges das z.T. eher grobe Filmmaterial wählen wollte oder musste - ich nehme mal an, dass es technische Limitierungen waren. 4k entspricht eben nun einmal Film mit feinerem Korn - und man kann den Unterschied bei manchen Aufnahmen eben sehr gut erkennen.



Antwort von Roland Schulz:

Ähm, holt mich noch mal ab - behauptet hier wer dass 4K/UHD keinen Vorteil gegenüber 2K/FHD bietet, nur weil "wer" 4m vor ner "70er Röhre" sitzt ;-)???
...ich gebe zu - 580PS bringen mir im Stau auch NULL KOMMA NIX!!!



Antwort von iasi:

Ähm, holt mich noch mal ab - behauptet hier wer dass 4K/UHD keinen Vorteil gegenüber 2K/FHD bietet, nur weil "wer" 4m vor ner "70er Röhre" sitzt ;-)???
...ich gebe zu - 580PS bringen mir im Stau auch NULL KOMMA NIX!!! da steht nur 4k drauf - das bringt generell nichts - sagen manche :)



Antwort von ruessel:

Also bin ich mit meiner Pocket und deren 2K ProResProRes im Glossar erklärt 10 BitBit im Glossar erklärt Stream auf 4K upgesampelt noch lange Zukunftsicher? ;-)



Antwort von Roland Schulz:

Also bin ich mit meiner Pocket und deren 2K ProResProRes im Glossar erklärt 10 BitBit im Glossar erklärt Stream auf 4K upgesampelt noch lange Zukunftsicher? ;-) ...das ist doch eine der Kameras die noch nicht mal "echte" FHD/2K Auflösung liefert, oder?!?! Für 70cm aus 4m trotzdem alles sicher ;-)!!!



Antwort von Roland Schulz:

Ähm, holt mich noch mal ab - behauptet hier wer dass 4K/UHD keinen Vorteil gegenüber 2K/FHD bietet, nur weil "wer" 4m vor ner "70er Röhre" sitzt ;-)???
...ich gebe zu - 580PS bringen mir im Stau auch NULL KOMMA NIX!!! da steht nur 4k drauf - das bringt generell nichts - sagen manche :) ...dann ist ja alles gut!!



Antwort von ruessel:

...das ist doch eine der Kameras die noch nicht mal "echte" FHD/2K Auflösung liefert, oder?!?
Sag das nicht, mit SB und gutem Nikonglas fallen Dir fast die Augen raus ;-)

(Lieber weniger PixelPixel im Glossar erklärt, dafür bessere Pixel)



Antwort von Roland Schulz:

...das ist doch eine der Kameras die noch nicht mal "echte" FHD/2K Auflösung liefert, oder?!?
Sag das nicht, mit SB und gutem Nikonglas fallen Dir fast die Augen raus ;-)

(Lieber weniger PixelPixel im Glossar erklärt, dafür bessere Pixel) ...schon mal ne a6300 mit gutem Nikon, ähm Sigmaglas (50 1.4 Art) angemacht?! Da kriegste den Mund nicht mehr zu und fängst wirklich an, Grashalme zu zählen ;-)!!!








Antwort von Jott:

Das sind aber künstlich errechnete Grashalme, deren Aussehen sich die Kamera aus einem neuronalen Netz holt. 4K - unfassbare 8 bis 9 Megapixel - kann eine S35-Kamera unmöglich auflösen, es gibt auch keine Objektive, die so was können. Deswegen ist alles nur künstlich errechnet, was du siehst! :-)



Antwort von Axel:

Die Kamera ahmt ja nicht das Auge nach - sie bietet eine Art Fenter, durch das der Betrachter blicken soll. Sehr schön, iasi. Bis hierhin. Rear Window, die Allegorie des immobilen Beobachters, den Neugier dazu bringt, in diesen Rahmen zu blicken.
Das Auge wandert über das Bild und es adaptiert dabei ständig. Ermüdend, iasi. Immer wieder dieselbe Leier.

Ein Bild - in der Malerei, der Fotografie und im Film - ist ein Abbild. Im Gegensatz zu einer von einer Überwachungskamera gemachten Aufnahme ist es bereits "Hinterband". Fertig vorverarbeitet vom Prozessor deiner selektiven Wahrnehmung. Mit Bedeutung aufgeladen. Ausschnitt, Kamerawinkel etc. - vor allem aber natürlich Motiv bewusst ausgewählt. Die praxisorientierte Bildgestaltungslehre spricht von Blickführung. Das Ziel der Kadrage. Grundlegend für das Verständnis von Film, wenn nicht von visueller Kommunikation überhaupt. Wanderaugen wären was für virtuelle Realität, wo ich als Architekt (in Inception die Erbauerin der komplexen Träume, wobei Träume sehr wahrscheinlich optisch eher abstrakter Kunst oder naiver Kindermalerei ähneln, interessant, wie schwierig das zu erforschen ist, jedenfalls ist der Aspekt "Abbild" von Traumbildern bereits ziemlich gut belegt) eine komplexe dreidimensionale Kunstwelt erschaffen muss.

Können wir uns vorläufig darauf einigen, dass DAS noch Science Fiction ist? Und darüber hinaus mit VIDEO und ob es 4, 8 oder 1000k hat, *nichts* zu tun hat?

Ein wandernder Blick wird dem Zuschauer gegebenenfalls suggeriert. Hier schließt sich ein Kreis, da wir wieder auf Schwenks zurückkommen. Aber für heute reicht's mir mit Déjá-vus.



Antwort von Roland Schulz:

Das sind aber künstlich errechnete Grashalme, deren Aussehen sich die Kamera aus einem neuronalen Netz holt. 4K - unfassbare 8 bis 9 Megapixel - kann eine S35-Kamera unmöglich auflösen, es gibt auch keine Objektive, die so was können. Deswegen ist alles nur künstlich errechnet, was du siehst! :-) So wird's sein ;-)...
...jetzt hört mal auf, etwas mehr Respekt, in einigen Punkten würde ich "ihm" auch Recht geben.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Hat Canon einen Sensor-Trumpf in der Tasche?
Kompakte Kameratasche für Canon XA 10
Kameratasche für "Canon XA 10"
Tasche für Canon HF-Serie
Welche Tragetasche für Canon XM2 ?
Tasche für Canon XL2
Hat Canon ein Sensor-Ass im Ärmel? Global Shutter Sensor mit 120 dB Dynamik.
Der Sensor der Canon EOS R6 - Rolling Shutter und Debayering
Der Sensor der Canon EOS C70 - Rolling Shutter und Debayering
Sony Alpha 6400 vs Canon EOS C200 - Wer hat den besten Video-Autofokus im S35-Sensor Format?
Hat Canon eine ?Cinema? EOS R5 mit aktiver Kühlung in der Pipeline?
Erstes Bildmaterial vom Canon 120MP Sensor sowie 35mm FHD Lowlight Sensor
Hat dieser Soundeffekt einen Namen?
Zeapon hat einen neuen Slider
RX 480 in Resolve - hat jemand einen Tipp?
Hat Sony den Foveon Sensor neu erfunden?
Wer hat einen DVD-Rekorder mit Scart-Out?
ND Filter 105mm Durchmesser, hat jemand einen Tipp?
FOTO-MORGEN Geschlossen-Jinbei hat einen Deutschland Vertrieb
Wer hat einen Panasonic DMR-EH56 und kann helfen?
Lösung WAS: Wer hat einen Panasonic DMR-EH56 und kann helfen?
Wer hat Lust einen Videoclip zum Song zu machen? Gothic-Dark
Der Sensor der Panasonic S5 - Rolling Shutter und Debayering
Der Sensor der Sony Alpha 7S III - Rolling Shutter und Debayering
Der Sensor der Blackmagic URSA Mini Pro 12K - Demosaicing und Rolling Shutter
wer hat eine Canon MVX150i ?

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
1. April - 30. September / Düsseldorf
Young Film Lab
12-15. Mai / Thalmässing
27. Kurzfilmtage Thalmässing
12-16. Mai / Bremen
realtime, festival für neue musik
19-30. Juni / Düsseldorf
24h to take
alle Termine und Einreichfristen