Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Kurznews: Gerüchteküche sieht Sony und Panasonic mit 8K



Newsmeldung von slashCAM:


Sowohl Sony Alpha Rumors als auch 4/3 Rumors wollen Hinweise haben, dass Sony und Panasonic schon in näherer Zukunft auf den 8K-Zug springen werden. So soll Sony bereits einen 8K Prototypen im A99-Format bei der BBC gezeigt haben. Und ein Panasonic Mitarbeiter soll bestätigt haben, dass man für die kommenden Lumix-Kameras nicht nur an 4K/60fps sondern auch an 8K-Aufnahme arbeitet.

Da passt sicherlich auch HEVC/h.265 ins Gerüchte-Boot, wobei wir uns fragen, wie man 8K aus den typischen MFT-Sensoren mit 5K-Horizontal-Senseln kitzeln soll. Auch von der optischen Seite dürften 8K auf MFT-Sensorgröße schon eine äußerst sportliche Herausforderung sein. Darum halten wir eine entsprechende GH5-Option für extrem unwahrscheinlich. 5K allerdings wären sicher als nächster Schritt absolut machbar, cool und weiterhin passend zum Namen.



zur News

Space


Antwort von Frank Glencairn:

Verdoppeln wir jetzt die Pixelanzahl alle 12 Monate?
Die sind doch alle nicht mehr ganz dicht.

Space


Antwort von Hefe:

Wer braucht denn heute bitte schon 8K im Consumer Bereich? Es hat sich ja nicht mal 4K bis jetzt flächendeckend durchgesetzt. Ich sehe da aber auch einen großen Engpass was die Speichermedien angeht (Größe / Geschwindigkeit). Naja mal abwarten...

Space


Antwort von Jensli:

Wer braucht denn heute bitte schon 8K im Consumer Bereich? Es hat sich ja nicht mal 4K bis jetzt flächendeckend durchgesetzt.
hahaha, der war gut! 4K? Es hat sich noch nicht einmal HD flächendeckend durchgesetzt!!!

Space


Antwort von Jott:

Na ja, passt zu den Gerüchten.

http://www.netzwelt.de/news/149296-sony ... -2015.html

Wenn die Prozessoren schnell genug geworden sind, um ohne Tricks 24 bis 60 Bilder pro Sekunde in voller Sensorpracht schießen zu können, dann wird das auch umgesetzt. Irgend eine Anwendung wird sich schon finden, und seien es nur bewegte Riesenplakate, gefakte Fensterblicke oder so was.

Lasst sie doch machen, schadet ja nicht.

Space


Antwort von ennui:

Die aktuellen Objektive sind ja über Nacht auch plötzlich doppelt so gut geworden, habe ich gehört. Die reichen jetzt auch für 8K! Aber noch nicht für 16K, denn das kommt dann nächstes Jahr zu Ostern! Das grobe 4K ist nur noch was für Loser und arme Schlucker!

Pure comedy gold.

Space


Antwort von Bruno Peter:

Wer braucht denn heute bitte schon 8K im Consumer Bereich? Es hat sich ja nicht mal 4K bis jetzt flächendeckend durchgesetzt.
hahaha, der war gut! 4K? Es hat sich noch nicht einmal HD flächendeckend durchgesetzt!!! Und der 2K-Ausschnitt aus dem 4K-Material sieht auch nicht 4x besser aus auf einem HDTV!

8K könnte ich auf Nachbars Giebelwand mit dem Beamer werfen, wenn ich tock-tock-tock wäre!

Space


Antwort von WoWu:

Man muss immer unterscheiden zwischen 8K Pixels und 8 K Bildauflsung.
Fouriertransformationen kann man (quasi) unendlich viele Male teilen.
Nur man gewinnt damit nicht ein einziges neues Bilddetail.
Deswegen erledigt sich auch die Frage, ob Objektive oder Sensoren das "packen".
Seit 4K (im Consumerbereich) sind es ohnehin nur noch bei denen neue Bilddetails, die beharrlich daran glauben und nicht wirklich zwischen Pixels und Details unterscheiden.

Space


Antwort von Jott:

Fotografen glauben beharrlich dran.
4K sind ja nicht mal 10 Megapixel.

Space



Space


Antwort von Mathias Wolfgang:

@Frank!
Pixxelpolizei= Führerschein, Fahrzeugpapiere und ALKOTEST!!

:)

Space


Antwort von Tiefflieger:

Fotografen glauben beharrlich dran.
4K sind ja nicht mal 10 Megapixel. Das ist das Maximum einer Kleinbildkamera Bilddetailauflösung mit Festbrennweite.
Und ja die Kamera ruhig halten um nichts zu verwackeln (und kurze Verschlusszeit).
Wenn es nicht allzu stark rauscht, bringen sogar 22 MP Sensoren bezüglich Farbe noch etwas.

Für Bewegung ist eine Lomo genügend ;-)

Gruss Tiefflieger

Space


Antwort von WoWu:

Fotografen glauben beharrlich dran.
4K sind ja nicht mal 10 Megapixel.
Pixelzahl sagt noch nichts über das Beugunglimit aus.
Es sagt nur etwas über die Anzahl der Pixel aus. Erst wenn man den Bezug zur Fläche aller Pixels hat, kann man eine Aussage über die Pixelgrösse machen und erst dann einen Bezug zum Beugungslimit herstellen.
Fotografen sorgen aber auch dafür, dass ihr Bildformat so gross ist, dass sie kein Beugungslimit überschreiten.

Vielleicht solltest Du Fotograf werden ... aber das ist ja leider ein Lehrberuf.
Das wird dann wohl nix.
Aber Du könntest Dich wenigstens mal mit einem unterhalten ... aber das setzt dann natürlich auch voraus, dass man das versteht, wovon der dann spricht.
Wird dann wohl auch nix.

Space


Antwort von Jott:

Herrlich arrogant, ungeschlagen unterhaltsam.

Space


Antwort von WoWu:

Das freut mich, dass ich Dir eine Gefälligkeit erweisen konnte und Dich gut unterhalten habe.

Space


Antwort von Jott:

8K aus einem 35mm-Vollformatsensor ist auch das, woran die NHK bastelt - um ein kompakte 8K-Kamera zu bauen, die mit gängigen Optiken bestückt werden kann. Warum sollte so ein Sensor - muss ja nicht gleich 133 Megapixel sein! - dann nicht in zwei Jahren in einer Vollformat-Hybridkamera auftauchen? Gleiches Spiel.

http://www.nhk.or.jp/strl/open2014/tenj ... ji20_e.pdf

"We have also designed the sensor to have an active area with a diagonal length that is equivalent to that of a 35mm full-frame image sensor, thereby making it possible to use a wide variety of commercially available lenses."

Finde ich durchaus auch unterhaltsam.

Space


Antwort von DV_Chris:

Grass Valley hat bereits auf der InterBEE im November 2013 die Schnittsoftware Edius Pro 7 mit 8K Material präsentiert. Das im Hinblick auf die Zusammenarbeit mit dem japanischen Fernsehen, da ja die Olympiade 2020 in 8K übertragen werden soll. Infos zum Codec:

http://www.grassvalley.com/products/hqx_codec

Space


Antwort von WoWu:

@ Jott
Du must nur mal nachrechnen und mir dann sagen, warum die Gesetze der Wellenoptik für diese Sensoren nicht mehr gelten sollen.
Dann ist alles klar.
Im Übrigen sagt die Benutzung eines Sensors und/oder einer Optik noch nichts darüber aus, mit welchen Algorithmen im Prozesse gearbeitet wird.

Aber solange Du die simpelsten physikalischen Gesetzmässigkeiten natürlich ignorierst, funktioniert natürlich alles.

Es ist wirklich nur dumm gelaufen, dass ARRI jetzt einen so grossen Sensor einsetzt, wo sie doch die vierfache Auflösung mit einem Viertel der Grösse hätten machen können.
Wirklich ... zu dumm.

Space


Antwort von Jott:

Zu dumm, dass es die EPIC Dragon gibt. 6K für Stills und Bewegtbild aus einer Sensorfläche, die deutlich KLEINER ist als das 35mm-Vollformat der japanischen 8K-Sensorpläne - es passen ja unverändert die gängigen Filmoptiken auf die RED.

Im RED-Forum wird über vieles gejammert, aber über Probleme mit Beugung/Diffraktion habe ich zumindest beim Querlesen noch nichts entdecken können.

Space



Space


Antwort von WoWu:

Tja, das ist auch die richtige Orientierung für Dich.
Kommt gleich hinter Firmenprospekten.
Alles klar.
Deswegen wird das auch nix mit einem richtigen Fotografen.
Fanboys sind da viel aufschlussreicher. ... Kann ich verstehen.

Aber Du kannst mich ja ganz einfach überzeugen.
Sag mir einfach, warum optische Gesetze seit 2014 nicht mehr gelten, statt zu labern, was in welchem Blog Meinung ist.

Space


Antwort von Jott:

Okay. Dann sagen wir: Hollywood/Fincher (Gone Girl auf Dragon) gegen wowu.

Space


Antwort von WoWu:

@ Jott

Nochmal:
Es ist keine Frage der Meinung sondern eine Frage der physikalischen Gesetzmässigkeiten.
Solange Du mir nicht sagen kannst, warum solche Gesetze nicht mehr gelten, kannst Du mir selbst mit dem Papst kommen.
Und offenbar kannst Du ja nicht sagen, warum die Wellenoptik nicht mehr stimmt.
Also stimmt sie noch.
Da kannst Du jetzt labern so viel Du willst.
Besser wäre es, Du würdest mal einwenig in Wikipedia blättern, als bei den Fanboys.

Space


Antwort von Frank Glencairn:


Im RED-Forum wird über vieles gejammert, aber über Probleme mit Beugung/Diffraktion habe ich zumindest beim Querlesen noch nichts entdecken können. LOL - da will sich halt auch keiner öffentlich lynchen lassen.
Kannst ja mal zum Spaß probieren da so einen Thema auf zu machen - wirst schon sehen was dann passiert.

Space


Antwort von iasi:

Tja, das ist auch die richtige Orientierung für Dich.
Kommt gleich hinter Firmenprospekten.
Alles klar.
Deswegen wird das auch nix mit einem richtigen Fotografen.
Fanboys sind da viel aufschlussreicher. ... Kann ich verstehen. auch an anderer - unverdächtigerer - Stelle liest man aber eben nichts über das von dir immer wieder vorgetragene Problem - zuletzt wurden z.B. Objektive an der Red Dragon getestet, aber davon, das dich ziemlich umtreibt, war nicht die Rede ...

Du kannst natürlich sagen: Die Leute filmen mit Kamera-Objektiv-Kombinationen herum ohne zu bemerken, dass sie längst rechnerische Greenzen überschritten haben - nur ist in der Praxis eben dennoch ein Gewinn aus diesen Pixelmonstern zu holen.

Space


Antwort von WoWu:

Dann sag mir doch, warum optische Gesetze nicht mehr gelten.
Dass man nichts darüber lesen kann, sagt ja noch nicht, dass sie es noch optisch machen ... meine Rede.
Man muss eben nur unterscheiden können zwischen einer optischen Aufbereitung und einer rechnerischen, bei dem keine zusätzlichen Bildinhalte bei 4 oder 8 K dazu kommen.
Dass da hinterher scharfe Bilder bei herauskommen, bestreitet ja niemand.
Und wenn sie aus HD oder 3K hinterher 4 oder 8K machen, dann ist das ebene eine höhere Pixelmenge aber eben keine zusätzlichen Bilddetails.
Und dass solche Themen nicht in solchen Fanforen diskutiert werden, spricht nicht gerade für solche Plattformen.

Aber, wie gesagt ... sag mir einfach, wie es geht und warum Beugung kein Thema mehr ist.
Dann lern' ich gern dazu.
Aber sag mir nicht, wo es NICHT besprochen wird.
Sag mir, wo das Thema besprochen wird und wo gesagt wird, warum wir die Gesetze der Optik nun ein für alle mal vergessen können.

Space


Antwort von Jott:


Im RED-Forum wird über vieles gejammert, aber über Probleme mit Beugung/Diffraktion habe ich zumindest beim Querlesen noch nichts entdecken können. LOL - da will sich halt auch keiner öffentlich lynchen lassen.
Kannst ja mal zum Spaß probieren da so einen Thema auf zu machen - wirst schon sehen was dann passiert. Ich weiß, was du meinst, aber der Rausch-Shitstorm hatte sich doch genau dort wunderbar ausgetobt. Trotz Fanboytum. Keine Angst mehr davor, dass Jim die Kamera zurückfordert von Aufmuckern! Jan Reiff musste einschreiten! :-)

Egal. Her mit Links zu Beugungsproblemen mit Dragon. Gerne auch von Fotografen. Völlig egal. Es gibt doch auch hier RED-Verächter. Ran an den Speck! Füllen wir den Thread doch mit Leben!

Space


Antwort von ennui:

Man will ja mit der Zeit gehen und immer auf dem laufenden bleiben. Aber ich merke, dass mir diese ganze Industrie mit ihren monatlichen bizarren "Innovationen" zunehmend nur noch auf den Geist geht. Nix mehr "Faszination", nix "Fortschritt". Nix "oh, will haben". Nur noch sich selbst reproduzierender Bullshit und Bauernfängerei auf unterster Schiene, echt zum wegklicken.

Space


Antwort von iasi:

Dann sag mir doch, warum optische Gesetze nicht mehr gelten.
Dass man nichts darüber lesen kann, sagt ja noch nicht, dass sie es noch optisch machen ... meine Rede.
Man muss eben nur unterscheiden können zwischen einer optischen Aufbereitung und einer rechnerischen, bei dem keine zusätzlichen Bildinhalte bei 4 oder 8 K dazu kommen.
Dass da hinterher scharfe Bilder bei herauskommen, bestreitet ja niemand.
Und wenn sie aus HD oder 3K hinterher 4 oder 8K machen, dann ist das ebene eine höhere Pixelmenge aber eben keine zusätzlichen Bilddetails.
Und dass solche Themen nicht in solchen Fanforen diskutiert werden, spricht nicht gerade für solche Plattformen.

Aber, wie gesagt ... sag mir einfach, wie es geht und warum Beugung kein Thema mehr ist.
Dann lern' ich gern dazu.
Aber sag mir nicht, wo es NICHT besprochen wird.
Sag mir, wo das Thema besprochen wird und wo gesagt wird, warum wir die Gesetze der Optik nun ein für alle mal vergessen können. Zuletzt war ein Bericht im Flm&TV-Kameramann über einen Objektivtest - zu dem nahmen sie eben eine Red Dragon als Kamera.

Die Gesetze der Optik sind aber eben auch nicht so einfach zu fassen, wie du immer so gern den Anschein erweckst. Mal eben zu berechnen, wie ein Lichtstrahl durch ein modernes Objektiv fällt, dürfte auch für dich nicht ganz einfach werden.

Wir sind im Fotobereich zudem schon längst bei einer Pixeldichte, die über dem liegt, die Digitale Filmkameras aktuell bieten. Hier hörst du auch keine Diskussionen über Gesetze der Optik, die limitieren.

Natürlich sind Grenzen vorhanden - und selbst der Red-Oberboss sagte mal, dass nur wenige Objektive den Dragon wirklich ausreizen - er nannte da (soweit ich mich erinnere) die neuen Leicas.
Aber dennoch: Auch mit "nur" guten Objektiven gewinnt man eben durch 4k gegenüber HD.

Ich würde aber auch sagen, dass eine Alexa mit sehr gutem Objektiv nach dem Hochskalieren ein besseres Bild liefern kann, als eine Red Epic mit mittelmäßigem Objektiv.
Mehr Pixel auf gleicher Sensorgröße bringt wohl ab dem Punkt, an dem wir uns aktuell befinden, wirklich nicht mehr viel Gewinn.

Space



Space


Antwort von WoWu:

Wir sind im Fotobereich zudem schon längst bei einer Pixeldichte, die über dem liegt, die Digitale Filmkameras aktuell bieten. Hier hörst du auch keine Diskussionen über Gesetze der Optik, die limitieren. Iasi, Du darfst nicht immer Fakten mit Phantasien verwursten.
Was verstehst Du unter "Pixeldichte" ? Die menge der Pixel oder die Menge der Pixel auf einer definierten Fläche ?
Denn genau daraus resultiert die Diffraktion, weil Licht sich nun mal verhält, wie es sich seit aller Ewigkeit verhält und an Kanten nun einmal gebeugt wird.
Und wenn das Diffraktionsscheibchen 175% gross ist, also zu 75% auf das Nachbarpixel strahlt, kann man die beiden Punkte nicht mehr differenzieren. Man hat also aus 4K dann 2K gemacht.
Daran hat sich nichts, aber auch gar nichts geändert.
Ansonsten sag mir, was sich daran geändert haben soll.

Du glaubst da an irgendwelches "Zauberwerk", das Du nicht benennen kannst und nur weil es in den, von Dir gelesenen Blogs nicht behandelt wird, ist es nicht existent.
Nein, mein Lieber, das Geheimnis besteht darin, dass ab einem Grad an Beugung, die Bilder einfach nur noch rekonstruiert werden und keine zusätzlichen optischen Ereignisse durch das Objektiv aufgenommen werden.
Das heist ja nicht, dass die Bilder unscharf werden ... es nehmen nur keine Bilddetails im oberen Ortsfrequenzbereich mehr zu.
Natürlich sind Grenzen vorhanden - und selbst der Red-Oberboss sagte mal, dass nur wenige Objektive den Dragon wirklich ausreizen - Hier kommst Du wieder mit einem Deiner beliebten Schlagworte: "AUSREIZEN".
Erklär doch mal, was Du damit meinst.
Wenn ein Objektiv 80Lp/mm bei 50% MTF liefert und die Kamera schlechter ist ?
Ein Sensor hat ein bestimmtes Raster mit den dazugehörigen Toleranzen für Diffraklionsscheiben und das Objektiv muss dazu passen. Das ist nun mal so.
Und wenn ein Sensor eine Auflösung von 150 Lp/mm voraussetzt, dann gibt es eben nur eine Handvoll Objektive dafür, zu Preisen, die die Kamera um ein Vielfaches übersteigen.
Auch mit "nur" guten Objektiven gewinnt man eben durch 4k gegenüber HD. Erklär doch mal was Du gewinnst.... Bildschärfe, da gebe ich Dir Recht.
Inhaltliche Bilddetails ... dann erklär mal wie.
Ich würde aber auch sagen, dass eine Alexa mit sehr gutem Objektiv nach dem Hochskalieren ein besseres Bild liefern kann, als eine Red Epic mit mittelmäßigem Objektiv. Warum sollte ein Bild, dass optisch auf eine Fläche projiziert wird und eine Anzahl an Bilddetails liefert, durch hochskalierung mehr Bilddetails liefern ?
Mehr, als durch das Objektiv aufgenommen wurden, können hinterher nicht sichtbar sein.
Das Bild kann durch SR beliebig schärfer gemacht werden, aber wir reden nicht über das Anschärfen von Bildern sondern über aufgenommene reale Bilddetails.
Mehr Pixel auf gleicher Sensorgröße bringt wohl ab dem Punkt, an dem wir uns aktuell befinden, wirklich nicht mehr viel Gewinn. Was meinst Du, warum ARRI die Sensorgrösse deutlich erhöht hat ?
Aber es gibt ja einige Kitteltreue, die glauben, 4 oder 8K entsteht durch Zauberhand und unter Umgehung aller optischen Gesetze.
Aber keiner kann sie widerlegen.
Deswegen entstehen solche Anschärfungen auch nur durch SR und die Menge der Bilddetails entspricht genau denen, die Du auch in HD hast.
Das Einzige, was Du hast ist ein grösseres (4/8K) Bild, in denen die Pixellücken nachgerechnet worden sind, Dir aber NULL Bildinhalt mehr bietet.
Deswegen ist es jetzt auch ziemlich einfach, von 4 auf 8 k zu gehen.
Der Transformation durchläuft einfach zwei weitere Faltungen.
Und .... ta..ta.. keine neues Objektiv nötig, weil sich ausser dem Algorithmus nix ändert.
Es wird auch Zeit, dass man schnell noch neue 8K Kameras anbetet, bevor der 4K Algorithmus in den NLEs landet und man zukünftig aus jedem unscharfen Bild 4K machen kann.
Anders ist die Hektik (Panik) bei den Kameraherstellern doch nicht mehr zu erklären.

Space


Antwort von tundra:

Nachdem sich diese Diskussion hier erneut festfährt, verweise ich mal auf eine andere Stimme als die hiesigen üblichen Verdächtigen:

https://library.creativecow.net/galt_jo ... t_Pixels/1

Space


Antwort von WoWu:

Da spricht er aber noch das Thema der Chroma-Verarbeitung an, was mit der optischen Umsetzung der Luminanz eigentlich nur sekundär zu tun hat.
Das, von ihm angesprochene Problem kommt noch erschwerend dazu.
Würde man das in die Diffraktion einbeziehen, dann würde sich jede Sensorauflösung 1/4teln.
Aber im Grunde genommen hat er Recht.
Aber die Diffraktion würde auch bei einem monochromen Sensor mit Halbierung der Auflösung bei entsprechender Beugung zuschlagen.

Space


Antwort von iasi:

Wir sind im Fotobereich zudem schon längst bei einer Pixeldichte, die über dem liegt, die Digitale Filmkameras aktuell bieten. Hier hörst du auch keine Diskussionen über Gesetze der Optik, die limitieren. Iasi, Du darfst nicht immer Fakten mit Phantasien verwursten.
Was verstehst Du unter "Pixeldichte" ? Die menge der Pixel oder die Menge der Pixel auf einer definierten Fläche ?
Denn genau daraus resultiert die Diffraktion, weil Licht sich nun mal verhält, wie es sich seit aller Ewigkeit verhält und an Kanten nun einmal gebeugt wird.
Und wenn das Diffraktionsscheibchen 175% gross ist, also zu 75% auf das Nachbarpixel strahlt, kann man die beiden Punkte nicht mehr differenzieren. Man hat also aus 4K dann 2K gemacht.
Daran hat sich nichts, aber auch gar nichts geändert.
Ansonsten sag mir, was sich daran geändert haben soll.

Du glaubst da an irgendwelches "Zauberwerk", das Du nicht benennen kannst und nur weil es in den, von Dir gelesenen Blogs nicht behandelt wird, ist es nicht existent.
Nein, mein Lieber, das Geheimnis besteht darin, dass ab einem Grad an Beugung, die Bilder einfach nur noch rekonstruiert werden und keine weiteren optischen Ereignisse durch das Objektiv aufgenommen werden.
Das heist ja nicht, dass die Bilder unscharf werden ... es nehmen nur keine Bilddetails im oberen Ortsfrequenzbereich mehr zu. Nein nein - du versteckst dich immer gern hinter Grundsätzlichem, Simplifizierten und verlierst dabei die Details aus dem Auge. Für dich unterscheiden sich Objektive und Sensoren nicht - dabei beachtest du eben nicht die Detaillösungen der verschiedenen Hersteller. Ein 50mm-Objektiv ist eben doch nicht gleich wie ein anderes 50mm-Objektiv.
Und Sensor ist nicht gleich Sensor.

Da können zwei Objektive sehr ähnlich aufgebaut sein und in den technischen Spezifikationen übereinstimmen - und doch ist der qualitative Unterschied sehr groß.


"Pixeldichte" ist zudem nicht mißzuverstehen - es unterscheidet sich sehr von reiner "Pixelanzahl".


Ich behaupte nicht, dass die Gesetze der Optik keine Geltung haben - aber die Hersteller arbeiten eben nun einmal in Kenntnis dieser Gesetze ständig an Lösungen, die Limitierungen so weit möglich zu umgehen.
Pentax z.B. hatte vor einigen Jahrzehnten das Glas einer Objektivreihe mit radioaktiven Elementen angereichert - und eben dadurch einen weiteren Faktor in die Gleichungen mit eingebracht.
Die Hersteller von Sensoren schlafen auch nicht.

Es erinnert mich auch immer wieder an die "Gesetze"-Argumente derjenigen, die eine Grenze erreicht sahen, was die Strukturgröße von Prozessoren betraf.

Space


Antwort von WoWu:

Für dich unterscheiden sich Objektive und Sensoren nicht - Natürlich unterscheiden sich Objektiv und Sensor nur dass das Raster des Sensors das Ortsfrequenzraster des Objektivs vorgibt und nicht umgekehrt. du versteckst dich immer gern hinter Grundsätzlichem, Simplifizierten und verlierst dabei die Details aus dem Auge. Ganz im Gegenteil. Ich benenne die Probleme exakt beim Namen.
Ich kann mich nicht erinnern so nebulöse oder allgemeine Begriffe wie "ausreizen" benutzt zu haben.
Ansonsten zeig doch mal auf, wo ich für Deinen Geschmack nicht präzise genug war. dabei beachtest du eben nicht die Detaillösungen der verschiedenen Hersteller Weil eine Auflösung von 50 lp/mm bei einer bestimmten MTF unabhängig vom Hersteller ist.
Oder meinst Du die haben unterschiedlichen Kontrast bei gleichem Wertesystem ?
und sind nun mal wie cm und mm.
Oder hast Du schon mal einen Hersteller gesehen, der in andern mm misst.
Ein 50mm-Objektiv ist eben doch nicht gleich wie ein anderes 50mm-Objektiv.
Und Sensor ist nicht gleich Sensor.
Nein, aber die werte sind vergleichbar.
Autos sind auch nicht gleich, aber 200km/h entsprechen bei beiden Autos der identischen Geschwindigkeit.
Da können zwei Objektive sehr ähnlich aufgebaut sein und in den technischen Spezifikationen übereinstimmen - und doch ist der qualitative Unterschied sehr groß. Du meinst nicht den qualitativen sondern den subjektiv-geschmacklichen unterschied.
"Pixeldichte" ist zudem nicht mißzuverstehen - es unterscheidet sich sehr von reiner "Pixelanzahl". Ja, Pixeldichte ist das, was man Pixelpitch nennt ... und da sind wir wieder genau bei der Diffraktion.
Ich behaupte nicht, dass die Gesetze der Optik keine Geltung haben - aber die Hersteller arbeiten eben nun einmal in Kenntnis dieser Gesetze ständig an Lösungen, die Limitierungen so weit möglich zu umgehen. Umgehen ist das richtige Wort: Mit Algorithmen rekonstruieren ist die Lösung, die die Hersteller derzeit begehen.
Firmen wie Zeiss habe jetzt fast 20 Jahre in der Mikroskopie daran gearbeitet, auch noch die letzte optische Lösung zu finden und sind in ihren Mikroskopen schliesslich bei den Algorithmen zur Rekonstruktion gelandet.
Mein Reden.

Pentax z.B. hatte vor einigen Jahrzehnten das Glas einer Objektivreihe mit radioaktiven Elementen angereichert - und eben dadurch einen weiteren Faktor in die Gleichungen mit eingebracht. -Wieder so eine nebulöse Beschreibung-

Bei dem Thoriumglas in es aber nicht um die Umgehung optischer Gesetze sondern darum, das Nachsilben des Glases der Linsen zu verlangsamen.
Es hat also absolut nichts mit optischen Verbesserungen zu tun.
Die Hersteller von Sensoren schlafen auch nicht. Wieder so eine allgemeine Aussage ... aber stimmt, ARRI hat den Sensor entlang den optischen Anforderungen vergrössert.
Die wissen schon was und wie man etwas tut.
Es erinnert mich auch immer wieder an die "Gesetze"-Argumente derjenigen, die eine Grenze erreicht sahen, was die Strukturgröße von Prozessoren betraf. Für diese "Grenzaufzeigungen" zeichnen eigentlich nur die Blogs.
Bei denen erreicht ständig alles die Systemgrenzen und sind Gamechanger.
Denn solange Du nicht aufzeigen kannst, was sich an den optischen Gesetzen geändert hat, hast Du da schlechte Karten.

Aber warst Du das nicht, der an der Gravitation gezweifelt hat, nur weil Du Dir nicht erklären konntest, dass eine Feder langsamer fällt als ein Stein ?
Ich erinnere mich da dunkel.

Space


Antwort von Angry_C:

Ach Wowu, jeden Tag der gleiche Quark.

Nimm eine Nikon D90 und eine D800, stelle sie auf ein Stativ und schieße mit beiden das gleiche Motiv. Es muss noch nichtmal ne Superoptik sein, Kitoptik reicht. Schaue dir beide Ergebnisse an. Falls dir Da noch nichts auffällt, kann ja schonmal vorkommen mit Rentneraugen, führe bei beiden Bildern einen Bildbeschnitt durch. Schneide z.B. einen Baum aus und stelle sie anschließend als 100% Ansicht dar. spätestens dann musst du erkennen, dass deine Berechnungen nicht stimmen können.

Ich sage nicht, dass das Objektiv nicht "begrenzt", aber im Vergleich ist deutlich zu erkennen, das die Detailauflösung sehr wohl von der Sensorauflösungen profitiert und nicht, wie du behauptest, ab 2k sowieso kein Zugewinn an echten Details mehr zu erwarten sind. Da sind eben keine kleinen Männchen drin, die eigentlich unleserliche Nummernschilder beschriften.

Auch wenn du es jeden Tag wiederholst, die Geschichte wird dadurch nicht wahrer.

Space


Antwort von Angry_C:

Verdoppeln wir jetzt die Pixelanzahl alle 12 Monate?
Die sind doch alle nicht mehr ganz dicht.
Nee, vervierfachen;-)

Space


Antwort von Angry_C:


Aber warst Du das nicht, der an der Gravitation gezweifelt hat, nur weil Du Dir nicht erklären konntest, dass eine Feder langsamer fällt als ein Stein ?
Ich erinnere mich da dunkel. Wir sind hier alles keine Physiker oder Optiker,
aber was machst du eigentlich, wenn mal wieder einmal kommt und dir den physikalischen Gegenbeweis liefert? Wieder flüchten und warten bis Gras drüber gewachsen ist, wie es damals schon beim BMD Thread der Fall war?

Gibt es dann bald wieder so ein "Was macht eigentlich Wowu Thread"?

https://www.slashcam.de/forum/viewtopic.php?p=565880#

Space


Antwort von Ab-gedreht:

Finde es immer interessant das die meisten wohl vergessen das wir sowieso mindestens 50% unscharfe Bilder machen.
Wir belichten nunmal viel zu lange. Jede Bewegung der Kamera oder dem vor der Kamera wird unscharf. Da bringt uns 8K auch nichts. Es fällt nur krasser auf.

Hab mal einen Testfilm im Arri-Kino mit 96fps bei 2K alexa Material gesehen.
Die haben einem 48fps 3D Projektor die Filter ausgezogen und somit 96 Bilder auf die Wand gebracht. Leck mich am Arsch war das Scharf! Ich konnte bei einem vorbeifahrendem Radfahrer die Speichen zählen!

Space



Space


Antwort von Angry_C:

Ich konnte bei einem vorbeifahrendem Radfahrer die Speichen zählen! Schonmal dran gedacht, damit bei Wetten Dass??? aufzutreten? ;-)

Space


Antwort von tundra:

Nach allem, was ich in der letzten heftigen Diskussion über dieses Endlosthema hier und andernorts gelesen habe, hat WoWu grundsätzlich recht. Ich kann Optiken nicht nachrechnen, aber ein gewisses Verständnis für die physikalischen Hintergründe und die Zusammenhänge zur Praxis meine ich zu haben.

Meiner Einschätzung nach erfindet WoWu seine Posts keineswegs frei - auch wenn es in gewisser Weise schmerzt und dahinter, so scheint es, ein (grundsätzlich wohlwollender?) Missionsgedanke steckt. Mir haben die Ausführungen von neulich jedenfalls einen neuen Einblick gegeben, den ich prinzipiell für sehr wichtig halte.

Space


Antwort von Jott:

Er rechnet schon richtig, nur mit der Relevanz für die Praxis liegt er daneben. Es reicht ja schon, mal eine Blendenreihe zu machen mit einer Kamera, die zum Beispiel etwa 20 Megapixel auf einem APS-C-Sensor hat (was über den Daumen auch der Epic Dragon entspricht). Gucken, ab welcher Blende die Diffraktion erkennbar wird (weicheres Bild). Nämlich später als via Airy-Disc-Durchmesser errechnet. Dafür gibt es eine ganze Reihe von Gründen. Deswegen sind 4K-Kameras trotzdem konventionell zu machen, auch wenn der nutzbare Blendenbereich enger wird. Daher ist aus meiner Sicht nur eines wirklich dämlich: 4k (und höher)-Kameras ohne eingebaute ND-Filter.

Space


Antwort von Angry_C:

Ist dein gutes Recht, ihm das abzunehmen. Ich habe hier aber sowieso nirgends gelesen, dass jemand physikalische Grenzen anzweifelt, wäre ja auch verrückt, aber dass die Grenzen so niedrig gesteckt sind, darüber muss man nicht weiter diskutieren.

Wowus Behauptung in der Kurzfassung:

Alles über 2K ist quatsch, weil optisch nicht möglich. Alle vermeintlich zusätzlichen Details sind keine echten optischen Details, sondern nur pfiffige Filteralgorithmen und Rekonstruktion. Und das ist seit vielen Jahren in sämtlichen Kameras (Video wie Foto) vorhanden.

Glaubst du etwa daran? Gibt es einen echten Beleg dafür, ich meine damit nicht einen "rechne es dir doch selbst einfach aus, ist doch einfachste Physik" Beleg?

Space


Antwort von Angry_C:

Er rechnet schon richtig, nur mit der Relevanz für die Praxis liegt er daneben. Es reicht ja schon, mal eine Blendenreihe zu machen mit einer Kamera, die zum Beispiel etwa 20 Megapixel auf einem APS-C-Sensor hat (was über den Daumen auch der Epic Dragon entspricht). Gucken, ab welcher Blende die Diffraktion erkennbar wird (weicheres Bild). Nämlich später als via Airy-Disc-Durchmesser errechnet. Dafür gibt es eine ganze Reihe von Gründen. Deswegen sind 4K-Kameras trotzdem konventionell zu machen, auch wenn der nutzbare Blendenbereich enger wird. Daher ist aus meiner Sicht nur eines wirklich dämlich: 4k (und höher)-Kameras ohne eingebaute ND-Filter. Das ist eben das Problem, wenn man die Praxis nicht kennt. Warum eingebaute ND-Filter? Du meinst für Konsumermühlen mit festem Objektiv ohne Filtergewinde? Ansonsten lässt sich ja alles nachträglich montieren.

Space


Antwort von tundra:

So weit ich die Problematik verstanden habe, ist 4k auch laut WoWu keineswegs grundsätzlich Quatsch, sondern nur dann, wenn Optik und Sensorgröße nicht zusammenpassen, kein aufeinander abgestimmtes optisches System bilden. Das ist dann leider auch keine Glaubensfrage, sondern real, soweit ich dazu gelesen habe und das einschätzen konnte.

Wie die Hersteller es schaffen, auch mit einer rechnerisch völlig unpassenden Kombination (und nur darum geht es - es gibt ja auch rechnerisch passende Kombinationen) mehr Details herauszukitzeln, bleibt so lange ihr Geheimnis, bis mal jemand alle Konstruktionsdetails ausplaudert.

Die prinzipielle Existenz von Upscaler-Chips ist vollkommen real und wird von ihren Herstellern auch sehr vollmundig beworben. Ob, wann, wie und warum solche Techniken in Kameras zum Einsatz kommen - und in welchen - das kann ich nicht beurteilen. Aber ich habe doch mit einigem Erstaunen die Produktbeschreibung eines solchen Chips gelesen.
Dabei lügen die Algorithmen auch nicht grundsätzlich, die Interpolationstechnik ist ja durchaus schlau und erzeugt Ergebnisse nah an der Realität. Aber eine direkte Abbildung kommt aus einem solchen Chip nicht heraus, das ist leider so. Erneut: Ob, wann und wo so etwas zum Einsatz kommt, weiß ich nicht.

Space


Antwort von Jott:

Faulheit siegt, ND-Filter sind teuer und fummelig, egal ob mit oder ohne Mattebox. Aber sie sind unverzichtbar. Daher finde ich es höchst angebracht, welche einzubauen. Auf die Idee kommen inzwischen auch die Hersteller der teuren, erwachsenen Kameras.

Space


Antwort von Angry_C:

So weit ich die Problematik verstanden habe, ist 4k auch laut WoWu keineswegs grundsätzlich Quatsch, sondern nur dann, wenn Optik und Sensorgröße nicht zusammenpassen, kein aufeinander abgestimmtes optisches System bilden. Das ist dann leider auch keine Glaubensfrage, sondern real, soweit ich dazu gelesen habe und das einschätzen konnte.

Wie die Hersteller es schaffen, auch mit einer rechnerisch völlig unpassenden Kombination (und nur darum geht es - es gibt ja auch rechnerisch passende Kombinationen) mehr Details herauszukitzeln, bleibt so lange ihr Geheimnis, bis mal jemand alle Konstruktionsdetails ausplaudert.

Die prinzipielle Existenz von Upscaler-Chips ist vollkommen real und wird von ihren Herstellern auch sehr vollmundig beworben. Ob, wann, wie und warum solche Techniken in Kameras zum Einsatz kommen - und in welchen - das kann ich nicht beurteilen. Aber ich habe doch mit einigem Erstaunen die Produktbeschreibung eines solchen Chips gelesen.
Dabei lügen die Algorithmen auch nicht grundsätzlich, die Interpolationstechnik ist ja durchaus schlau und erzeugt Ergebnisse nah an der Realität. Aber eine direkte Abbildung kommt aus einem solchen Chip nicht heraus, das ist leider so. Erneut: Ob, wann und wo so etwas zum Einsatz kommt, weiß ich nicht. Von Upscalern war hier nie die Rede. Das ist kein Hexenwerk. Aber Stelle dir ein HD Videoframe vor, auf dem ein weit entferntes Auto zu sehen ist. Das Nummernschild ist gerade mal ein 3x1mm großer, weißer Fleck. Von schwarzen Zahlen und Buchstaben kann keine Rede sein, egal, wie sehr man hineinzoomt. 5-8 dunkelgraue Pixel haben sich auf diesem Fleck breit gemacht.

Nun kommt jemand, der sagt, dass die neuen Kameras mit Techniken versehen sind, die aus diesen 5-8 Pixeln gestochen scharfe Buchstaben und Zahlen rekonstruieren, die aufgrund der kleinen Abmessungen erst beim 200% Zoom des 4K Zielframes leserlich werden. Das ganze dann z.B. 60 mal in der Sekunde. Das soll also das Ergebnis bei einer 4K Kamera sein?

Das wäre ein Meilenstein für das Militär oder die NSA.

Wer glaubt, dass so eine Technik in einer 800€ Knipse arbeitet?

Space


Antwort von tundra:

Das kann natürlich nicht gehen. Letztlich weiß ich wie gesagt nicht, wie die Hersteller ihre Systeme auslegen.
Meiner Beobachtung nach ist der Detailzuwachs aber nicht so extrem wie in Deinem Beispiel beschrieben.

Egal - ich will mich an diesen Grabenkämpfen eigentlich nicht beteiligen und sage nur, dass es die von WoWu beschriebenen Zusammenhänge prinzipiell gibt und sie für mich auch schlüssig klingen. Alles darüber hinaus wäre von meiner Seite aus Kaffeesatzleserei, da ich noch nie eine Linse selbst geschliffen, eine Kamera gebaut oder wenigstens eine Optikvorlesung besucht habe. Muss man auch nicht, aber ich denke, es hilft, wenigstens mit ein paar Hintergrundinformationen im Kopf auf die Entwicklung zu schauen. Dabei möchte ich weder die eine "Seite" der Diskussion ausblenden noch die andere.

Space



Space


Antwort von cantsin:

WoWu wird IMHO gruendlich missverstanden, weil er sich in Ingenieurssprache ausdrueckt. Wenn er von "Rekonstruktionsalgorithmen" spricht, denken Leute, er ist paranoide geworden und imaginiert irgendwelche kuenstliche SciFi-Intelligenz, die auf Grund von Mustererkennung fehlende Details rekonstruiert.

Was er meint, sind Super Resolution (SR)-Algorithmen, die aus einer Reihe Bewegtbilder Einzelbilder mit hoeherer Aufloesung interpolieren. Dass das geht und ueberhaupt kein Hexenwerk ist, zeigt dieser Artikel am Beispiel von digitalisiertem und auf HD hochgerechnetem Super 8-Material: http://www.filmkorn.org/zwischen-den-ze ... ilm-sehen/ . Jeder kann das heute schon mit avisynth-Skripten machen, es dauert nur quaelend lange, weil dessen Algorithmen keinerlei GPU-Beschleunigung haben.

Was in den Diskussionen ueber die physikalischen Grenzen von Sensor- und Objektivaufloesungen auch immer wieder vergessen wird, ist, dass wir es bei S35-Kinokameras (inkl. Red und Alexa) nur mit der Haelfte der Sensorflaeche und physisch moeglichen Aufloesung von Kleinbild bzw. 35mm "Full Frame" zu tun haben. Der Ausdruck "Full Frame" fuehrt im Film- und Videokontext immer wieder zu Missverstaendnissen, weil er sich nicht auf Kinoformate bezieht.

Ansonsten empfehlen sich als Realitaetscheck die Objektivmessung von DxO Labs. Selbst ein absolutes Spitzenobjektiv wie das Zeiss Otus 55mm/1.4 kommt da "nur" auf eine optische Aufloesung von 18 Megapixeln bei 3:2 Kleinbild, wovon bei S35 nur noch 9 MP uebrigbleiben bzw. im 16:9-Beschnitt sogar nur 7,6 MP bzw. 3674x2094 Pixel. Selbst das beste Kleinbildobjektiv auf dem Markt schafft 4K bei S35/APS-C nicht ganz - und 8K geht dann eben nicht mehr auf dem optischen Weg, sondern ueber algorithmische Hilfsmittel wie Super Resolution.

Space


Antwort von Jott:

Der Nebeneffekt der von wowu postulierten "Super Resolution" wäre, dass alles Unscharfe scharf gerechnet wird, weil der Algorithmus ja nicht erkennen kann, wann Unschärfe im Bild GEWOLLT ist (DoF-Gestaltung). Dass also dieses wichtige Gestaltungsmittel wegfällt. Er hat immer wieder behauptet, das sei so, mit diesen Kameras sei alles von vorne bis hinten scharf. Dummerweise lässt sich das mit simplem Anschalten jeder beliebigen 4K-Kamera und Ausprobieren sofort und ganz einfach widerlegen. Weist man darauf hin, kommt ein Schwall von Beleidigungen. Sorry, aber da klemmt's.

Space


Antwort von kmw:

http://6mpixel.org/en/

Hier sind die physikalischen Grenzen m.E. recht gut aufgezeigt.
Und da gibt es, je nach Sensorgröße, noch reichlich Spielraum.
Leider ist die deutsche Seite nicht mehr vollständig...

Space


Antwort von Tiefflieger:

Bewegtbilder im Fotografischen Mittelformatequivalent mit 1/50s Sekunde aufnehmen und in 8K darstellen, dass kann nur schief gehen ;-)
Im Film folgt das Auge der Struktur und im Hirn enstehen detaillierte Bilder. Auch wenn Teile in Einzelframes in Bewegung unscharf sind.

Alles was mit kurzer Verschlusszeit und über 86 Hz (Flimmerfrequenz im Augenwinkel) in entsprechende hoher Progressive Framezahl aufgenommen ist, ist absolut Konturscharf. Bei Darstellung in hoher Framezahl wirkt es dank "natürlichem" Motion Blur plastisch "echt".
(Ich sehe das bereits bei den eigenen 1080p50 aus meinen 3-Chip Kameras)
Und FullHD reicht dazu um jedes 4K 30p Bild zu toppen (ausgenommen statischer Inhalt).

Gruss Tiefflieger

Space


Antwort von Jott:

http://6mpixel.org/en/

Hier sind die physikalischen Grenzen m.E. recht gut aufgezeigt.
Und da gibt es, je nach Sensorgröße, noch reichlich Spielraum.
Leider ist die deutsche Seite nicht mehr vollständig...
Und auch hier wird ein ganz wichtiger Fakt vergessen. Ich mache mir einen Spaß daraus, den nicht zu verraten. Egal.


Nehmen wir mal RED: Jim Jannard war passionierter Fotograf, liebte schnelle Bilderserien bei Action wie Autorennen. Kam auf die Idee, einen Fotoapparat so aufzubohren, dass er a) kontinuierlich 24 Bilder pro Sekunde liefern und b) das Ganze live in einen komprimierten Datenstrom verpacken kann. Das Ergebnis war die RED One. In den kommenden Jahren wurden aus 4K erst 5K, dann 6K, immer auf der gleichen Sensorgröße, die dem 35mm-Filmformat entspricht (in etwa APS-C in Fotospeak). Vermarktet werden die Kameras heute als Hybrid zwischen Stand- und Bewegtbild.

Inzwischen ist auch in billigen Consumer-Preisregionen möglich, was bei der RED One vor sieben Jahren noch ein technischer Klimmzug war: 24, 25, sogar 60 4K-Fotos pro Sekunde zu machen und das Ganze live in einen Videocodec zu quetschen. So weit, so gut. Beugung? Wenn man Fotos machen kann mit einem 20 Megapixel-Sensor im APS-C-Format, dann kann man damit auch filmen. Dem Gesamtsystem aus Sensor und Optik ist es herzlich egal, ob eins, fünf oder 25 Bilder pro Sekunde gemacht werden. Das hat NULL Einfluss auf die Beugung, die hängt ausschließlich vom Blendenwert ab.

Noch mal zu RED: seit Jahren tobt der Kampf EPIC gegen Alexa. Gestritten wird bis auf's Messer um Sinn und Unsinn von 4K, 5K, 6K versus 2K - aber wo ist die Diskussion über Beugung? Wieso hat die ARRI-Fraktion nie wie wowu ausgerechnet, dass eine 6K-EPIC ja gar nicht funktionieren kann? Und würde sie künstlich rekonstruieren, wie gewaltig wäre die Häme? Oder andersrum: mal verschwörerisch angenommen, sie tut das. Dann hätte das die Crème de la Crème zum Beispiel in Hollywood nie bemerkt. Nicht Regisseure, nicht DoPs, nicht die großen Post-Häuser mit ihren 4K-Projektions-Suites. Niemand. Abenteuerlich, oder?

Und zu den Gerüchten um 8K aus einer Vollformat-DSLR: das wäre auch kein kleinerer Pixelpitch als bei der RED Dragon. Deswegen baut die NHK ja bereits solche Kameras. Insofern: lieber die Sinnfrage stellen (berechtigt) als die Machbarkeit abstreiten (verschroben). Die ist doch längst bewiesen.

Space


Antwort von Tiefflieger:

Ergänzend die grosse 8K NHK ist auch eine 3 Sensorenkamera.

Space


Antwort von handiro:

Die von WoWu immer wieder hochgeholten physikalischen Gesetze sind nun mal da. Was immer die Algorhythmiker und pixelpeepers, die Strukkis und showroom salesmen rausposaunen, sie ändern sich nicht. Auch ein Brillenhersteller schafft das nicht.

Space


Antwort von Angry_C:

Bewegtbilder im Fotografischen Mittelformatequivalent mit 1/50s Sekunde aufnehmen und in 8K darstellen, dass kann nur schief gehen ;-)
Im Film folgt das Auge der Struktur und im Hirn enstehen detaillierte Bilder. Auch wenn Teile in Einzelframes in Bewegung unscharf sind.

Alles was mit kurzer Verschlusszeit und über 86 Hz (Flimmerfrequenz im Augenwinkel) in entsprechende hoher Progressive Framezahl aufgenommen ist, ist absolut Konturscharf. Bei Darstellung in hoher Framezahl wirkt es dank "natürlichem" Motion Blur plastisch "echt".
(Ich sehe das bereits bei den eigenen 1080p50 aus meinen 3-Chip Kameras)
Und FullHD reicht dazu um jedes 4K 30p Bild zu toppen (ausgenommen statischer Inhalt).

Gruss Tiefflieger Das ist natürlich ein zusätzlicher Aspekt, aber wir sind ja noch nicht einmal beim Stilleben vom Stativ weitergekommen.

Space


Antwort von Angry_C:

Die von WoWu immer wieder hochgeholten physikalischen Gesetze sind nun mal da. Was immer die Algorhythmiker und pixelpeepers, die Strukkis und showroom salesmen rausposaunen, sie ändern sich nicht. Auch ein Brillenhersteller schafft das nicht. Na klar sind die Gesetze da, nur - wurden sie hier einmal in einem konkreten Fall dargestellt? Immer nur schreiben, dass es physikalische Gesetze gibt, reicht nicht. Man muss sie für einen Beweis auch anwenden können. Ich kann es nicht und die meisten anderen hier auch nicht, deshalb geben sich alle mit wowus Ausführungen zufrieden, ohne sie in Hinblick auf die Praxis zu hinterfragen.

Space



Space


Antwort von Jott:

Ergänzend die grosse 8K NHK ist auch eine 3 Sensorenkamera. Oben verlinkt: der aktuelle NHK-8K-Prototyp hat nur noch einen Sensor im 35mm-Vollformat, nicht drei, daher mit gängigen Objektiven nutzbar.

Space


Antwort von Jott:

Die von WoWu immer wieder hochgeholten physikalischen Gesetze sind nun mal da. Was immer die Algorhythmiker und pixelpeepers, die Strukkis und showroom salesmen rausposaunen, sie ändern sich nicht. Auch ein Brillenhersteller schafft das nicht.
Dann wäre das Rätsel zu knacken, wie es der "Brillenhersteller" und die anderen trotzdem hinkriegen. Kommt, Leute: ihr wisst den Trick wirklich nicht?

Abgesehen davon finde ich es schon absurd, dass die Schwarmintelligenz des Slashcam-Forums RED, die NHK und im Prinzip alle anderen Kamerahersteller selbstbewusst zu Spinnern degradiert. Verschieben sich da nicht ein wenig die Realitäten?

Was sehr viel Spaß macht ist, hier im Forum mal ein paar Jahre zurück zu gehen. Mit Hilfe dieser Zeitmaschine kann man auch lernen, dass zum Beispiel HD-Kameras (1080) mit 1/2"-Sensor aus physikalischen Gründen nicht funktionieren können.

Space


Antwort von Angry_C:

Mit Hilfe dieser Zeitmaschine kann man auch lernen, dass zum Beispiel HD-Kameras (1080) mit 1/2"-Sensor aus physikalischen Gründen nicht funktionieren können. Es kann durchaus sein, dass die 2K oder 4K Systemgrenzen durch physikalische Grenzen (Optik, Sensorgröße, Pixelgröße) nicht erreicht werden kann. Darauf reiten einige Leute rum.

Muss man dann aber von vorn herein 4K quasi als Gimmick hinstellen, wenn meinetwegen nur echte 3K erreicht werden? Solange eine sichtbare Bildverbesserung auftritt, ist es doch egal, ob die Systemgrenze geknackt wird oder nicht. Oder?

Der Slashcam-Zeitmaschine habe ich mich auch bedient ----> HD braucht kein Mensch, haben doch 95% noch eine Röhre stehen.

Space


Antwort von Tiefflieger:

Ergänzend die grosse 8K NHK ist auch eine 3 Sensorenkamera. Oben verlinkt: der aktuelle NHK-8K-Prototyp hat nur noch einen Sensor im 35mm-Vollformat, nicht drei, daher mit gängigen Objektiven nutzbar. Sie haben eine kleine Handkamera (1 Sensor) und eben die grosse (3-Chip).

Gruss Tiefflieger

Space


Antwort von handiro:

Die von WoWu immer wieder hochgeholten physikalischen Gesetze sind nun mal da. Was immer die Algorhythmiker und pixelpeepers, die Strukkis und showroom salesmen rausposaunen, sie ändern sich nicht. Auch ein Brillenhersteller schafft das nicht. Na klar sind die Gesetze da, nur - wurden sie hier einmal in einem konkreten Fall dargestellt? Immer nur schreiben, dass es physikalische Gesetze gibt, reicht nicht. Man muss sie für einen Beweis auch anwenden können. Ich kann es nicht und die meisten anderen hier auch nicht, deshalb geben sich alle mit wowus Ausführungen zufrieden, ohne sie in Hinblick auf die Praxis zu hinterfragen. Ich kann den Beweis z.B. dann sehen, wenn ich mit Blende 11 ohne ND Filter filme und das Bild unscharf wird.

Space


Antwort von Tiefflieger:

Die von WoWu immer wieder hochgeholten physikalischen Gesetze sind nun mal da. Was immer die Algorhythmiker und pixelpeepers, die Strukkis und showroom salesmen rausposaunen, sie ändern sich nicht. Auch ein Brillenhersteller schafft das nicht. Na klar sind die Gesetze da, nur - wurden sie hier einmal in einem konkreten Fall dargestellt? Immer nur schreiben, dass es physikalische Gesetze gibt, reicht nicht. Man muss sie für einen Beweis auch anwenden können. Ich kann es nicht und die meisten anderen hier auch nicht, deshalb geben sich alle mit wowus Ausführungen zufrieden, ohne sie in Hinblick auf die Praxis zu hinterfragen. Ich kann den Beweis z.B. dann sehen, wenn ich mit Blende 11 ohne ND Filter filme und das Bild unscharf wird. Es kommt auf die Kamera und deren Bildverarbeitung an (ohne ext. ND Filter).
https://www.slashcam.de/forum/viewtopic.php?p=590150#590150

Gruss Tiefflieger

Space


Antwort von Angry_C:

Die von WoWu immer wieder hochgeholten physikalischen Gesetze sind nun mal da. Was immer die Algorhythmiker und pixelpeepers, die Strukkis und showroom salesmen rausposaunen, sie ändern sich nicht. Auch ein Brillenhersteller schafft das nicht. Na klar sind die Gesetze da, nur - wurden sie hier einmal in einem konkreten Fall dargestellt? Immer nur schreiben, dass es physikalische Gesetze gibt, reicht nicht. Man muss sie für einen Beweis auch anwenden können. Ich kann es nicht und die meisten anderen hier auch nicht, deshalb geben sich alle mit wowus Ausführungen zufrieden, ohne sie in Hinblick auf die Praxis zu hinterfragen. Ich kann den Beweis z.B. dann sehen, wenn ich mit Blende 11 ohne ND Filter filme und das Bild unscharf wird. Jo richtig, aber wer macht denn sowas? Beugungsunschärfe tritt immer zunehmend oberhalb der Sweetspot-Blende auf, aber man muss es ja nicht so weit treiben, dass die Detailauflösung praktisch geviertelt ist? (Nur um bei 2k/4k zu bleiben).

Space


Antwort von Jott:

Ich kann den Beweis z.B. dann sehen, wenn ich mit Blende 11 ohne ND Filter filme und das Bild unscharf wird. Ja natürlich! Zeigt auch, dass die "Super Resolution" ein Hirngespinst ist, denn dann wäre auch bei 16 oder selbst 22 nichts von Unschärfe zu sehen, gell?

Dass man bei Kameras mit kleinen Photosites - egal ob in der Fotografie oder jetzt bei einer 4K-Videokamera - eben nicht so weit abblenden sollte (und kann), gehört doch seit Jahren zum Grundwissen jedes Bildschaffenden.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Dynamic Shootout - ARRI ALEXA Mini LF vs. Sony VENICE 2 mit 8K
Neue Firmware-Versionen für Sony A1 und A7SIII - u.a. 8K 4:2:2 10 Bit Aufzeichnung
Sony A1 Firmware Update, 8k 4:2;2 10bit und mehr
Kommende Sony Alpha 7R V filmt wohl in 8K - Datenblatt geleakt
SONY A9III mit 8K
Samsung 8K QLED vs Sony 8K TV
Kurznews: Gerüchteküche sieht Sony und Panasonic mit 8K
Fujifilm XT 4 Gerüchteküche
Camcorder mit 0,8 oder 1,33 Mio Pixel, sieht man den Unterschied?
Mit welcher Art von Nachsichtgeräten/-kameras sieht man bei Dunkelheit am besten?
Mit welcher Art von Nachsichtgeräten/-kameras sieht man bei Dunkelheit am besten?
Sieht aus wie Pocket 4K, ist aber Osmo Pocket
Free Guy | Official Trailer - sieht vielversprechend aus
Meine Tochter sieht das auch so
Wie sieht euer Gimbal Setup aus?
Neue Nikon-Kamera sieht aus wie ein Filmklassiker aus den 80ern
Warum sieht bei Netflix alles gleich aus?
Text & Grafik sieht hackelig aus?
LTX Studio - sieht so das KI-Filmstudio der Zukunft aus?
ATI AIW X1800XL: RGB-SCART-Bild sieht aus als hätte es nur 16 Bit Farbtiefe
Panasonic GH6 mit 8K Video und neuem AF-System? - Panasonic bestätigt neues GH Model
Panasonic mit leistungsstärkerer Bilderkennungs-KI: Bald auch in Panasonic Kameras?
Sony A-Mount EOL? Keine Sony Alpha SLTs mehr auf Sony.com Seiten
Sony, Canon, Panasonic und Nikon locken mit Cashback-Aktionen
AG DOK Kameratest 2020 - u.a. mit Blackmagic 6K, Canon C500 MkII, Panasonic S1(H) und Sony FX9




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash