Logo Logo
/// 

4K-Kameras: Da geht noch mehr!



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


4K ist bei den Filmern angekommen und 2016 dürfte praktisch kein neues Top-Gerät ohne dieses FormatFormat im Glossar erklärt auf den Markt kommen. Doch die aktuelle Technik bei 4K-Kameras lässt noch Luft nach oben...



Hier geht es zum slashCAM Artikel:
Editorials: 4K-Kameras: Da geht noch mehr!




Antwort von teichomad:

Ich finde dass nichma HD ausgereift ist. Ich erinnere mich an viele Youtube videos die oft geruckelt haben oder beim laden rumgespackt haben. außerdem gibts selbst heute nur wenige cams die ein astreines hd bild liefern. ich würde behaupten dass hd rein marketingtechnisch ausgelutscht war und deswegen was "besseres" und neues aufn markt musste.
Ich würde mir ne 500 euro hd-cam wünschen die ein cleanes signal liefert und prores kann und nen akku hat der länger als ne halbe stunde hält. Ich höre schon die antikannibalisierungskeule schwingen.
schwindelerregend dieser ganze 4k hype. Schmeißt eure hd cams weg und holt euch n smartphone mit 4k - 4k ist logischer weise besser als hd - immer



Antwort von DeeZiD:

Weiß eigentlich jemand, ob die Sony FS7 vom gleichen Problem (nicht deaktivierbare Rauschunterdrückung) betroffen ist?

Falls ja, miete ich lieber die FS700 samt Odyssey 7Q für den nächsten Dreh... Graining von der feinsten Sorte. :)








Antwort von Jott:

Im Cine EI-Modus (FS7) gab es gar keine Rauschunterdrückung, mit der letzten Firmware ist jetzt eine zuschaltbar.



Antwort von -paleface-:

Der link auf der letzten Seite füht mich ins leere.

Habe ich das richtig verstanden das die selbe Kamera, die 4k kann sowie FullHD.
Bei FullHDFullHD im Glossar erklärt mehr Dynamik im Bild haben müsste als bei 4K?

Das muss ich mal bei der Gh4 testen. Weil dort Filme ich fast zu 90% in 4K und skaliere es dann auf FullHD.

Mir ist aber auch aufgefallen das die Kamera unter FullHDFullHD im Glossar erklärt einen leicht anderen Look hat.



Antwort von rudi:

Der link auf der letzten Seite füht mich ins leere. Ja, Webseite dazu gibt es scheinbar nicht mehr. Gemeint war der Sony Wachshaut-Look:





Antwort von mash_gh4:

ich finde das in dem artikel der aspekt der farbuntabtastung nicht ausreichend berücksichtigt wurde.

4:2:0 passt in diesem zusammenhang nämlich ausgesprochen gut zum zugrundeliegenden bayer pattern bzw. den physikalischen vorgaben der aufnahme. ich hab auch noch nie verstanden, warum viele, wenn sie mehr fordern, immer nur von 4:2:24:2:2 im Glossar erklärt statt 4:4:44:4:4 im Glossar erklärt schwärmen...



Antwort von enilnacs:

4K ? Egal. Eigentlich haben wir kein Problem mit den Cinecams, das Problem sind eigentlich die Medien.
Solange Streamingplatformen wie Youtube, Netflix und fast alle TV Broadcaster (95% des Marktes) komprimieren wie die Sau, bei 420 und h264 Tricks bis die PixelPixel im Glossar erklärt schreien, kann man getrost in HD 8bit 420 "mastern", es macht keinen Sinn, vor allem mit dem "mobile first" Pixelbrei. Ja, 2016.

Und der 4K DCI Kinobereich ist sowieso meist auf ein paar big Player begrenzt.



Antwort von frantidscheg gluk:

@enilnacs!

Klar-des war eh. logish. Wenn ich mit einer Midprice-4k-Kröte arbeite,
W E I L E S G U T E S 2k / Full-hd ist.... Aber verklicker des mal
der Kundschaft. Heute ( eig frei. weil ich neue Rodel = Rechner= etz.
einfahr..und des Sch-[]-teil hat mich bis jetzt gefuxt = ein Kabel...
ich will net viel darüber sagen aber ein 35.000 Euro Gesamtpaket wurde
zeitweilig von einem 5,99,-€ Kabel outgematcht... ich war knapp dran
den großen Moni beim Fenster..)-also heute unangemeldet Kundschaft da.
Und gleich beim zusehen quält er mich, das er gehört haben, das in Japan
bald 8k.... den Rest spare ich mir..

Weist was in meinem Kopf der weilen lief --( der Kunde hat immer recht,
der Kunde hat immer recht,der Kunde hat immer recht,der Kunde hat immer recht,
der Kunde hat immer recht,....)
Im Unter-ich unten im Slomokeller meines ES--( Ruger sp 101 357 Magnum.....
S+W 686 Competition magnum 110 Grain..)
Na ja..

is ja lustig und nun ein fettes Budweiser Bürgerbräu dunkel eiskalt Franti :)



Antwort von enilnacs:

@enilnacs!
Und gleich beim zusehen quält er mich, das er gehört haben, das in Japan
bald 8k.... den Rest spare ich mir..

is ja lustig und nun ein fettes Budweiser Bürgerbräu dunkel eiskalt Franti :) Ja, ich kenne das 8k Teil, hab damit gespielt auf der IBC15. Muss aber sagen dass man bei 8k bei s35 ganz gut die Linsenabberationen sieht. Das Material das da gelaufen ist war sicher phänomenal (gemastert) in hdr, aber wo 4k noch mit "normalem" Glass geht, ist 8k fast bei jeder Linse anspruchsvoll (Beugungslimit), das sind ja 33mp Video dass auch noch komprimiert wird.
33mp sind sowieso nicht für s35 sondern AB FullFrame. Oder nimmt man dann Mittelformatoptik ? Wäre besser. 65mm und gut is.
Aber genau das wird nicht passieren, sondern die ersten "8k" Teile werden Smartphones sein, wetten ? :-D

Prost!



Antwort von WoWu:

Der link auf der letzten Seite füht mich ins leere.

Habe ich das richtig verstanden das die selbe Kamera, die 4k kann sowie FullHD.
Bei FullHDFullHD im Glossar erklärt mehr Dynamik im Bild haben müsste als bei 4K?

Das muss ich mal bei der Gh4 testen. Weil dort Filme ich fast zu 90% in 4K und skaliere es dann auf FullHD.

Mir ist aber auch aufgefallen das die Kamera unter FullHDFullHD im Glossar erklärt einen leicht anderen Look hat. Das "mehr an Dynamik" gewinnst Du nur, wenn die Kamera umbinnt, nicht bei einem Downscaling, weil sich nur durch das Binning der Störanstand vergrößern lässt.



Antwort von mash_gh4:

Das "mehr an Dynamik" gewinnst Du nur, wenn die Kamera umbinnt, nicht bei einem Downscaling, weil sich nur durch das Binning der Störabstand vergrößern lässt. kannst du das bitte ein bisserl näher erläutern/begründen?








Antwort von WoWu:

Beim Binning verringert sich der Rauschwert um den Wert der Quadratwurzel aus der Anzahl der benutzten Pixels.
Im Fall von beispielsweise 4 Pixels also um die Wurzel aus 4 (gebinnten Pixels), also 2.
Damit verdoppelt sich der Störabstand um 6dB oder eine Blende.
Bei beispielsweise 10e Ladungsteilen pro PixelPixel im Glossar erklärt, also 40e Ladungsanteilen, nur noch 20e Störsignal und damit eine Ratio von 2:1 (40/20).
Soweit der Hintergrumd.
In heutigen CMOS lässt sich das Binning innerhalb des Chips lösen, also bevor die Pixelladungen die erste Verstärkerstufe erreichen.
So wird erst das kombinierte Signal auf einen Verstärker geführt, der dann erste seine 10e hinzufügt, also statt 20e nur noch 10e

Solche Additionen können sich auf beliebige Ladungszustände beziehen. Es ist möglich vertikal zu binnen, indem zwei Bildzeilen ins Register zu shiften, ohne nach der ersten Zeile auszulesen.
Es ist auch ein horizontales Binning durch Verschieben der horizontalen Register zwei Mal in den Verstärker, ohne nach der ersten Verschiebung zurück zu setzen.

Die Auflösungstiefe eines Pixels errechnet sich aus der möglichen Ladungsmenge geteilt durch die Ladungsmenge des Rauschanteils.
Weil sich sowohl die Ratio der Störspannung erhöht, als auch die gesamte Ladungsmenge, entsteht so, je nachdem wie die ursprünglichen Pixels und die Menge der Einzelpixels ausfallen, eine höhere Dynamik.
Rundungsfehler verhindern zwar, dass solche Werte immer korrekt erreicht werden, aber das ursprüngliche Ziel der erweiterten Auflösungstiefe kann damit erreicht werde.

Beispiel:
Ein Sensor mit relativ kleinen Pixels und einem deutlichen Rauschanteil, also keinen sehr "wertvollen" Sensor:
Angenommene Werte zwischen 2.000 e- für Full Well und 7 e- ergeben einen Wertebereich von 285 Werten, also ein 8Bit Sensor.
Binnen wir nun mit den entsprechenden Möglichkeiten, entweder ausserhalb oder innerhalb des Sensors, erreichen wir das entsprechend verbesserte SNR von 2:1 bzw. 4:1 (je nach Methode) und in der Addition die Elektronenmenge von 8.000 e- bei 3,5 bzw. 1,6 e- Rauschanteil.
Daraus ergibt sich ein Wertebereich von 2.285 (bei 2:1) bzw. 5000 (bei 4:1 und damit entweder die Nutzung von 11 BitBit im Glossar erklärt (2.048 Werte) oder 12 BitBit im Glossar erklärt (4.096 Werten.

Im Downscaling ist der Störabstand im Bild bereits "eingebacken" und nicht besser als die ungebinnten Pixelwerte.
Eine Verkleinerung ändert diesen Störabstand, der sich als Rauschen und begrenzter Blendenzahl niederschlägt, nicht. Daher ist kein Dynamikgewinn zu erzielen, weil Rauschen bereits Bildanteile ist.



Antwort von mash_gh4:

das ist eine intersante sicht der dinge!

prinzipiell ist da natürlich einiges dran. ich muss zugeben, dass ich über die tatsächliche konfigurierbarkeit und funktionsweise des binnings in gebräuchlichen sensoren bzw. kameras nicht ausreichend informiert bin, um die praktische bedeutsamkeit dieses ansatzes korrekt beurteilen zu können.

wo ich dir allerdings ein klein wenig widersprechen würde, ist die tatsache, dass eine mathematische zusammenfassung bzw. ein mitteln mehrerer messwerte nicht auch zu einer verbesserung des störabstands führen würde. es ist allerdings tatsächlich nicht das selbe, da ja die diskriminierungsschwellen in beiden fällen gänzlich verschieden sind. allerdings muss man in diesem zusammenhang unbedingt mitberücksichtigen, dass die d/a-wandler der sensoren normalerweise ein resultat in 12-14 bit auflösung liefern, das erst im zuge weiterer bearbeitungsschritte (u.a. einer ganzen menge noise reduction) auf die gängigen größenordnung herunter reduziert wird. es steht also im zuge einer derartigen rechnerischen zusammenfassung im raw processing noch einiges an reserven bzw. höherer präzision der ausgangswerte zur verfügung (ich würde fast vermuten, dass tatsächliches binning/scaling in heutigen kameras hauptsächlich auf dieser ebene erfolgt). aber selbst wenn das scaling noch einen schritt später stattfindet -- man also nur mehr auf den fertig gebackenen datenstrom in 8 od. 10bit breite zugreifen kann --, ist noch immer eine geringfügige verbesserung möglich, dort wo tatsächlich signifikante unterschiede in den zusammengefassten pixeln vorliegen. es ist natürlich nicht mehr so effizient wie in den beiden stufen zuvor, aber man kann deshalb trotzdem nicht gleich jede damit verbundene verbesserung völlig leugnen.



Antwort von WoWu:

Leider nicht, denn wenn Du mit dem (als Beispiel) beschriebenen 8 BitBit im Glossar erklärt Sensor einmal Dein Video gemacht hast, wirst Du im Scaling keinen einzigen Wert zusätzlich mehr bekommen.
Du kannst zwar deine Rechenmatrix vergrößern, nur sind da keine Kamerawerte drin, die der Sensor durch das Objektiv gesehen hat.
Bei Vfx ist das was Anderes, aber hier reden wir ja über Video.

Was die Wandlung betrifft, so muss man sich die anliegenden Werte sehr genau ansehen, weil eine geringere Wandlungstiefe oft zu besseren Ergebnissen führt.
Also: Je mehr Bits im Wandler, umso besser ist ein weit verbreiteter Irrtum.
Nehmen wir mal an, es handelt sich um einen 16 BitBit im Glossar erklärt A/D Wandler in einer Kamera.
Daraus resultiert ein 2-Byte Datenwort, das im Bildprocessing bearbeitet wird.
Die Bildintensität (I) erreicht von 2e0-1 bis 2e16-1.
Die Bitnummer des Datenwortes sind immer in drei Kategorien aufgeteilt :
Bits, die nur Shot NoiseNoise im Glossar erklärt enthalten,
Bits, die das eigentliche Nutzsignal mit einem Mittelwert enthalten
Leading Bits, die lediglich "0" enthalten.
Was wir sehen, ist, dass die Zahl der Bits, die die Signalschwankungen wegen des Shot-Noise enthalten, der Zahl von Bits gleichkommt, die den nicht-schwankenden Teil des Signals bezeichnen.
Das erklärt sich aus einer Gleichung, die ich mir hier mal spare.
Daraus folgt, dass ein 16 BitBit im Glossar erklärt Wandler in sich selbst noch keine Vorteile birgt. Würden wir dahingegen einen 12 BitBit im Glossar erklärt A/D Wandler betrachten, so würden die Quantisierungsschritte um den Faktor 2^(16-12)=16 grösser sein.
Die Auflösung würde somit um den Faktor 16 abnehmen.
Das bedeutet, dass am "less significant Bit- Ende" des Datenwortes Auflösung verloren gehen würde.
Aber das LSB-Ende des Datenwortes enthält nur noch Shot-Noise.
Reduziert man also das Datenwort von 16 auf 12 BitBit im Glossar erklärt, würde Shot-Noise abnehmen, bei gleichzeitiger Beibehaltung der signifikanten, nicht schwankenden Daten.
Ein solches Ergebnis mag überraschen, aber Physik ist nun einmal eine exakte Wissenschaft und es gibt in einem solchen Fall nur eine Möglichkeit, die Auflösung herauf zu setzen:
 
Durch Erhöhung der Integrationszeit, um den Fotosensor mit ausreichend Photonen zu versorgen und damit den Shot-Noise herab zu setzen.
Genau an dieser Stelle setzt aber eine andere Funktion ein, die ich mir hier aber auch spare, weil das Thema sonst eher unübersichtlich wird.

Edit
es steht also im zuge einer derartigen rechnerischen zusammenfassung im raw processing noch einiges an reserven bzw. höherer präzision der ausgangswerte zur verfügung
Sorry, aber das ist mir zu wenig spezifisch und ich sehe das auch nicht.

Vielleicht magst Du da etwas genauer sagen, was das sein soll und woraus es entsteht denn ich sehe da eher gegenteilige Tendenzen.
Man muss sich in der Physik einwenig von der Mathematik lösen, weil die Mathematik nie die Physikalischen Auswirkungen auf das Bild zeigt aber gerade die sind es, (ausschließlich), die wir als Anwender betrachten und speziell auch die, die im optisch-elektrischen Weg entstehen.



Antwort von mash_gh4:

Leider nicht, denn wenn Du mit dem (als Beispiel) beschriebenen 8 BitBit im Glossar erklärt Sensor einmal Dein Video gemacht hast, wirst Du im Scaling keinen einzigen Wert zusätzlich mehr bekommen. von einem 8bit sensor rede ich deshalb nicht, weil das eine unrealistische annahme ist.
Du kannst zwar deine Rechenmatrix vergrößern, nur sind da keine Kamerawerte drin, die der Sensor durch das Objektiv gesehen hat. ich rede nur vom verkleinern -- entweder in form von binnining auf analoger ebene, oder vom zusammenfassen mehrerer bereits digital repräsentierter werte.
Was die Wandlung betrifft, so muss man sich die anliegenden Werte sehr genau ansehen,... ich glaube, die damit verbundenen probleme kenne ich.

für das problem, in dem wir uns nicht einig sind, spielen sie aber keine große rolle.
du kannst einfach eine synthetische matrix hernehmen, sie mit konstanten werten füllen und dann gaussian noise von beliebiger intensität drüber legen. an hand der der standardabweichung der resultierenten werte im verhältnis zum ursprünglichen (konstanten) nutzsignal lässt sich ausgesprochen einfach einen SNR wert errechnen -- ganz frei von jeder imaginierten physik.

wenn du nun in dieser matrix benachbarte werte zusammenfasst, mittelst und zu einer kleineren matrix skalierst, kannst du erneut mit den selben statistischen mitteln einen SNR wert bestimmen.

wird er gleich sein? -- ich würde sagen, das hängt von der methode des zusammenfassens ab. die 'nearest' methode, wo ja in wahrheit nur ein einzelner wert aus der ausgangsgruppe übernommen wird, dürfte tatsächlich den gleichen rauschanteil bzw. eine ähnliche streung der resultierenden werte zeigen. fast alle anderen gängigen methoden werden aber ein auffallend besseren verhältnis zw. störanteil und nutzsignal nach sich ziehen.
es steht also im zuge einer derartigen rechnerischen zusammenfassung im raw processing noch einiges an reserven bzw. höherer präzision der ausgangswerte zur verfügung
Sorry, aber das ist mir zu wenig spezifisch und ich sehe das auch nicht. wie gesagt: ich halte 8bit sensoren bzw. entsprechend grobe auflösung der a/d-wandler für unrealistisch. normalerweise liegen im raw-processing 12-14bit, von mir aus auch 16bit, wortbreiten vor. ausgangswerte, die deutlich höher aufgelöst sind als die angestrebte zielauflösung. deshalb spreche ich in diesem zusammenhang von "reserven" bzw. "höherer präzision" in der raw-daten-verarbeitung.

das einfache abschneiden von LSB information, scheint mir viel zu primitiv, um der tatsächlichen komplexität heutiger signalaufbereitungsprozessse in kameras und externem raw data processing gerecht zu werden.



Antwort von WoWu:

Der 8 BitBit im Glossar erklärt Sensor war auch nur ein Beispiel, weil ich ihn oben für die Veranschulichung genommen habe.

Was Du in der Synthetischen Matrix beschreibst, nichts Anderes, als ein Form der Rauschunterdrückung meist gekoppelt mit einer Kantenaufstellung, um die Unschärfe zu kompensieren.
Leider haben solche Filter nämlich die Angewohnheit, die Bildauflösung mit zu beeinträchtigen.
Einen SNR Gewinn erhältst Du nur auf Kosten der spatialen Auflösung ...
Es wird Dir kein Wert generiert, die vermeintlich hätte vom Sensor kommen müssen, weil es ihn in der Matrix nicht gibt.
Rauschunterdrückung ist keine Dynamikerweiterung. Die Grunddynamik des Biödes bleibt unbeeinflusst. Lediglich die störenden ArtefakteArtefakte im Glossar erklärt werden geglättet.
Dynamik gewinnst Du nur, wenn Du den SNR Wert dort veränderst, wo die Werte erzeugt werden, also durch Binning am Sensor.

deshalb spreche ich in diesem zusammenhang von "reserven" bzw. "höherer präzision" in der raw-daten-verarbeitung.
Das war ja genau meine Frage, was das sein soll ...

Und was die Wandlerauflösung betrifft, so verhält es sich, wie beschrieben, genau umgekehrt ... weniger ist mehr, in dem beschriebenen Zusammenhang.
Lies die Erklärung nochmal in Ruhe durch.

Und ob Dir das Abschneiden der LSBs nun zu primitiv erscheint, oder nicht ...
sorry, aber darauf wird kein Hersteller Rücksicht nehmen, der Kameras zu bauen hat.
Aber genau das ist ja auch der Grund, warum geringer auflösende AD Wamdler in dem Fall die geeigneteren sind.
Es ist leider ein landläufig verbreiteter Irrtum, zu meinen, je höher ein Wandler auflöst, umso besser fürs Bild.
Begründung hab ich gegeben.

Ich klink' mich für heute aus.



Antwort von CineMika:

welche inzwischen sehr gute Full-HD Cams sind im Artikel eigentlich gemeint, die ein so extrem talenloses full-hd bild machen?



Antwort von mash_gh4:

wie üblich drehen wir uns wieder einmal im kreis (und es scheint sich in unserem fall tatsächlich mehr um einen hermeneutische zirkel als um eine spirale zu handeln) denn:
Einen SNR Gewinn erhältst Du nur auf Kosten der spatialen Auflösung... genau das war es doch, worauf sich -paleface-s ursprüngliche frage bezogen hat: down scaling von der vollen sensor auflösung nach uhd bzw. fhd.

aber trotzdem war es ein willkommener anlass, mich ein bisserl drüber zu informieren, ob in heutigen kameras tatsächlich noch charge binning oder doch eher digital averaging zum einsatz kommt und welche konsequenzen die verschiedensten möglichen varianten der auflösungsanpassung generell haben. ich glaube, diesbezüglich solltest du dich vermutlich auch ein bisserl auf den neuesten stand bringen. es hat sich ja doch einiges geändert seit den guten alten CCDCCD im Glossar erklärt zeiten. ;)



Antwort von Bommi:

In diesem Video geht's um Chroma-Subsampling und nicht um Dynamik. Sollte eine Kamera bei 4k an Dynamik verlieren, so gewinnt sie beim downscaling immerhin an Farbe. Zumindest theoretisch ;-)





Antwort von WoWu:

mash gh4
ich glaube, diesbezüglich solltest du dich vermutlich auch ein bisserl auf den neuesten stand bringen. es hat sich ja doch einiges geändert seit den guten alten CCDCCD im Glossar erklärt zeiten. ;)
Erklär doch einfach mal, was sich da geändert haben soll, denn meine Ausführungen bezogen sich keinesfalls auf CCDCCD im Glossar erklärt Handhabung.
Was sich ganz sicher in den neuen Kameras geändert hat, ist dass nur noch wenige komplette Auslesumgen des Sensors vorgenommen werden und die restlichen Bilder aus den bestehenden Bildern zwischen gerechnet werden.
Das verändert aber kein Pixelverhalten sondern wirkt sich lediglich auf die Darstellung aus .. leider aber negativ.

Aber döse "Reserve", von Dr Du sprichst, würde mich wirklich einmal interessieren, wo die im Signal herkommen sollte und warum sie bisher kein Hersteller nutzt.
Erklär doch einfach mal. Du ziehst Dich darauf zurück und sagst "alles neu macht der Mai" .... was genau soll das sein ?

@Bommi
In dem Vides wird ein häufig gemachter Denkfehler nur noch einmal wiederholt. Davon wird er aber nicht richtiger.
Das Hatten wir hier aber schon einmal in epischer Breite besprochen.








Antwort von -paleface-:

@ wowu
Danke für deinen ausführlichen Bericht.

Ich versuch es mal zu interpretieren:

In 4k erzeugt ArtefakteArtefakte im Glossar erklärt und NoiseNoise im Glossar erklärt werden beim downskalieren zwar kleiner bleiben aber dennoch vorhanden.

Selbe Kamera mit FullHDFullHD im Glossar erklärt skaliert intern schon vor. Und kann so die ArtefakteArtefakte im Glossar erklärt und NoiseNoise im Glossar erklärt schon vorher schon "ausbügeln ".

Nadelöhr wäre also die Bitrate beider Kompression.
Wenn ich das selbe Motiv mit der GH4 in HD und 4k Filme und 4k skaliere sind dort auf jedenfalls viel mehr Details vorhanden.

Ich müsste also das HD Bild also extern mit einer höheren Bitrate aufnehmen.

Liege ich korrekt?



Antwort von WoWu:

Nein, leider nicht.
Wir neigen dazu, das Downscaling mit einer Verkleinerung, wie sie in der optischen Fotografie gemacht wurde, zu verwechseln.
Optisch verkleinern sich da nämlich die Objekte, einschließlich der Noiseartefakte.
Digital findet aber diese Verkleinerung nicht statt, weil die PixelPixel im Glossar erklärt identische groß bleiben.
Was stattfindet, ist eine Unterabtastumg, in der PixelPixel im Glossar erklärt zusammengerechnet werden und so z.B. aus 4 Einzelpixel ein einziges PixelPixel im Glossar erklärt wird, das aber die 4 Detailinhalte verloren hat.
Was Du bei einem Downscaling als "besser" empfindest, ist die höhere Kantendichte, weil die Kanten bei der Unterabtastumg nachgerechnet werden und so im Verhältnis zur Bildgrösse mehr und stärkere Kanten vorhanden sind.
Subjektiv wird ein solches kontrastreicheres Bild als "besser" empfunden. (Heynacher Integral)
Was das Rauschen betrifft, so wirst Du da nicht mit höherer Bittate gegen wirken können. Da hilft nur Licht, bzw. die Kamera im ISO Sweet Spot zu betreiben, denn nach beiden Seiten (mehr, als auch weniger ISO) nimmt das Rauschen zu. Oder Du machst es über die Integrationszeit (Shutter) des Sensors, solange Du nicht mit künstlichen Lichtquellen arbeitest ist das kein Problem.



Antwort von -paleface-:

Ok. Jetzt hab ich es verstanden.

Aber was glaube ich dabei nicht bedacht wird ist das ich das Bild ja schon vorher beim Dreh festlege.

Das bedeutet ich weiß ja vorher: soll mal FullHDFullHD im Glossar erklärt werden.
Ich habe also die Wahl den selben Bildausschnitt in FullHDFullHD im Glossar erklärt oder 4K zu drehen.
Ich drehe also 4K weil ich das 4K Bild auf FullHDFullHD im Glossar erklärt skalieren kann und definitiv mehr Details bekomme als bei dem FullHDFullHD im Glossar erklärt Bild.

Das liegt aber vielleicht auch daran weil das HD Bild der GH4 nicht perfekt ist.



Antwort von WoWu:

Du kriegst nicht mehr Bildstabilisierung, Du kriegst nur mehr Kanten.

Denk doch mal nach ... warum sollte eine Kamera, die 4K schafft (einschließlich Objektiv) nicht in der Lage sein 100% Details in 1080 zu machen und damit jedes HD PixelPixel im Glossar erklärt mit einem Bilddetail füllen.
Wenn aber bei 1080 bereits sämtliche Bilddetails ausgeschöpft sind .... warum sollte man dann bei einer Unterabtastumg von 4K nach 2K noch mehr Bildetails erzielen können .... und wohin speicherst Du sie ... Du hast ja nicht mehr Bildpunkte.

Also, entweder, Deine Kamera taugt nichts für HD und erreicht nicht mal diese Auflösung oder die Unterabtastung liefert was Anderes als Bilpunkte.

Oder natürlich beides.... dann würde ich ne neue Kamera und/oder Objektiv laufen.

Mach doch mal den Test mit den beiden 2 cm Kacheln, wenn es bei euch wieder etwas wärmer wird, dann siehst Du doch ob deine Kamera 4 K auflöst und auch, was damit geschieht, wenn Du das dann unterabtastest nach 2K.



Antwort von Starshine Pictures:

Eine Kamera die nahezu perfektes FullHDFullHD im Glossar erklärt bringt ist beispielsweise die C100. Sie hat einen 4K Sensor und zeichnet in 1080p1080p im Glossar erklärt auf. Wo da aber genau das Downscaling statt findet kann ich nicht sagen. Vielleicht kennt sich jemand besser mit den technischen internen Begebenheiten der C-Serie von Canon aus.



Antwort von WoWu:

Oder sie binnt für 2K, um bessere SNR Werte, und damit höhere Dynamik zu erreichen.
4K Sensor heißt ja nichts anderes, als dass ich ein 2x2 Binning machen kann.



Antwort von srone:

Eine Kamera die nahezu perfektes FullHDFullHD im Glossar erklärt bringt ist beispielsweise die C100. Sie hat einen 4K Sensor und zeichnet in 1080p1080p im Glossar erklärt auf. Wo da aber genau das Downscaling statt findet kann ich nicht sagen. Vielleicht kennt sich jemand besser mit den technischen internen Begebenheiten der C-Serie von Canon aus. das funktioniert deswegen sogut, weil das debayering 4 subpixel (rggb) zu einem zusammenfassen kann, was dann "quasi" einer 4-chip kamera entspricht.

lg

srone



Antwort von WoWu:

wobei dann die y Werte zu einem Wert zusammengefasst werden und genau der Additionseffekt des gebinnten Pixels Eintritt.



Antwort von srone:

was dann weitergehend bedeutet, wir brauchen bei einem cmos bayer pattern chip 4k auflösung für vernünftiges hd, sprich 8k für vernünftiges 4k, einen tauglichen pixelpitch >5,5 mikrometer vorausgesetzt -> mittelformat sensoren. ;-)

lg

srone








Antwort von Starshine Pictures:

Auf dieser Seite wird geschrieben:

http://www.dvxuser.com/V6/archive/index ... 95246.html


The debayered ProResProRes im Glossar erklärt BMCC signal averages RGBRGB im Glossar erklärt information to bring all three RGBRGB im Glossar erklärt values into each point where physically only one of the three RGBRGB im Glossar erklärt values is actually being measured, that reduces chroma information as Barry describes below. In contrast, the C100/ C300 sensor is not debayered so it delivers unaveraged chroma information. The C100/C300 sensor is unique for single sensor cameras in that it takes a 1080p1080p im Glossar erklärt image from a 4k sensor with each color sample coming froma single unaveraged R, G,or B detector so that it acts like 3 chip camera where there are separate unique channels for each RGBRGB im Glossar erklärt point, no averaging to bring information into points that are lacking it.



Antwort von srone:

thats it. ;-)

lg

srone



Antwort von -paleface-:

Also, entweder, Deine Kamera taugt nichts für HD und erreicht nicht mal diese Auflösung oder die Unterabtastung liefert was Anderes als Bilpunkte. Sagte ich ja. Wenn auch nicht ganz so vernichtend ;-)
Das liegt aber vielleicht auch daran weil das HD Bild der GH4 nicht perfekt ist.



Antwort von srone:

man sollte, in diesem kontext, sich mal vor augen halten, was schaffen wir an bildprocessing in echtzeit mit einer octa-core workstation im verbund mit einer teraflops-gpu bei einen leistungsbedarf von min 1kw und was soll eine kamera mit, sicherlich hochspezialisierten asics, bei einem avisierten smartphone stromverbrauch, da leisten können?

lg

srone



Antwort von dienstag_01:

The debayered ProResProRes im Glossar erklärt BMCC signal averages RGBRGB im Glossar erklärt information to bring all three RGBRGB im Glossar erklärt values into each point where physically only one of the three RGBRGB im Glossar erklärt values is actually being measured, that reduces chroma information as Barry describes below. In contrast, the C100/ C300 sensor is not debayered so it delivers unaveraged chroma information. The C100/C300 sensor is unique for single sensor cameras in that it takes a 1080p1080p im Glossar erklärt image from a 4k sensor with each color sample coming froma single unaveraged R, G,or B detector so that it acts like 3 chip camera where there are separate unique channels for each RGBRGB im Glossar erklärt point, no averaging to bring information into points that are lacking it.
Ist das so?
Ich denke, beim 3CCD wird ein *Lichtstrahl* durch ein Prisma in 3 Farben aufgeteilt, wogegen beim Bayern Pattern Chip 4 (unterschiedliche) *Lichtstrahlen* auf jeweils 1 Sensel (heisst das so?) geleitet werden und damit im Anschluss interpoliert werden MUSS.
Ist doch so oder.



Antwort von srone:

wenn ich aber 4 sensel habe (4k-sensor), um ein (full-hd) pixel zu errechnen, entspricht dies einer 4-chip kamera. anstatt des prismas habe ich die farbfilter vor jedem sensel.

lg

srone



Antwort von dienstag_01:

wenn ich aber 4 sensel habe (4k-sensor), um ein (full-hd) pixel zu errechnen, entspricht dies einer 4-chip kamera. anstatt des prismas habe ich die farbfilter vor jedem sensel. Schon klar. Aber es sind eben 4 verschiedene *Lichtstrahlen*, die auf die Sensel fallen, wogegen bei 3 Chip ein Lichtstrahl *aufgespalten* wird. Die 3 Farben also eindeutig einem Bildpunkt zugeordnet werden können, ohne Interpolation.
Unverständlich ausgedrückt?



Antwort von WoWu:

Das erledigen im Bayerpattern die beiden doppelbrechenden Filter, auch AA Filter genannt.



Antwort von mash_gh4:

The C100/C300 sensor is unique for single sensor cameras in that it takes a 1080p1080p im Glossar erklärt image from a 4k sensor with each color sample coming froma single unaveraged R, G,or B detector so that it acts like 3 chip camera where there are separate unique channels for each RGBRGB im Glossar erklärt point, no averaging to bring information into points that are lacking it. ich halte das ehrlich gestanden für keine so gute darstellung.

der vergleich mit 3 chip CCDCCD im Glossar erklärt kameras scheint mir ziemlich an den haaren herbeigezogen zu sein. leider ganz ähnlich wie WoWus festhalten an anlogem binning, das einstmals mit solchen kameras noch sehr einfach zu bewerkstelligen war, aber im kontext von cmos sensoren mit bayer pattern als höchst ungebräuchlich angesehen werden muss, obwohl es prinzipiell technisch durchführbar wäre.

was allerdings im hier beschriebenen fall tatsächlich vorliegen dürfte, ist ein sehr einfache demosacing methode, die man gewöhnlich auch als "pixel binning" bezeichnet, obwohl sie jener anderen gleichnamigen technik nicht viel gemein hat.

diese form des demosaicing setzt voraus, dass man -- im gegensatz zu dem meisten anderen demosaicing lösungen -- nur ein vierter der anzahl an bunten sensor pixel in form von rgb-pixeln im resultat wiederfindet. die nachbarpixel, die bei fast allen anderen algorithmen genutzt werden, um den farbwert für jeden einzelnen bildpunkt am sensor näherungsweise zu ermitteln, werden hier also tatsächlich ignoriert. es ist eine sehr ressourcenschonende primitive technik, die aber aber nur auf den ersten blick überzeugend wirkt. am besten man vergleicht es mit den ergebnissen, die andere gebräuchliche techniken liefern:

http://www.thedailynathan.com/demosaic/ ... ge=raw.png

jede dieser demosacing lösungen hat ihre ganz spezifischen vor und nachteile.

bei der echtzeitverarbeitung im video-umfeld darf vor allen dingen auch der rechenaufwand der komplizierteren methoden nicht unterschätzt werden.

das ganze wird noch wesentlich komplizierter, wenn verschiedene auflösungen auf einem sensor unterstützt werden sollen. ein einfaches binning, wie es beim monochromen betrieb od. bei 3 chip lösungen u.u. noch sinnvoll war, ist hier kaum sauber realisierbar. das bayer pattern muss einfach immer mitbedacht werden. der notwendige rechenaufwand für eine saubere interpolierung aus allen vorhandenen sensor bildpunkten ist enorm. trotzdem wird genau dieser weg bspw. in den aktuellen sonys mit größeren sensoren beschritten. die ergebnisse sind natürlich deutlich besser als beim auslassen von zwischenräumen (line skipping) und einfacherem interpolieren.

so sehr also dieses C100 beispiel auf den ersten blick nahe legt, dass eine größere anzahl an senseln in relation zur angestrebten pixelanzahl von vorteil sein könnte, ist dass leider in wahrheit nicht immer der fall -- spätestens dann, wenn die grenzen der verfügbaren rechenkapazität technische notlösungen und vereinfachungen bedingen, kann es auch gänzlich kontraproduktiv ausfallen. der unbefriedigende interne gh4 1080p1080p im Glossar erklärt modus ist ein wunderbares beispiel dafür.








Antwort von srone:

man sollte, in diesem kontext, sich mal vor augen halten, was schaffen wir an bildprocessing in echtzeit mit einer octa-core workstation im verbund mit einer teraflops-gpu bei einen leistungsbedarf von min 1kw und was soll eine kamera mit, sicherlich hochspezialisierten asics, bei einem avisierten smartphone stromverbrauch, da leisten können? da zitier ich mich mal selbst.

wenn wir den faktor "pixelquality" einbringen würden, in anbetracht der verfügbaren rechenleistung "in cam", welche verfahren wären dann am zielführendsten?

lg

srone



Antwort von srone:

wenn ich aber 4 sensel habe (4k-sensor), um ein (full-hd) pixel zu errechnen, entspricht dies einer 4-chip kamera. anstatt des prismas habe ich die farbfilter vor jedem sensel. Schon klar. Aber es sind eben 4 verschiedene *Lichtstrahlen*, die auf die Sensel fallen, wogegen bei 3 Chip ein Lichtstrahl *aufgespalten* wird. Die 3 Farben also eindeutig einem Bildpunkt zugeordnet werden können, ohne Interpolation.
Unverständlich ausgedrückt? in dem moment besteht der full-hd pixel aus 4 4k senseln, ich habe also die 4-fache auflösung die ich eigentlich benötige, dieser marginale sensel-shift bleibt also ohne nennenswerte auflösungsverluste in bezug auf full-hd.

lg

srone



Antwort von WoWu:

spätestens dann, wenn die grenzen der verfügbaren rechenkapazität technische notlösungen und vereinfachungen bedingen, kann es auch gänzlich kontraproduktiv ausfallen. der unbefriedigende interne gh4 1080p1080p im Glossar erklärt modus ist ein wunderbares beispiel dafür.
Erklär doch mal, wie er funktioniert, damit wir uns anhand des GH4 Beispiels ein Bild machen können und zum Vergleich heranziehen.

Ansonsten ist die Anforderung an die Rechenkapazität im Binning Mode entsprechend geringer, weil bereits auf dem sensor gewinnt wird und sich für den Rechner quasi nur 1/4 an Aufwand einstellt.
Im Canon Beispiel ist ausserdem das De Bayerin entsprechend einfacher, weil die effektiven Werte bereits vorliegen. Insofern stellt sich die Frage, ob man überhaupt noch von einem De-Bayering reden kann.

Was Deine Interpolationsbeispiele angeht, so wirken sich die Unterschiede primär auf das Aliasing aus, sind also eine Frage, wie die dahinterliegende Cluster gestaltet sind, Was das mit dem hier vorliegenden Fall zu tun hat, verschliesst sich mir im Augenblick noch.

Mal ganz abgesehen von der Frage, welches RAW Signal eigentlich so RAW ist, dass man das De Bayerin selbst gestalten kann.
Aber ich freue mich, dass Du da meine Meinung teilst, dass mit De Bayerin noch ganz wesentlich Einfluss auf die Signalqualität genommen werden kann.
Mein Reden seit Leipzig ...

Aber vielleicht erschliesst sich das andere Thema ja anhand der GH4 Verfahrenserläuterung.



Antwort von mash_gh4:

...dieser marginale sensel-shift bleibt also ohne nennenswerte auflösungsverluste in bezug auf full-hd. das stimmt nur, solange du es nicht besseren lösungen vergleichst.
im bezug auf die farbverfälschungen an den kanten stimmt es leider nicht.
wenn wir den faktor "pixelquality" einbringen würden, in anbetracht der verfügbaren rechenleistung "in cam", welche verfahren wären dann am zielführendsten? das getrau ich mich nicht zu beantworten! -- sorry!

ich bin froh, wenn ich ein bisserl was von dem begreife, was da hinter der oberfläche in den guten lösungen gegenwärtig genutzt wird, aber auch diese einblicke beruhen gewöhnlich nur auf sehr spärlich gestreuten herstellerangeben und indirektem nachvollzug, der auf die anwendung bekannter techniken schließen lassen. die ganze geschichte ist in wahrheit deutlich komplizierter, als dass man hier irgendeine ganz einfache lösung aus dem ärmel schütteln könnte. ich halte es bei solchen fragen oft für zielführender, wenn man das problem zwar grob umreißt und ein paar stichworte und anhaltspunkte zur orientierung austauscht, es aber letztlich doch jedem selbst überlässt, sich ein eigenes differenziertes bild dazu zu machen.



Antwort von srone:

...dieser marginale sensel-shift bleibt also ohne nennenswerte auflösungsverluste in bezug auf full-hd. das stimmt nur, solange du es nicht besseren lösungen vergleichst.
im bezug auf die farbverfälschungen an den kanten stimmt es leider nicht. wird mir nicht ganz klar, ich setze ein full-hd raster auf einem 4k chip, habe also 4 sensel pro hd-pixel, wenn ich selbige hd-pixelintern verechne, welche farbverschiebung soll auftreten?
wenn wir den faktor "pixelquality" einbringen würden, in anbetracht der verfügbaren rechenleistung "in cam", welche verfahren wären dann am zielführendsten? das getrau ich mich nicht zu beantworten! -- sorry!

ich bin froh, wenn ich ein bisserl was von dem begreife, was da hinter der oberfläche in den guten lösungen gegenwärtig genutzt wird, aber auch diese einblicke beruhen gewöhnlich auf sehr spärlich gestreuten herstellerangeben und indirekten nachvollzug, die auf die anwendung bekannter techniken schließen lassen. die ganze geschichte ist in wahrheit deutlich komplizierter, als dass man hier irgendeine ganz einfache lösung aus dem ärmel schütteln könnte. ich halte es bei solchen fragen oft für besser, wenn man das problem zwar grob umreißt und ein paar stichworte und anhaltspunkte zur orientierung austauscht, es aber letztlich doch jedem selbst überlässt, sich ein eigenes differenziertes bild dazu zu machen. das ist aber hier, immer wieder das thema, kein vorwurf gegen dich, ich kann das ab einem gewissen punkt auch nur "abschätzen", versuche allerdings so viele relevante punkte wie möglich mit einzubeziehen und komme für mich dann zu dem schluss, uns wird herstellerseitig viel erzählt, was zur zeit gar nicht wirklich leistbar ist oder eben nur bruchstückhaft, via etlicher tricks und das befriedigt einen auf der suche nach dem reinen bild wohl kaum. ;-)

lg

srone



Antwort von mash_gh4:

...welche farbverschiebung soll auftreten? wirf einfach einen kurzen blick auf den oben schon angebebenen link und die dortigen 3x3 vergrößerungen:

http://www.thedailynathan.com/demosaic/ ... ge=raw.png

(ps: ich bin mir übrigens nicht sicher, ob die c100 wirklich so primitiv agiert? ich persönlich würde es eigentlich eher nicht glauben. ich hab hier nur konsequent aufzuzeigen versucht, was dem ztitat zu entnehmen war.)

wenn es dich interessierte, wie die einzelnen techniken intern arbeiten, kann ich dir ggf. noch ein paar weiterführende hinweise liefern. bspw.:

https://www.informatik.hu-berlin.de/de/ ... o10_03.pdf

in letzterem werden übrigens auch jene ganz grundlegenden verfahren grob erläutert, die man bspw. auch mit dcraw direkt an gh4 stills (kann man mit bis zu 16fps in serienaufnahmen aufzeichnen -- ein luxus, fast wie bei magic lantern ;)) durchprobieren kann. das ersetzt zwar natürlich noch lange keine kamera, die raw video vernünftig aufzeichnet, lässt aber doch einige aufschlussreiche einsichten bzgl. sensor einschränkungen vs. raw-aufbereitung bzw. internem video processing zu.



Antwort von srone:

sämtliche von dir verlinkte debayering algorithmen setzen auf dem nativen pixelraster (gedacht 4k bzw uhd) auf, das ist nicht mein obig beschriebener ansatz - ein full-hd pixel besteht aus 4 subpixeln (senseln) ohne direkten bzw rechnerischem kontakt zum nachbar, sprich ausserhalb des 2x2 sensel-patterns, das einen full-hd pixel umschreibt, reden wir dann hier überhaupt noch von debayern oder verrechnen wir wie von 3 (4)-chip gewohnt?
der skalierungsfaktor spielt hier imho eine entscheidende rolle.

lg

srone



Antwort von mash_gh4:

sämtliche von dir verlinkte debayering algorithmen setzen auf dem nativen pixelraster (gedacht 4k bzw uhd) auf, das ist nicht mein obig beschriebener ansatz - ein full-hd pixel besteht aus 4 subpixeln (senseln) ohne direkten kontakt zum nachbar, sprich ausserhalb des 2x2 sensel-patterns, das einen full-hd pixel umschreibt, der skalierungsfaktor spielt hier imho eine entscheidende rolle. ja -- dass ist auch der grund, warum nur das pixel binning beispiel oben in der ersten liste kleiner ist als die anderen!

bei der 3x3 darstellung ist es in der größe den anderen angepasst. das wird der praxis aber insofern gerecht, als man ja auch diese anderen methoden mit nachfolgender skalierung/verkleinerung als ganz realistische alternativen zum pixel binning ansehen muss -- nur ist halt bei diesem vorgehen die qualität dann fast immer deutlich besser!

(...dabei ist das rauschen hier auch noch völlig ausgeklammert, das in wahrheit auch noch eine wichtige rolle spielt!)



Antwort von WoWu:

Der Link hat eine weitere Schwäche, nicht nur dass man für das Binning lediglich ein viertel der Pixelmenge angenommen hat, der Link hat auch die schwäche, dass bei all den Bayernmethoden kein Bezug auf vorgeschaltete Aliasing Filter genommen wird.
In diesen Filtern wird der einfallende Lichtstrahl ebenfalls ge-vierfacht, so dass sich die Auflösungsverhältnisse gleichwohl auch vierteln.

Hier wurden lediglich Interpolationsmethoden, relativ losgelöst von Kamerakonstruktionen (Aliasingfilter) vorgenommen.

Daher ist der Schluss, Binning sei unterlegen völlig voreilig und nicht unter Bewertung der korrekten Rahmenbedingungen getroffen.
(Übrigens kann ich diesen Schluss auch nicht im Lehrmaterial erkennen.)








Antwort von srone:

und jetzt, zurückkommend auf rechenleistung in cam, was ist realistisch, abgesehen von 3-fach vergrössert, vpn sieht toll aus, aber machbar, in cam, in echtzeit?

lg

srone



Antwort von scrooge:

Hallo zusammen,

ich bin immer wieder beeindruckt von dem Insider-Wissen in diesem Forum. Sehr spannend!

Leider bin ich technisch zu unbedarft, um die Details zu verstehen, darum würde ich euch gerne um ein Fazit zu folgender Frage bitten:

Ist es nun besser in 4K zu filmen (ich hab die LX100) mit anschließendem Downscale oder ist es tatsächlich besser in HD zu drehen?

Auch eine "Es kommt drauf an" Antwort würde mich interessieren, wenn sie die einzelnen Optionen "laiengerecht" auf den Punkt bringt.

LG
Hartmut



Antwort von WoWu:

4K generiert Dir beim Downscaling eine hohe Anzahl an Kontrastkanten, aber kein zusätzliches Bilddetail.
Magst Du also harte Kontraste, sieht das Bild scheinbar besser aus, hat aber den typischen Videolook.
Natürlichere Bildwiedergabe erreichst Du eher mit einer HD Aufmahme, bei gleicher Sensorgrösse aber dafür größeren Pixels.
Dazu kommen noch ein paar ArtefakteArtefakte im Glossar erklärt, die aus den kleinen Pixels resultieren, die aber in Beurteilung des Gesamteindruckes hier nicht wirklich ins Gewicht fallen.



Antwort von scrooge:

Hi WoWu,

danke für die Info. Ich schließe daraus, dass es selbst dann, wenn der Film auf einer großen Leinwand (z.B. Festival) laufen soll, trotzdem besser ist in HD zu drehen, richtig?

LG
Hartmut



Antwort von wolfgang:

Also das widerspricht der gängigen Meinung. Meist hört man dass das Filmen in HD eine schlechtere Qualität liefert als wenn man in UHD Auflösung filmt und dann (hochertig) zu HD runterskaliert. Abgesehen von den zusätzlichen Vorteilen dieses Weges (Bessere Ausschnittswahl, gesteigertes Farbsampling, Zukunftssicherheit den Schnitt auch in UHD zu haben).



Antwort von Peppermintpost:

Also das widerspricht der gängigen Meinung. Meist hört man dass das Filmen in HD eine schlechtere Qualität liefert als wenn man in UHD Auflösung filmt und dann (hochertig) zu HD runterskaliert. also was gängige meinung ist, das ist zwar immer wieder amüsant, aber du weist selbst das die gängige meinung meistens sehr wenig mit der realität zu tuen hat. dazu kommt, das das was wowu schreibt ja in diesem fall oft sehr schlecht nachzuprüfen ist, weil eine kamera entweder hd oder uhd filmt, wenn es aber eine uhd kamera ist, und du drehst "nur" in hd dann ist die bildqualität immer deutlich schlechter als wenn du in uhd drehst und es runter scalierst. das ist eine beobachtung die die meisten gemacht haben, und die ist auch richtig, aber das ist nicht was wowu gesagt hat. er vergleicht einen sensor mit kleinen pixeln und hoher pixeldichte mit einem sensor mit grossen pixeln und geringerer auflösung. also eine "echte" hd kamera mit einer uhd kamera. bei einer uhd kamera nur jeden 4ten pixel auszulesen fürhrt natürlich nicht zu besseren ergebnissen.

man müsste also z.b. eine canon 5d oder nikon 750 mit einer sony a7s vergleichen. aber auch das ist natürlich schwierig weil alle hersteller total unterschiedliche kompressionen verwenden und die bilder unterschiedlich kamera intern verbiegen.

Abgesehen von den zusätzlichen Vorteilen dieses Weges (Bessere Ausschnittswahl, gesteigertes Farbsampling, Zukunftssicherheit den Schnitt auch in UHD zu haben). naja, also hier hast du was die kadrierung angeht natürlich recht. klar in 4k kannst du auch einen weniger talentierten kameraman buchen weil du in der post alles nochmal neu kadrieren kannst. die frage ist nur, willst du so einen kameraman? ich hab gerade letzte woche wieder einen film gepostet der in 6k red gedreht worden ist, dabei habe ich genau ein einziges bild neu kadriert, das war ein schuss aus einem fahrenden auto wo ich was wackeln von einem shot auf einen anderen übertragen habe um zwischen den beiden eine blende zu machen. sonst hab ich jedes einzelne bild genau so genommen wie es der kameramann kadriert hat. du hast also recht, aber das ist ja schon die ausnahme die du beschreibst, aber gut.
was das farbsampling angeht ist das nur begrenzt richtig. runterscalieren erzeugt keine neue farb information, lediglich durch den blur im scaling entstehen neue zwischenwerte, farbinformation ist aber was anderes als farbwerte. zum thema zukunftssicherheit, das weist du ja selbst das ist totaler unsinn. der wert eines films hängt nicht an der auflösung sondern am inhalt, und es gibt unzählige beispiele wo die low res version erheblich besser aussieht als die high res version, da kann ich bei "2001-a space odyssey" anfangen und bei "hobbit" aufhören aufzuzählen.



Antwort von WoWu:

Also das widerspricht der gängigen Meinung. Meist hört man dass das Filmen in HD eine schlechtere Qualität liefert als wenn man in UHD Auflösung filmt und dann (hochertig) zu HD runterskaliert. Abgesehen von den zusätzlichen Vorteilen dieses Weges (Bessere Ausschnittswahl, gesteigertes Farbsampling, Zukunftssicherheit den Schnitt auch in UHD zu haben). Was "gängige Meinung" ist, und was man davon halten kann, hat Thorsten schon gesagt, aber definier doch einfach mal "hochwertig", denn das ist auch so ein Populärbegriff, der absolut nichts aussagt, denn Downscalierung ist nichts Anderes als UNTERABTASTUNG und damit wären wir bereis beim "gesteigerten Farbsampling", was eben ein solches Märchen aus der "gängigen Meinung" ist.
Aber auch da.... mach doch mal den "Kacheltest" und zeig mal die Ergebnisse her, dann werden wir sehen, wo die bessere Bildauflösung in Bezug auf optische Bilddetails liegt.

Was die Kadrierung betrifft, so wachsen mit der Veränderung und bei identischen Bildformaten mit dem Ausschnitt auch alle Bildartefakte, es sei denn, dass Du das HD Bild auch nur auf einem Monitor darstellst, der nur 1/4 der Grösse eines UHD Monitors hat.
Wir haben es hier schliesslich nicht mit einer optischen Anpassung zu tun, sondern mit identisch grossen Pixels bei HD und UHD und müssen zur Vergleichsbeurteilung auch identische Projektionsgrössen heranziehen.



Antwort von mash_gh4:

...das ist nicht was wowu gesagt hat. er vergleicht einen sensor mit kleinen pixeln und hoher pixeldichte mit einem sensor mit grossen pixeln und geringerer auflösung. also eine "echte" hd kamera mit einer uhd kamera. bei einer uhd kamera nur jeden 4ten pixel auszulesen fürhrt natürlich nicht zu besseren ergebnissen. das ist schon aber schon eine sehr wohlwollende deutung von WoWus worten. ;)
ich würde es definitiv nicht so lesen, weil er ja im wesentlichen doch wieder nur seinen üblichen schwachsinn zur skalierungsproblematik zum besten gibt (="aufgeilung an den scharfen kanten" etc.).

was deine viel vernünftigere erklärung betrifft, stimme ich dem allerdings durchgängig zu.



Antwort von WoWu:

Falsifizier doch einfach, statt zu polemisieren.

Sag, wo die Fehler im "üblichen Schwachsinn" liegen und beleg, dass Deine Version die Richtige ist.

So einfach ist das im Leben. (Oder reicht"s dazu etwa nicht?)








Antwort von Angry_C:

Glückwunsch zum 12000, wowu.

Wie wäre es denn mal zur Feier des Tages mal deine These belegen würdest, anstatt einfach eine Behauptung, die tatsächlich gegenläufig sämtlicher Erfahrungen ist, in den Raum zu werfen?

Nur mit Kontrastkanten kommst du uns hier nicht durch:-)

Gerne auch mit Vergleichsmaterial.

Einem LX100 mit auf den Weg zu geben, er sollle anstatt der sehr guten UHD Auslesung lieber den HD Modus nehmen, der vor Aliasing nur so strotzt, ist schon arg fies. Ich meine, da kommt extra ein User und fragt etwas zu einer speziellen Kamera, und dann kommt wieder so eine Pauschalkeule, die der unbedarfte User dann natürlich auch noch glaubt. Immerhin kommt die Keule ja von einem Buchautor mit 12000 Slashcambeiträgen. Muss ja stimmen, denkt er sicht.

Schade...



Antwort von WoWu:

Du must Dir nur Deine Bilder richtig anschauen.
Ansonsten mach mal den kacheltest ... dann siehst Du auch die spatiale Auflösung.
Mach einfach mal .... Du bist doch der, der an 4K glaubt ... zeig doch mal her.



Antwort von WoWu:

doppelt, sorry



Antwort von Angry_C:

Du must Dir nur Deine Bilder richtig anschauen.
Ansonsten mach mal den kacheltest ... dann siehst Du auch die spatiale Auflösung.
Mach einfach mal .... Du bist doch der, der an 4K glaubt ... zeig doch mal her. Immer das gleiche. Ich gehe mittlerweile fest davon aus, dass du dir damit immer ein Spaß daraus machst, absurde Dinge in den Raum zu werfen, um andere das Gegenteil beweisen zu lassen.

Wenn einer entgegen einer Million Menschen behauptet, dass Scheiße schmeckt, müssen dann die eine Million kosten, um zu beweisen, dass die Behauptung des einen nicht richtig ist?



Antwort von WoWu:

Na ja, es war ja nicht anders zu erwarten ...
Ausser Polemik kommt von Dir ja nichts.
Hätte mich auch gewundert.



Antwort von Angry_C:

Na ja, es war ja nicht anders zu erwarten ...
Ausser Polemik kommt von Dir ja nichts.
Hätte mich auch gewundert. dito wowu, dito...

Die anderen User wissen, was ich meine, das reicht mir...



Antwort von cantsin:

Einem LX100 mit auf den Weg zu geben, er sollle anstatt der sehr guten UHD Auslesung lieber den HD Modus nehmen, der vor Aliasing nur so strotzt, ist schon arg fies. Ihr widersprecht Euch doch gar nicht, sondern seid einfach auf verschiedenen Baustellen unterwegs. Ja, einerseits stimmt, dass das System Sensor+Objektiv am besten auf die Zielauflösung optimiert ist, wenn man sich Optik und Signalverarbeitung ansieht. (So macht das ja z.B. eine Arri Alexa.) Andererseits stimmt, dass Consumerkameras wegen ihrer schwachbrüstigen Codecs und Signalverarbeitung (die keine Verschwörung gegen die Nutzer sind, sondern ihre Gründe in Produktionskosten + Miniaturisierung-/Kühlung haben) bessere Resultate durch Aufnehmen in der höheren Auflösung und Herunterskalieren liefern.



Antwort von Angry_C:

Einem LX100 mit auf den Weg zu geben, er sollle anstatt der sehr guten UHD Auslesung lieber den HD Modus nehmen, der vor Aliasing nur so strotzt, ist schon arg fies. Ihr widersprecht Euch doch gar nicht, sondern seid einfach auf verschiedenen Baustellen unterwegs. Ja, einerseits stimmt, dass das System Sensor+Objektiv am besten auf die Zielauflösung optimiert ist, wenn man sich Optik und Signalverarbeitung ansieht. (So macht das ja z.B. eine Arri Alexa.) Andererseits stimmt, dass Consumerkameras wegen ihrer schwachbrüstigen Codecs und Signalverarbeitung (die keine Verschwörung gegen die Nutzer sind, sondern ihre Gründe in Produktionskosten + Miniaturisierung-/Kühlung haben) bessere Resultate durch Aufnehmen in der höheren Auflösung und Herunterskalieren liefern. Doch wir widersprechen uns. Und eine Alexa macht auch ein 2.5k Downscaling, damit nahezu HD Auflösung erreicht wird. Ein nativer FullHDFullHD im Glossar erklärt Sensor kann bei gutem Debayering maximal 3/4 FullHDFullHD im Glossar erklärt Detailauflösung erreichen.

Codec und Signalverarbeitung sollten bei dieser Thematik auch vernachlässigbar sein. Sie stehen bei den modernen Codecs der heutigen Systemkameras eigentlich nicht in Zusammenhang mit der Detailauflösung.



Antwort von scrooge:

Nach den letzten Antworten bin ich nicht unbedingt schlauer geworden. Aber das kann auch an mir liegen. :-)

Ich habe mich aber entschieden, mit meiner LX100 definitiv weiter in UHD zu drehen.

LG
Hartmut








Antwort von Axel:

Nach den letzten Antworten bin ich nicht unbedingt schlauer geworden. Aber das kann auch an mir liegen. :-)

Ich habe mich aber entschieden, mit meiner LX100 definitiv weiter in UHD zu drehen.

LG
Hartmut Anno dazumal haben wir auch mit vorgeblichen HD-Kameras gefilmt, die heute auflösungstechnisch allenfalls für 720p taugen. Ähnlich wird es mit den heute als "4k" gelabelten Kameras sein. Wenn in ein paar Jahren Hinz und Kunz 4k-Monitore haben und es dann 8k (oder mehr) Kameras gibt, die überdies höhere Farbtiefe und weiß-der-Kuckuck was noch für Qualitätsmerkmale haben, werden wir feststellen, dass das UHD eigentlich schon immer besseres HD war.

Es hätte allerdings auch damals niemandem was gebracht, deshalb in SD-Auflösung zu filmen. Deshalb: richtige Entscheidung.



Antwort von Angry_C:

Nach den letzten Antworten bin ich nicht unbedingt schlauer geworden. Aber das kann auch an mir liegen. :-)

Ich habe mich aber entschieden, mit meiner LX100 definitiv weiter in UHD zu drehen.

LG
Hartmut Anno dazumal haben wir auch mit vorgeblichen HD-Kameras gefilmt, die heute auflösungstechnisch allenfalls für 720p taugen. Ähnlich wird es mit den heute als "4k" gelabelten Kameras sein. Wenn in ein paar Jahren Hinz und Kunz 4k-Monitore haben und es dann 8k (oder mehr) Kameras gibt, die überdies höhere Farbtiefe und weiß-der-Kuckuck was noch für Qualitätsmerkmale haben, werden wir feststellen, dass das UHD eigentlich schon immer besseres HD war.

Es hätte allerdings auch damals niemandem was gebracht, deshalb in SD-Auflösung zu filmen. Deshalb: richtige Entscheidung. Alles richtig, allerdings wird hier immer wieder von unserem Videoexperten die Verbesserung der Detailauflösung von 4K gegenüber FullHDFullHD im Glossar erklärt bestritten.

Es sind sich glaube ich alle einig, dass die jeweilige Nennauflösung nie zu 100% erreicht wird. Es geht allein um den sichtbaren Unterschied, der hier vehement und gebetsmühlenartig bestritten wird.



Antwort von Peppermintpost:

4K generiert Dir beim Downscaling eine hohe Anzahl an Kontrastkanten, aber kein zusätzliches Bilddetail.
Magst Du also harte Kontraste, sieht das Bild scheinbar besser aus, hat aber den typischen Videolook.
Natürlichere Bildwiedergabe erreichst Du eher mit einer HD Aufmahme, bei gleicher Sensorgrösse aber dafür größeren Pixels. da steht doch garnichts von detail auflösung. er sagt nur das grosse pixel einen anderen look haben als kleine pixel. das ist zweifelsfrei richtig.

in anderen beiträgen sagt wowu du solltest mal die auflösung testen die deine 4k kamera wirklich hat, und das das bei weitem nicht das ist was 4k suggeriert, was nicht nur auf debayer verluste sondern eben auf die kleinen pixel (und meine persöhnliche anmerkung auf die deutlich höhere kompression pro pixel) zurückzuführen ist. auch das ist zweifelsfrei richtig.

wer eine 4k kamera gekauft oder gemietet hat, der hat die entscheidung schon getroffen. es geht nicht darum mit einer 4k kamera dann 2k zu filmen.



Antwort von dienstag_01:

Alles richtig, allerdings wird hier immer wieder von unserem Videoexperten die Verbesserung der Detailauflösung von 4K gegenüber FullHDFullHD im Glossar erklärt bestritten.

Es sind sich glaube ich alle einig, dass die jeweilige Nennauflösung nie zu 100% erreicht wird. Es geht allein um den sichtbaren Unterschied, der hier vehement und gebetsmühlenartig bestritten wird. Wer jemals auch nur ein einzelnes Foto in einem RAW Converter nachbearbeitet hat und sich bewusst macht, dass alle Veränderungen/Verbesserungen immer auf der gleichen *Detailauflösung* basieren, dürfte verstehen, dass der durchaus erkennbare *Unterschied* nichts, aber auch gar nichts mit der *Detailauflösung* zu tun hat.
Die lässt sich nun wirklich nicht im Post Processing erhöhen ;)



Antwort von wolfgang:

also was gängige meinung ist, das ist zwar immer wieder amüsant, aber du weist selbst das die gängige meinung meistens sehr wenig mit der realität zu tuen hat. Mag sein, aber in dem Fall halte ich die hier aufgestellte These, dass man mit UHD überhaupt keine bessere Auflösung als HD bekommt, einfach für falsch. Also so gesehen ist die "gängige Meinung" sehr wohl der Erfahrungsschatz derer, die sich mit Dingen in der Praxis befassen.

Wenn die GH4 etwa in UHD ein besseres Material liefert statt in HD, dann ist das zumindest das wo ich eine gewisse Einigkeit der GH4 Anwender sehe. So leid es mir tut - das halte ich schon für relevant, egal obs dich nun amüsiert oder nicht. ;)

was das farbsampling angeht ist das nur begrenzt richtig. runterscalieren erzeugt keine neue farb information, lediglich durch den blur im scaling entstehen neue zwischenwerte, farbinformation ist aber was anderes als farbwerte. Die mathematischen Rechenspiele gibt es, dass aus UHD 8bit 420 durch downscaling 10bit 422 (oder wars sogar 444) erzeugt werden kann. Das findet ich in diversen Artikeln durchaus namhafter Leute (etwa dem früheren CTO von Cineform, aber auch etwa im DVX200 Buch von Barry Green). Persönlich habe ich das immer mit Vorsicht genossen sonst würde ich nicht mit 10bit 422 in UHD filmen - aber rein mathematisch scheint das zu stimmen.

zum thema zukunftssicherheit, das weist du ja selbst das ist totaler unsinn. der wert eines films hängt nicht an der auflösung sondern am inhalt, und es gibt unzählige beispiele wo die low res version erheblich besser aussieht als die high res version, da kann ich bei "2001-a space odyssey" anfangen und bei "hobbit" aufhören aufzuzählen. Du bist dir aber bewußt dass dies eine ganz ganz ganz andere Baustelle ist: die Story eines Contents und deren Attraktivität hat eben GENAU NICHTS mit der Auflösung des Materials zu tun.

House of Card wird mit Reds in 4k gedreht. Wieso machen die das? Wenn ich deine Logik folge könnte man diese Erfolgsserie ja durchaus in SD mit 4:3 drehen. Oder warum wurden viele alte Schinke für das HD-Zeitalter nochmals neu abgetastet, wenn das völlig egal ist? Und weil die Antwort die ist dass es um die Vermarktungschancen für die Zukunft geht sind das handfeste kommerzielle Gründe.

Und sogar im Privaten - also ich wäre heute happy, wenn ich von meinen Fernreisen das Material wenigstens in HD hätte. Das ist zwar weder Oskarverdächtig und für niemanden außer mich und meine Familie wichtig - aber Video8 ist halt doch noch recht brutal rein aus Sicht der Qualität des Materials. Seltsam dass dies doch nicht völlig egal ist.



Antwort von wolfgang:

Was "gängige Meinung" ist, und was man davon halten kann, hat Thorsten schon gesagt Nur ist das für mich eben so absolut nicht richtig -siehe oben.
aber definier doch einfach mal "hochwertig", denn das ist auch so ein Populärbegriff, der absolut nichts aussagt, denn Downscalierung ist nichts Anderes als UNTERABTASTUNG und damit wären wir bereis beim "gesteigerten Farbsampling", was eben ein solches Märchen aus der "gängigen Meinung" ist. Na ist doch ganz einfach - das Material kann man sich auf modernen Sichtgeräten entsprechend genußvoll ansehen. Dass dies keine technische Definition ist sondern eine aus Sicht der Wahrnehmung ist völlig klar und richtig. Aber wir filmen ja auch um die Wahrnehmung zu bedienen.

Und obs Märchen sind oder nicht - selbst wenn ich hier auch ausgesprochen skeptisch bin, nachlesbar sind diese Punkt deshalb noch immer. Egal ob du sie als Märchen klassifizierst oder nicht.

Was die Kadrierung betrifft, so wachsen mit der Veränderung und bei identischen Bildformaten mit dem Ausschnitt auch alle Bildartefakte Bei welchem Bearbeitungsschritt in der Videobearbeitung nehmen die Bildartefakte durch die Bearbeitung nicht zu? Dieses Problem wird man immer haben - sonst darf man gar nicht erst sein Material bearbeiten.

Na klar sehe ich das als Vorteil hier stärker ins Bild zoomen zu können - wenn man es braucht. Dass dies eine Mehrkameraaufnahme nicht ersetzen kann die von unterschiedlichen Perspektiven aus geschossen worden ist, dass ist auch klar - aber viele sehen das inzwischen als ein zusätzliches Gestaltungsmittel. ArtefakteArtefakte im Glossar erklärt hin oder her.



Antwort von wolfgang:

Ich habe mich aber entschieden, mit meiner LX100 definitiv weiter in UHD zu drehen. So halte ich es für meinen Teil auch, aus all den genannten Gründen.

Aber natürlich: würder der schlüssige Beweis gelingen, dass dies bei deiner LX100 oder meiner GH4 absolut vergebliche Liebesmühe ist, würden wir zumindest einiges an Speicherplatz im Schnittsystem sparen können! :)



Antwort von TomStg:

Die mathematischen Rechenspiele gibt es, dass aus UHD 8bit 420 durch downscaling 10bit 422 (oder wars sogar 444) erzeugt werden kann. Das findet ich in diversen Artikeln durchaus namhafter Leute (etwa dem früheren CTO von Cineform, aber auch etwa im DVX200 Buch von Barry Green). Persönlich habe ich das immer mit Vorsicht genossen sonst würde ich nicht mit 10bit 422 in UHD filmen - aber rein mathematisch scheint das zu stimmen. Da es sich dabei um absoluten Unsinn handelt, der das Niveau der Alchemisten noch unterbietet, die aus Blei Gold machen wollten, und reinstes Wunschdenken mit Vodoo-Merkmalen ist, darf keine Gelegenheit ausgelassen werden, dem energisch zu widersprechen. Die genannten "Leute" sind genauso "namhaft" wie Uri Geller oder Erich von Däniken.



Antwort von blueplanet:

...ich kann das "DAFÜR" (UHD zu HD ;)) aus der Praxis betrachtet bzw. dem subjektiv "besseren" Ergebnis gegenüber "reinem" HD geschuldet, voll bestätigen.

Und wie ich bereits in einem anderen Thread schrieb: am Ende ist doch entscheidend, was Hinten herauskommt (sagt schon der Volksmund ;) bzw. ist alles eine Frage des persönlichen Geschmacks.

Mag es wissenschaftlich haarsträubend sein, die Vielzahl an Usern erkennt das derzeitige UHD bzw. erst recht das Downsampling als Bereicherung. So ist das eben...
Und in dem Zusammenhang sprechen wir ausschließlich von: Stil, Kunstform, persönlichem Bildgeschmack etc.. Es ist und wird immer eine Gradwanderung bleiben.

Anmerkung: Mit einem guten Freund stehe ich regelmäßig im humorvollen Fotografenstreitgespräch: Nikon 750 vs. Canon Mark III.

Er: "du und deine Scherbe": Canon rauscht selbst bei ISO 200, Nikon bei 1600. Canon ist von Haus aus "unscharf", kontrastarm. "Seine" Nikon liefert cleane, knackige und farbintensive Bilder - bereits mit RAW.

Na und? Mag so sein! Aber wer sagt denn, das mir das gefallen - muß. Das ich damit nicht umzugehen vermag? Nur er... ;))

Genauso sollte man das in punkto HD vs. UHD vs. "heruntergerechnet" betrachten. Alles andere führt praxisbezogen ins subjektive Nirvana...








Antwort von WoWu:

Das ist völlig richtig ... wer knackige Kanten lieber mag als etwas weicheres Bildmaterial, dem kommt das entgegen.
Und man spart sich sogar die HD Nachschärfung.
Es ist wirklich eine Frage des Geschmackes.
Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen.
Was also bleibt, ist der höhere Kantenkontrast, den man dann mit irgendwelchen LOG Kurven versucht, wieder zu beseitigen.
Der Weg ist oft das Ziel.



Antwort von wolfgang:

Die genannten "Leute" sind genauso "namhaft" wie Uri Geller oder Erich von Däniken. Und selbst wenn das richtig ist was ich durchaus auch für möglich halte - kannst du den Gegenbeweis führen?



Antwort von wolfgang:

Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen. Hast einen Link oder eine genauere Bezeichnung für diesen Test? Ich schaue mir das ja gerne an.



Antwort von Peppermintpost:

@wolfgang

wenn du vier pixel hast mit einem 8bit farbwert und du mittelst die in einem 10bit oder höher aufgelöstem farbraum, dann kann daraus ein farbwert entstehen der sich in 8bit nicht darstellen lässt, das ist aber nichts anderes als ein blur! d.h. der farbwert kann 10bit oder 16bit sein, ja klaro, das bestreitet keiner, aber die farbinformation hat nicht zugenommen. du hast nur mehr datenmüll generiert. natürlich gibt es fälle wo du das zu deinen gunsten nutzen kannst um gewisse unzulänglichkeiten zu vermauscheln, aber das hat ja mit echter bildinformation nichts zu tuen.

als die ganzen mini-dv henkelmänner auf den markt gekommen sind und alle damit dann dringend in 4:2:04:2:0 im Glossar erklärt und 1:5 kompression bluescreen aufnahmen machen musten hab ich auch rgb zu yuv gewandelt. u und v dann 2 bis 5 pixel geblurt, das wieder in rgb gewandelt und dann erst gekeyed um etwas softere kanten zu bekommen, damit nicht alles total zerschossen aussieht. kann man machen, führt u.u. auch zum erfolg, aber echte farbinformation ist was total anderes.

dieses downscaling beruht auf dem gleichen prinzip, es ist lediglich ein mathematischer mittelwert. wer was anderes behauptet ist leider kein guru sondern enttart sich als hohlbirne.



Antwort von Peppermintpost:


Wenn die GH4 etwa in UHD ein besseres Material liefert statt in HD, dann ist das zumindest das wo ich eine gewisse Einigkeit der GH4 Anwender sehe. So leid es mir tut - das halte ich schon für relevant, egal obs dich nun amüsiert oder nicht. ;) ja genau das hab ich jetzt auch schon 2mal geschrieben. wenn du eine 4k kamera hast solltest du auch 4k drehen. weil wenn du mit einer 4k kamera nur 2k drehst werden die sensor pixel der kamera ja nicht wie von geisterhand vergrössert. das ist aber was anderes als eine kamera mit gleicher sensor grösse zu haben die aber weniger auflösung dafür grössere pixel hat.

gut jetzt hab ich es 3mal geschrieben, das sollte dann auch reichen denke ich.



Antwort von Angry_C:

Alles richtig, allerdings wird hier immer wieder von unserem Videoexperten die Verbesserung der Detailauflösung von 4K gegenüber FullHDFullHD im Glossar erklärt bestritten.

Es sind sich glaube ich alle einig, dass die jeweilige Nennauflösung nie zu 100% erreicht wird. Es geht allein um den sichtbaren Unterschied, der hier vehement und gebetsmühlenartig bestritten wird. Wer jemals auch nur ein einzelnes Foto in einem RAW Converter nachbearbeitet hat und sich bewusst macht, dass alle Veränderungen/Verbesserungen immer auf der gleichen *Detailauflösung* basieren, dürfte verstehen, dass der durchaus erkennbare *Unterschied* nichts, aber auch gar nichts mit der *Detailauflösung* zu tun hat.
Die lässt sich nun wirklich nicht im Post Processing erhöhen ;) So ziemlich am Thema vorbei. Hast du mitgelesen?



Antwort von Angry_C:

Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen. Hast einen Link oder eine genauere Bezeichnung für diesen Test? Ich schaue mir das ja gerne an. Das musst du wohl selbst herausfinden. Auf den des der Red im EBU Test reitet wowu schon seit Monaten rum, ohne dazu auch nur eine Mini-Info zu liefern.

Albern, sich über dieses Thema überhaupt zu unterhalten, ehrlich!



Antwort von blueplanet:

...ohje - die Wissenschaft vs. Technikrealität.
Bitte, bitte hier nicht wieder anfangen, Euch die garantiert nicht hole(n) Rübe "einzuschlagen". Das ist kontraproduktiv!
Die Diskussion sollte ausschließlich in diese Richtig gehen: WAS möchte ich und WIE erreiche ich diesbezüglich das best-MÖGLICHE Ergebnis? Sprich: WELCHE Kamera bietet für diesen oder jenen Weg die entsprechenden Voraussetzungen.

Um es vielleicht mal von einem anderen Blickwinkel zu betrachten: es würde doch niemand auf die Idee kommen, wenn er von A nach B mit einem Auto fährt, ständig unterwegs anzuhalten und mit aufwändiger Messtechnik den Motor zu kontrollieren, ob dieser regelkonform nach Herstellerangaben läuft?! ;))

Nein - nicht wirklich. Man entscheidet sich nach Design, Ausstattung und gewünschten Parametern und freut sich im Idealfall jahrelang daran, dass das Fahrzeug genau das macht (wenige Automarken ausgenommen ;))), wozu es gebaut wurde.
Sollte sich dies als Reinfall entpuppen, und jener verfügt über das nötige Kleingeld, steht ihm doch frei, sich anders zu entscheiden und diesmal vermeintlich Besseres zu kaufen...aber auch hier lauert garantiert die "Betrugsoffenbarung" in der nächsten Werkstatt ;)



Antwort von dienstag_01:

So ziemlich am Thema vorbei. Hast du mitgelesen? Ja, Wowu hat eigentlich alles erklärt, du kommst aber trotzdem mit solchen sagenumwobenen Kategorien wie *Unterschied*.
Wenn du irgendwo mal ein Bild mit mehr Detailauflösung hast, was nicht einfach durch Kantenaufsteilung entstanden ist, sag bescheid ;)








Antwort von wolfgang:

wenn du vier pixel hast mit einem 8bit farbwert und du mittelst die in einem 10bit oder höher aufgelöstem farbraum, dann kann daraus ein farbwert entstehen der sich in 8bit nicht darstellen lässt, das ist aber nichts anderes als ein blur! d.h. der farbwert kann 10bit oder 16bit sein, ja klaro, das bestreitet keiner, aber die farbinformation hat nicht zugenommen. du hast nur mehr datenmüll generiert. Also dass ein errechneter Zwischenwert sich in 10 oder 12bit vermutlich darstellen läßt, davon gehe ich auch aus.

Ob es so ist dass der errechnete Zwischenwert nur blur ist, das ist eben die Behauptung über die man sehr wohl nachdenken kann. Richtig ist, dass dieser Wert nicht unmittelbar aufgenommen worden ist. Aber da er aus zwei aufgenommen Werten entstanden ist kann der sehr wohl mehr als blur sein - denn er enthält ja sehr wohl eine Mischung aus zwei ursprünglich aufgezeichneten Bildinformation.

Dass jedem der es sich leisten kann und will lieber ist, dass er gleich in 10 oder 12 bit aufzeichnet - na klar!

ja genau das hab ich jetzt auch schon 2mal geschrieben. wenn du eine 4k kamera hast solltest du auch 4k drehen. weil wenn du mit einer 4k kamera nur 2k drehst werden die sensor pixel der kamera ja nicht wie von geisterhand vergrössert. das ist aber was anderes als eine kamera mit gleicher sensor grösse zu haben die aber weniger auflösung dafür grössere pixel hat. Na mir brauchst das insofern nicht zu sagen, als ich ja genau das selbst gesagt hatte - siehe mein erstes Posting in diesem Thread.

Wir reden hier halt von 4K Kameras, nicht umsonst heißt der Thread "4K-Kameras: da geht noch mehr!".

Nur genau die Empfehlung von WoWu, lieber in HD statt in UHD zu drehen, war Ausgangspunkt der Diskussion. Der Fehler in der Betrachtungsweise ist wohl der, dass er sich - folgt man deiner Interpretation was auch einige in Abrede gestellt haben; dass er sich auf HD-Kameras mit einer an HD angepaßten Pixelgröße bezieht. Nur gehts in diesem Thread ja um UHD-Geräte dreht.

Was als Unklarheit bleibt und wo sich die Geister streiten ist wohl eher die Frage, ob man durch das Downscaling von UHD zu HD das bessere HD bekommt oder nicht. Laut WoWu nein - aber wird hier auch mitgedacht dass die HD-Geräte selbst ja die Sytemgrenze auch nicht erreichen?



Antwort von WoWu:

Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen. Hast einen Link oder eine genauere Bezeichnung für diesen Test? Ich schaue mir das ja gerne an. Klar, ist aber hier schon oft durch die Postings gereicht.
https://tech.ebu.ch/docs/tech/tech3335_s16.pdf

Resümee ist, dass bei
4k / 3840x2160:
Die Bildauflösung gerade einmal bis etwa 2450x1380 reicht, allerdings hier bereits inakzeptables Farbmoiré, sowohl in den hohen, als auch in den mittleren Frequenzen, aufweist.
Die Performanz reicht gerade einmal an die einer HD Kamera heran wenn man unterhalb der Moire Akzeptanz bleibt, die aber erst durch die kleinen 4K Pixels hervorgerufen wird und bei HD aufgrund der grösseren Pixels erst gar nicht vorkommt.
 
5K / 4800x2700:
Dieser Mode ist nur geringfügig besser mit 2930x1650 zeigt sich zwar einwenig mehr Auflösung, allerdings auch mehr Aliasing.
 
6K / 5568x3132
In diesem Mode verbessert sich die Auflösung auch nur geringfügig auf 3400x1900 und entspricht somit nicht einmal vollumfänglich UHD und erst recht nicht 4K.



Antwort von Angry_C:

Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen. Hast einen Link oder eine genauere Bezeichnung für diesen Test? Ich schaue mir das ja gerne an. Klar, ist aber hier schon oft durch die Postings gereicht.
https://tech.ebu.ch/docs/tech/tech3335_s16.pdf

Resümee ist, dass bei
4k / 3840x2160:
Die Bildauflösung gerade einmal bis etwa 2450x1380 reicht, allerdings hier bereits inakzeptables Farbmoiré, sowohl in den hohen, als auch in den mittleren Frequenzen, aufweist.
Die Performanz reicht gerade einmal an die einer HD Kamera heran.
 
5K / 4800x2700:
Dieser Mode ist nur geringfügig besser mit 2930x1650 zeigt sich zwar einwenig mehr Auflösung, allerdings auch mehr Aliasing.
 
6K / 5568x3132
In diesem Mode verbessert sich die Auflösung auch nur geringfügig auf 3400x1900 und entspricht somit nicht einmal vollumfänglich UHD und erst recht nicht 4K. Auflösungstechnisch also doch entgegen Deiner Behauptung, es wären nur die Kontraste, ein Gewinn.

Und von dieser RED kann man dann auf alle Kameras schließen?



Antwort von WoWu:

Kannst Du eigentlich lesen ?
Oder verstehst Du nur nicht, was Moire ist ?

Und ausserdem verstehst Du offenbar auch nicht, dass das das Ergebnis bei 4K ist, also das Ergebnis vor Deinem Downscaling .... Das kommt erst noch.
Und von dieser RED kann man dann auf alle Kameras schließen?
Nein, auf Deine GH4 nicht, die ist vermutlich nicht mal in der Güteklasse.
Aber für 900 EUR bekommt man dafür mehr Kanten und für den Amateur damit das bessere Bild... schön knackig und bunt.



Antwort von Peppermintpost:

Ob es so ist dass der errechnete Zwischenwert nur blur ist, das ist eben die Behauptung über die man sehr wohl nachdenken kann. nachdenken, ja klar, ist immer gut, aber das es eine behauptung ist...hmmmm... ausmitteln von pixeln ist genau die definition von blur.
Was als Unklarheit bleibt und wo sich die Geister streiten ist wohl eher die Frage, ob man durch das Downscaling von UHD zu HD das bessere HD bekommt oder nicht. Laut WoWu nein - aber wird hier auch mitgedacht dass die HD-Geräte selbst ja die Sytemgrenze auch nicht erreichen? naja, besser/schlechter,es ist irgendwie anders, mit besser schlechter würde ich es jetzt auch nicht zwingend bewerten. eine gh4 in 4k aufgenommen und auf hd runter scaliert sieht gut aus, ist auch baller scharf, aber der gh4 look bleibt natürlich. wenn ich eine red 6k auf 4k runter scaliere ist sie baller scharf bis ins kleinste detail, wenn ich weiter runter scaliere auf hd bleibt sie natürlich baller scharf aber ich verliere details, was beim scaling von 6k zu 4k nicht der fall ist weil sie tatsächlich nicht so hoch auflöst wie es auf dem karton steht.
wenn ich das alles mit meiner hd gurke 5d vergleiche, dann reibe ich mir natürlich die augen wie unscharf meine kamera im vergleich ist. auch das ist klar.
was man jetzt lieber mag muss jeder selbst entscheiden. ich finde eine 5d ist brauchbar aber nicht geil, eine red ist geil aber so scharf wie das bild da default raus kommt ist auch nicht mein ding. bei ner red kann ich aber ein filter davor bappen das es etwas softer wird, aber dann hab ich messtechnisch natürlich auch verlohren und alle broadcaster fangen an zu lachen. jedem das seine.



Antwort von blueplanet:

Resümee ist, dass bei 4k / 3840x2160:
Die Bildauflösung gerade einmal bis etwa 2450x1380 reicht, allerdings hier bereits inakzeptables Farbmoiré, sowohl in den hohen, als auch in den mittleren Frequenzen, aufweist.
Die Performanz reicht gerade einmal an die einer HD Kamera heran wenn man unterhalb der Moire Akzeptanz bleibt, die aber erst durch die kleinen 4K Pixels hervorgerufen wird und bei HD aufgrund der grösseren Pixels erst gar nicht vorkommt. ...na da haben wir es doch ;)): besser als FHD (1920 x 1080 vs. 2450x1380)
incl. Moire Akzeptanz und das Ganze auf einem HD-Plasma angeschaut: was will der Filmer mehr?! :))

Lang lebe die GH4 in UHD ;))



Antwort von blueplanet:

Aber für 900 EUR bekommt man dafür mehr Kanten und für den Amateur damit das bessere Bild... schön knackig und bunt. ....so wird' s wohl sein - und viele sind damit einfach glücklich ;))



Antwort von WoWu:

tja, lieber 200 Pxels mehr und Moire bis zum Abwinken auf seinem 4K Monitor.

Wenn es dann um HD geht, wird das ganze noch mal auf 1/4 der Bildinhaltsgrösse reduziert ... wo bleibt denn dann Deine Rechnung ?

Nochmal, zum Mitschreiben ... die RED macht bei 4K, also vor einem Downscaling nur 2400 Pixels. Super 4K ist das.
Und Du glaubst, dein 900 EUR Teil macht das besser ?

Mach doch mal den Kacheltest ...



Antwort von WoWu:

Aber für 900 EUR bekommt man dafür mehr Kanten und für den Amateur damit das bessere Bild... schön knackig und bunt. ....so wird' s wohl sein - und viele sind damit einfach glücklich ;)) Ja, so ist das wohl ... man muss sich die Bilder nur schön reden.
Dann muss man sich auch nicht eingestehen, dass man nur auf Marketing reingefallen ist.



Antwort von Angry_C:

Aber für 900 EUR bekommt man dafür mehr Kanten und für den Amateur damit das bessere Bild... schön knackig und bunt. ....so wird' s wohl sein - und viele sind damit einfach glücklich ;)) Ja, so ist das wohl ... man muss sich die Bilder nur schön reden.
Dann muss man sich auch nicht eingestehen, dass man nur auf Marketing reingefallen ist. Wie willst du das überhaupt beurteilen? Hast doch seit HDVHDV im Glossar erklärt keine Kamera mehr in der Hand gehabt.



Antwort von blueplanet:

Ja, so ist das wohl ... man muss sich die Bilder nur schön reden. Dann muss man sich auch nicht eingestehen, dass man nur auf Marketing reingefallen ist.
...Du hast es auf den Punkt (HD oder UHD? ;) gebracht!

Auch ich rede mir fast täglich ein: das Bild der scalierten GH4 ist einfach toll, geil, scharf. Und das hilft tatsächlich über die nervend-langen Renderzeiten genrös hinweg zu sehen, über all die kleinen, notwendig gewordenen Zwischenschritte, das umfangreichere Gesamtequipment und letztlich über den nagenden Zweifel: tut das wirklich Not ? (würde auch "Herr Röhricht" fragen ;))

Muss wohl - denn zurück zum "simplen HD" möchte ich auf keinen Fall...



Antwort von Angry_C:

Ja, so ist das wohl ... man muss sich die Bilder nur schön reden. Dann muss man sich auch nicht eingestehen, dass man nur auf Marketing reingefallen ist.
...Du hast es auf den Punkt (HD oder UHD? ;) gebracht!

Auch ich rede mir fast täglich ein: das Bild der scalierten GH4 ist einfach toll, geil, scharf. Und das hilft tatsächlich über die nervend-langen Renderzeiten genrös hinweg zu sehen, über all die kleinen, notwendig gewordenen Zwischenschritte, das umfangreichere Gesamtequipment und letztlich über den nagenden Zweifel: tut das wirklich Not ? (würde auch "Herr Röhricht" fragen ;))

Muss wohl - denn zurück zum "simplen HD" möchte ich auf keinen Fall... Bei mir hat"s nun doch Klick gemacht. Ich gehe zurück auf SD. Mini DV war wenigstens noch ehrlich und legte niemanden mit Kontrastkanten rein;-)

Und Details waren damals noch echte Details und keine rekonstruierten, wo meine Frau dann gerne mal 3 Augen hatte!



Antwort von dienstag_01:

Bei mir hat"s nun doch Klick gemacht. Ich gehe zurück auf SD. Mini DV war wenigstens noch ehrlich und legte niemanden mit Kontrastkanten rein;-) Du meinst das zwar wie immer gehässig, aber vom Prinzip her hast du recht: Du BIST bei MiniDV geblieben. Nur das der kamerainterne Computer das alles bissel ansehnlicher aufbereitet ;)



Antwort von Angry_C:

Bei mir hat"s nun doch Klick gemacht. Ich gehe zurück auf SD. Mini DV war wenigstens noch ehrlich und legte niemanden mit Kontrastkanten rein;-) Du meinst das zwar wie immer gehässig Sagen wir es so, ich springe leicht auf die These "wie es in den Wald hineinruft" an;-)



Antwort von mash_gh4:

die herrn von der ebu kommen bei ihrem test ja auch zu dem schluss, dass es sinnvoll ist, den sensor zu gänze auszulesen bzw. die für das jewilige OLPF optimierte auflösung zu nutzen, wenn man kleinere zielauflösungen anstrebt:
Although not specifically tested, it is safe to say that the 6k mode is also the best way to get HD footage, since aliasing is at its lowest.
was die von wowu immer wieder behauptete mangelnde auflösung betrifft, wird bzgl. der vollen sensorauslesung klar festgehalten:
This mode is acceptable for 4K shooting, in the same way that shooting
on a 2880x1620 sensor is good enough for conventional HDTV.
die wirklich groben probleme, auf denen hier wowo rumreitet, treten in der praxis genau dann ein, wenn man die kamera in einer weise benutzt, die ein erfahrener kameramann tunlichst vemeiden wird, nämlich einer ungenügenden ausnutzung des sensors und OLPF. erst dann zeigen sich gravierende mängel -- im falle dieser kamera bspw. im ungenügend implemenetierten 4k aufnahmemodus:
This performance is very like that from a single 1920x1080 sensor for conventional HD, for all the same reasons. The ‘Dragon’ decoding is slightly better in that it appears to deliver a little more resolution, but the level of aliasing is also higher, so there is no net gain. This mode is not acceptable for 4k shooting.
es zeigt sich also nur genau das selbe problem, wie wir es von unseren billig-kameras her kennen. natürlich könnten die kameras intern das besser handhaben, den sensor voll nutzen und einem das nachträgliche skalieren gleich intern abnehmen -- tun sie aber leider zum allergrößten teil nicht! deshalb ist es dringend anzuraten, dass man das eben in der praxis entsprechend umsichtig selbst handhabt.

leider wird in dem test zw. optisch- bzw. objektiv-bedingten unschärfen und anderen einschränkungen der verarbeitungskette nicht klar unterschieden, sondern nur das system als ganzes betrachtet. das klammert natürlich manche rückschlüsse ganz grundsätzlich aus.

prinzipiell sollte es aber ohnehin nicht so schwer nachzuvollziehen sein, dass ein einzelner sensel auf einem heutigen sensor lichtwerte weitestgehend unabhängig von seiner nachbarschaft detektiert. OLPF und debayer-bedingten auflösungseinschränkungen sind auch nicht wirklich so schwer zu verstehen bzw. zu beziffern. und was dann im weiteren verlauf (bspw. durch die jeweilgen codecs) verloren geht, ist eh wieder eine ganz andere geschichte.

Die genannten "Leute" sind genauso "namhaft" wie Uri Geller oder Erich von Däniken. ich hab schon sehr oft das gefühl, dass vielmehr das krampfhafte abstreiten dieser tlw. relativ simplen operationen, deutlich mehr kogfschütteln verdient.

speziell dort, wo es nicht so sehr um die mittelung von evtl. durch dithering bedingten zusätzlichen informationen beim zusammenfassen von mehreren pixeln geht, sondern eben wirklich nur hervorgehoben wird, dass das verhältnis farbunterabtastung bei verlustfreier erhaltung der vorhandenen farbinformation im neuen skalierten betrachtungsraum eben tatsächlich in einem günstigeren verhältnis in relation zu den genutzten bildpunkten steht.



Antwort von berndimax:

Hallo,

ich bin neu hier, aber lese in diesem Forum schon seit vielen Jahren und habe auch viel von euch gelernt.

Ich filme mit einer GH4 und einer NX1, mit denen ich auflösungsmäßig
recht zufrieden bin.

Die Red Epic hat laut EBU in 4k eine Auflösung von nur 2450 x 1380.

Die oft geschmähte Canon XC10 erreicht in UHD 3000 x 1700:

https://tech.ebu.ch/docs/tech/tech3335_s17.pdf

Sie würde sich damit von der Auflösung her für UHD Tier 2 qualifizieren,
wenn sie in 10bit aufzeichnen würde.

Die Red Epic braucht dazu mindestens den 5k Modus.

Grüße

Bernd



Antwort von wolfgang:

Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen. Hast einen Link oder eine genauere Bezeichnung für diesen Test? Ich schaue mir das ja gerne an. Das musst du wohl selbst herausfinden. Auf den des der Red im EBU Test reitet wowu schon seit Monaten rum, ohne dazu auch nur eine Mini-Info zu liefern.

Albern, sich über dieses Thema überhaupt zu unterhalten, ehrlich! Ok, wenn das so ist...



Antwort von Angry_C:

Sorry Wolfgang, mit dem Albern warst natürlich nicht du gemeint. Das war doof ausgedrückt auf deine Frage. Es galt der Allgemeinheit.



Antwort von iasi:

tja, lieber 200 Pxels mehr und Moire bis zum Abwinken auf seinem 4K Monitor.

Wenn es dann um HD geht, wird das ganze noch mal auf 1/4 der Bildinhaltsgrösse reduziert ... wo bleibt denn dann Deine Rechnung ?

Nochmal, zum Mitschreiben ... die RED macht bei 4K, also vor einem Downscaling nur 2400 Pixels. Super 4K ist das.
Und Du glaubst, dein 900 EUR Teil macht das besser ?

Mach doch mal den Kacheltest ... Schon witzig, wie du einfach mal solche Zahlen in den Raum stellst ohne sie auch nur durch einen Link belegen zu wollen.

Hast du die 2400 PixelPixel im Glossar erklärt von einem dieser Tests mit einem "tollen" ZoomZoom im Glossar erklärt bei Offenblende?

Sehe ich mir jedoch Objektivtests an, dann erzielen die besseren Scherben eben doch auch höhere Auflösung an Kameras mit hohen Pixelzahlen - zumal höher als die vergleichsweise wenigen PixelPixel im Glossar erklärt, die man für UHD oder gar für HD braucht.
Da kommt dann z.B. selbst das sehr gute Sigma Art 50mm an einer 15 MPixel-Kamera nicht an das 24mm Art an einer 20 MPixel-Kamera heran - beides APS-C. Da ist dann selbst an den Rändern das 50mm nicht besser als das 24mm.
Somit bekommt man eben doch mehr Details bei höherer Auflösung.



Antwort von wolfgang:

Nee, ich hatte das eher auf deinen Hinweis bezogen, dass WoWu offenbar seit geraumer Zeit über so eine Studie plaudert; aber dann doch nie eine Quellenangabe zu machen scheint. Kann man dann halt glauben oder auch nicht - denn Nachlesen geht dann natürlich nicht. Ist aber auch ok.



Antwort von WoWu:

@ Wolfgang

Der Test, auf den ich mich beziehe ist hier schon vor Monaten lang und breit besprochen worden.
Nur einige sind wohl der Sprache nicht mächtig genug, ihn zu lesen.

Na nun dürfte auch denen der Inhalt nicht mehr verschlossen sein und im Zweifel gibt es ja auch noch Google.

@ Iasi
Schon witzig, wie du einfach mal solche Zahlen in den Raum stellst ohne sie auch nur durch einen Link belegen zu wollen.

Hast du die 2400 PixelPixel im Glossar erklärt von einem dieser Tests mit einem "tollen" ZoomZoom im Glossar erklärt bei Offenblende?
Dir scheint der Test auch entgangen zu sein, sonst würdest du solche Fragen nicht stellen. Lesen musst Du ihn schon allein.



Antwort von wolfgang:

Der Test, auf den ich mich beziehe ist hier schon vor Monaten lang und breit besprochen worden.
Nur einige sind wohl der Sprache nicht mächtig genug, ihn zu lesen.
....
Dir scheint der Test auch entgangen zu sein, sonst würdest du solche Fragen nicht stellen. Lesen musst Du ihn schon allein. Es ist mal fast schon wieder gewohntes Verhalten von dir diejenigen, die einen von dir benutzten Test nicht kennen, auf die Frage nach der Quelle sogar noch beleidigend zu unterstellen dass sie der Sprache nicht mächtig wären.

Wissenschaftliche Gepflogenheit sind eigentlich ganz anders, Herr Kollege!



Antwort von dienstag_01:

Es ist mal fast schon wieder gewohntes Verhalten von dir diejenigen, die einen von dir benutzten Test nicht kennen, auf die Frage nach der Quelle sogar noch beleidigend zu unterstellen dass sie der Sprache nicht mächtig wären.

Wissenschaftliche Gepflogenheit sind eigentlich ganz anders, Herr Kollege! Ganz UNgewohnt hat Wowu das Dokument 14:21 Uhr nur für dich nochmal verlinkt, wie beleidigend ;)



Antwort von WoWu:

@Wolfgang

Da wirfst Du zwei Dinge durcheinander; denn mit IASI haben wir bereits vor einigen Wochen über just diesen Test diskutiert und heute hatte ich, auf Deine Anfrage hin, den Link nochmals gepostet .... und dann kommen solche Fragen, woher ich die Zahlen nehme, mit irgendwelchen obskuren Annahmen ??

Da kann ich doch nur vermuten, IASI hat oder konnte den Test nicht lesen.
Oder es war mal wieder das verlängerte polemische Sprachrohr von Angry_C.
Dann war die Antwort erst Recht korrekt.

Aber schön, dass du Dich zum Ritter der Unterdrückten aufschwingst.
Das ehrt Dich, werter "Kollege".



Antwort von WoWu:

Es ist mal fast schon wieder gewohntes Verhalten von dir diejenigen, die einen von dir benutzten Test nicht kennen, auf die Frage nach der Quelle sogar noch beleidigend zu unterstellen dass sie der Sprache nicht mächtig wären.

Wissenschaftliche Gepflogenheit sind eigentlich ganz anders, Herr Kollege! Ganz UNgewohnt hat Wowu das Dokument 14:21 Uhr nur für dich nochmal verlinkt, wie beleidigend ;) Na ja, dienstag .... für Dich hätte"ich den auch verlinkt :-))



Antwort von iasi:

Nur propagiert UHd ja mehr Bildinhalt ... und was dabei rauskommt, haben wir ja im EBU Test gesehen. Hast einen Link oder eine genauere Bezeichnung für diesen Test? Ich schaue mir das ja gerne an. Klar, ist aber hier schon oft durch die Postings gereicht.
https://tech.ebu.ch/docs/tech/tech3335_s16.pdf

Resümee ist, dass bei
4k / 3840x2160:
Die Bildauflösung gerade einmal bis etwa 2450x1380 reicht, allerdings hier bereits inakzeptables Farbmoiré, sowohl in den hohen, als auch in den mittleren Frequenzen, aufweist.
Die Performanz reicht gerade einmal an die einer HD Kamera heran wenn man unterhalb der Moire Akzeptanz bleibt, die aber erst durch die kleinen 4K Pixels hervorgerufen wird und bei HD aufgrund der grösseren Pixels erst gar nicht vorkommt.
 
5K / 4800x2700:
Dieser Mode ist nur geringfügig besser mit 2930x1650 zeigt sich zwar einwenig mehr Auflösung, allerdings auch mehr Aliasing.
 
6K / 5568x3132
In diesem Mode verbessert sich die Auflösung auch nur geringfügig auf 3400x1900 und entspricht somit nicht einmal vollumfänglich UHD und erst recht nicht 4K. Entgegen der sehr ausführlichen Bewertung sind die Angaben zum eigentlichen Test leider sehr sehr knapp:

"Initial tests were made with a zoom lens, later with a 135mm prime lens."

"Tests were made at about T4 using a short-range zoom lens."

Genauer geht"s natürlich nicht. :)
@WoWu: Gerade du hebst doch immer so sehr hervor, wie wichtig das Objektiv sei - hier ist dir plötzlich egal, welches Glas genutzt wurde?


So viele Tests - von so vielen Leuten, die nicht in Kamera und Workflow eingearbeitet sind.



Antwort von wolfgang:

Ganz UNgewohnt hat Wowu das Dokument 14:21 Uhr nur für dich nochmal verlinkt, wie beleidigend ;) Dann entschuldige ich mich und behaupte das Gegenteil!



Antwort von wolfgang:

Aha, interessant.
6K mode (Fig.3, 5568x3132)
This is a little better still. The image-content resolution limits are now about 3400x1900. The level of aliasing appears to be lower, because the optical low-pass filter and lens are not passing so much of the unwanted frequencies to the sensor. This mode is acceptable for 4K shooting, in the same way that shooting on a 2880x1620 sensor is good enough for conventional HDTV.
Ist eigentlich wie erwartet - die brauchen 6K um in die Nähe von UHD zu kommen, und 4K um den HD-Bereich zu erwischen. 6K wird aber hier für UHD als hinreichend betrachtet.

Natürlich wird das bei preiswerten Geräten nicht besser sein - das wäre ja ein Wunder. Aber sollten die Gerüchte stimmen, dass ein GH4-Nachfolger in 6K kommt wird dann würde dieser Nachfolger vermutlich für UHD gut genug sein.

Oder man bleibt bei 4K um wenigstens gutes HD zu bekommen. Das ist insofern stimmig mit der alten Einschätzung, dass 4K Geräte in Wirklichkeit das "bessere" HD liefern was die Auflösung angeht.



Antwort von iasi:

Nimmt man die 20-25% Regel, dann braucht es doch eh 4,8k Raw für 4k - was ist daran nun so überraschend.

Dann noch ein ZoomZoom im Glossar erklärt davor, das Auflösung kostet, und schon hat man solch ein Testergebnis.

"However, the zoom lens did not fully cover the sensor, resulting in significant vignetting at wide angles, clearly the sensor is rather larger than ideal for the design of the lenses" ... :)



Antwort von wolfgang:

Na für mich selbst ist dabei gar nichts überraschend. Dieser Thread hat in Summe wenig bis nichts Neues gebracht. Das man mit 4K-Kameras in UHD/4K filmt wussten wir auch schon vorher. Dass die Geräte irgendwo bei 70 oder 80% der Systemgrenze auflösen war ebenso bekannt. Der Aufschrei dass eine geheiligte Red auch nicht besser ist - ja ist halt so. Ändert nur wenig daran, dass man heute selbst mit der bald uralten GH4 besseres Material bekommt als noch vor wenigen Jahren mit den Prosumer Camcorder.

Vielleicht betont die Diskussion eher dass man gerade für HD natürlich auch mit HD Geräten filmen kann. Vor allem wenn einige Profivarianten inzwischen auch intern 10bit 422 können. Und auch dass für echtes UHD sehr wohl 6K interessant sein wird. Naja, in Summe doch wenig Neues.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
Dr DivX geht nicht mehr!
Zhiyun Crane 2 geht nicht mehr an
HC-X929: Image App geht nicht mehr
Canopus ADVC 300 geht nicht mehr
GELÖST! Rechts Klick im Schnittfenster geht nicht mehr!
Wie lange gibt es noch Consumer Kameras ?
GoPro streicht noch mehr Stellen
Netflix: 2019 noch mehr deutsche Serien
Blackmagic DaVinci Resolve 16 Beta 7: noch mehr Bugfixes
Netflix will noch mehr Filme und Serien in Deutschland produzieren
Noch mehr zum Thema Kolorierung mit Künstlicher Intelligenz
Cooke: 35-140mm Anamorphic/I SF Zoom mit noch mehr Special Flare
AtomOS 8.4 - (noch mehr) HDR und Goodies für die Varicam LT
Core SWX Nano-VBR98: Noch mehr Dritthersteller Akkus für Panasonic EVA1
Mehr RAW-Video für DIGIC 5 Kameras - Magic Lantern übertaktet SD-Interface
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
DJI Zenmuse Z30 -- noch mehr Zoom für Inspektionsflüge uä.
HP Z440 CPU ersetzen! Geht oder Geht nicht!?
DJI: Neue Firmware für Ronin Gimbals bringt Support für mehr Kameras
Update für Sony Catalyst Browse und Prepare bringt Unterstützung neuer Kameras, XAVC HS und mehr
Nach Grass Valley-Verkauf: mehr Software, mehr Cloud, mehr Abo -- Edius soll käuflich bleiben
GoPro Hero 7 Black - Mehr als nur mehr Bildstabilisation?
Medienmanagement: Kyno 1.2 Update -- mehr Optionen, mehr Formate
Großes Update für DJI Mini 2 bringt Zoom für Photos, mehr Frameraten für 2.7K Videos und mehr
Panasonic NV-MX500 geht nicht an
Atomos geht an die Börse

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom