Video DSLR & Großsensor Kameras Allgemein Forum



Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen



Besonderheiten, Pro und Contra sowie Fragen zu digitalen (Spiegelreflex-)Kameras mit Videofunktion sowie Cine-Camcordern mit großem Sensor
Antworten
B.DeKid
Beiträge: 12585

Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von B.DeKid »

Angeregt durch die Frage(n) von Thunderblade hier

Würde Ich gerne einen seperaten Thread zu dem Thema aufmachen, in welchem die Vor- und Nach-teile des neuen Codecs erläutert werden können.


..............

Also das sind die Punkte welche von Intresse sind


- Was bedeutet Video: H.264 Intra-Frame / Inter-Frame bei den neuen Canon VDSLR Modellen ?

- Was für Vorteile bringt es gegenüber des alten Codec
- Wo liegen die Schwächen

- Was hat es mit der Funktion TimeCode nun auf sich in den neuen Canon Modellen , wie kann man Sie nutzen

- Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs


- Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit)

- Welche Datendurchsatzraten werden wir erwarten können und wie wirken sich diese auf die Qualität der Videos aus

- Wie wird das Bild nun runter gerechnet auf Full HD (1920x1080) und was für auswirkungen haben die verschiedenen MPx Auflösungen auf diese Verfahren

- Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben


..................................................

Dies sollte ein reiner Fach Thread werden wo Leute wie zB. WoWu und deti uns (unwissenden) ein wenig mehr Licht in die Materie leuchten , auf das wir eher verstehen worum es geht.

Vielen Dank für eure Mühe im Voraus.

MfG
B.DeKid



Thunderblade
Beiträge: 766

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Thunderblade »

Ich habe ich gerade einen Artikel gefunden der folgendes behauptet:

Quelle: http://www.eoshd.com/content/7259/canon ... oshd-guide

,,The original Mk2 really shot 720 lines of resolution, possibly even less. The 5D Mk III, according to Canon, fixes the issues with downscaling the sensor to glorious 1080p. From the sample videos so far it looks very close to the Panasonic GH2 in terms of resolution, which is itself at the Canon C300 mark for resolution.''

Wäre nett wenn ihr auch hierzu Stelllung nehmen könntet, bzw einschätzt ob an dieser Aussage was dran sein könnte.

Das wäre ja schonmal ein deutlicher Schritt nach vorne für die Canon-DSLRs.
Es ist nicht die Kamera die die schönen Bilder macht, sondern der Mensch dahinter.



Syndikat
Beiträge: 485

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Syndikat »

B.DeKid hat geschrieben:
- Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
Also Moire und Rolling Shutter sind Fehler, die nicht auf den Codec sondern auf Sensor / Signalverarbeitung zurückzuführen sind.



B.DeKid
Beiträge: 12585

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von B.DeKid »

Syndikat hat geschrieben:
B.DeKid hat geschrieben:
- Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
Also Moire und Rolling Shutter sind Fehler, die nicht auf den Codec sondern auf Sensor / Signalverarbeitung zurückzuführen sind.
Desweiteren schrieb SyndiKat viewtopic.php?p=551467#551467 was in diesem Thread eher hin passt ( vielleicht kopierst du das einfach hier noch rein, geht sonst vielleicht unter ? )

Ansonsten schon mal Danke

MfG
B.DeKid



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

@ Björn

Das sind ja eine Menge Fragen, die man mit ein paar Sätzen nur vage beantworten kann. ich habe diesen Themen ganze Artikel gewidmet, aber ich will versuchen, es zusammen zu fassen.

1) Man darf nicht auf den Codec stieren, wie das Kaninchen auf die Schlang.
Der Codec generiert eigentlich nur sehr wenige Artefakte, und auch nur in stressigen Situationen.

Sehr viel wichtiger ist das Bildprocessing.
Aber bleiben wir noch beim Codec. Panasonic hat mit dem AVC-I einen Intra Codec angewandt (sie haben ihn ja nicht erfunden), um der (damals) geringen Rechnerleistung zu begegnen. Die Zeit ist aber vorbei. Im AVCU planen sie wieder GoPs ein, weil die Rechner mittlerweile damit umgehen können.
Es gibt noch einen andern Grund, speziell für DSLR Kameras, kurze GoPs bzw. Intra Frames einzuführen: Auch die Rechenpower, weil mehr davon in den kleinen Gehäusen auch zu mehr Wärme führt. Also ist es ein Trade off zu wählen: Kleine GoPs oder Intra, dafür die Power für das Processing zu haben, oder lange GoPs und ein schwaches Processing. Vernünftig, sich hier für die kurzen GoPs zu entscheiden, noch dazu weil B-Frames nach dem 4.Bild ohnehin an Effizienz verlieren, bis dahin aber fast gleichwertig mit I-Frames sind.
In MPEG4 können B-Frames, anders als in MPEG2, sogar die Funktionen von I-Frames haben. (Nicht aber die, von IDRs) denn in MPEG4 haben I-Frames zwar dieselben Bezeichnungen, wie in MPEG2, in Wirklichkeit aber kommt nur ein IDR einem MPEG2 I-Frame gleich.
Man darf sich von der Namensähnlichkeit nicht blenden lassen.
Was für Vorteile bringt es gegenüber des alten Codec
In den Kameras kann mehr Rechenpower dem Processing gewidmet werden, was angesichts des Interpolationsaufkommens auch gar nicht anders geht.
Wo liegen die Schwächen
Im höheren Datenmanagement, inclusive einer möglichen Fehlerkorrektur. Je höher die Datenrate an dieser Stelle ist, umso schwieriger wird es für den Kartenprozessor und weil es nicht, wie bei IT ist, dass Daten gespeichert und neu geladen werden können, muss das Datenmangegment entsprechende Tool bereit halten, um einen Bildausfall zu verhindern.
Diese Prozesse sind absolut nicht mit IT Prozessen zu vergleichen.
Was hat es mit der Funktion TimeCode nun auf sich in den neuen Canon Modellen , wie kann man Sie nutzen
Tja, wie man eben TC nutzt ... denk nur mal an die vielen Probleme, mit Asynchronitäten (Ton/Bild) oder Multikamerafunktionen (die in den NLEs zwar vorkommen, aber alles andere als synchron sind.
Zuletzt bleibt das Thema "drop Frame" das im ATSC Raum bisher noch nicht gelöst war.
Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs
Selbe Effekt: Absolut kein Encoding bringt mehr Rechenpower für das Bildprocessing.
Bei den grossen Sensoren wird ohnehin ein Kompromiss eingegangen, weil sie anders Ausgelesen werden und (im Encodingfall) nicht mehr über RGB gegangen wird und die Reduktion bereits vor dem De-Bayering stattfindet.
Insofern haben die Firmen da schon die Reissleine gezogen und versuchen durch diesen Schritt (kein Encoding, dafür bessere Auslesung) wieder Luft zu bekommen.
Es gehören noch ein paar andere Schritte dazu, die hier zuweit führen würden.
Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit
Man kann sagen, je mehr Pixels der Sensor hat, umso schwieriger wird die Qualität (im Video Bereich). Dafür gibt es auch mehre Gründe.
Welche Datendurchsatzraten werden wir erwarten können und wie wirken sich diese auf die Qualität der Videos aus
Auch hier wieder: Der Datendurchsatz ist kein Qualitätsmerkmal, oft sogar kontraproduktiv. (Siehe oben)
Moderne Kameras haben ein "priority processing", in dem eine Bildanalyse durchgeführt wird und entlang der Analyse die Prozesse dynamisiert (also nötigenfalls abgebrochen) werden.
Deswegen bringen die Hacks auch gar nichts, weil das Processing nichts davon erfährt, was hinten an der GoP eingestellt ist. Die Firmware sagt dem PP nach wie vor, welche GoP vom Werk vorgegeben ist.
Wie wird das Bild nun runter gerechnet auf Full HD (1920x1080) und was für auswirkungen haben die verschiedenen MPx Auflösungen auf diese Verfahren
Wie ich schon gesagt habe. In der zweiten Generation DSLR weicht man von den bisherigen Abtastmodellen ab und führt die Interpolation ein, muss aber gleichzeitig die Anzahl der Berechnungen drastisch reduzieren. Normal waren r. 1200-1600 Rechenprozesse pro Pixel und durch die veränderten Abtastverfahren um etwa 30-70% herabgesetzt werden. Besonders spart man an den Multiplikationen zugunsten einfacher Additionen.
Du siehst, die Hersteller "ringen" mit der Rechenpower, bei den grossen Sensoren.
Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
Wie oben schon stand ... der Codec hat keinen Einfluss auf diese Parameter.

Aber eins noch .... Thema: 1080p50 .
Das Format bedeutet eine Verdopplung der Clock auf 148,5 MHz und doppelte Anzahl an Makroblöcken (in derselben Zeit).
Solange sich nicht die Rechenpower (oder Kühlung) ändert, wird es das nicht geben, es sei denn, man hat überschaubare Sensorgrössen und ein entsprechend einfaches Bildprocessing. (Oder eben PP lässt in dem Fall alles weg, was zu einem anständigen Bild gehört).

So, das war es jetzt in aller Kürze, daher sicher nicht vollständig.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



B.DeKid
Beiträge: 12585

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von B.DeKid »

Dank Dir erstmal für deine Mühe - dies war schon mal ein Wurf in richtige Richtung , und nur darum ging es hier nun auch !

MfG
B.DeKid



Thunderblade
Beiträge: 766

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Thunderblade »

Lieber WoWu,
Vielen Vielen Dank für deine Erklärungen. Es freut mich, dass es hier jemanden zu geben scheint der von dem ganzen Marketing-Gelaber der Hersteller nicht geblendet werden kann und der uns die wahren Verbesserungen/ bzw Verschlechterungen erklären kann.

Trotzdem würde ich gerne nocheinmal nachhaken, bzw. hätte noch ein paar Verständnisfragen :-) :
1) Man darf nicht auf den Codec stieren, wie das Kaninchen auf die Schlang.
Der Codec generiert eigentlich nur sehr wenige Artefakte, und auch nur in stressigen Situationen.

Sehr viel wichtiger ist das Bildprocessing.
Aber bleiben wir noch beim Codec. Panasonic hat mit dem AVC-I einen Intra Codec angewandt (sie haben ihn ja nicht erfunden), um der (damals) geringen Rechnerleistung zu begegnen. Die Zeit ist aber vorbei. Im AVCU planen sie wieder GoPs ein, weil die Rechner mittlerweile damit umgehen können.
Es gibt noch einen andern Grund, speziell für DSLR Kameras, kurze GoPs bzw. Intra Frames einzuführen: Auch die Rechenpower, weil mehr davon in den kleinen Gehäusen auch zu mehr Wärme führt. Also ist es ein Trade off zu wählen: Kleine GoPs oder Intra, dafür die Power für das Processing zu haben, oder lange GoPs und ein schwaches Processing. Vernünftig, sich hier für die kurzen GoPs zu entscheiden, noch dazu weil B-Frames nach dem 4.Bild ohnehin an Effizienz verlieren, bis dahin aber fast gleichwertig mit I-Frames sind.
In MPEG4 können B-Frames, anders als in MPEG2, sogar die Funktionen von I-Frames haben. (Nicht aber die, von IDRs) denn in MPEG4 haben I-Frames zwar dieselben Bezeichnungen, wie in MPEG2, in Wirklichkeit aber kommt nur ein IDR einem MPEG2 I-Frame gleich.
Man darf sich von der Namensähnlichkeit nicht blenden lassen.

Zitat:
Was für Vorteile bringt es gegenüber des alten Codec

In den Kameras kann mehr Rechenpower dem Processing gewidmet werden, was angesichts des Interpolationsaufkommens auch gar nicht anders geht.
Zitat:
Wo liegen die Schwächen

Im höheren Datenmanagement, inclusive einer möglichen Fehlerkorrektur. Je höher die Datenrate an dieser Stelle ist, umso schwieriger wird es für den Kartenprozessor und weil es nicht, wie bei IT ist, dass Daten gespeichert und neu geladen werden können, muss das Datenmangegment entsprechende Tool bereit halten, um einen Bildausfall zu verhindern.
Diese Prozesse sind absolut nicht mit IT Prozessen zu vergleichen.
Also verstehe ich das richtig, dass die Verwendung von Intra-Frames nicht direkt die Bildqualität verbessert sondern nur indirekt, indem es mehr Rechenkapazität für das Pixel-Binning übrig lässt???


Zitat:
Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs

Selbe Effekt: Absolut kein Encoding bringt mehr Rechenpower für das Bildprocessing.
Bei den grossen Sensoren wird ohnehin ein Kompromiss eingegangen, weil sie anders Ausgelesen werden und (im Encodingfall) nicht mehr über RGB gegangen wird und die Reduktion bereits vor dem De-Bayering stattfindet.
Insofern haben die Firmen da schon die Reissleine gezogen und versuchen durch diesen Schritt (kein Encoding, dafür bessere Auslesung) wieder Luft zu bekommen.
Es gehören noch ein paar andere Schritte dazu, die hier zuweit führen würden.
Wenn du sagst: ,,Selber Effekt'' bedeutet das, dass der interne Canon-Codec somit gleichwertig im Vergleich zu dem Signal was aus dem ,,sauberen HDMI-Signal'' kommt ist?
Zitat:
Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit

Man kann sagen, je mehr Pixels der Sensor hat, umso schwieriger wird die Qualität (im Video Bereich). Dafür gibt es auch mehre Gründe.
Das würde also bedeuten, dass die Nikon D800 (mit 36MP) mit ihrem HDMI-Out Signal dem internen Codec der Canon 5D Mark III (22MP) unterlegen ist?
Zitat:
Wie wird das Bild nun runter gerechnet auf Full HD (1920x1080) und was für auswirkungen haben die verschiedenen MPx Auflösungen auf diese Verfahren

Wie ich schon gesagt habe. In der zweiten Generation DSLR weicht man von den bisherigen Abtastmodellen ab und führt die Interpolation ein, muss aber gleichzeitig die Anzahl der Berechnungen drastisch reduzieren. Normal waren r. 1200-1600 Rechenprozesse pro Pixel und durch die veränderten Abtastverfahren um etwa 30-70% herabgesetzt werden. Besonders spart man an den Multiplikationen zugunsten einfacher Additionen.
Du siehst, die Hersteller "ringen" mit der Rechenpower, bei den grossen Sensoren.
Also wenn ich als technisch ungebildeter Mensch das richtig verstehe:
Statt Line-Skipping wird jetzt also Interpolation (ist das das gleiche wie Pixel-Binning?) angewandt ? Das hat zwar den Vorteil, dass kaum Aliasing/Moire mehr auftreten wird, hat aber gleichzeitig den Nachteil, dass deutlich weniger Berechnungen stattfinden? Was für Auswirkungen auf das Bild hat diese Minimierung der Berechnungen?
Zitat:
Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben

Wie oben schon stand ... der Codec hat keinen Einfluss auf diese Parameter.
Dann lass mich die Frage anders stellen: Führt das neue Ausleseverfahren des Sensors (Interpolation) zu weniger Aliasing/Moiré ?. Welche zusätzlichen Vorteile hat die Interpolation gegenüber dem Line-Skipping? Werden wir jetzt erstmals echte 1920 x 1080 Auflösung bekommen?
Aber eins noch .... Thema: 1080p50 .
Das Format bedeutet eine Verdopplung der Clock auf 148,5 MHz und doppelte Anzahl an Makroblöcken (in derselben Zeit).
Solange sich nicht die Rechenpower (oder Kühlung) ändert, wird es das nicht geben, es sei denn, man hat überschaubare Sensorgrössen und ein entsprechend einfaches Bildprocessing. (Oder eben PP lässt in dem Fall alles weg, was zu einem anständigen Bild gehört).
Von daher war es also ein guter Schritt von Canon und Nikon dieses Feture nicht zu implementieren, da die aktuellen Prozessoren dafür (1080 50/60fps mit gleich guter Bildqualität wie bei 24/25/30) nicht leistungstark genug sind bzw durch nicht ausreichende Kühlung limitiert sind. ?

Wer oder was ist ein PP? Der Begriff tauchte weiter oben schonmal auf.



Ich meine übrigens irgendwo gelesen zu haben, dass NIKON bei ihren Video-DSLRs 2.0 (D800+D4) noch immer Line-Skipping benutzt. Kann das jemand bestätigen oder widerlegen?
Es ist nicht die Kamera die die schönen Bilder macht, sondern der Mensch dahinter.



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Hallo B.DeKid,
etwas ganz wichtiges hat WoWu zur 5D MarkIII dazu vergessen:

Die neu 5D MarkIII hat nicht zufällig diese 22,1 MPixel Auflösung, denn damit reduziert man beim Binning die Bildfehler auf ein Minimum. Begründung:

5760x3840 im 3:2 Format ergeben auf 16:9 Format 5760x3240 ausgelesene Pixel (Full ohne Cropping).

Drei Pixel (R/G/B) ergeben einen echten Bildpunkt in der Bayermaske (es gibt auch welche mit 4, als G-R-G-B quadratisch angeordnet, ich glaube z.B. die F65 von Sony) und da ist der Vorteil. Man muß gar nicht mehr das ganze Bild über krumme Verhältnisse mit viel Rechenleistung interpolieren, denn man hat sowohl vertikal als auch horizontal denselben, einen ganzzahligen und den optimalen Teiler (3).

Ein Bildpunkt in 1080p entspricht somit exakt 3x3 = 9 Pixeln (oder 3 echten Bildpunkten auf die Originalauflösung) die man nur zusammenzählen muss bzw. dann über die drei originalen Bildpunkte mitteln. Damit dürften sich wohl die Bildprobleme der 5D MarkII erledigt haben (Binning mit weglassen von Zeilen, Auslesen von weniger Zeilen ...) die auf der wenigen Rechenleistung zum Auslesen/Interpolieren und krummen vertikalen und horizontalen Pixelzahl zum 16:9 Format beruhen.

Weiterhin ist jedes Pixel 6.3µm hoch/breit und damit noch über der magischen 6µm Rauschgrenze. Siehe Erfahrungsberichte dazu unter: http://sprec000.xardas.lima-city.de/Digicam7.html

Das scheint mir ein sehr guter Wurf zu sein um fast alle wesentlichen Bildprobleme der VDSLR´s schon mal theoretisch auf ein Minimum zu bringen.

Mit 4:2:0 oder kein unkomprimiertes HDMI können wir hier locker leben, ist bei uns eine optimale Ergänzung zur XF305, man bekommt was jetzt noch fehlt: Lowlight, geringe Schärfentiefe, Wechseloptiken und eine echte top DSLR für Fotos dazu. In der Summe ist die XF305 plus eine 5D MarkIII noch günstiger wie eine C300, die dann halt C-Log und immer 50 MBit 4:2:2 in allen Lebenslagen hat, aber eben für unsere Bedürfnisse in der Industrie dann zu "filmlastig" im handling ist. Uns reicht normalerweise 4:2:0 aus, denn bei uns geht es nicht um "den einmaligen Werbe- oder Kinofilm".

Warten wir mal die Test´s ab, für unsere Bedürfnisse "der Kaufkandidat" ...


Gruß


O.T. zu Nikon:
Eine Nikon D800 mit 36 Mpixeln liegt mit 4,9µm deutlich unter der 6µm "Rauschfreigrenze" und muß beim Binning für 1080p echt interpolieren, es sei denn sie nutzt einen Cropbereich zum Auslesen für 1080p, dann wäre da aber die unangenehme Brennweitenverlängerung der Objektive. Wohl die Wahl zwischen "Pest und Cholera" bei Nikon.
Zuletzt geändert von mediavideo am Sa 03 Mär, 2012 21:50, insgesamt 4-mal geändert.



Thunderblade
Beiträge: 766

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Thunderblade »

Mir sind noch 2 weitere Frage eingefallen:

1.) Bei Verwendung des ALL-I Codec bei den neuen Canon Video DSLRs 2.0 (1DX + 5D Mark III) bekommt man ja eine Datenrate von 91,3 Mbit/s.

Bedeutet das zwingend das dadurch die Bildqualität besser werden muss??? Meintest du (WoWu) nicht in deinen Erklärungen, dass Intraframes deutlich ineffizienter sind?

2.) Welche Nachteile hat die Aufnahme über den unkomprimierten HDMI-Ausgang der Nikon im Vergleich zum internen Canon-Codec???
Ist das was da rauskommt wirklich ,,unkomprimiert''???

Auf den ersten Blick scheint es ja nur Vorteile zu geben:
-Möglichkeit der Verwendung von hochwertigen Codecs (ProRes,etc.)
-4:2:2 (auch 10bit statt 8 bit?).
(-Die Kamera muss nichts mehr berechnen also keine Überhitzungsprobleme???)
Es ist nicht die Kamera die die schönen Bilder macht, sondern der Mensch dahinter.



Roland Cameron
Beiträge: 123

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Roland Cameron »

Viele von Euch haben sicher auf meine Statements gewartet. Jetzt bin ich bereit...
;-) ;-)

WoWu hat geschrieben:1) Man darf nicht auf den Codec stieren, wie das Kaninchen auf die Schlang.
Der Codec generiert eigentlich nur sehr wenige Artefakte, und auch nur in stressigen Situationen.
Sehr viel wichtiger ist das Bildprocessing.

Das ist so richtig.
WoWu hat geschrieben:
Was für Vorteile bringt es gegenüber des alten Codec
In den Kameras kann mehr Rechenpower dem Processing gewidmet werden, was angesichts des Interpolationsaufkommens auch gar nicht anders geht.
Das stimmt zwar in einem ersten Schritt. Doch wie ist dann der Alternativ-Codec Interframe IPB zu beurteilen?
Wowu, Du lässt hier ziemlich viel offen, zugegeben muss man das auch an dieser Stelle, weil mein keine weiteren Infos hat. Wichtig ist an dieser Stelle das Bildprozessing aus dem Chip. Sollte hier im Verhältnis 9:1 gebinnt werden, dann muss interpoliert werden. Dafür brauch man Rechenpower. Doch was passiert dann beim Interframe IPB (Hier würde die Power durch das komplexere Encodierungs-Verfahren ja wiederum nicht zur Verfügung stehen..., ne?), Line Skipping? Na, merkt Ihr was?? Ist doch Schwachsinn.
Wo liegen die Schwächen
WoWu hat geschrieben:Im höheren Datenmanagement, inclusive einer möglichen Fehlerkorrektur. Je höher die Datenrate an dieser Stelle ist, umso schwieriger wird es für den Kartenprozessor und weil es nicht, wie bei IT ist, dass Daten gespeichert und neu geladen werden können, muss das Datenmangegment entsprechende Tool bereit halten, um einen Bildausfall zu verhindern. Diese Prozesse sind absolut nicht mit IT Prozessen zu vergleichen.
Der erste Teil ist ja o weit ok, aber der letzte erschließt sich mir gar nicht. Was haben hier IT-Prozesse in der Argumentation verloren?? Sorry, aber man könnte denken, Du stehst hauptberuflich an der Käsetheke. ;-)
Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs
WoWu hat geschrieben:Selbe Effekt: Absolut kein Encoding bringt mehr Rechenpower für das Bildprocessing.
Sorry, aber das ist nicht zu Ende gedacht. So kommt Ihr nie nach Hollywood oder auf die Berlinale...;-)
Also... Die Tatsache, dass alternativ vertikal am HDMI-Port ausgegeben wird, wird das Bild Processing nicht auf den Kopf stellen. Leute, so wird das wirklich nix - zumindest bitte etwas mehr Konzentration.
WoWu hat geschrieben:Bei den grossen Sensoren wird ohnehin ein Kompromiss eingegangen, weil sie anders Ausgelesen werden und (im Encodingfall) nicht mehr über RGB gegangen wird und die Reduktion bereits vor dem De-Bayering stattfindet.
Den Satz sag mal einem Entwickler, der am Kern des Prozessing arbeitet...
WoWu hat geschrieben:Es gehören noch ein paar andere Schritte dazu, die hier zuweit führen würden.
...
Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit
WoWu hat geschrieben:Man kann sagen, je mehr Pixels der Sensor hat, umso schwieriger wird die Qualität (im Video Bereich).
Leute, lasst Euch diesen Satz mal auf der Zunge zergehen. Der hat gleich mehrere Höhepunkte. hihi
WoWu hat geschrieben:Dafür gibt es auch mehre Gründe.


Daran habe ich keine Zweifel. Also den Rest habe ich mal gelöscht.

Bei allem Respekt!!
Es ist nicht so, dass ich WoWu für grundsätzlich ahnungslos halte. Aber das hier ist nix. Entweder ganz oder gar nicht. Bitte nicht überall frapierend logische Fehler einbauen.

Derzeit können wir nicht viel sagen. Ob Nikon wirklich das Skipping verwendet, ist meines Wissens auch noch nicht sicher.
I'm the boss.



handiro
Beiträge: 3259

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von handiro »

Roland Cameron hat geschrieben:Viele von Euch haben sicher auf meine Statements gewartet. Jetzt bin ich bereit...

Derzeit können wir nicht viel sagen.
Ja darauf habe ich schon lange gewartet! The boss is back und hat nix zu sagen, aber dafür im http://de.wikipedia.org/wiki/Pluralis_Majestatis
Good-Cheap-Fast....Pick Any 2



B.DeKid
Beiträge: 12585

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von B.DeKid »

Ich danke euch für eure Rege Unterstützung im Namen aller die sich für die technischen Fragen intressieren.

Ich glaube so haben wir uns den Thread gewünscht.

MfG
B.DeKid

OT:

@ mediavideo

Die XF 305 ist bestimmt eine tolle Kamera in Kombination zu einer VDSLR - mir erscheint Sie ( die XF 305) in etwa ein Gegenstück zur Sony EX (1/3) zu sein.

Damit lässt sich bestimmt ein Grossteil von Image Produktionen und etc. abdecken.

/OT



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

@ Thunderblade
Also verstehe ich das richtig, dass die Verwendung von Intra-Frames nicht direkt die Bildqualität verbessert sondern nur indirekt, indem es mehr Rechenkapazität für das Pixel-Binning übrig lässt???
Das verstehst Du (fast) richtig.
Wenn man die Bilderzeugung mal in 2 grobe Prozesse aufteilt, sind es das Auslesen des Chips mit dem De-Bayering und den bildverändernden Massnahmen (z.B. Downscaling) und das Encoding, wobei die Bewegungsprädiktion rd. 60% dabei ausmachen.
Beides zusammen ergibt 100% Rechenleistung und der komplette Satz muss in 40ms abgeschlossen sein, weil das nächste Bild nicht wartet.
(Das genau ist der Unterschied zur IT-Datenverarbeitung, wo Daten gespeichert und neu abgerufen werden können).
Also, in 40 ms müssen 20 Millionen Pixel, mit je etwa 1600 Rechenschritten durchgeführt werden.
Bei Camcordern waren das noch 4,6, oder 8 Millionen.
Je mehr Pixel zur Bearbeitung anfallen, umso geringer ist die Zeit pro Pixel.
Zur Lösung stehen zwei Möglichkeiten ... entweder man reduziert die Pixelmengen bei der Auslesung (z.B. eine Vollauflösung nur alle 4 Bilder und den Rest in reduzierter Auflösung oder direkt nach YCbCr (unter Umgehung von RGB, oder reduzierte Farbtiefe usw.)
Dann hat man die Zeit für ein Encoding.
Die andere Möglichkeit ist, das Encoding entweder zu "verschlanken", also mit wenig Bewegungsschätzung zu arbeiten und die Daten möglichst schnell durchzureichen.
Dann hat man auch mehr Zeit für das Bildprozessing.
Aber, wie gesagt, die Bilder werden ja nicht besser, man fängt nur die höhere Pixelzahl damit ab.
Oder man lässt das Encoding gleich ganz weg und schickt das (unkomprimierte) Signal gleich an den HDMI.
Wobei am HDMI schon immer ein unkompliziertes Signal lag, denn die Schnittstelle überträgt gar kein kodiertes Signal.
Nur soll hier der Eindruck vermittelt werden, es sei ein transparentes Signal ... aber davon ist es weit entfernt. Nur hat man so die Möglichkeit, statt direkt nach YCbCr zu gehen, wieder über RGB gehen und sich eine höhere Farbabtastung leisten kann.

Was macht nun der Intra .... man kann es auf einen stark verkürzten Nenner bringen und sagen ... rd 3-6 db besseren Störabstand, der sich aber erst im Multigenerationsverhalten niederschlägt. Auch darauf heben die Broadcaster im Wesentlichen ab, wenn sie solche Codecs vorschreiben. Es geht da nicht um bessere oder schlechtere Bilder, sondern um das Verhalten des Codecs in der Verarbeitungskette.
I- Frames machen also per se keine bessere Bilder als eine GoP mit wesentlich mehr als 4-6 B-Frames.
Sie sind nur besser zu Verarbeiten und bieten dem Kamerahersteller mehr "Luft" die irrwitzige Pixelmenge halbwegs vernünftig zu handhaben.
Bedeutet das zwingend das dadurch die Bildqualität besser werden muss??? Meintest du ... nicht in deinen Erklärungen, dass Intraframes deutlich ineffizienter sind?
Sagen wir es anders ... die Bildqualität würde durch die verteilte Rechenpower in Processing und Kodierung schlechter, wenn eine Bewegungsprädiktion (GoP) geleistet werden müsste denn so steht die Rechenleistung der Bildverarbeitung zur Verfügung.

Ja, I-Frames sind deutlich ineffizienter. Nur der Hersteller muss ein Abwägung leisten.
effizienter sind?

2.) Welche Nachteile hat die Aufnahme über den unkomprimierten HDMI-Ausgang der Nikon im Vergleich zum internen Canon-Codec???
Ist das was da rauskommt wirklich ,,unkomprimiert''???
Es kommt jetzt immer darauf an, was auf der Schnittstelle übertragen wird denn als Monitorschnittstelle werden die Halbbilder (auch bei segmented Frames) so verteilt, dass die TV Geräte zur Bildverdopplung damit umgehen können.
Diese Reihenfolge muss man im NLE (oder durch Zusatzsoftware) erst einmal korrekt wieder herstellen sonst kommt es ggf. zu Kammeffekten.
Orientieren sich die Hersteller also an TV-Monitoren, dann hat man ggf. auf der Schnittstelle einige Arbeit.
Auf der andern Seite, wie schon erwähnt, kommt es darauf an, ob ein höherwertiges Signal, also z.B. 4:2:2 angelegt wird, gegenüber eines 4:2:0 Signals in der Kompression.
Dann könnte sich eine solche Aufzeichnung lohnen.
Der "Normalverbraucher" wird den Unterschied aber nicht nutzen können.
Auf den ersten Blick scheint es ja nur Vorteile zu geben:
-Möglichkeit der Verwendung von hochwertigen Codecs (ProRes,etc.)
-4:2:2 (auch 10bit statt 8 bit?).
(-Die Kamera muss nichts mehr berechnen also keine Überhitzungsprobleme???)
Das setzt aber eben voraus dass es nicht "nur unkomprimiert" ist, denn eine HDMI überträgt niemals komprimierte Formate, sondern dass die Bilderzeugung auch deutlich besser in der Kamera vorgenommen wird.
Man muss also derzeit bei den Kameras sehr genau hinsehen, was sie machen. Wie schon erwähnt, gibt es mittlerweile unterschiedliche Ansätze.

Ergänzung: PP= Priority Processing = Bildanalyse und daraus nachgelagert die Aufteilung der Prozesse innerhalb des verfügbaren Zeitfensters.


@mediavideo
Die neu 5D MarkIII hat nicht zufällig diese 22,1 MPixel Auflösung, denn damit reduziert man beim Binning die Bildfehler auf ein Minimum.
Die gröbste Fehlerquelle in Bezug auf Aliasingartefakte ist nach wie vor das Missverhältnis zwischen Objektivauflösung und Sensorauflösung und erst in zweiter Linie in "krummen" Sensorauflösungen zu suchen. Der Sensor generiert ohnehin durch das Missverhältnis der Färb-Unterabtastung in gewissem Umfang Farbmoire. Und auch im Interpolationsverfahren entstehen, je nach Menge der Koeffizienten, Aliasing Effekte. Insofern optimiert der Hersteller ohnehin und unabhängig davon, ob der Sensor nun ein gerades oder ungerades Verhältnis ausweist, nutzten die Hersteller schon immer nur die Menge an Pixels, die für die Rechenprozesse optimal waren.
Binning mit weglassen von Zeilen, Auslesen von weniger Zeilen ...
Canon hat kein Skipping gemacht sondern immer gebinnt. Nur so war das enorme S/N Ratio von fast 7:1 zu erreichen.
Die Grundidee, die dahinter stand, war schon ganz ok, nur dass Objektivauflösung und Sensorauflösung immer weiter auseinander liefen, war der bittere Nebeneffekt denn für die Videoauflösung hätte das Objektiv nur noch rd. 20 Lp/mm machen "dürfen".

@Roland Cameron
Wowu, Du lässt hier ziemlich viel offen
Das stimmt leider, aber mit ein paar Sätzen lassen sich komplexe Zusammenhänge nicht immer zufriedenstellend beantworten.
Aber ich bemühe mich und wenn Nachfragen sind, versuche ich diese Antworten weiter zu verfeinern. Dass das noch wenig zufriedenstellend ist, ist mir klar.
In meinem Buch habe ich mehr Raum, solche Dinge genauer (und mit den dazugehörigen Berechnungen) zu erklären.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Hi WoWu,
der Post bezog sich im wesentlichen auf diesen Satz:
Wie ich schon gesagt habe. In der zweiten Generation DSLR weicht man von den bisherigen Abtastmodellen ab und führt die Interpolation ein, muss aber gleichzeitig die Anzahl der Berechnungen drastisch reduzieren. Normal waren r. 1200-1600 Rechenprozesse pro Pixel und durch die veränderten Abtastverfahren um etwa 30-70% herabgesetzt werden. Besonders spart man an den Multiplikationen zugunsten einfacher Additionen.
Du siehst, die Hersteller "ringen" mit der Rechenpower, bei den grossen Sensoren.

Ich bin mir sicher das ist kein Zufall mit der Auflösung und vermute zur Einsparung von Rechenleistung für 1080p Video folgendes, was dir bis jetzt noch nicht aufgefallen ist:

Wohlmöglich machen die einen recht cleveren Schachzug und nehmen einfach eine 3x3 Matrix mit 3R, 3G, 3B Punkten und machen da gar kein großes Demosaicing, etc. ... mehr, sondern addieren die drei R Werte und teilen einfach durch drei, das Gleiche für die G und B Werte und sagen dann das ist unsere Interpolation für einen Bildpunkt in RGB für 1080p - fertig und der Bildpunkt passt auch genau auf einen in 1080p. Ist unkonventionell, aber erspart enorm Rechenleistung gegenüber z.B. Demosaicing jedes der 9 Pixel und dann einer neuen 1080p Bildpunktberechung.

Tatsache ist doch, daß alle höherwertigen Einchip-Videokamerahersteller versuchen einen relativ glatten Faktor (1, 1.5, 2, ...) bei den Pixeln zur 1080p Auflösung zu haben und das ist doch auch logisch nachvollziehbar.

Die 5760 Pixel Horizontalauflösung bzw. dann 16:9 entsprechneden 3240 Vertikalauflösung ist aber die einzig mögliche und sinnvolle beim Verhältnis möglichst optimaler und gerader Teiler (3) bei Einhaltung der Rauschfreigrenze (> 6µm) und einer akzeptablen Auflösung im DSLR Betrieb (>15 Mpix) bei Full Frame (36x24mm) Chips und ohne Cropping - das sieht man dann schon bei der Nikon F800 sofort im Vergleich.


Wissen tun wir das beide nicht, aber es ist so wirklich sehr elegant für die relevante 1080p Videoauflösung.

Gruß



O.T.

@B.DeKid

Die XF305 entspricht quasi der EX1. Die XF300/305 hat aberim Vergleich 50Mbit 4:2:2, günstige CF-Karten, ..., allerdings für uns ganz wichtig ist: Wir brauchen auf alle Fälle eine kompakte, robuste Kamera für Kunden die TC und Bildsynchron zu einer zweiten Kamera ist, deshalb die XF305 und nicht die XF300. Für sehr spezielle Situationen wie extremes Lowlight oder Weitwinkel wäre dann die 5D Mark III, natürlich geht dann kein sync. mehr, aber die Fälle werden sich sehr selten kreuzen wo TC/sync+Lowlight/Weitwinkel nötig ist.



Roland Cameron
Beiträge: 123

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Roland Cameron »

mediavideo hat geschrieben:Ich bin mir sicher das ist kein Zufall mit der Auflösung und vermute zur Einsparung von Rechenleistung für 1080p Video folgendes, was dir bis jetzt noch nicht aufgefallen ist:

Wohlmöglich machen die einen recht cleveren Schachzug und nehmen einfach eine 3x3 Matrix mit 3R, 3G, 3B Punkten und machen da gar kein großes Demosaicing, etc. ... mehr, sondern addieren die drei R Werte und teilen einfach durch drei, das Gleiche für die G und B Werte und sagen dann das ist unsere Interpolation für einen Bildpunkt in RGB für 1080p - fertig und der Bildpunkt passt auch genau auf einen in 1080p. Ist unkonventionell, aber erspart enorm Rechenleistung gegenüber z.B. Demosaicing jedes der 9 Pixel und dann einer neuen 1080p Bildpunktberechung.
Dazu hatte ich bereits geschrieben:
Roland Cameron hat geschrieben:Sollte hier im Verhältnis 9:1 gebinnt werden, dann muss interpoliert werden.
Einfaches Aufaddieren der Teilwerte und t(n) teilen ist ja interpolieren. Hallo??

Roland Cameron hat geschrieben:Dafür braucht man Rechenpower die man [bei Intraframe] nun hätte. Doch was passiert dann beim Interframe IPB (Hier würde die Power durch das komplexere Encodierungs-Verfahren ja wiederum nicht zur Verfügung stehen..., ne?).
Bedeutet das dann wieder Line Skipping? Die Kamera ändert doch nicht das Grundprinzip des Bild Processing je nach ausgewähltem Codec. Das ist doch so nicht logisch.

Ist da irgendwer zu Hause oder stehe nur ich hier auf dem Schlauch? Das kann ich mir nicht leisten... denn
I'm the boss.



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

Ja, das ist schon richtig, dass wir das noch nicht wirklich wissen, wie sie es machen, nur bei so einer 3er Matrix wird das nix mit dem Encoding, weil die Schwierigkeit besteht, dass die meisten Kodierverfahren, so auch H.264, lediglich rechtwinklige Arrays abarbeiten können.
Um das zu erreichen, müssen die Pixels dann zunächst umgruppiert werden. Dazu wird der Lumakanal zunächst in einen Kanal überführt und anschließend in zwei gleiche Kanäle aufgeteilt.
Anschließend wird der Grün Kanal mit den Rot- und Blau Kanälen komprimiert.
Die so encodierten Blöcke werden für eine Vorhersage decodiert und ein De-Mosaicking wird vorgenommen.
Dabei werden die Grünanteile wieder um den Faktor zwei erhöht und Rot sowie Blau um den Faktor 4.
Zur Bearbeitung kann allerdings jeder beliebige De-Mosaikalgorithmus zur Anwendung kommen.
Nach dem De- Mosaicking werden alle drei Kanäle um den Faktor 4 horizontal, wie auch vertikal, um die 1⁄4 Pixel Anforderung der Bewegungsprädiktion zu erfüllen.
Das wäre dann die bereits erwähnte Methode, die Kompression vor dem De-Mosaiking durchzuführen. de-mosaicked werden muss auf alle Fälle.
Bei dieser Methode wäre übrigens auch dann Luma unterabgetastet und die Auflösung würde sich auf fast nur noch 40 Lp/mm reduzieren.
Dann passt das wieder nicht mit den rd. 80 Lp/mm der Objektive, denn der Sensor hat in seiner Originalauflösung rd. 80 Lp/mm, also optimal für die komplette Auflösung .... und ich glaube nicht, dass Canon für die Kameras "extra schlechte" Gläser baut.

Aber warten wir's doch einfach mal ab.
Bald wissen wir's ja.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Hi WoWu,
jetzt aber zum letzten Mal ein Post dazu:

Die Herangehensweise von dir zum Vergleich der alten 5D Mark II zur neuen 5D Mark III ist meines Erachtens falsch.

Man muß die gesamte Qualitätskette (bzw. die Änderungen daran) bei einer VDSLR im Videomodus betrachten und die sieht grob so aus:

1. Objektiv
2. Sensor
3. Sensorauslesung und Vorverarbeitung bis zum benötigten Übergabeformat zur Kompression
4. Kompression (z.B. bei EOS 5D Mark II und Mark III nach H.264)

- Canon wirbt damit in der neuen 5D Mark III die deutlich sichtbaren Bildprobleme der alten 5D Mark II fast vollständig beseitigt zu haben.
- Canon läßt die alte 5D Mark II im Programm und diese wird auch noch im Preis erheblich gesenkt. Damit muß die wesentlich teurer gewordene neue 5D Mark III deutlich besser sein, denn sonst würde die ja niemand kaufen und Canon sich selbst lächerlich machen und weniger Umsatz mit der 5D Serie wie bisher erzielen.
- Damit sind auch die Bildbeurteilungen zu den Demo´s glaubhaft, daß die bei ähnlichem Filmmaterial im Vergleich vorher gut sichtbaren Bildprobleme der 5D Mark II wohl jetzt weg oder ganz minimal sind.


Also:
Objektive (auch im Verhältnis zur Sensorauflösung) und Kompression sind gleich geblieben. Damit ist doch zwingend logisch, das der wesentliche Qualitätsunterschied der alten 5D Mark II zur neuen 5D Mark III nur am Sensor und/oder Sensorauslesung mit Vorverarbeitung liegen kann. Das sollte jetzt jeder nachvollziehen können.

Und jetzt verstehe ich dich nicht mehr WoWu:
Du reitest auf den Objektiven herum und machst Betrachtungen zur H.264 Kompression.
Das ist doch unlogisch, weil beides gleich geblieben ist. Es gibt keine neuen speziellen Objektive und es bleibt die gleiche H.264 Kompression mit 4:2:0 bei der neuen 5D Mark III.

Und nur nach den Veränderungen am Gesamtsystem habe ich kurz geschaut und glaube es ist eine Kombination aus leicht geänderter Sensorauflösung mit jetzt geradem 1080p Teiler (3) und einer neuen Technologie zur rechenentlastenden und eleganten geraden-Teiler basierten Bestimmung der Farbwerte für 1080p Video vor der Kompression. Dabei ist das mit dem simplen Zusammenrechnen natürlich nur eine Möglichkeit. Canon kann auch das mittlere Pixel nehmen und mit den 8 umliegenden den Helligkeits/Farbwert für die 3x3 Matrix als ein Pixel für die 1080p Auflösung zur Übergabe in ein geeignetes Format für die Kompression berechnen, etc. ...

Klar ist doch das ein gerader Teiler weniger Rechenleistung zum herunterskalieren auf 1080p benötigt und sich wohl fast in jeder Situation eine bessere Skalierungsqualität als bei krummen Skalierungsfaktoren ergibt. Das muß ich jetzt wohl nicht erklären.

Und jetzt verstehe ich dich gar nicht mehr mit deiner Antwort:
Wenn laut deiner Aussage das krumme Verhätnis kaum was ausmachen kann gegenüber dem geraden Teiler und die Verarbeitung sowieso wie auch früher schon gemacht werden muß, dann müßten die Bildfehler ja noch genauso da sein, oder ??? - Sind sie aber wohl nicht !!!
Die reine Rechenleistungssteigerung der neuen 5D Mark III bei fast identischer Megapixelauflösung ohne Veränderung der Algorithmen zur Vorverarbeitung brächte dann aber nur ein zeitlich schnelleres Ergebnis, aber zwingend immer noch die gleichen Bildfehler.

Damit kann die Sicht von dir definitiv nicht richtig sein.


Ob ich mit meiner aufgeworfenen Vermutung genau richtig liege ist damit natürlich nicht belegt, aber es ist schon geradezu zwingend das die jetzt nicht mehr vorhandenen Bildfehler mit dem geraden Teiler in Zusammenhang mit einem neuen, eleganten und weniger rechenintensiven geraden-Teiler Algorithmus stehen müssen.



Gruß



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

Nee, nee, da würfelst Du jetzt aber einiges kunterbunt durcheinander.

Die Objektive und das Sensorformat sind zwar identisch geblieben, aber in Bezug auf die Auflösung besteht ein himmelweiter Unterschied:
In den alten Kameras ist gebinned worden. Vorteil: deutlich höherer Störabstand, Nachteil: Die Objektivauflösung ist für Foto, mit rd. 80 Lp/mm zwar perfekt gewesen, aber für Video hätten es 20 Lp/mm werden müssen.
War aber nicht, daher OLPF bis zum Abwinken und trotzdem Aliasingeffekte.
- Canon wirbt damit in der neuen 5D Mark III die deutlich sichtbaren Bildprobleme der alten 5D Mark II fast vollständig beseitigt zu haben.
Das mag also durchaus, bezogen auf das Moire, stimmen.
- Canon läßt die alte 5D Mark II im Programm und diese wird auch noch im Preis erheblich gesenkt. Damit muß die wesentlich teurer gewordene neue 5D Mark III deutlich besser sein, denn sonst würde die ja niemand kaufen und Canon sich selbst lächerlich machen und weniger Umsatz mit der 5D Serie wie bisher erzielen.
- Damit sind auch die Bildbeurteilungen zu den Demo´s glaubhaft, daß die bei ähnlichem Filmmaterial im Vergleich vorher gut sichtbaren Bildprobleme der 5D Mark II wohl jetzt weg oder ganz minimal sind.
Dito.
Dafür müssen sie jetzt die gesamte (also ungebinnte) Pixelmenge verarbeiten und das Bild durch Interpolation down-scalen.
Wie sich das rächt, habe ich oben im Detail beschrieben.
Man muß die gesamte Qualitätskette (bzw. die Änderungen daran) bei einer VDSLR im Videomodus betrachten und die sieht grob so aus:
Die habe ich immer im Auge.
Du reitest auf den Objektiven herum und machst Betrachtungen zur H.264 Kompression.
Das war auf Deine 3er-Pixel Theorie bezogen, denn die Codecs können keine nicht quadratischen Arrays verarbeiten. Es muss also eine Umverteilung geben und noch dazu aus 2 Grün Kanälen und zwei R/B Kanälen, weil die Codecs auch keine 4 Kanäle verarbeiten können.
Es gibt keine neuen speziellen Objektive und es bleibt die gleiche H.264 Kompression mit 4:2:0 bei der neuen 5D Mark III.
Das ist keineswegs unlogisch, weil sich die Bildverarbeitung auf den Codec bezieht, bzw. sie so gestaltet sein muss, dass der Codec hinterher das Signal auch verarbeiten kann.
Klar ist doch das ein gerader Teiler weniger Rechenleistung zum herunterskalieren auf 1080p benötigt und sich wohl fast in jeder Situation eine bessere Skalierungsqualität als bei krummen Skalierungsfaktoren ergibt. Das muß ich jetzt wohl nicht erklären.
Ich denke, Du wirst Dich bei den neuen Methoden mal einwenig von der alten Denkweise verabschieden müsse, denn zu vermuten ist, dass es vor dem de-bayering eine Kompression gibt und erst danach de-bayert wird.
Ausserdem gehen die Kameras nicht mehr über RGB sondern im komprimierten Raum gleich nach YCbCr.
Wenn laut deiner Aussage das krumme Verhätnis kaum was ausmachen kann gegenüber dem geraden Teiler und die Verarbeitung sowieso wie auch früher schon gemacht werden muß, dann müßten die Bildfehler ja noch genauso da sein, oder ??? - Sind sie aber wohl nicht !!!
Früher ist gebinnt worden .... heute wird interpoliert.
Das sind nicht nur zwei völlig verschiedenen Verfahren, sie bringen nicht nur unterschiedliche Schwierigkeiten, sondern auch völlig unterschiedliche Ergebnisse mit sich.
Die reine Rechenleistungssteigerung der neuen 5D Mark III bei fast identischer Megapixelauflösung
Eben nicht .... Binniong ist, je nachdem welche Methode angewandt wird, nur ein 6tel bis zu einem 14tel.
Damit kann die Sicht von dir definitiv nicht richtig sein.
Es steht dir frei, das zu falsifizieren.
es ist schon geradezu zwingend das die jetzt nicht mehr vorhandenen Bildfehler mit dem geraden Teiler in Zusammenhang mit einem neuen, eleganten und weniger rechenintensiven geraden-Teiler Algorithmus stehen müssen.
Das ist keineswegs zwingend, sondern eher unwahrscheinlich denn schon früher hätte/hat man durch Weglassen von Pixels eine rechenfreundliche Auflösung benutzt.
Wo steht geschrieben, dass eine Kamera jedes einzelne Pixel (noch dazu eines 3:2 Sensors) nutzen muss ?
Und erst Recht, wenn sich dadurch solche eklatanten Fehler ergeben sollten. Ich denke, die Canon Ingenieure haben das schon früher gewusst und nicht erst jetzt eine Erleuchtung gehabt.
Und diese graden Teiler sind gar nicht so weltbewegend, viel wichtiger ist die Art der Rechenoperation, ob ich also Multiplikationen oder einfache Additionen habe.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Hi WoWu,
wollte ja nicht mehr schreiben aber das muß dann doch sein:

Quelle:
http://www.eoshd.com/content/7361/hands ... d-mark-iii

Zitat:
Canon told me the sensor downscales onboard and outputs a uncompressed video feed directly to DIGIC 5+ which then processes and encodes it.


Also ich korrigiere den letzten Satz meines letzten Posts dahingehend:

Ich liege mit meiner aufgeworfenen Vermutung genau richtig , denn es ist schon zwingend das die jetzt nicht mehr vorhandenen Bildfehler mit dem geraden Teiler in Zusammenhang mit einem neuen, eleganten und weniger rechenintensiven geraden-Teiler Algorithmus stehen müssen und erst danach die Kompression erfolgt.



Damit dürfte klar sein, eine wesentlich andere bzw. bessere VDSLR wird es zumindest von Canon wohl in Zukunft kaum geben können, ich wiederhole nochmal warum:

Die 5760 Pixel Horizontalauflösung bzw. dann 16:9 entsprechneden 3240 Vertikalauflösung ist aber die einzig mögliche und sinnvolle beim Verhältnis möglichst optimaler und gerader Teiler (3) bei Einhaltung der Rauschfreigrenze (> 6µm) und einer akzeptablen Auflösung im DSLR Betrieb (>15 Mpix) bei Full Frame (36x24mm) Chips und ohne Cropping - das sieht man dann schon bei der Nikon F800 sofort im Vergleich.


Gruß


P.S.:
Die Sichtweise von außen auf ein System mit Betrachtungen z.B. zur Qualitätskette, etc. führen einen normalerweise sehr schnell zu einer sinnvollen Betrachtung bzw. Ergebnis.

Dahingegen ist die folgende Herangehensweise von WoWu fast immer falsch:
Argumentation aufgrund einer angelesenen Kenntnis vom Stand der Technik aus. Der Grund ist, das durch fortschreitende Technologie eben Lösungswege entstehen die man durch den bekannten Stand der Technik niemals erklären kann und fast immer falsche Schlüsse zieht - QED.

Keine Bange, ich weiß wovon ich rede, ich arbeite täglich an sehr komplexen Problemstellungen bzw. entwickle neue Technologie, auch wenn es sich dabei im Kern überhaupt nicht um Videotechnik handelt.



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

Das erklärt Vieles.

Dieser Blog ist wasted time und für mich keine Sekunde der Diskussion wert.
Ich habe selten in einem Blog soviel Schwachsinn gelesen, wie in diesem.
Wenn das also dein Quelle ist .... dann lassen wir es einfach da stehen.

Und, um ganz ehrlich zu sein, mir gibt eine wissenschaftliche Ausarbeitung, z.B. der Colombia Universität über Codiermethoden mehr -und verlässlichere Informationen, als ein drittklassiger Blog.
Da unterscheiden sich die Ansprüche ganz bestimmt.

Und vielleicht noch ein Wort zum angelesenen Wissen .... wir verfügen alle nur über angelesenes Wissen und wenn man Karl Popper glauben will, so ist es auch nur Vermutungswissen, über das jeder Mensch verfügt. Oder kennst Du jemand, der als fertiger Wissenschaftler zur Welt gekommen ist oder können die Leute vom Blog durch Handauflegen erfahren, wie ein Sensor arbeitet.
Wenn ja, sollten sie Leiber darüber einen Blog machen und verraten, wie es geht, ohne zu Lesen komplexe physikalische Zusammenhänge zu verstehen.
.
Der Grund ist, das durch fortschreitende Technologie eben Lösungswege entstehen die man durch den bekannten Stand der Technik niemals erklären kann
... und sowas ist ja nun Oberschwachsinn denn Technology fällt ja nicht vom Himmel .... und wenn der Autor es sich nicht erklären kann, dann soll er das sagen, aber nicht darauf schliessen, dass Anderes es ebenso wenig können.
Aber die Aussage entspricht dem Niveau des Blogs ... insofern passt es schon.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Hi WoWu,

eine derart rein polemische Antwort von dir hilft doch keinem Leser hier weiter, denn in der Antwort sind überhaupt keine verwertbaren Fakten zur Sache mehr zu finden.

Um es nochmals kurz zu machen:

1. Nur Canon kann eine Aussage dazu machen wie sie die Bildprobleme der 5D Mark II jetzt in der Mark III beseitigt oder minimiert haben. Weder Sony, noch Panasonic noch eine von dir genannte Quelle zum Stand der Technik, ... und schon gar nicht du WoWu.

2. Meine Vermutung liegen logisch machbare und von mir sinnvoll begründete logische Schritte zugrunde.

3. Du solltest dir wenigstens mal die Mühe machen den ganzen Blog-Eintrag zu lesen. Denn das Zitat entstammt nicht dem Blog-Verfasser sondern ist ohne Marketinggeschrei in einem ganz anderen Zusammenhang von einem offiziellen Canon Techniker/Ingenieur an einem Messestand gesagt und so wörtlich im Blog einfach nur wiedergegeben worden.

4. Da das in einem Nebensatz offiziell von der Canon Techniker/Ingenieur ohne Marketing/Qualitäts "Awesome" Aussage gefallen ist, ist das für mich auch sehr glaubhaft.

Mittlerweile gibt es eine Woche nach meiner Vermutung mehrere Quellen die eine solche 3x3 Matrix mit neuem glatten-Teiler Algorithmus für möglich und sinnvoll halten.

Bei Nikon wurde von EOSHD in den technischen Specs dazu plötzlich ein 1.2er crop entdeckt der rechnerisch nahe der 3x3 Matrix bzw. dem glatten Teiler liegt. Der Cropfaktor den EOSHD in den Nikon D800 Specs gesehen hat ist in Wirklichkeit vielleicht 1.277 (also 5760x3240 im 16:9 Mode) und nur als 1.2 in den Specs abgedruckt, damit würde Nikon exakt das machen was Canon auch macht ...

Und die Leute bei SlashCAM sind dann deiner Meinung nach auch "alles Nachtkappen", die dann auch noch meine 3x3 Matrix Vermutung als Meldung aufgreifen ...
https://www.slashcam.de/news/single/Nik ... -9711.html

Bislang höre ich von dir nur: Alles Blödsinn.

Ein eigener Vorschlag von dir zu Gründen/Ursachen für das Wegfallen der Bildprobleme könnte doch auch nur so sein:
1. Ein neuer Algorithmus
und/oder:
2. Die neue Auflösung
Und damit wäre das doch genau die Grundlage meiner Vermutung!

Sehr seltsam ...


Gruß




O.T.:
Das ich dir jetzt zum dritten mal das mit der Betrachtungsweise bzw. dem angelesenen Stand der Technik erklären muß ist aber wirklich das letzte mal:

Es gibt grob drei Stufen zur Erklärung eines besseren Produktes, die Übergänge zwischen den Stufen sind natürlich fließend:
1. Einfache Detailverbesserungen zum Stand der Technik.
2. Einen Technologiesprung.
3. Eine komplett neue Technologie.

Bei Stufe 1 ist die Betrachtung aufgrund des angelesenen Standes der Technik Ok und führt meist zu einem vernünftigen Ergebnis.
Beispiel: Linsen mit verbesserten optischen Eigenschaften durch jetzt noch feineres Schleifen der Linsen.

Bei Stufe 2 führt die Betrachtung aufgrund des angelesenen Standes der Technik in fast allen Fällen nicht mehr zu einem sinnvollen Ergebnis.
Beispiel: Bis zu einem gewissen Tag gab es Autos nur mit 4-Takt Ottomotor (mit Zündkerze, Zündspule, ...) und einem Vergaser. Wenn nun auf einer Messe ein Auto vorgestellt wird das immer noch einen 4-Takt Ottomotor hat jedoch eine elektronische Direkteinspritzung mit Prozessor und Sensoren am Motor und der Hersteller nur so wirbt: Neues Modell, jetzt 30% weniger Benzinverbrauch und mit besseren Kaltlaufeigenschaften - was dann?
Versuche doch bitte einmal das mit dem angelesenen Stand der Technik über Vergaser zu erklären. Das geht "schön in die Hose" - ohne eine Information des Herstellers über den Technologiesprung im System Motor kann nur der einen Lösungsvorschlag machen, der den bekannten Stand der Technik ignoriert und kreativ nach neuen Lösungsansätzen zur Erklärung sucht!

Bei Stufe 3 wird es dann richtig grauslig.
Beispiel: Die ersten funktionierenden UBoote hatten einen Diesel-Elektrischen Antrieb. Also Überwasser oder knapp unter Wasser mit Schnorchel per Dieselaggregat die Akkus laden und dann auf Feinfahrt mit Elektromotor relativ langsam und nur sehr geringe Strecken getaucht fahren. Irgendwann kam das erste UBoot, ich glaube die USS Nautilus der USA, das konnte komplett unter dem Nordpol durchtauchen, war unter Wasser wie über Wasser jetzt viel schneller. Ich stelle mir einen Bekloppten vor der ausrechnet, das es keine Akkutechnologie für so was geben kann und auch keine Elektromotoren die eine solch Leistung bringen können, etc. ... - und der beschimpft dann in Foren alle die das UBoot aufgrund Kerntechnik für möglich halten als unwissende Spinner und behauptet weiter fest ein solches UBoot kann es nicht geben ...


Das gilt im Übrigen auch für alle wissenschaftlichen Überlegungen. Jeder Naturwissenschaftler/Ingenieur muß schon zur Zeit seines Studiums diese Unterschiede begreifen, anderenfalls kann er nur im weniger qualifizierten Analysebereich (Forschungsassistent, Prüfer, Technologie-Manager, ...) arbeiten aber niemals im wirklichen Forschungsbereich zur Synthese neuer Technologien.
Das Beispiel der Beispiele schlechthin: Das Michelson-Morley Experiment konnte niemals mit dem angelesenen Stand der Technik erklärt werden.
http://de.wikipedia.org/wiki/Michelson- ... Experiment

Da gab es dann einen kleinen Patentbeamten dritter Klasse, der hat fast 20 Jahre nach diesem Experiment die Stufe 3 erkannt, die nötige Kreativität für einen neuen Lösungsansatz besessen und natürlich auch die nötigen intellektuellen Fähigkeiten dazu gehabt.
Aber selbst dem wurde erst nicht gedankt, der Typ wurde sogar ca. zwei Jahre für seinen Lösungsansatz verprügelt und ausgelacht:
http://de.wikipedia.org/wiki/Albert_Einstein


Ich denke wir bewegen uns bei der 5D Mark III im Vergleich zur 5D Mark II wegen der deutlichen Bildverbesserungsversprechen von Canon und ersten Testvideos/Berichten dazu auf der Stufe 2. Damit habe ich vermutet das die Lösung nur in einem Technologiesprung liegen kann und nach dem habe ich gesucht - jedes andere Vorgehen könnte dann nur in wirklich seltenen Sonderfällen erfolgreich sein.


Glaubst du jetzt immer noch solche Betrachtungen zum angelesenen Stand der Technik und den sich daraus ergebenen Problemen sind alles Oberschwachsinn ?

Ich hoffe dazu hast du jetzt keine Nachfragen oder Einwände mehr. Ich antworte dazu jetzt nicht mehr ...



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

War mir zu lang, die ganzen Wiederholungen nochmals zu lesen und vom häufigen Wiederholen werden auch keine Fakten daraus.
Sollten Neuigkeiten im letzten Posting stehen, die Du noch nicht zum wiederholten Mal ausgeführt hast, markier sie einfach, dann kann ich mich darauf konzentrieren.
Aber du wirst schon Recht haben... und bist bei dem EOSHD-Blog schon ganz gut aufgehoben.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



le.sas
Beiträge: 1645

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von le.sas »

Das HDMI Out der Nikon wurde jetzt mal getestet:
http://hdlndies.blogspot.com/2012/03/ni ... vol01.html

Wichtigste Dinge: Kein Ton, dann auch nicht auf Karte, und 1080 i (!)



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

WoWu,
danke für die Antwort mit reiner Polemik und ohne Faktengehalt, damit weiß ich sicher: Du hast es komplett gelesen.


Deine Antwort im ersten Teil kann ich ja noch verstehen:
Wer das nach zweimaligen kurzen Erklärungen auch noch als Oberschwachsinn bezeichnet, dem war es wohl spätestens nach dem Lesen des Beispiels zu Stufe 2 so fürchterlich peinlich, daß er gewünscht hätte es lieber nie gelesen zu haben ...

Dann machst du doch schon wieder die gleichen Fehler, also die richtig Reihenfolge wäre erst lesen - dann denken - dann schreiben gewesen:
Das im EOSHD.com Blog ist eben keine persönliche Meinung irgendeines Bloggers - ganz im Gegenteil: Es sind zitierte Fakten aus technischen Unterlagen der D800 zum Videomodus und damit von Nikon selbst verfasst. Bei den Folgerungen der Blogger bin ich ja auch bei einer zwar ähnlichen aber anderen Vermutung (siehe mein letzter Post).

Und dann sind wir auch gleich bei einem neuen schlimmen logische Fehler:
Wenn jemand schon grundlegend nötige wissenschftlich/technische Betrachtungsweisen nicht beherrscht kann ich beurteilen das er für den anspruchsvolleren Entwicklungs- oder sogar Forschungsbereich völlig ungeeignet ist, aber man kann niemals versuchen jemanden zu beurteilen von dem man selber grundsätzliche Betrachtungsweisen mehrfach erklärt bekommen muß.

Weiterhin merkst du wahrscheinlich auch nicht das die letzten zwei Posts von dir nur eine Aussage über dich selber enthalten:
Wer von der sachlichen Ebene auf die emotionale Ebene (z.B. versuchten Beleidigungen) ausweicht gibt zu dass er entweder intellektuell überfordert ist oder genau weiß dass er keine sachlichen Argumente hat.

Du tust dir auch selber keinen Gefallen mit sowas hier, denn jetzt wir wohl jeder Leser zu dem Schluß kommen:
Deine Limit für glaubhafte Aussagen in dem Forum reicht wohl maximal für die Analyse und dort auch nur für den jedem zugänglichen angelesenen Stand der Technik (äquivalent zu der einfachen Wissensreplikation zur Betrachtung der Stufe 1 Problemstellungen).


Besser lesbar und soweit verstanden WoWu?

Aber wenn du es immer noch nicht verstehen solltest, dann bleibt es auch so, ich sehe es nicht als meine Lebensaufgabe beratungsresistenten Menschen alles mehr als drei mal zu erklären ...


Gruß




P.S.
Ich stelle mir gerade bildlich vor wie du bei der NAB oder IBC am Canon Messestand stehst und der gleiche Canon Ingenieur dir das äquivalent zu dem Zitat von weiter oben hier sagt:
"Beginning with the EOS 5D Mark III we changed our processing. On several reasons we now make sensor downscales onboard and outputs a uncompressed video feed directly to DIGIC 5+ which then processes and encodes it."

Und du gegenüber dem Canon Ingenieur aufgebracht antwotest (in etwa sinngemäß genau wie hier im Forum auf die Aussagen):
"Ich bin der WoWu und habe mir da ein wenig den Stand der Technik angelesen und deswegen ist das doch alles Oberschwachsinn was sie da erzählen - und im Übrigen glauben sie im Ernst eine weltweit führende High-Tech Firma Canon mit ausgewähltesten Spezialisten und gerade einmal ca. 5 Mrd Euro Forschungsetat pro Jahr könnte in mehr als 3 Jahren harter Forschungsarbeit eine neue Technologie entwickeln auf die ich WoWu nicht auch schon längst selbst gekommen wäre ?!!"

Ich glaube dazu bedarf es dann keinem weiteren Kommentar ...



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Ich glaube die recht magere Auflösung in aktuellen Tests der 5D Mark III erklären zu können:

Vorraussetzung:
Ich liege mit meiner weiter oben in meheren Posts beschriebenen/hergeleiteten technischen Beschreibung genau richtig. Das ist nun Fakt.

Canon bestätigt das nun, Zitat:
Bisher gebräuchliche Debayering Algorithmen entfallen. Auch wenn am Ende ein 2K HD Videobild ausgegeben wird, werden vor dem finalen Bildprocessing 4 eigenständige 1920x1080 Bildmuster in einer Pre-Processing Einheit verarbeitet, die vor dem Digic DV III Prozessor sitzt - in gewisser Weise vergleichbar mit einem 3-Chip CCD im Glossar erklärt Prozess, nur das hier kein Prisma für die Farbseparierung genutzt wird.

Link zum kompletten Schaltbild und Text (inkl. dem Zitat):
https://www.slashcam.de/artikel/Test/Ca ... html#4K_Se


Ich korrigiere meine Beschreibung nun mit folgender Vermutung, bei der ich wohl dann auch richtig liegen werde:

Canon könnte ein optimales 3x3 Matrix Binning machen, tut es aber nicht, sondern macht ein 4x4 Matrix Binning.


Warum ??? - Dazu 2 Begründungen:

1. Technisch bzw. Entwicklungskosten:


Bei 3x3 Matrix Binning wären 4 verschiedene und aufwändigere Algorithmen nötig als bei einem 4x4 Matrix Binning.

Man schaue sich die R, G und B Pixel in Zeilen einer 4er Bayermaske auf dem Chip an:

GBGBGBGB...
RGRGRGRG...
GBGBGBGB...
RGRGRGRG...
GBGBGBGB...
RGRGRGRG...
.
.
.

und man sieht sofort: Eine 4x4 Matrix ist immer ein gleiches und ausgewogenes Verhältnis von R, G, und B Pixeln, während bei einer 3x3 Matrix genau 4 Muster entstehen.


Wenn man das 4x4 Binning ausrechnet kommt eine Maximalauflösung von 1440 horizontal (Chipauflösung 5760/4) und 810 vertikal (Chipauflösung in 16:9 - 3240/4) heraus. Und damit die in Tests optisch ermittelten maximalen ca. 800 Linien (wohl exakt 810).

Damit vermute ich Canon macht eine 2x2 Matrix Farbwertbestimmung wie bei der C300 (siehe Link oben) und wendet diese 4 mal an und mittelt den Wert über diese 4 Subpixel um aus der 4x4 Matrix einen Bildpunkt zu generieren und skaliert dann auf 1080p hoch. So hätte Canon nur eine Technologie in einem Vorverarbeitungschip zu entwickeln und kann diese Technologie mehrfach verwenden (spart enorm Geld).


2. Marketing (wohl der Hauptgrund):

Canon könnte ein 3x3 Binning machen, dann wäre wohl die Bildqualität gleich der C300 - aber die würden dann eine 3298.- Euro Video-DSLR anbieten mit der gleichen Bildqualität und auch gleichen Optiken wie ihr 15470.- Euro C300 Camcorder aus eigenem Hause !!!
Momentan werden ja sogar Werbespots, etc. ... schon mit der 5D Mark II trotz der bekannten Bildprobleme gedreht. Blöd sind die nicht, die wären ja von allen guten Geistern verlassen ...


Gruß



Angry_C
Beiträge: 3297

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Angry_C »

Eine Menge Stoff hier, aber ich frage mich, wenn es tatsächlich nur an der mangelnden Rechenleistung, bzw. der Kühlung liegt, dass Canon es technisch nicht hin bekommt, ihr Bild höher aufzulösen, warum kriegen sie es im APS-C Bereich denn zumindest nicht besser hin?

Der Sensor der Gh2 ist nicht viel kleiner, und was Panasonic daraus macht, weiss mittlerweile jeder hier.



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

Hi Angry_C,
es liegt wohl weder an der Rechenleistung noch an der Kühlung, etc. ...

Canon könnten sicherlich schon - die haben schlicht und einfach keine Lust bzw. kein Interesse eine höhere Auflösung aus der 5D Mark III herauszuholen. Wohl hauptsächlich wegen der Produktabgrenzung im Marketing und zweitrangig wegen der Kosten.

Lies meinen letzten Post nochmal genau durch, das sollte eigentlich verständlich so da stehen.

Gruß


P.S.
Das machen doch Sony, Panasonic, ... genauso. So hat zum Beispiel die EX1 oder F3 doch nur deshalb den "nicht Broadcast freigegeben" 35 MBit 4:2:0 Codec weil Sony keine Lust hat billige Konkurrenz zu ihren eigenen teuren "Broadcast freigegeben" PDW, etc. ... Kameras mit 50 MBit 4:2:2 aufzubauen.



CineMika
Beiträge: 155

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von CineMika »

Respekt "mediavideo". Das macht in jeder Hinsicht Sinn, glaube du liegst ziemlich richtig!



Angry_C
Beiträge: 3297

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Angry_C »

mediavideo hat geschrieben:Hi Angry_C,
es liegt wohl weder an der Rechenleistung noch an der Kühlung, etc. ...

Canon könnten sicherlich schon - die haben schlicht und einfach keine Lust bzw. kein Interesse eine höhere Auflösung aus der 5D Mark III herauszuholen. Wohl hauptsächlich wegen der Produktabgrenzung im Marketing und zweitrangig wegen der Kosten.

Lies meinen letzten Post nochmal genau durch, das sollte eigentlich verständlich so da stehen.
Ja sorry, jetzt verstehe ich das zwischen den Zeilen und denke darüber genau so.



joe11
Beiträge: 158

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von joe11 »

WoWu hat geschrieben: Canon hat kein Skipping gemacht sondern immer gebinnt.
Das ist lächerlich. Wenn man schon das Gegenteil der vorherrschenden Meinung vertritt, sollte man einen Beweis, Hinweis, Link ö.ä. vorlegen. Den Beweis kannst du nicht liefern, weil ...

1. S/N-Ratio ist schlechter als bei Fotos
2. Aliasing an waagerechten Kanten, aber an keiner Vertikalen
3. dünne, in etwa waagerechte Linien werden gestrichelt dargestellt, da teilweise für die Kamera unsichtbar
4. Linien sind abwechselnd rot und blau, da jede 3. Zeile oder jede 5. Zeile ausgelesen wird (1080p vs. 720p-Modus)
5. Line Skipping ist die naheliegenste Methode, die Bandbreite ohne Windowing zu verringern

...es ist eindeutig Line Skipping.

Das Aussehen des Artefakts ist hinlänglich bekannt, weil es auch bei falscher Verarbeitung von Interlaced Material auftritt.

WoWu hat geschrieben:Dafür müssen sie jetzt die gesamte (also ungebinnte) Pixelmenge verarbeiten und das Bild durch Interpolation down-scalen.
*mich-auf-dem-Teppich-krümme*



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

@joe11


....zu früh gekrümmt ....

Die Information dass Canon nicht skipped sondern binned, stammt von Canon selbst.
Tim Smith (Manager Professional Video Products, Canon US) hat dies in seinem Vortrag vor der "digitalmediasociaty" im Juli 2009, ausdrücklich in der Absicht erklärt, die Skipping-Gerüchte, die in Netzwerkforen herum schwirrten, auszuräumen. Denn schon damals wurde dieser Quatsch kolportiert.
Sicher lässt sich der Vortrag auf der Internetseite der dms noch irgendwo ausgraben. ich hatte hier auch mal den Link gesetzt.
Danach binned die Canon nach der Pentax 6x6 Methode.

Darüber hinaus empfehle ich, sich einmal mit den auftretenden Artefakten bei Binning, speziell im Hinblick auf die unterschiedlichen Grün-Pattern Bildung, zu beschäftigen.
Spätestens dann wird klar, dass die beobachteten Artefakte reine Binning Artefakte sind und nichts mit Skipping zu tun haben.
Darüber hinaus erreicht man eine S/N Ratio zwischen 4 und 7:1 nicht mit Weglassen von Pixels.

Also, etwas mehr Kenntnis vom Pixelbinning, die Information von Canon und einwenig weniger Raten hätte das letzte Posting erübrigt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



joe11
Beiträge: 158

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von joe11 »

Das Gefasel von Manager Soundso ist irrelevant.

Wenn ich etwas am Computer simulieren kann und es stimmt mit der Realität überein, dann habe ich diesen Teil der Realität verstanden.

siehe Anhang...
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



WoWu
Beiträge: 14819

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von WoWu »

Tja, dann weiss Canon wohl über seine Produkte nicht bescheid.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Valentino
Beiträge: 4821

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von Valentino »

Was soll den hier dieses WoWu Bashing?
Er nennt hier Quellen und Person, die bei Canon arbeiten und stütz sich auf deren Aussage.
Der Rest erzählt fast nur wirres Zeug, das weder Hand noch Fuß hat.



mediavideo
Beiträge: 212

Re: Neuer VideoCodec der Canon und Nikon VDSLR Kameras Was wird er bringen

Beitrag von mediavideo »

@Valentino
Bisher habe ich von Dir immer sachliche Sachen und noch keinen Unfug gelesen. Das ist aber jetzt kompletter Unfug von Dir.

Du hast Dir nicht mal die Mühe gemacht alles durchzusehen um zu sehen um was es geht.

Die letzten zwei Sachen sind nicht der Punkt. Weiter oben redet WoWu komplett wirres Zeug und tut so als ob er es besser wie Canon wüßte (siehe z.B. seine Bemerkung zum Zitat vom Canon Messestand).

LIES ES BITTE ERST MAL KOMPLETT VON OBEN DURCH!

Ich hatte einfach nur am Anfang darauf hingewiesen, dass es eine Möglichkeit ohne Debayering/Demosaicen gibt, die Canon verwenden könnte.

Canon hat mittlerweile meine Vermutungen bestätigt und WoWu hat, nachdem er bemerken musste was er für einen Blödsinn redet nur noch polemisch durch Beleidigungen (z.B. Oberschwachsinn) und versuchte Beleidigungen reagiert.

Sturkopf ist hier eine korrekt sachliche Beschreibung für WoWu und eben keine Beleidigung. Und Sturkopf ist noch untertrieben, denn das war an intellektueller Peinlichkeit kaum zu überbieten ... - dem mußte ich erklären wie man ein Qualitätskette logisch benutzt, wie man korrekt wissenschaftlich herangeht, warum RGB Verarbeitung möglich ist ...

Und selbst Dummschwätzer ist laut BVG nicht mal zwingend eine Beleidigung und Schmähkritik muß man sowieso aushalten solange sie sachlich begründet ist!



 Aktuelle Beiträge [alle Foren]
 
» FCPX/Motion, DaVinci/Fusion... Tipps&Tricks
von roki100 - Do 22:27
» Was schaust Du gerade?
von klusterdegenerierung - Do 22:16
» Sondergagen - Wer aufmuckt, wird nicht mehr besetzt
von iasi - Do 22:13
» Panasonic AG-UX90 Phantomspeisung defekt?
von Fabi283 - Do 22:03
» Mac SSD Speed Messung?
von TomStg - Do 21:43
» Interessante Firmware-Updates für Sony Alpha 1, 7S III und 7 IV
von gammanagel - Do 21:28
» Neues SIGMA 50mm F1,2 DG DN | Art Objektiv wiegt 745g
von dienstag_01 - Do 21:21
» Deity Sidius TC Sync Software
von pillepalle - Do 19:58
» Nikon stellt NIKKOR Z 28-400mm f/4-8 VR Superzoom-Objektiv vor
von Jan - Do 19:16
» Red Komodo 6K + Gimbal, Advanced Ring Grip und viel Zubehör
von Sevenz - Do 19:01
» >Der LED Licht Thread<
von freezer - Do 18:53
» Camera Update 8.6: Viele neue Funktionen für Blackmagic Kameras
von slashCAM - Do 17:42
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von Swat - Do 16:06
» 4 Gründe hartes Licht zu nutzen
von ruessel - Do 15:45
» [gelöst] 3.5mm Klinkenstecker Überwurfmutter
von Skeptiker - Do 14:42
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von Darth Schneider - Do 13:49
» -SONY FX- Erfahrungsaustausch
von rush - Do 13:40
» AOC bringt 44.5" OLED-Riesenmonitor mit 98.5% DCI-P3
von MK - Do 12:07
» Adobe führt die neue Funktion "Structure Reference" in Firefly ein
von slashCAM - Do 10:54
» Exhuma - die Südkoreaner können erfolgreiche Filme drehen
von -paleface- - Do 8:46
» Was hörst Du gerade?
von roki100 - Do 0:22
» Sony A9 III im Praxistest - ein echter Überraschungscoup auch für Filmer
von Mantas - Mi 23:27
» Video Pro X stürzt beim Multi Cam Schnitt ab
von MisterX - Mi 21:47
» Uwe Boll: Wie man Filme produziert ohne pleite zu gehen!
von iasi - Mi 19:53
» Nach 7 Jahren mit der OG BMPCC finde ich das Bild noch immer schön.
von Darth Schneider - Mi 18:58
» Verschachtelte Timeline im richtigen Seitenformat
von Clemens Schiesko - Mi 18:43
» Untertitel in FCPX bei vorhandener Textdatei?
von R S K - Mi 18:34
» Deckenlicht mobil abschatten
von Frank Glencairn - Mi 17:31
» LUTs für Canon R6 Mark II
von TomStg - Mi 12:24
» RED versucht User nach Übernahme durch Nikon zu beruhigen
von dienstag_01 - Mi 11:52
» Entfesseltes Storytelling mit der Video-KI Sora?
von Frank Glencairn - Mi 5:54
» Slashcam 2001 - Das Internet vergisst nichts!
von macaw - Di 21:37
» Dehancer Pro - Filmsimulation auf höchstem Niveau
von Frank Glencairn - Di 18:54
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von iasi - Di 13:32
» 3 Body Problem - so verfilmt man heute Bücher
von stip - Di 8:30