Also Moire und Rolling Shutter sind Fehler, die nicht auf den Codec sondern auf Sensor / Signalverarbeitung zurückzuführen sind.B.DeKid hat geschrieben:
- Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
Desweiteren schrieb SyndiKat viewtopic.php?p=551467#551467 was in diesem Thread eher hin passt ( vielleicht kopierst du das einfach hier noch rein, geht sonst vielleicht unter ? )Syndikat hat geschrieben:Also Moire und Rolling Shutter sind Fehler, die nicht auf den Codec sondern auf Sensor / Signalverarbeitung zurückzuführen sind.B.DeKid hat geschrieben:
- Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
In den Kameras kann mehr Rechenpower dem Processing gewidmet werden, was angesichts des Interpolationsaufkommens auch gar nicht anders geht.Was für Vorteile bringt es gegenüber des alten Codec
Im höheren Datenmanagement, inclusive einer möglichen Fehlerkorrektur. Je höher die Datenrate an dieser Stelle ist, umso schwieriger wird es für den Kartenprozessor und weil es nicht, wie bei IT ist, dass Daten gespeichert und neu geladen werden können, muss das Datenmangegment entsprechende Tool bereit halten, um einen Bildausfall zu verhindern.Wo liegen die Schwächen
Tja, wie man eben TC nutzt ... denk nur mal an die vielen Probleme, mit Asynchronitäten (Ton/Bild) oder Multikamerafunktionen (die in den NLEs zwar vorkommen, aber alles andere als synchron sind.Was hat es mit der Funktion TimeCode nun auf sich in den neuen Canon Modellen , wie kann man Sie nutzen
Selbe Effekt: Absolut kein Encoding bringt mehr Rechenpower für das Bildprocessing.Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs
Man kann sagen, je mehr Pixels der Sensor hat, umso schwieriger wird die Qualität (im Video Bereich). Dafür gibt es auch mehre Gründe.Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit
Auch hier wieder: Der Datendurchsatz ist kein Qualitätsmerkmal, oft sogar kontraproduktiv. (Siehe oben)Welche Datendurchsatzraten werden wir erwarten können und wie wirken sich diese auf die Qualität der Videos aus
Wie ich schon gesagt habe. In der zweiten Generation DSLR weicht man von den bisherigen Abtastmodellen ab und führt die Interpolation ein, muss aber gleichzeitig die Anzahl der Berechnungen drastisch reduzieren. Normal waren r. 1200-1600 Rechenprozesse pro Pixel und durch die veränderten Abtastverfahren um etwa 30-70% herabgesetzt werden. Besonders spart man an den Multiplikationen zugunsten einfacher Additionen.Wie wird das Bild nun runter gerechnet auf Full HD (1920x1080) und was für auswirkungen haben die verschiedenen MPx Auflösungen auf diese Verfahren
Wie oben schon stand ... der Codec hat keinen Einfluss auf diese Parameter.Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
Also verstehe ich das richtig, dass die Verwendung von Intra-Frames nicht direkt die Bildqualität verbessert sondern nur indirekt, indem es mehr Rechenkapazität für das Pixel-Binning übrig lässt???1) Man darf nicht auf den Codec stieren, wie das Kaninchen auf die Schlang.
Der Codec generiert eigentlich nur sehr wenige Artefakte, und auch nur in stressigen Situationen.
Sehr viel wichtiger ist das Bildprocessing.
Aber bleiben wir noch beim Codec. Panasonic hat mit dem AVC-I einen Intra Codec angewandt (sie haben ihn ja nicht erfunden), um der (damals) geringen Rechnerleistung zu begegnen. Die Zeit ist aber vorbei. Im AVCU planen sie wieder GoPs ein, weil die Rechner mittlerweile damit umgehen können.
Es gibt noch einen andern Grund, speziell für DSLR Kameras, kurze GoPs bzw. Intra Frames einzuführen: Auch die Rechenpower, weil mehr davon in den kleinen Gehäusen auch zu mehr Wärme führt. Also ist es ein Trade off zu wählen: Kleine GoPs oder Intra, dafür die Power für das Processing zu haben, oder lange GoPs und ein schwaches Processing. Vernünftig, sich hier für die kurzen GoPs zu entscheiden, noch dazu weil B-Frames nach dem 4.Bild ohnehin an Effizienz verlieren, bis dahin aber fast gleichwertig mit I-Frames sind.
In MPEG4 können B-Frames, anders als in MPEG2, sogar die Funktionen von I-Frames haben. (Nicht aber die, von IDRs) denn in MPEG4 haben I-Frames zwar dieselben Bezeichnungen, wie in MPEG2, in Wirklichkeit aber kommt nur ein IDR einem MPEG2 I-Frame gleich.
Man darf sich von der Namensähnlichkeit nicht blenden lassen.
Zitat:
Was für Vorteile bringt es gegenüber des alten Codec
In den Kameras kann mehr Rechenpower dem Processing gewidmet werden, was angesichts des Interpolationsaufkommens auch gar nicht anders geht.
Zitat:
Wo liegen die Schwächen
Im höheren Datenmanagement, inclusive einer möglichen Fehlerkorrektur. Je höher die Datenrate an dieser Stelle ist, umso schwieriger wird es für den Kartenprozessor und weil es nicht, wie bei IT ist, dass Daten gespeichert und neu geladen werden können, muss das Datenmangegment entsprechende Tool bereit halten, um einen Bildausfall zu verhindern.
Diese Prozesse sind absolut nicht mit IT Prozessen zu vergleichen.
Wenn du sagst: ,,Selber Effekt'' bedeutet das, dass der interne Canon-Codec somit gleichwertig im Vergleich zu dem Signal was aus dem ,,sauberen HDMI-Signal'' kommt ist?Zitat:
Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs
Selbe Effekt: Absolut kein Encoding bringt mehr Rechenpower für das Bildprocessing.
Bei den grossen Sensoren wird ohnehin ein Kompromiss eingegangen, weil sie anders Ausgelesen werden und (im Encodingfall) nicht mehr über RGB gegangen wird und die Reduktion bereits vor dem De-Bayering stattfindet.
Insofern haben die Firmen da schon die Reissleine gezogen und versuchen durch diesen Schritt (kein Encoding, dafür bessere Auslesung) wieder Luft zu bekommen.
Es gehören noch ein paar andere Schritte dazu, die hier zuweit führen würden.
Das würde also bedeuten, dass die Nikon D800 (mit 36MP) mit ihrem HDMI-Out Signal dem internen Codec der Canon 5D Mark III (22MP) unterlegen ist?Zitat:
Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit
Man kann sagen, je mehr Pixels der Sensor hat, umso schwieriger wird die Qualität (im Video Bereich). Dafür gibt es auch mehre Gründe.
Also wenn ich als technisch ungebildeter Mensch das richtig verstehe:Zitat:
Wie wird das Bild nun runter gerechnet auf Full HD (1920x1080) und was für auswirkungen haben die verschiedenen MPx Auflösungen auf diese Verfahren
Wie ich schon gesagt habe. In der zweiten Generation DSLR weicht man von den bisherigen Abtastmodellen ab und führt die Interpolation ein, muss aber gleichzeitig die Anzahl der Berechnungen drastisch reduzieren. Normal waren r. 1200-1600 Rechenprozesse pro Pixel und durch die veränderten Abtastverfahren um etwa 30-70% herabgesetzt werden. Besonders spart man an den Multiplikationen zugunsten einfacher Additionen.
Du siehst, die Hersteller "ringen" mit der Rechenpower, bei den grossen Sensoren.
Dann lass mich die Frage anders stellen: Führt das neue Ausleseverfahren des Sensors (Interpolation) zu weniger Aliasing/Moiré ?. Welche zusätzlichen Vorteile hat die Interpolation gegenüber dem Line-Skipping? Werden wir jetzt erstmals echte 1920 x 1080 Auflösung bekommen?Zitat:
Wird es durch die Codecs nun weniger Bildfehler Aliasing Moire und Rolling Shutter geben
Wie oben schon stand ... der Codec hat keinen Einfluss auf diese Parameter.
Von daher war es also ein guter Schritt von Canon und Nikon dieses Feture nicht zu implementieren, da die aktuellen Prozessoren dafür (1080 50/60fps mit gleich guter Bildqualität wie bei 24/25/30) nicht leistungstark genug sind bzw durch nicht ausreichende Kühlung limitiert sind. ?Aber eins noch .... Thema: 1080p50 .
Das Format bedeutet eine Verdopplung der Clock auf 148,5 MHz und doppelte Anzahl an Makroblöcken (in derselben Zeit).
Solange sich nicht die Rechenpower (oder Kühlung) ändert, wird es das nicht geben, es sei denn, man hat überschaubare Sensorgrössen und ein entsprechend einfaches Bildprocessing. (Oder eben PP lässt in dem Fall alles weg, was zu einem anständigen Bild gehört).
WoWu hat geschrieben:1) Man darf nicht auf den Codec stieren, wie das Kaninchen auf die Schlang.
Der Codec generiert eigentlich nur sehr wenige Artefakte, und auch nur in stressigen Situationen.
Sehr viel wichtiger ist das Bildprocessing.
Das stimmt zwar in einem ersten Schritt. Doch wie ist dann der Alternativ-Codec Interframe IPB zu beurteilen?WoWu hat geschrieben:In den Kameras kann mehr Rechenpower dem Processing gewidmet werden, was angesichts des Interpolationsaufkommens auch gar nicht anders geht.Was für Vorteile bringt es gegenüber des alten Codec
Wo liegen die Schwächen
Der erste Teil ist ja o weit ok, aber der letzte erschließt sich mir gar nicht. Was haben hier IT-Prozesse in der Argumentation verloren?? Sorry, aber man könnte denken, Du stehst hauptberuflich an der Käsetheke. ;-)WoWu hat geschrieben:Im höheren Datenmanagement, inclusive einer möglichen Fehlerkorrektur. Je höher die Datenrate an dieser Stelle ist, umso schwieriger wird es für den Kartenprozessor und weil es nicht, wie bei IT ist, dass Daten gespeichert und neu geladen werden können, muss das Datenmangegment entsprechende Tool bereit halten, um einen Bildausfall zu verhindern. Diese Prozesse sind absolut nicht mit IT Prozessen zu vergleichen.
Was bringt das uncompressed HDMI Singnal der neuen Nikon Modelle vs. des neuen Canon Video Codecs
Sorry, aber das ist nicht zu Ende gedacht. So kommt Ihr nie nach Hollywood oder auf die Berlinale...;-)WoWu hat geschrieben:Selbe Effekt: Absolut kein Encoding bringt mehr Rechenpower für das Bildprocessing.
Den Satz sag mal einem Entwickler, der am Kern des Prozessing arbeitet...WoWu hat geschrieben:Bei den grossen Sensoren wird ohnehin ein Kompromiss eingegangen, weil sie anders Ausgelesen werden und (im Encodingfall) nicht mehr über RGB gegangen wird und die Reduktion bereits vor dem De-Bayering stattfindet.
...WoWu hat geschrieben:Es gehören noch ein paar andere Schritte dazu, die hier zuweit führen würden.
Wie sind nun die Codecs aufgebaut bzw was erhalten wir ( 4:2:2 8Bit oder weiterhin 4:2:0 8Bit
Leute, lasst Euch diesen Satz mal auf der Zunge zergehen. Der hat gleich mehrere Höhepunkte. hihiWoWu hat geschrieben:Man kann sagen, je mehr Pixels der Sensor hat, umso schwieriger wird die Qualität (im Video Bereich).
WoWu hat geschrieben:Dafür gibt es auch mehre Gründe.
Ja darauf habe ich schon lange gewartet! The boss is back und hat nix zu sagen, aber dafür im http://de.wikipedia.org/wiki/Pluralis_MajestatisRoland Cameron hat geschrieben:Viele von Euch haben sicher auf meine Statements gewartet. Jetzt bin ich bereit...
Derzeit können wir nicht viel sagen.
Das verstehst Du (fast) richtig.Also verstehe ich das richtig, dass die Verwendung von Intra-Frames nicht direkt die Bildqualität verbessert sondern nur indirekt, indem es mehr Rechenkapazität für das Pixel-Binning übrig lässt???
Sagen wir es anders ... die Bildqualität würde durch die verteilte Rechenpower in Processing und Kodierung schlechter, wenn eine Bewegungsprädiktion (GoP) geleistet werden müsste denn so steht die Rechenleistung der Bildverarbeitung zur Verfügung.Bedeutet das zwingend das dadurch die Bildqualität besser werden muss??? Meintest du ... nicht in deinen Erklärungen, dass Intraframes deutlich ineffizienter sind?
Es kommt jetzt immer darauf an, was auf der Schnittstelle übertragen wird denn als Monitorschnittstelle werden die Halbbilder (auch bei segmented Frames) so verteilt, dass die TV Geräte zur Bildverdopplung damit umgehen können.effizienter sind?
2.) Welche Nachteile hat die Aufnahme über den unkomprimierten HDMI-Ausgang der Nikon im Vergleich zum internen Canon-Codec???
Ist das was da rauskommt wirklich ,,unkomprimiert''???
Das setzt aber eben voraus dass es nicht "nur unkomprimiert" ist, denn eine HDMI überträgt niemals komprimierte Formate, sondern dass die Bilderzeugung auch deutlich besser in der Kamera vorgenommen wird.Auf den ersten Blick scheint es ja nur Vorteile zu geben:
-Möglichkeit der Verwendung von hochwertigen Codecs (ProRes,etc.)
-4:2:2 (auch 10bit statt 8 bit?).
(-Die Kamera muss nichts mehr berechnen also keine Überhitzungsprobleme???)
Die gröbste Fehlerquelle in Bezug auf Aliasingartefakte ist nach wie vor das Missverhältnis zwischen Objektivauflösung und Sensorauflösung und erst in zweiter Linie in "krummen" Sensorauflösungen zu suchen. Der Sensor generiert ohnehin durch das Missverhältnis der Färb-Unterabtastung in gewissem Umfang Farbmoire. Und auch im Interpolationsverfahren entstehen, je nach Menge der Koeffizienten, Aliasing Effekte. Insofern optimiert der Hersteller ohnehin und unabhängig davon, ob der Sensor nun ein gerades oder ungerades Verhältnis ausweist, nutzten die Hersteller schon immer nur die Menge an Pixels, die für die Rechenprozesse optimal waren.Die neu 5D MarkIII hat nicht zufällig diese 22,1 MPixel Auflösung, denn damit reduziert man beim Binning die Bildfehler auf ein Minimum.
Canon hat kein Skipping gemacht sondern immer gebinnt. Nur so war das enorme S/N Ratio von fast 7:1 zu erreichen.Binning mit weglassen von Zeilen, Auslesen von weniger Zeilen ...
Das stimmt leider, aber mit ein paar Sätzen lassen sich komplexe Zusammenhänge nicht immer zufriedenstellend beantworten.Wowu, Du lässt hier ziemlich viel offen
Wie ich schon gesagt habe. In der zweiten Generation DSLR weicht man von den bisherigen Abtastmodellen ab und führt die Interpolation ein, muss aber gleichzeitig die Anzahl der Berechnungen drastisch reduzieren. Normal waren r. 1200-1600 Rechenprozesse pro Pixel und durch die veränderten Abtastverfahren um etwa 30-70% herabgesetzt werden. Besonders spart man an den Multiplikationen zugunsten einfacher Additionen.
Du siehst, die Hersteller "ringen" mit der Rechenpower, bei den grossen Sensoren.
Dazu hatte ich bereits geschrieben:mediavideo hat geschrieben:Ich bin mir sicher das ist kein Zufall mit der Auflösung und vermute zur Einsparung von Rechenleistung für 1080p Video folgendes, was dir bis jetzt noch nicht aufgefallen ist:
Wohlmöglich machen die einen recht cleveren Schachzug und nehmen einfach eine 3x3 Matrix mit 3R, 3G, 3B Punkten und machen da gar kein großes Demosaicing, etc. ... mehr, sondern addieren die drei R Werte und teilen einfach durch drei, das Gleiche für die G und B Werte und sagen dann das ist unsere Interpolation für einen Bildpunkt in RGB für 1080p - fertig und der Bildpunkt passt auch genau auf einen in 1080p. Ist unkonventionell, aber erspart enorm Rechenleistung gegenüber z.B. Demosaicing jedes der 9 Pixel und dann einer neuen 1080p Bildpunktberechung.
Einfaches Aufaddieren der Teilwerte und t(n) teilen ist ja interpolieren. Hallo??Roland Cameron hat geschrieben:Sollte hier im Verhältnis 9:1 gebinnt werden, dann muss interpoliert werden.
Bedeutet das dann wieder Line Skipping? Die Kamera ändert doch nicht das Grundprinzip des Bild Processing je nach ausgewähltem Codec. Das ist doch so nicht logisch.Roland Cameron hat geschrieben:Dafür braucht man Rechenpower die man [bei Intraframe] nun hätte. Doch was passiert dann beim Interframe IPB (Hier würde die Power durch das komplexere Encodierungs-Verfahren ja wiederum nicht zur Verfügung stehen..., ne?).
Das mag also durchaus, bezogen auf das Moire, stimmen.- Canon wirbt damit in der neuen 5D Mark III die deutlich sichtbaren Bildprobleme der alten 5D Mark II fast vollständig beseitigt zu haben.
Dito.- Canon läßt die alte 5D Mark II im Programm und diese wird auch noch im Preis erheblich gesenkt. Damit muß die wesentlich teurer gewordene neue 5D Mark III deutlich besser sein, denn sonst würde die ja niemand kaufen und Canon sich selbst lächerlich machen und weniger Umsatz mit der 5D Serie wie bisher erzielen.
- Damit sind auch die Bildbeurteilungen zu den Demo´s glaubhaft, daß die bei ähnlichem Filmmaterial im Vergleich vorher gut sichtbaren Bildprobleme der 5D Mark II wohl jetzt weg oder ganz minimal sind.
Die habe ich immer im Auge.Man muß die gesamte Qualitätskette (bzw. die Änderungen daran) bei einer VDSLR im Videomodus betrachten und die sieht grob so aus:
Das war auf Deine 3er-Pixel Theorie bezogen, denn die Codecs können keine nicht quadratischen Arrays verarbeiten. Es muss also eine Umverteilung geben und noch dazu aus 2 Grün Kanälen und zwei R/B Kanälen, weil die Codecs auch keine 4 Kanäle verarbeiten können.Du reitest auf den Objektiven herum und machst Betrachtungen zur H.264 Kompression.
Das ist keineswegs unlogisch, weil sich die Bildverarbeitung auf den Codec bezieht, bzw. sie so gestaltet sein muss, dass der Codec hinterher das Signal auch verarbeiten kann.Es gibt keine neuen speziellen Objektive und es bleibt die gleiche H.264 Kompression mit 4:2:0 bei der neuen 5D Mark III.
Ich denke, Du wirst Dich bei den neuen Methoden mal einwenig von der alten Denkweise verabschieden müsse, denn zu vermuten ist, dass es vor dem de-bayering eine Kompression gibt und erst danach de-bayert wird.Klar ist doch das ein gerader Teiler weniger Rechenleistung zum herunterskalieren auf 1080p benötigt und sich wohl fast in jeder Situation eine bessere Skalierungsqualität als bei krummen Skalierungsfaktoren ergibt. Das muß ich jetzt wohl nicht erklären.
Früher ist gebinnt worden .... heute wird interpoliert.Wenn laut deiner Aussage das krumme Verhätnis kaum was ausmachen kann gegenüber dem geraden Teiler und die Verarbeitung sowieso wie auch früher schon gemacht werden muß, dann müßten die Bildfehler ja noch genauso da sein, oder ??? - Sind sie aber wohl nicht !!!
Eben nicht .... Binniong ist, je nachdem welche Methode angewandt wird, nur ein 6tel bis zu einem 14tel.Die reine Rechenleistungssteigerung der neuen 5D Mark III bei fast identischer Megapixelauflösung
Es steht dir frei, das zu falsifizieren.Damit kann die Sicht von dir definitiv nicht richtig sein.
Das ist keineswegs zwingend, sondern eher unwahrscheinlich denn schon früher hätte/hat man durch Weglassen von Pixels eine rechenfreundliche Auflösung benutzt.es ist schon geradezu zwingend das die jetzt nicht mehr vorhandenen Bildfehler mit dem geraden Teiler in Zusammenhang mit einem neuen, eleganten und weniger rechenintensiven geraden-Teiler Algorithmus stehen müssen.
Das erklärt Vieles.
... und sowas ist ja nun Oberschwachsinn denn Technology fällt ja nicht vom Himmel .... und wenn der Autor es sich nicht erklären kann, dann soll er das sagen, aber nicht darauf schliessen, dass Anderes es ebenso wenig können.Der Grund ist, das durch fortschreitende Technologie eben Lösungswege entstehen die man durch den bekannten Stand der Technik niemals erklären kann
Ja sorry, jetzt verstehe ich das zwischen den Zeilen und denke darüber genau so.mediavideo hat geschrieben:Hi Angry_C,
es liegt wohl weder an der Rechenleistung noch an der Kühlung, etc. ...
Canon könnten sicherlich schon - die haben schlicht und einfach keine Lust bzw. kein Interesse eine höhere Auflösung aus der 5D Mark III herauszuholen. Wohl hauptsächlich wegen der Produktabgrenzung im Marketing und zweitrangig wegen der Kosten.
Lies meinen letzten Post nochmal genau durch, das sollte eigentlich verständlich so da stehen.
Das ist lächerlich. Wenn man schon das Gegenteil der vorherrschenden Meinung vertritt, sollte man einen Beweis, Hinweis, Link ö.ä. vorlegen. Den Beweis kannst du nicht liefern, weil ...WoWu hat geschrieben: Canon hat kein Skipping gemacht sondern immer gebinnt.
*mich-auf-dem-Teppich-krümme*WoWu hat geschrieben:Dafür müssen sie jetzt die gesamte (also ungebinnte) Pixelmenge verarbeiten und das Bild durch Interpolation down-scalen.