@ Thunderblade
Also verstehe ich das richtig, dass die Verwendung von Intra-Frames nicht direkt die Bildqualität verbessert sondern nur indirekt, indem es mehr Rechenkapazität für das Pixel-Binning übrig lässt???
Das verstehst Du (fast) richtig.
Wenn man die Bilderzeugung mal in 2 grobe Prozesse aufteilt, sind es das Auslesen des Chips mit dem De-Bayering und den bildverändernden Massnahmen (z.B. Downscaling) und das Encoding, wobei die Bewegungsprädiktion rd. 60% dabei ausmachen.
Beides zusammen ergibt 100% Rechenleistung und der komplette Satz muss in 40ms abgeschlossen sein, weil das nächste Bild nicht wartet.
(Das genau ist der Unterschied zur IT-Datenverarbeitung, wo Daten gespeichert und neu abgerufen werden können).
Also, in 40 ms müssen 20 Millionen Pixel, mit je etwa 1600 Rechenschritten durchgeführt werden.
Bei Camcordern waren das noch 4,6, oder 8 Millionen.
Je mehr Pixel zur Bearbeitung anfallen, umso geringer ist die Zeit pro Pixel.
Zur Lösung stehen zwei Möglichkeiten ... entweder man reduziert die Pixelmengen bei der Auslesung (z.B. eine Vollauflösung nur alle 4 Bilder und den Rest in reduzierter Auflösung oder direkt nach YCbCr (unter Umgehung von RGB, oder reduzierte Farbtiefe usw.)
Dann hat man die Zeit für ein Encoding.
Die andere Möglichkeit ist, das Encoding entweder zu "verschlanken", also mit wenig Bewegungsschätzung zu arbeiten und die Daten möglichst schnell durchzureichen.
Dann hat man auch mehr Zeit für das Bildprozessing.
Aber, wie gesagt, die Bilder werden ja nicht besser, man fängt nur die höhere Pixelzahl damit ab.
Oder man lässt das Encoding gleich ganz weg und schickt das (unkomprimierte) Signal gleich an den HDMI.
Wobei am HDMI schon immer ein unkompliziertes Signal lag, denn die Schnittstelle überträgt gar kein kodiertes Signal.
Nur soll hier der Eindruck vermittelt werden, es sei ein transparentes Signal ... aber davon ist es weit entfernt. Nur hat man so die Möglichkeit, statt direkt nach YCbCr zu gehen, wieder über RGB gehen und sich eine höhere Farbabtastung leisten kann.
Was macht nun der Intra .... man kann es auf einen stark verkürzten Nenner bringen und sagen ... rd 3-6 db besseren Störabstand, der sich aber erst im Multigenerationsverhalten niederschlägt. Auch darauf heben die Broadcaster im Wesentlichen ab, wenn sie solche Codecs vorschreiben. Es geht da nicht um bessere oder schlechtere Bilder, sondern um das Verhalten des Codecs in der Verarbeitungskette.
I- Frames machen also per se keine bessere Bilder als eine GoP mit wesentlich mehr als 4-6 B-Frames.
Sie sind nur besser zu Verarbeiten und bieten dem Kamerahersteller mehr "Luft" die irrwitzige Pixelmenge halbwegs vernünftig zu handhaben.
Bedeutet das zwingend das dadurch die Bildqualität besser werden muss??? Meintest du ... nicht in deinen Erklärungen, dass Intraframes deutlich ineffizienter sind?
Sagen wir es anders ... die Bildqualität würde durch die verteilte Rechenpower in Processing und Kodierung schlechter, wenn eine Bewegungsprädiktion (GoP) geleistet werden müsste denn so steht die Rechenleistung der Bildverarbeitung zur Verfügung.
Ja, I-Frames sind deutlich ineffizienter. Nur der Hersteller muss ein Abwägung leisten.
effizienter sind?
2.) Welche Nachteile hat die Aufnahme über den unkomprimierten HDMI-Ausgang der Nikon im Vergleich zum internen Canon-Codec???
Ist das was da rauskommt wirklich ,,unkomprimiert''???
Es kommt jetzt immer darauf an, was auf der Schnittstelle übertragen wird denn als Monitorschnittstelle werden die Halbbilder (auch bei segmented Frames) so verteilt, dass die TV Geräte zur Bildverdopplung damit umgehen können.
Diese Reihenfolge muss man im NLE (oder durch Zusatzsoftware) erst einmal korrekt wieder herstellen sonst kommt es ggf. zu Kammeffekten.
Orientieren sich die Hersteller also an TV-Monitoren, dann hat man ggf. auf der Schnittstelle einige Arbeit.
Auf der andern Seite, wie schon erwähnt, kommt es darauf an, ob ein höherwertiges Signal, also z.B. 4:2:2 angelegt wird, gegenüber eines 4:2:0 Signals in der Kompression.
Dann könnte sich eine solche Aufzeichnung lohnen.
Der "Normalverbraucher" wird den Unterschied aber nicht nutzen können.
Auf den ersten Blick scheint es ja nur Vorteile zu geben:
-Möglichkeit der Verwendung von hochwertigen Codecs (ProRes,etc.)
-4:2:2 (auch 10bit statt 8 bit?).
(-Die Kamera muss nichts mehr berechnen also keine Überhitzungsprobleme???)
Das setzt aber eben voraus dass es nicht "nur unkomprimiert" ist, denn eine HDMI überträgt niemals komprimierte Formate, sondern dass die Bilderzeugung auch deutlich besser in der Kamera vorgenommen wird.
Man muss also derzeit bei den Kameras sehr genau hinsehen, was sie machen. Wie schon erwähnt, gibt es mittlerweile unterschiedliche Ansätze.
Ergänzung: PP= Priority Processing = Bildanalyse und daraus nachgelagert die Aufteilung der Prozesse innerhalb des verfügbaren Zeitfensters.
@mediavideo
Die neu 5D MarkIII hat nicht zufällig diese 22,1 MPixel Auflösung, denn damit reduziert man beim Binning die Bildfehler auf ein Minimum.
Die gröbste Fehlerquelle in Bezug auf Aliasingartefakte ist nach wie vor das Missverhältnis zwischen Objektivauflösung und Sensorauflösung und erst in zweiter Linie in "krummen" Sensorauflösungen zu suchen. Der Sensor generiert ohnehin durch das Missverhältnis der Färb-Unterabtastung in gewissem Umfang Farbmoire. Und auch im Interpolationsverfahren entstehen, je nach Menge der Koeffizienten, Aliasing Effekte. Insofern optimiert der Hersteller ohnehin und unabhängig davon, ob der Sensor nun ein gerades oder ungerades Verhältnis ausweist, nutzten die Hersteller schon immer nur die Menge an Pixels, die für die Rechenprozesse optimal waren.
Binning mit weglassen von Zeilen, Auslesen von weniger Zeilen ...
Canon hat kein Skipping gemacht sondern immer gebinnt. Nur so war das enorme S/N Ratio von fast 7:1 zu erreichen.
Die Grundidee, die dahinter stand, war schon ganz ok, nur dass Objektivauflösung und Sensorauflösung immer weiter auseinander liefen, war der bittere Nebeneffekt denn für die Videoauflösung hätte das Objektiv nur noch rd. 20 Lp/mm machen "dürfen".
@Roland Cameron
Wowu, Du lässt hier ziemlich viel offen
Das stimmt leider, aber mit ein paar Sätzen lassen sich komplexe Zusammenhänge nicht immer zufriedenstellend beantworten.
Aber ich bemühe mich und wenn Nachfragen sind, versuche ich diese Antworten weiter zu verfeinern. Dass das noch wenig zufriedenstellend ist, ist mir klar.
In meinem Buch habe ich mehr Raum, solche Dinge genauer (und mit den dazugehörigen Berechnungen) zu erklären.