srone hat geschrieben:und wiedermal wird nur rumgepfuscht anstatt es richtig anzugehen, dann doch lieber 2k als intraframe oder raw, als dieses verhackstückte 4k.
lg
srone
Seh' ich auch so. RED wird das nicht in Bedrängnis bringen. Nutzt eher dem 1000,- € Recorder mit einem 4K Logo drauf.
Naja die werden sich schon was dabei gedacht haben .... wenn man zB den Sensor so auslesen könnte wie es bei nem Crop Modus gemacht wird dann wäre das ja durchaus Ok da man so auch mehr Details aufnehmen könnte ( Zoom)
Dazu müsste man aber den Sensor scannen und die Bilder intern Stichen
Und das wäre dann doch schon nen ganz nette Detail getreue Geschichte.
Also quasi nen GigaPan VideoBild
Es ist und bleibt eine Frage der Verarbeitungsgeschwindigkeit. Die GH2 hat mit veränderten Prozessen angefangen. Jedes Pixel hat rd. 1200-1600 Rechenprozesschritte in der herkömmlichen Auslesung. Dass das mit 8 Mill Pixels in 20ms mit mehr klappt ist klar, weil man nicht beliebig hoch Takten kann.
Einige Hersteller komprimieren das RAW Signal, einige wandeln nicht mehr nach RGB sondern gleich nach YCbCr, unterabgetastet wird ohnehin oder die neue Nikon bedient eben bei voller Qualität am HDMI keine Encoding mehr. Aber alle kämpfen eben gegen dasselbe Problem.
4k fordert derzeit eben Kompromisse heraus.
Ob ich nun auf einen Übertragungscodec noch eine entsprechend Lump Unterabtastung legen muss ? ... Es wird sich zeigen, wie das funktioniert.
Auf jeden Fall haben wir dann nur noch 2:1:0 Bilder .... na prima. Ob das die richtige Richtung ist ?
Aber ich stimme srone da zu.
Statt erst mal vernünftige 2k Bilder zu machen, wurschteln sie jetzt an 4K rum, dass man dann im Abstand von 60cm am Bildschirm betrachten muss, um überhaupt noch einen Unterschied zu sehen.
Ich könnte mir vorstellen, dass dies in statischen Szenen mit flächigen Objekten und filligranen Oberflächen-Mustern gut funktioniert.
Aber viele kleine bewegte Dinge werden das Bild verwischen lassen.
Ähnlich zu Motion Blur.
Linien werden ggf. flimmern, sofern kein global Shutter verwendet wird.
Es ist für mich so ein Kompromiss wie Interlaced.
Wenn ich eine geschlossene Türe mit Holzschnitzereien aufnehme.
Dann wird sie geöffnet, ändert sich nur die Perspektive und das Muster könnte sogar in zwischenschritten berechnet werden.
Und wirklich kleinste Strukturen kommen nur in der Natur vor (bewegte Blätter und Wellen im See).
Eine Stofftapete im langsamen Schwenk wird ggf. an den Bildrändern kein Muster haben (ausser es wird z.B. 2 Sekunden in der Aufnahme vorgelesen)......
Alles ist möglich und Canon wird dies schon getestet haben.
Im Prinzip ist nichts dagegen einzuwenden, erst zu codieren und dann im codierten Raum die Raum die Abtastung zu machen.
Es besteht eigentlich kein Grund, mit den grossen Datenmengen immer erst nach RGB zu gehen und dann einen Grossteil der Errechneten Werte hinterher wieder zu verwerfen, um nach 4:2:0 und dann erst in die Codierung zu gehen.
Also, mal abwarten, was sie genau damit gemeint haben.
Aber ganz sicher ist eben, dass die integrierte Rechenpower mit den Datenmengen nicht mehr umzugehen versteht und offenbar jede Firma nach Workarounds sucht.
Das wird nicht funktionieren. In 90% der Fälle wird es klappen, aber die anderen 10% werden seltsam aussehen.
Ganz besonders Aufnahmen mit <1/250s werden nicht besser als 2k sein oder noch schlimmer, sie werden schlechter aussehen.
Das wird Interlaced Mode 2.0
Nachtrag:
Wenn es um Aufnahmen mit 100fps und einer Wiedergabe mit 100fps geht, könnte es Sinn machen. Wenn man 1x 4k und 3 x 2k mit 25 Zyklen/Sekunde hat, dann wäre das zumindest sinnvoller als die nackten 25fps auf 100fps zu interpolieren.
Zuletzt geändert von joe11 am Fr 27 Jan, 2012 20:16, insgesamt 2-mal geändert.
Es gibt für 4K keinen interlaced Übertragungmode mehr.
Das Thema ist vorbei weil Interlaced immer die Zeilenauslesung über den gesamten Zeitintervall voraussetzt.
Für 2 K hattest Du auch nur die halbe Taktfrequenz
Ausserdem ist nirgend zu erkennen, dass die entsprechenden Speicherzellen sich neben den Pixels befinden, die das I Signal überhaupt speichern.
Das würde nämlich bedeuten, der Sensor hat 16 Mill Zellen.
Edit:
Ich sehe gerade, da ist noch ein Rechenbeispiel zugekommen.
Aber das stimmt auch nicht, denn bei einer Interface Abtastung wird jede Zeile über das volle Zeitintervall, also bei 50 Bildern über 20 ms und bei 25 Bildern über 40 ms abgetastet.
Interlaced Mode 2.0 ist ein flapsiger Seitenhieb auf eine neue Technologie die vielleicht so/vermutlich so/genauso beschissen funktioniert wie das 1948 o.s.ä. eingeführte "analoge Kompessionsverfahren" mit dem Namen Interlaced Mode oder Zeilensprung, das man auch in digitalen System vorfinden kann und nach Meinung vieler Experten viel zu lange am Leben gehalten wurde.
Das klingt für mich zunächst sehr nach einer Anwendung für Hochgeschwindigkeitskameras. Ich glaube nicht, dass dies demnächst in normale Kameras Einzug halten wird.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.