Newsmeldung von slashCAM:Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Canon reicht Patent für spezielle 4K Raw Video Aufnahme ein
Antwort von srone:
und wiedermal wird nur rumgepfuscht anstatt es richtig anzugehen, dann doch lieber 2k als intraframe oder raw, als dieses verhackstückte 4k.
lg
srone
Antwort von friuli:
Ich verstehe das auch nicht.
Es werden nicht die gestalterischen Möglichkeiten erweitert, es wird nur ein noch größeres Bild ermöglicht
Wie wär"s mit einer günstigen 2k jpeg2000 Kamera mit einer echten Zeitlupen-Funktion.
Die Leute möchten "Graden" und "Slomo" - 4 k kann man dann immer noch nachschieben.
Antwort von Flax:
und wiedermal wird nur rumgepfuscht anstatt es richtig anzugehen, dann doch lieber 2k als intraframe oder raw, als dieses verhackstückte 4k.
lg
srone
Seh' ich auch so. RED wird das nicht in Bedrängnis bringen. Nutzt eher dem 1000,- € Recorder mit einem 4K Logo drauf.
Antwort von B.DeKid:
Naja die werden sich schon was dabei gedacht haben .... wenn man zB den Sensor so auslesen könnte wie es bei nem Crop Modus gemacht wird dann wäre das ja durchaus Ok da man so auch mehr Details aufnehmen könnte ( Zoom)
Dazu müsste man aber den Sensor scannen und die Bilder intern Stichen
Und das wäre dann doch schon nen ganz nette Detail getreue Geschichte.
Also quasi nen GigaPan VideoBild
MfG
B.DeKid
Antwort von coyut:
...und ich wette da ist noch viel anderes in der Pipeline...
Was sich hier zeigt ist ein einzelnes Patent welches evtl. nicht mal umgesetzt wird ;o)
Solange ich kein testbares Produkt in den Händen halten kann, mach ich mir gar keine grossen Gedanke was sich Canon alles patentieren lässt.
Antwort von WoWu:
Es ist und bleibt eine Frage der Verarbeitungsgeschwindigkeit. Die GH2 hat mit veränderten Prozessen angefangen. Jedes Pixel hat rd. 1200-1600 Rechenprozesschritte in der herkömmlichen Auslesung. Dass das mit 8 Mill Pixels in 20ms mit mehr klappt ist klar, weil man nicht beliebig hoch Takten kann.
Einige Hersteller komprimieren das RAW Signal, einige wandeln nicht mehr nach RGB sondern gleich nach YCbCr, unterabgetastet wird ohnehin oder die neue Nikon bedient eben bei voller Qualität am HDMI keine Encoding mehr. Aber alle kämpfen eben gegen dasselbe Problem.
4k fordert derzeit eben Kompromisse heraus.
Ob ich nun auf einen Übertragungscodec noch eine entsprechend Lump Unterabtastung legen muss ? ... Es wird sich zeigen, wie das funktioniert.
Auf jeden Fall haben wir dann nur noch 2:1:0 Bilder .... na prima. Ob das die richtige Richtung ist ?
Aber ich stimme srone da zu.
Statt erst mal vernünftige 2k Bilder zu machen, wurschteln sie jetzt an 4K rum, dass man dann im Abstand von 60cm am Bildschirm betrachten muss, um überhaupt noch einen Unterschied zu sehen.
Antwort von Tiefflieger:
Ich könnte mir vorstellen, dass dies in statischen Szenen mit flächigen Objekten und filligranen Oberflächen-Mustern gut funktioniert.
Aber viele kleine bewegte Dinge werden das Bild verwischen lassen.
Ähnlich zu Motion Blur.
Linien werden ggf. flimmern, sofern kein global Shutter verwendet wird.
Es ist für mich so ein Kompromiss wie Interlaced.
Wenn ich eine geschlossene Türe mit Holzschnitzereien aufnehme.
Dann wird sie geöffnet, ändert sich nur die Perspektive und das Muster könnte sogar in zwischenschritten berechnet werden.
Und wirklich kleinste Strukturen kommen nur in der Natur vor (bewegte Blätter und Wellen im See).
Eine Stofftapete im langsamen Schwenk wird ggf. an den Bildrändern kein Muster haben (ausser es wird z.B. 2 Sekunden in der Aufnahme vorgelesen)......
Alles ist möglich und Canon wird dies schon getestet haben.
Antwort von WoWu:
Im Prinzip ist nichts dagegen einzuwenden, erst zu codieren und dann im codierten Raum die Raum die Abtastung zu machen.
Es besteht eigentlich kein Grund, mit den grossen Datenmengen immer erst nach RGB zu gehen und dann einen Grossteil der Errechneten Werte hinterher wieder zu verwerfen, um nach 4:2:0 und dann erst in die Codierung zu gehen.
Also, mal abwarten, was sie genau damit gemeint haben.
Aber ganz sicher ist eben, dass die integrierte Rechenpower mit den Datenmengen nicht mehr umzugehen versteht und offenbar jede Firma nach Workarounds sucht.
Antwort von joe11:
Das wird nicht funktionieren. In 90% der Fälle wird es klappen, aber die anderen 10% werden seltsam aussehen.
Ganz besonders Aufnahmen mit <1/250s werden nicht besser als 2k sein oder noch schlimmer, sie werden schlechter aussehen.
Das wird
Interlaced Mode 2.0
Nachtrag:
Wenn es um Aufnahmen mit 100fps und einer Wiedergabe mit 100fps geht, könnte es Sinn machen. Wenn man 1x 4k und 3 x 2k mit 25 Zyklen/Sekunde hat, dann wäre das zumindest sinnvoller als die nackten 25fps auf 100fps zu interpolieren.
Antwort von WoWu:
Es gibt für 4K keinen interlaced Übertragungmode mehr.
Das Thema ist vorbei weil Interlaced immer die Zeilenauslesung über den gesamten Zeitintervall voraussetzt.
Antwort von joe11:
Es gibt für 4K keinen interlaced Übertragungmode mehr.
Danke für die Belehrung. Für 2k gab es auch nie einen Interlaced Mode, aber das macht ja nichts.
Antwort von WoWu:
Für 2 K hattest Du auch nur die halbe Taktfrequenz
Ausserdem ist nirgend zu erkennen, dass die entsprechenden Speicherzellen sich neben den Pixels befinden, die das I Signal überhaupt speichern.
Das würde nämlich bedeuten, der Sensor hat 16 Mill Zellen.
Edit:
Ich sehe gerade, da ist noch ein Rechenbeispiel zugekommen.
Aber das stimmt auch nicht, denn bei einer Interface Abtastung wird jede Zeile über das volle Zeitintervall, also bei 50 Bildern über 20 ms und bei 25 Bildern über 40 ms abgetastet.
Antwort von joe11:
Interlaced Mode 2.0 ist ein flapsiger Seitenhieb auf eine neue Technologie die vielleicht so/vermutlich so/genauso beschissen funktioniert wie das 1948 o.s.ä. eingeführte "analoge Kompessionsverfahren" mit dem Namen Interlaced Mode oder Zeilensprung, das man auch in digitalen System vorfinden kann und nach Meinung vieler Experten viel zu lange am Leben gehalten wurde.
oder
Das wird Interlaced Mode 2.0
Antwort von WoWu:
Da hast Du mich aber voll erwischet !!! :-))
Das wäre ja eine Katastrophe gewesen,
Danke für die Aufklärung.
Antwort von TheBubble:
Das klingt für mich zunächst sehr nach einer Anwendung für Hochgeschwindigkeitskameras. Ich glaube nicht, dass dies demnächst in normale Kameras Einzug halten wird.
Antwort von chackl:
Hm, wird der Monitor schwenkbar sein?! :-))