pilskopf hat geschrieben:Also dieser User der das Video zum Beispiel gemacht hat hat also die Canon gehackt?.....
Was willst Du uns damit sagen?
Sieht doch sympatisch aus - der kleine, oder meinst Du seinen Papa?-)
Wie sieht den nen "Hacker" / was das falsche Wort eigentlich hier ist) für dich aus?
................................
@ HansMaulwurf
Warte ersttmal den 6 - 9 .1.2011 ab (CSE) , da könnte vielleicht was geileres kommen als nen Hack für deine "alte" 5D Mark II ;-))
MfG
B.DeKid
PS: Also 2011 wird bestimmt ein spannendes Jahr im Bezug auf Kameras worauf man sich freuen kann, nur ob die Faxen an der Börse einem nicht den Spass an der Sache vermiesen werden ist ein viel wichtiger Punkt ;-/
Auf ein gutes neues !-)
Die MK2 ist mittlerweile schon wirklich etwas betagt. Aber wenn man grad nicht wild durch die Gegend schwenkt, macht sie halt immer noch die schönsten Bilder in dieser Klasse.
Schaumermal wie "unser" Ehrenpräsident zu sagen pflegt...
Das Colorsubsampling erhöht sich doch auch durchs runterskalieren,
Woher kommt denn so ein Quatsch ??
Ganz im Gegenteil.
Schau Dir doch mal an, was beim Subsampling (und anschliessend bei der Interpolation) passiert !
Hab ich so gelernt. Wenn Du zB FullHD Material in 4:2:2 hast (zB HVX 200) und anschließend runter skalierst (auf PAL, oder eben weniger), sich das Subsampling erhöht.
Die Vorgänge kann ich Dir natürlich nicht beschreiben - sagten sie zumindest bei Hollywood Cameraworks "Visual FX for Directors".
Tuffy hat geschrieben:Hab ich so gelernt. Wenn Du zB FullHD Material in 4:2:2 hast (zB HVX 200) und anschließend runter skalierst (auf PAL, oder eben weniger), sich das Subsampling erhöht.
Die Vorgänge kann ich Dir natürlich nicht beschreiben - sagten sie zumindest bei Hollywood Cameraworks "Visual FX for Directors".
Die HVX200 zaubert aus einem Chip mit 900.000 Pixeln ein Video mit 2.000.000 Pixeln (Pixelshift, was immer das ist, jedenfalls ein Trick). Aber nehmen wir an, man würde 4k auf 2k downsampeln, könnte nicht dann aus 4:2:0 durch Rausklauben der "richtigen" Pixel 4:2:2 werden, super geeignet für Keying z.B.? Wenn wir uns die Pixel als Ministeck-Quadrate vorstellen - und das dürfen wir -, reicht es nicht, nur jedes vierte Steinchen zu behalten, um das Bild zu rekonstruieren, das gesamte Bild muss neu gesteckt werden. Je nach Qualität der Formel, mit der das berechnet wird, kann die Qualität sehr gut sein. Und natürlich kann das Video auch "als" 4:2:2 berechnet werden, mit gewissen Vorteilen, aber nicht mit denen, die man sich von einer original 4:2:2 Aufnahme verspricht (Stichwort Keying).
Die HVX nimmt ja nur 4:1,5:1,5 auf, stimmt, war ein schlechtes Beispiel.
Ob das Quatsch ist oder nicht kann ich nicht sagen, ich habs nur gelernt und es klang authentisch - habe aber auch nicht euren Background.
Soll ich euch mal die Passage heraus schneiden und ihr schaut euch an, wie das sein könnte? Würde mich sehr interessieren!
Bei einer Unterabtastung wird immer aus je zwei Farbwerten ein gemeinsamer Farbwert gemacht, der dann übertragen wird.
Das beginnt bereits am Sensor !!
Bayermaske hat z.B. nur in jeder zweiten "Zeile" die erforderlichen Werte und auch horizontal und sind somit effektiv 4x vertikal unterabgetastet.
Es entsteht also bereits eine Mischfarbe. Hier aus 4 Werten.
Diese Mischfarbe wird als Farbwert übertragen. Im Datenstrom sind alle Samples gefüllt, nur dort, wo die ursprünglichen Einzelfarben sitzen sollten, sitzen jetzt 2 Mischfarben.
Es ist also nicht mehr möglich, aus der Mischfarbe jemals wieder die Einzelfarben herzustellen.
Nimmt man nun eine Bildreduzierung vor, geschieht dies durch Interpolation. dabei wird wieder aus unterschiedlichen Farbpunkten eine weitere Mischfarbe hergestellt. Der farbwert entfernt sich also immer weiter von den ursprünglichen Einzelfarben der einzelnen Pixels.
Viele stellen sich vor, da fehlen einfach Farbsamples im Datenstrom, die man wieder auffüllen kann und so aus 4:2:0 wieder 4:2:2 macht, indem man einfach Zeilen weglässt ... oder so ähnlich.
Das ist eine naive Vorstellung, weil es die Originalfarben nach einer Unterabtastung gar nicht mehr gibt und so auch die Entstehung der Mischfarbe gar nicht mehr reproduziert werden kann.
Ausserdem fehlen im Datenstrom niemals Samples, weil Monitore sämtliche Samples für eine Darstellung brauchen. Nur dass sich Samples eben wiederholen bzw. nur Pointer auf das Sample zeigen.
Also egal, was hinten gemacht wird, wenn nicht 4:4:4 oder 4:2:2 vom Sensor kommen, kann man vergrößern oder verkleinern, soviel man will. Eine bereits gemischte Farbe bleibt eine gemischte Farbe.
Unterabtastung ist keine Frage der Mathematik oder der Menge der Samples sondern eine Aussage über die Qualität der Farbwiedergabe.
Daher ist es auch egal, welche Form die ursprüngliche Fotofläche hatte und ob da mit Shift oder nicht Shift gearbeitet wurde.
Ein Wort noch zum Abtastformat 3:1:1, wie es beispielsweise bei HDCAM vorliegt.
Landläufig wird gesagt, die „3“ hänge mit dem Aufzeichnungsformat 1440 x 1080 zusammen, weil 1440 etwa 75% von 1920 ist und daher auch nur 75% von „4“, also rd. „3“ abgetastet wird.
Das ist natürlich falsch !!
Richtig ist, dass im HDCAM Verfahren jeweils ein Block von 3 Farbsamples (statt 2 bei 4:2:2 oder 4 bei 4:2:0) zusammengezogen werden und hat nichts mit dem Prefiltering des Aufnahmeformates zu tun.
Es ist lediglich das Ratio der Farbabtastung zur Lumaabtastung.
WoWu hat geschrieben:
Viele stellen sich vor, da fehlen einfach Farbsamples im Datenstrom, die man wieder auffüllen kann und so aus 4:2:0 wieder 4:2:2 macht, indem man einfach Zeilen weglässt ... oder so ähnlich.
Das ist eine naive Vorstellung, weil es die Originalfarben nach einer Unterabtastung gar nicht mehr gibt und so auch die Entstehung der Mischfarbe gar nicht mehr reproduziert werden kann.
Ausserdem fehlen im Datenstrom niemals Samples, weil Monitore sämtliche Samples für eine Darstellung brauchen.
So hätte ich mir das nun auch gedacht - für die Datenreduktion. Weil wenn die Mischfarbe da ist, verbraucht sich ja Platz - genau wie die echte Farbe Platz verbrauchen würde.
Nur dann könnte man ja auch direkt die echte nehmen, oder nicht?
Darin besteht ja die Datenreduktion, dass man statt 4 Werte .... und jeder Wert besteht ja aus diversen Einzelwerten, nur einen Wert überträgt, der das Farbgemisch darstellt und im Datenstrom für die fehlenden Werte nur noch per Pointer auf den Originalwert zeigt.
Will man den Originalwert nehmen, müsste man sich für einen der 4 entscheiden ...... das wäre also ein untauglicher Kompromiss.
Abgesehen davon fehlen die besagten Detailwerte auch, weil die Farbmaske sie gar nicht erst generiert.
Dort müsste man entweder eine RGB Streifenmaske einsetzen oder 3 Chips.
Erst die Grafikkarte bzw. der Decoder löst den Datenstrom wieder auf, nimmt die Pointer raus und ersetzt sie durch identische Samples, weil Monitore dazu nicht in der Lage sind.
Aber es bleibt eben dabei ... die Originalfarben der einzelnen "Pixels" sind ab Farbmaske unwiderruflich weg und können durch keine Rechnerei wieder hergestellt werden.
Daher kann aus einem 4:2:0 niemals wieder ein 4:2:2 oder gar 4:4:4 werden, egal wie man das Bild verändert.
Im Gegenteil. Bei Verkleinerung kommt erschwerend hinzu, dass man Farben größerer Entfernung miteinander vermischt und es besteht umso mehr die Gefahr, sich von den Originalwerten zu entfernen.
Bei Interlaced Bildern wird es noch einwenig verrückter, weil die Fields einzeln bearbeitet werden und beieinander liegende Werte daher gar nicht gefunden werden (weil das zugehörige Field 20 ms entfernt liegt und die Fields sich nicht "kennen").
Deshalb werden gleich weiter entfernte Werte interpoliert, was einen zusätzlichen Farbfehler generiert ... den man übrigens deutlich sieht.
Also mit "Auffüllen" von Scanlines ist es nicht getan.
4k ist sowieso albern, wie nah soll ich denn am TV oder der Leinwand sitzen?
Wenn jeder im Kino auch nur halbwegs in den Genuss diese Auflösung kommen soll, haben die ein massives architektonisches Problem.
Auflösung wird IMHO völlig überschätzt. Ich hätte lieber ein paar Blenden mehr oder mehr Bilder. Momentan brauch ich ne Kamera die ca 200fps. SD macht ohne 1000 Euro am Tag zu kosten. Mit so was wäre mir mehr geholfen als mit 6 Sekunden 4k.
Kannst es ja in HD ausgeben, aber z.B. zum Keyen oder allgemein für die Postpro ist 4k schon sehr praktisch. Auf grosser Leinwand sieht man das dann auch!
Jetzt gibt es das hier auch noch als Newsmeldung bei slashcam auf der Startseite. Ob da jemand sorgfältig recherchiert hat?
Ich halte es nämlich nach wie vor für Quatsch, weil ich nicht davon ausgehe, dass der Prozessor tatsächlich 24fps bei 4k schafft. Der Bildsensor selbst könnte es theoretisch schon schaffen, da der ja genug Pixel (bei Fotos) auflösen kann. Und in welchem Format das dann aufgenommen werden würde bleibt mir auch schleierhaft. Was will ich mit einem 4:2:0 und zu stark komprimierten Avchd 4k?
Naja, wenn es stimmt, gibt es sowas auch bald für die 60d, 7d und 5d Mark II. Der Prozessor dieser Kameras ist -meines Wissens - auch schneller als von der 550d.
Blackeagle123 hat geschrieben:aber z.B. zum Keyen oder allgemein für die Postpro ist 4k schon sehr praktisch.
Wo haste das denn her?
Naja, wenn es stimmt, gibt es sowas auch bald für die 60d, 7d und 5d Mark II. Der Prozessor dieser Kameras ist -meines Wissens - auch schneller als von der 550d.
Die 7D hat zwei Prozessoren von den DIGIC4 (deswegen kann die noch HD via HDMI bei der Aufnahme), der Rest hat irgendwie die gleichen.
Wenn ich ein 4k-Bild keye und das ganze dann in HD runter rechne, ist das besser, als wenn ich ein HD-Bild keye (mehr Bildinformation!). Angenommen die Komprimierung ist die gleiche.
Angeblich hat Canon das ganze für 650.000 Dolar gekauft.
UPDATE: 5pm GMT 1/1/11
"I have just had an email from the shooter who was told by Ronald Aiello on that very long USTREAM that he had chosen him “as he was doing good work” to be given the firmware last night to shoot with and post footage. Well I have just heard from Luke that he has told me he didn’t get it as they told him they had been “bought out by Canon” for $650,000. Whether this is true or not I don’t know. I am simply reporting what has been told to me. THEN poor Luke has dragged into this sorry saga was contacted again saying they had told Canon it was not enough.
During the Ustream, Ron said this was being done for us, for the filmmakers not for money but in the same breath said he would sell it for $1 million dollars. Mmmm…which one is it then?
This is all starting to get sound VERY fishy. Was this all a big hype game to get Canon to buy them out and we have been used as pawns? Was this just some big hoax? We have been shown no proof this was ever real. If Ron had shown us something during that USTREAM it would put a lot of the doubters at ease but we were shown nothing. So if Canon HAVE bought them out we may never know! Let’s see what happens at 11pm EST tonight. We will know more then or not…
Take EVERYTHING with a a very large pinch of salt please! If you really want 4k now…go buy a RED One!! It records for longer than 6 seconds! This is one VERY odd story. I am going back to saving up for my RED Epic. I hear it does 4K for longer than 6 seconds!"
Das glaubt ihr doch nicht ernsthaft oder? Das ist mit Abstand die lächerlichste Ankündigung zuzüglich die lächerlichste Ausrede bis dato in diesem Bereich und das nur, weil sie alle Canon User verarschen wollten und das nach Strich und Faden , aber sowas von. Und der Typ wird auch in einem Jahr noch beschissene Videos seiner Kinder mit seiner ungehackten Canon 550d machen, unscharf, mit rolling Shutter versehenen und den Focus ist er auch unfähig zu finden. Willkommen im Web 2.5
Frank Glencairn hat geschrieben:...Ich frage mich nur, warum jemand sowas macht...
Was treibt Leute auf die Bühne von Casting-Shows oder zu "Big Brother"? Der Drang, einmal im Leben im Mittelpunkt der Aufmerksamkeit zu stehen und von anderen als eine Art Held angesehen zu werden - aus welchem Grund auch immer. Aber der Gag wäre perfekt, wenn jetzt Canon diese 4K-Firmware ab Montag ganz offiziell zum Download anbieten würde ;-)
Naja, verarsche ist es ja nur, wenn jmd tatsächlich geglaubt hat, dass das auch nur annähernd funktioniert.
Hätte der Typ etwas weniger dick aufgetragen, hätte es vll. geklappt Leute wirklich zu verarschen.
z.B. nur 2k oder 1080p60 oder Aliaising und Moireeverbesserungen, aber damit hätte er auch viel weniger Aufmerksamkeit erregt und vll. auch nur Magic Lantern vorweggenommen.
WoWu hat geschrieben:Bei einer Unterabtastung wird immer aus je zwei Farbwerten ein gemeinsamer Farbwert gemacht, der dann übertragen wird.
Das beginnt bereits am Sensor !!
Bayermaske hat z.B. nur in jeder zweiten "Zeile" die erforderlichen Werte und auch horizontal und sind somit effektiv 4x vertikal unterabgetastet.
Es entsteht also bereits eine Mischfarbe. Hier aus 4 Werten.
Ausgehend von Bayer-Daten hat das downgesampelte Bild im Mittel die kleinere Farbabweichung CIEDE 2000 und ∆E. Es hängt aber sehr stark an der verwendeten Algorithmik.
Die Algorithmen bestimmen nur die Farbgüte des resultierenden Bildes, beispielsweise bei der Darstellung von Violett, das ja eigentlich bei "Blau" angesiedelt ist, müssen soviel Rotanteile hineingerechnet werden, dass es zu einer solchen, natürlichen Farbdarstellung überhaupt kommt.
Dazu werden, je nach Aufwand, bis zu 17 unterschiedliche Farbwerte herangezogen.
Nur es bleibt ein interpolierter Wert, der nicht gleich zu setzen ist mit dem Originalwert eines RGB-Steifenmusters.
Und insofern ist die Größe einer Abweichung natürlich von den Algorithmen abhängig, es bleibt aber eben dabei, dass es ich um eine Abweichung handelt und nicht um den Originalwert. Insofern bleibt Bayer bestenfalls ein 4:2:2 Wert und eine nachträgliche Interpolation kann nicht besser werden, als die errechneten Werte waren, im Gegenteil. Es entsteht ein zweites Delta.
Nebenbei wird in dem Papier noch über einen andern Farbraum gerechnet, und erst anschließend zurück nach RGB. Es gibt erheblich geeignetere Farbräume, mit denen man arbeiten kann und zukünftig auch hoffentlich arbeiten wird, die weniger verlustbehaftet sind.
Insofern beschreibt das Papier einen andern Zustand und geht eher generell auf Interpolationsverluste ein.
WoWu hat geschrieben:Insofern bleibt Bayer bestenfalls ein 4:2:2 Wert und eine nachträgliche Interpolation kann nicht besser werden, als die errechneten Werte waren, im Gegenteil. Es entsteht ein zweites Delta.
Richtig.
Es gibt aber doch noch die entrauschende Wirkung durch Downsampling. D. h. Farbfehler, die bereits von der Bayermatrix geliefert werden, können dadurch etwas ausgemittelt werden. (Das klappt natürlich nicht bei Strukturen, die nicht deutlich größer als ein Bayer GRGB Feld sind. Z. B. bei einem blauen Himmel habe ich öfters eine deutlich bessere Farbdarstellung auf Pixelniveau nach Downsampling beobachtet.)
Damit will ich aber nicht sagen, dass das in dem zitierten Dokument der Grund für die nach dem Downsampling kleinere Farbabweichung (siehe letzte Tabelle) gewesen ist. Das weiß ich schlicht nicht.
"...are firstly downsampled to half their size according to the scale-space pyramid [4], whereby a Gaussian smoothing with five pixels window size for each color channel has been applied. These color images, that serve as ground-truth data, are then subsampled with the Bayer pattern."
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.