Newsmeldung von slashCAM:Schnitt: Red One, Canon 5D MKII, Pansonic Lumix GH1 von rob - 21 Sep 2009 17:39:00
Hier wurde Material der Red One, Canon 5D MKII und Panasonic Lumix GH1 direkt gegeneinander geschnitten. Interessanter Vergleich, auch wenn die Web-Video-Kompression einen akkuraten Qualitätsvergleich erschwert ...
Dies ist ein automatisch generierter Eintrag
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten
Antwort von vidoc:
Was kann das geschulte auge denn bei diesem "test" erkennen? Oder liegt in der stille schon die antwort?
Antwort von deti:
... das bedeutet für mich: Egal, welche Kamera man nimmt, man bekommt etwa das gleiche Bild raus. Die Leute bilden sich immer Wunder was ein, wenn sie eine richtig teure Kamera sehen, die sie nicht ihr Eigen nennen dürfen.
Deti
Antwort von meawk:
Das Video zeigt, dass man als Hobbyfilmer oder auch ambitionierter Amateur nicht unbedingt eine RED ONE braucht um zu filmen . . .
Die Ergebnisse der GH1 und der 5D II können sich da durchaus sehen lassen, wie jeder sehen kann. Das ist doch für uns, die sich nie eine RED ONE leisten werden, schon mal eine Ansage. Insofern ein sehr gelungener Vergleich, wie ich finde (Kenne das Video schon länger und es wurde ja auch schon sehr eifrig auf Vimeo diskutiert.).
Antwort von vidoc:
Die "intensive diskussion" auf vimeo hat mich eher irritiert. Von begeisterung über die leistung der GH1 bis "man kann gar nichts sagen, weil postproduziert und komprimiert" war doch alles dabei. Ich kann eigentlich nicht viel "sehen" und frage mich, ob ich zu ungeübt bin oder ob das fakt ist.
Antwort von freezer:
... das bedeutet für mich: Egal, welche Kamera man nimmt, man bekommt etwa das gleiche Bild raus. Die Leute bilden sich immer Wunder was ein, wenn sie eine richtig teure Kamera sehen, die sie nicht ihr Eigen nennen dürfen.
Deti
Sehr interessante Aussage, aber leider falsch.
Ich habe mehrfach mit der RED gedreht und wenn man das Ergebnis in 1080p betrachtet, dann hat weder die 5D noch die GH1 eine Chance. Ich sehe keinen Sinn darin, einen Vergleich zu starten, wenn man als Basis ein hochkomprimiertes Webvideo hernimmt.
Für mich ist das eher das Phänomen, dass jeder, der sich ein bestimmtes Gerät nicht leisten kann, versucht durch unpassende Vergleiche sich die günstigeren Produkte schön zu reden. Ist halt das eigene Ego streicheln.
Natürlich liefern die zwei DSLRs brauchbare Bilder und genügen manchen Ansprüchen bei weitem - v.a. wenn man aus der DV oder HDV Welt kommt - aber die RED liegt in der Bildqualität um Klassen drüber - sonst wäre der (für die Branche doch günstige) Preis ja wohl kaum gerechtfertigt.
Antwort von meawk:
Der Vergleich sollte ja auch nicht die Profis, die mit der RED ONE arbeiten, dazu verleiten, das Teil in die Ecke zu legen und mit der GH1 zu filmen. Über die Quali der RED brauchen wir ja nicht zu streiten.
Der Vergleich ist aber durchaus i. O. - warum denn nicht mal zeigen, was in der Post und dann in 720p-Vimeo-Quali so raus kommt. Das rückt doch vielleicht das Ego (des Amateurs) des einen oder anderen zurecht, der da geglaubt hat, man müsste um einigermaßen was abzuliefern, mindestens eine 5D II oder etwa die kommende RED Scarlet kaufen. Nöö - man sieht sehr gut, dass ein Gehäuse für 650 Euro (!!! - GH1) doch recht gut abschneidet (immer mit Blick auf den Anwendungsbereich des Amateurs . . .), hingegen das Gehäuse der 5D II bereits das ca. vierfache kostet, von einer RED Scarlet (wenn sie dann mal kommt. . .) oder einer RED ONE ganz zu schweigen.
Insofern mutiger aber doch sehr schöner Vergleich mit "Balsam auf die Häupter" der GH1-Besitzer. Die sollen und können sich ruhig freuen . . .
Und da hab ich noch kein Wort über den deutlichen Vorteil der GH1 in Punkto Handling (Filmen durch den Sucher möglich, klappbares Display, 1080p 25fps sowie 720p 50fps etc. im Vergleich zur 5D II) gesagt.
Grüße
Antwort von Rekammlif:
War schon erstaunlich was die daraus gemacht haben, selbst wenn es durch die Post Produktion erst so ausgesehen hat, ist es dennoch mit diesen Kameras möglich. Natürlich muss klar sein das eine Red One auch für die Kinoproduktion genutzt wird was ca das 4 Fache einer normalen HD Kamera wie der GH1 oder Mark2 beträgt, ich schätze auch leider weiss ich es nicht genau, das der Rolling Shutter Effekt bei der Red One nicht so ausgeprägt is, weil dies teilweise bei der Nachberabeitung unbrauchbar und Zeitaufwendig wäre um die Aufnahmen nochmal dafür anzupassen.
Antwort von Rekammlif:
Nöö - man sieht sehr gut, dass ein Gehäuse für 650 Euro (!!! - GH1) doch recht gut abschneidet (immer mit Blick auf den Anwendungsbereich des Amateurs . . .), hingegen das Gehäuse der 5D II bereits das ca. vierfache kostet, von einer RED Scarlet (wenn sie dann mal kommt. . .) oder einer RED ONE ganz zu schweigen.
Wo gibt es das Gehäuse der GH1 zu solch einem Preis????
Antwort von meawk:
Nöö - man sieht sehr gut, dass ein Gehäuse für 650 Euro (!!! - GH1) doch recht gut abschneidet (immer mit Blick auf den Anwendungsbereich des Amateurs . . .), hingegen das Gehäuse der 5D II bereits das ca. vierfache kostet, von einer RED Scarlet (wenn sie dann mal kommt. . .) oder einer RED ONE ganz zu schweigen.
Wo gibt es das Gehäuse der GH1 zu solch einem Preis????
Hab jetzt mal die ca. 900 Euro, die ja das 14-140er Kit zu Buche schlägt abgezogen. Z. Z. kann man leider das Gehäuse nicht einzeln kaufen. Es wird Zeit, dass Panasonic das endlich ermöglicht . . . Ob es dann 650 oder 700 Euro kostet - lassen wir uns überraschen.
Antwort von Rekammlif:
Hab jetzt mal die ca. 900 Euro, die ja das 14-140er Kit zu Buche schlägt abgezogen. Z. Z. kann man leider das Gehäuse nicht einzeln kaufen. Es wird Zeit, dass Panasonic das endlich ermöglicht . . . Ob es dann 650 oder 700 Euro kostet - lassen wir uns überraschen.
Ja hab da leider auch keinen Body, geschweige den zu so einem Preis gefunden, wirklich Schade.
Antwort von freezer:
Der Vergleich ist aber durchaus i. O. - warum denn nicht mal zeigen, was in der Post und dann in 720p-Vimeo-Quali so raus kommt. Das rückt doch vielleicht das Ego (des Amateurs) des einen oder anderen zurecht, der da geglaubt hat, man müsste um einigermaßen was abzuliefern, mindestens eine 5D II oder etwa die kommende RED Scarlet kaufen.
Wenn man die Ergebnisse in Hinsicht auf Verwertung über Youtube und Vimeo als Maßstab heranzieht, dann hast Du recht.
Allerdings wird hier den Leuten trotzdem etwas vorgemacht - nämlich dass sie mit der RED qualitätsmäßig in der gleichen Liga spielen - was eben nicht der Fall ist - nur kann der unbedarfte User das nicht anhand des Webvideos erkennen. Zudem zeigt dieses Video - wie die meisten 35mm Adapter Tests auch - nur extrem verringerte Schärfentiefe. Wenn man dann die Kommentare liest, möchte man glauben die Urheber dieser Filmchen sind Kameragötter bloß weil der Hintergrund so schön unscharf ist... ;)
Antwort von meawk:
@freezer: stimme dir voll zu;
auch die Kommentare sind immer sehr interessant; Hauptsache extrem verringerte Schärfentiefe und dann werden Helden geboren . . . ist natürlich absoluter Blödsinn, was z.T. da so abgeht. Im übrigen überzeugt mich die jeweilige DSLR immer auch erst dann, wenn ich sie mal auf Schärfentiefe mit f8 abgeklopft hab und ob man da nicht nur "unscharfes" Gelände sieht. War z. B. ein großes Manko der Nikon D90 (in der Nähe sehr schön mit Schärfenuntiefe etc., aber Mittel- und Weitdistanz eher schlecht).
Antwort von rk-film:
von einer RED Scarlet (wenn sie dann mal kommt. . .)
Die Red Scarlet kommt (siehe link)
http://reduser.net/forum/showthread.php?t=35497
und ich nehme mal an, dass sich Canon und Co. warm anziehen müssen. Was bringt mir Full HD, wenn die Knipse nicht mal 50p (oder wenigstens 50i) kann, die Blende nur umständlich manuell zu fahren ist, kein vernünftiger Sucher eine wirkliche Bildkontrolle erlaubt, etc.
Gruß Reinhard
Antwort von iasi:
von einer RED Scarlet (wenn sie dann mal kommt. . .)
Die Red Scarlet kommt (siehe link)
http://reduser.net/forum/showthread.php?t=35497
Gruß Reinhard
aha - und wo steht das da in dem ewig lange gejuble ala "That's awesome", "Wonderful!" und so weiter ?
na und canon und co werden ganz schnell 1080@50/60p-cams nachschieben, sobald red seine ersten scarlets auf den markt bringt - und die werden dann kein jahr brauchen, um die nötigen stückzahlen zu produzieren ... aber vielleicht dauert es canon auch irgendwann zu lange und sie warten doch nicht mehr auf red, denn wann die scarlet kommt, steht ja wohl in den sternen (das weihnachtsgeschäft 2009 nehmen sie wohl nicht mehr mit - vielleicht dann das 2010 - oder 2011 ...)
der größte trumph von red ist aber red-raw - und allein schon deshalb spielt die red one in einer ganz anderen liga als die GH1 und 5dII (die ich übrigens besitze, die ich aber sicherlich nur bei low-light gegen eine red one antreten lassen würde, denn nur da würde sie im direkten vergleich eine gute figur machen).
Antwort von virusmedia:
Hab hier ein sehr schönes Netzfundstück, dass die filmischen Qualitäten der Canon 5D MK II unter Beweis stellt!
Color Grading macht verdammt viel aus wenn ihr mich fragt! Was meint ihr???
Greetz,
Franky
Antwort von freezer:
Gerade die ersten zwei Einstellungen zeigen schön das Limit vom komprimierten Format der 5D (in den Lichtern).
Ansonsten ganz gut gemacht, auch wenn das Compositing am Ende mit der Couchtotalen nicht so gelungen ist (dunkle Konturränder um die Couch, falsche Spiegelung am Boden von Couch und Beinen).
Allerdings hätte man so ein Ergebnis auch mit einer Canon XH-A1 oder einer anderen vergleichbaren Kamera erreichen können.
Antwort von iasi:
Gerade die ersten zwei Einstellungen zeigen schön das Limit vom komprimierten Format der 5D (in den Lichtern).
Ansonsten ganz gut gemacht, auch wenn das Compositing am Ende mit der Couchtotalen nicht so gelungen ist (dunkle Konturränder um die Couch, falsche Spiegelung am Boden von Couch und Beinen).
Allerdings hätte man so ein Ergebnis auch mit einer Canon XH-A1 oder einer anderen vergleichbaren Kamera erreichen können.
aha ... und das alles kann man anhand eines youtube-videos beurteilen? Respekt - könnt ich nicht.
vor allem "das Limit vom komprimierten Format der 5D" an einem internet-Video abzulesen - das grenzt schon fast an Hexerei ...
Antwort von freezer:
aha ... und das alles kann man anhand eines youtube-videos beurteilen? Respekt - könnt ich nicht.
vor allem "das Limit vom komprimierten Format der 5D" an einem internet-Video abzulesen - das grenzt schon fast an Hexerei ...
Tja, wenn Du so wie ich solche Sachen beruflich machen würdest, könntest Du das auch beurteilen...
Antwort von iasi:
aha ... und das alles kann man anhand eines youtube-videos beurteilen? Respekt - könnt ich nicht.
vor allem "das Limit vom komprimierten Format der 5D" an einem internet-Video abzulesen - das grenzt schon fast an Hexerei ...
Tja, wenn Du so wie ich solche Sachen beruflich machen würdest, könntest Du das auch beurteilen...
oh - das mach ich schon - und ich kenne die unterschiede zwischen den 5d-movs und red-raw aus der praxis ...
dennoch:
selbst eine auf youtube-format eingedampfte red-one-aufnahme wird so einiges an qualität einbüßen ...
ich erinnere mich zudem an den vergelichstest, den ein paar norweger angestellt hatten: red one gegen 5dII ... und die hatten wenigstens natives material ... nur verglichen sie die beschnittenen movs der 5dII - apple brachte erst später ein korregiertes quicktime heruas, das die vollen 0-255 anzeigte.
wie auch immer - die red one spielt eh in einer ganz anderen liga ... die vergleiche mit der 2200€ 5dII sind daher ziemlich abgehoben ... meine 5d ist nett und die low light fähigkeiten einfach nur lecker, aber eine red one ... da kostet schließlich auch die wochenmiete so viel wie das 5dII-gehäuse
Antwort von freezer:
oh - das mach ich schon - und ich kenne die unterschiede zwischen den 5d-movs und red-raw aus der praxis ...
Ich auch - ist ja keine Hexerei.
dennoch:
selbst eine auf youtube-format eingedampfte red-one-aufnahme wird so einiges an qualität einbüßen ...
Ich hab ja auch nicht die Webkompression gemeint, sondern das unterschiedliche Channel-Clipping in den Highlights bedingt durch das Videoformat der Canon. Durch das Grading wurde das auch nochmal verstärkt.
Jeglicher Kameravergleich via Videoportal ist ziemlich sinnlos, solange die Videos nicht zumindest in Full-HD und in einem hochwertigen Format vorliegen.
nur verglichen sie die beschnittenen movs der 5dII - apple brachte erst später ein korregiertes quicktime heruas, das die vollen 0-255 anzeigte.
Wenn man weiß was man tut, dann ging das auch vorher schon zu korrigieren, war halt der Umweg über zB After Effects und 32bit Processing nötig.
Hab auch genügend RED Material gesehen, wo in der Postpro die Highlights auch falsch behandelt und somit zu früh geclippt wurden.
wie auch immer - die red one spielt eh in einer ganz anderen liga ... die vergleiche mit der 2200€ 5dII sind daher ziemlich abgehoben ... meine 5d ist nett und die low light fähigkeiten einfach nur lecker, aber eine red one ... da kostet schließlich auch die wochenmiete so viel wie das 5dII-gehäuse
Die Ergebnisse der 5D sind zweifellos erstaunlich gut, v.a. wenn man berücksichtigt, welche Kompromisse Canon eingegangen ist, um aus dem CMOS 30fps in Full-HD auslesen zu können.
Antwort von alibaba:
Color Grading macht verdammt viel aus wenn ihr mich fragt! Was meint ihr???
absolut ich mach dir nen kinofilm mit ner digitalknipse, nur mit color.
ok paar coole kameraeinstellungen vielleicht noch.
Antwort von iasi:
oh - das mach ich schon - und ich kenne die unterschiede zwischen den 5d-movs und red-raw aus der praxis ...
Ich auch - ist ja keine Hexerei.
dennoch:
selbst eine auf youtube-format eingedampfte red-one-aufnahme wird so einiges an qualität einbüßen ...
Ich hab ja auch nicht die Webkompression gemeint, sondern das unterschiedliche Channel-Clipping in den Highlights bedingt durch das Videoformat der Canon. Durch das Grading wurde das auch nochmal verstärkt.
Jeglicher Kameravergleich via Videoportal ist ziemlich sinnlos, solange die Videos nicht zumindest in Full-HD und in einem hochwertigen Format vorliegen.
nur verglichen sie die beschnittenen movs der 5dII - apple brachte erst später ein korregiertes quicktime heruas, das die vollen 0-255 anzeigte.
Wenn man weiß was man tut, dann ging das auch vorher schon zu korrigieren, war halt der Umweg über zB After Effects und 32bit Processing nötig.
Hab auch genügend RED Material gesehen, wo in der Postpro die Highlights auch falsch behandelt und somit zu früh geclippt wurden.
wie auch immer - die red one spielt eh in einer ganz anderen liga ... die vergleiche mit der 2200€ 5dII sind daher ziemlich abgehoben ... meine 5d ist nett und die low light fähigkeiten einfach nur lecker, aber eine red one ... da kostet schließlich auch die wochenmiete so viel wie das 5dII-gehäuse
Die Ergebnisse der 5D sind zweifellos erstaunlich gut, v.a. wenn man berücksichtigt, welche Kompromisse Canon eingegangen ist, um aus dem CMOS 30fps in Full-HD auslesen zu können.
übrigens ist auch die red one nicht vor clipping und farbrauschen gefeit - die verlangt nach sehr sauberer belichtung, wenn man wirklich alles aus der cam herausholen will, was sie zu bieten hat ... und sie braucht eine gute lichtsetzung ... für no- oder low-budget taugt sie nicht.
das ist keine video-cam und alle, die meinen, man könne da ein prime dranschrauben und frisch drauf los filmen, der ... (ich sags nicht)
auch die 5dII sollte man lieber im laden lassen, wenn man auf AF und lange aufnahmezeiten wert legt - auch die 5dII ist eher eine digi-film- denn eine videokamera ...
h.264 ist nicht toll und die eigentliche schwäche der 5dII ... aber die 40mb/s fangen immerhin einiges auf - für h.264 ist das nämlich schon sehr üppig ... dennoch nutzt canon nur h.264 baseline ...
auch die red one hat ihre schwächen - der sensor bringt gerade mal 9 blendenstufen und verlangt nach korrekter farbtemperatur ... aber das soll ja bei den neuen reds besser werden (wenn sie denn mal kommen)
letztlich kommt es aber eben darauf an, was man draus macht - ich hab schon tolle 5dII aufnahmen und grottige red one-aufnahmen gesehen ...
Antwort von WoWu:
@ iasi
dennoch nutzt canon nur h.264 baseline ...
Das ist nicht ganz korrekt.
Canon benutzt AVC 77 Level 5. Das ist nicht Baseline sondern Main-Profile.
Baseline wäre 66-x und ist vornehmlich für Videokonferenzen vorgesehen.
Aber ich stimme mit Dir im Kern der Aussage überein.
Es ist schon verdammt mickrig.
Nur wie, um alles in der Welt, entstehen dann solche Aufnahmen ?
Antwort von Marco:
"apple brachte erst später ein korregiertes quicktime heruas, das die vollen 0-255 anzeigte."
Das leider bis heute H.264 noch nicht so decodiert, wie es wünschenswert wäre, da es lediglich eine nachträgliche Spreizung anzuwenden scheint. Entgegen einem direkten Decoding in den Bereich 0-255, wie es beispielsweise über AVISynth herzuführen ist, sind nach Quicktime-Decoding von H.264 bei technischer Analyse deutliche Artefakte in den RGB-Signalen nachweisbar. Was dort geschieht, taugt nicht mehr als würde man selbst nachträglich das zuvor gepresste Signal wieder spreizen. Ich halte das für Augenwischerei, aber gleichzeitig auch fast schon wieder für Erbsenzählerei.
Marco
Antwort von carstenkurz:
auch die red one hat ihre schwächen - der sensor bringt gerade mal 9 blendenstufen und verlangt nach korrekter farbtemperatur ... aber das soll ja bei den neuen reds besser werden (wenn sie denn mal kommen)
So ziemlich jeder gegenwärtig für bildmäßige Aufnahmen gebaute Sensor bevorzugt Tageslicht und rauscht mehr bei Kunstlicht. Das kann man natürlich, wenn man will, nach aussen verschleiern, aber nimmt dann eben gleichzeitig ein schlechter-als-möglich bei Tageslicht in Kauf.
- Carsten
Antwort von iasi:
@ iasi
dennoch nutzt canon nur h.264 baseline ...
Das ist nicht ganz korrekt.
Canon benutzt AVC 77 Level 5. Das ist nicht Baseline sondern Main-Profile.
Baseline wäre 66-x und ist vornehmlich für Videokonferenzen vorgesehen.
Aber ich stimme mit Dir im Kern der Aussage überein.
Es ist schon verdammt mickrig.
Nur wie, um alles in der Welt, entstehen dann solche Aufnahmen ?
richtig - main ... ändert aber nichts an 4:2:0 und 8-bit
wobei: man kann mit der 5dII tolle aufnahmen machen - die ganze technikkleinglaubereien finde ich eh übertrieben ... die tv-profis bestehen zwar immer auf sendefähigen standard, senden dann aber all zu oft in unterirdischer qualität - was nicht am ausgangsmaterial liegt ...
red one macht eh nur wirklich sinn, wenn man das resultat auf der kinoleinwand sehen will ... und selbst da würden die meisten zuschauer gar nicht bemerken, dass die bilder aus einer 5dII oder hd-cam kommen ...
Antwort von iasi:
auch die red one hat ihre schwächen - der sensor bringt gerade mal 9 blendenstufen und verlangt nach korrekter farbtemperatur ... aber das soll ja bei den neuen reds besser werden (wenn sie denn mal kommen)
So ziemlich jeder gegenwärtig für bildmäßige Aufnahmen gebaute Sensor bevorzugt Tageslicht und rauscht mehr bei Kunstlicht. Das kann man natürlich, wenn man will, nach aussen verschleiern, aber nimmt dann eben gleichzeitig ein schlechter-als-möglich bei Tageslicht in Kauf.
- Carsten
letztlich muss eben ein filter vor die linse - das schluckt dann eben licht, ist aber nicht weiter tragisch - WB-set ist eigentlich nicht die ideale lösung - aber eben elegant.
Antwort von iasi:
"apple brachte erst später ein korregiertes quicktime heruas, das die vollen 0-255 anzeigte."
Das leider bis heute H.264 noch nicht so decodiert, wie es wünschenswert wäre, da es lediglich eine nachträgliche Spreizung anzuwenden scheint. Entgegen einem direkten Decoding in den Bereich 0-255, wie es beispielsweise über AVISynth herzuführen ist, sind nach Quicktime-Decoding von H.264 bei technischer Analyse deutliche Artefakte in den RGB-Signalen nachweisbar. Was dort geschieht, taugt nicht mehr als würde man selbst nachträglich das zuvor gepresste Signal wieder spreizen. Ich halte das für Augenwischerei, aber gleichzeitig auch fast schon wieder für Erbsenzählerei.
Marco
hmm ... ist das wirklich so?
anfangs hatte ich auch die avisynth-lösung genutzt - genaue vergleiche habe ich zwar nicht angestellt, aber ich hatte eigentlich schon das gefühl, dass mit dem neuen quicktime das problem gelöst war ...
bedenke ich die iso-einstellungen die ich oft nutze, sind meine ganzen überlegungen zu h.264, farbrauschen usw wirklich ziemlich akademisch und übertrieben - wahr ist nämlich: in der realität bin ich gar nicht so anspruchsvoll und auch mal von rauschigen iso3200-5dII-aufnahmen begeistert
Antwort von Marco:
Ich hatte es mir heute Mittag mit Quicktime 7.6.4 nochmal angeschaut. Da war es so. Aber wie hier schon mehrfach aufgezeigt wurde, ist das alles relativ relativ ;)
Letztlich macht sich (fast) keiner die Mühe, die letzten Farbraum-Qualitätsreserven per AVISynth-Umweg rauszukitzeln und die Resultate sind dennoch umwerfend gut.
Marco
Antwort von carstenkurz:
red one macht eh nur wirklich sinn, wenn man das resultat auf der kinoleinwand sehen will ... und selbst da würden die meisten zuschauer gar nicht bemerken, dass die bilder aus einer 5dII oder hd-cam kommen ...
Wenn man berücksichtigt, dass die meisten Besucher im Kino instinktiv die hinteren Plätze ansteuern, mag das zutreffend sein. Aber die effektive Auflösung der 5D ist dann doch grenzwertig im Vergleich zu HDcam und Kinostandards. Von der 30/24p Problematik mal ganz zu schweigen. Und aus eigener Erfahrung kann ich sagen, dass Aliasing auf der großen Leinwand ganz schön auffällt. Das ist frequenzmässig ein totaler Fremdkörper. Die meisten Zuschauer werden es natürlich nicht als solches identifizieren können. Das gilt aber für viele andere Bildfehler auch und darf ja kein Grund sein, die Messlatte da festzumachen, wo den Zuschauern irgendwas auffällt. Immerhin gehen auch ne Menge visuell geschulter Leute ins Kino und auch die wollen für ihr Geld einwandfreie Qualität.
Bei allem Hype um 5D und 7D - da muss noch reichlich was passieren.
Ich glaube nicht, dass es auf Dauer Sinn macht, einen 20Mpix Sensor als Basis einer FHD-Videokamera zu nehmen. Es dürfte eher so kommen, dass Canon ihr Konzept der ProSumer/Semiprofi Camcorder XL-xx gründlich überarbeiten werden. Der Aufwand, aus einer DSLR eine vernünftige Videokamera zu machen dürfte einfach zu hoch sein und für zuviel Irritation bei den Photographen sorgen. Canon müsste ein anderes Sucherkonzept und eigene Vollformat-Objektive für den Videobereich entwickeln, vom enormen Signalverarbeitungsaufwand für eine vernünftige Sensorsignalverarbeitung mal abgesehen.
Es dürfte entschieden einfacher sein, einen großformatigen FHD-Chip in eine XL zu werfen und etwas Signalverarbeitungshardware und -KnowHow aus den DSLRs hinterher. Die nötige Linse wird dann schon dafür sorgen, dass das Ding gewohnt teuer werden darf. Spätestens mit dem nächsten XL Modell dürfte der DSLR-Videohype einen ziemlich Dämpfer erfahren, da muss man Sony und RED gar nicht mal berücksichtigen.
- Carsten
Antwort von iasi:
Ich hatte es mir heute Mittag mit Quicktime 7.6.4 nochmal angeschaut. Da war es so. Aber wie hier schon mehrfach aufgezeigt wurde, ist das alles relativ relativ ;)
Letztlich macht sich (fast) keiner die Mühe, die letzten Farbraum-Qualitätsreserven per AVISynth-Umweg rauszukitzeln und die Resultate sind dennoch umwerfend gut.
Marco
also vor der quicktime-anpassung waren die einbusen schon extrem - hingegen sind mir keine unterschiede zwischen avisynth und dem angepassten qt aufgefallen
Antwort von iasi:
red one macht eh nur wirklich sinn, wenn man das resultat auf der kinoleinwand sehen will ... und selbst da würden die meisten zuschauer gar nicht bemerken, dass die bilder aus einer 5dII oder hd-cam kommen ...
Wenn man berücksichtigt, dass die meisten Besucher im Kino instinktiv die hinteren Plätze ansteuern, mag das zutreffend sein. Aber die effektive Auflösung der 5D ist dann doch grenzwertig im Vergleich zu HDcam und Kinostandards. Von der 30/24p Problematik mal ganz zu schweigen. Und aus eigener Erfahrung kann ich sagen, dass Aliasing auf der großen Leinwand ganz schön auffällt. Das ist frequenzmässig ein totaler Fremdkörper. Die meisten Zuschauer werden es natürlich nicht als solches identifizieren können. Das gilt aber für viele andere Bildfehler auch und darf ja kein Grund sein, die Messlatte da festzumachen, wo den Zuschauern irgendwas auffällt. Immerhin gehen auch ne Menge visuell geschulter Leute ins Kino und auch die wollen für ihr Geld einwandfreie Qualität.
Bei allem Hype um 5D und 7D - da muss noch reichlich was passieren.
Ich glaube nicht, dass es auf Dauer Sinn macht, einen 20Mpix Sensor als Basis einer FHD-Videokamera zu nehmen. Es dürfte eher so kommen, dass Canon ihr Konzept der ProSumer/Semiprofi Camcorder XL-xx gründlich überarbeiten werden. Der Aufwand, aus einer DSLR eine vernünftige Videokamera zu machen dürfte einfach zu hoch sein und für zuviel Irritation bei den Photographen sorgen. Canon müsste ein anderes Sucherkonzept und eigene Vollformat-Objektive für den Videobereich entwickeln, vom enormen Signalverarbeitungsaufwand für eine vernünftige Sensorsignalverarbeitung mal abgesehen.
Es dürfte entschieden einfacher sein, einen großformatigen FHD-Chip in eine XL zu werfen und etwas Signalverarbeitungshardware und -KnowHow aus den DSLRs hinterher. Die nötige Linse wird dann schon dafür sorgen, dass das Ding gewohnt teuer werden darf. Spätestens mit dem nächsten XL Modell dürfte der DSLR-Videohype einen ziemlich Dämpfer erfahren, da muss man Sony und RED gar nicht mal berücksichtigen.
- Carsten
also ich erinnere mich an einen test im film&tv kameramann : von einer kleinen sony hdv-cam wurde auf 35mm ausbelichtet und dann leuten im kino vorgesetzt - erst im direkten vergleich mit 35mm aufnahmen viel den zuschauern der unterschied auf.
die diskussion über die projektionsqualität in kinos wurde ja schon oft geführt - interessant fand ich jedoch die klagen vieler leute über den formatwechsel bei der dark knight bluray, die zwischen den "normalen" und den im imax-format gefilmten szenen ... den qualitätsunterschied sieht man übrigens selbst bei der bluray ...
lange rede, kurzer sinn: die 5dII-qualität ginge auch fürs kino - viele gründe für eine kinoproduktion eine 5dII zu nutzen, sehe ich andererseits nicht (eigentlich wären da nur die low light-fähigkeiten)
der dslr-hype besteht doch nur aus einem einfachen grund: es gibt für vergleichsbares geld keine cams mit solchen sensoren - und dabei geht es ja nicht nur um die größe.
für die hersteller war die video-implementierung eh nur noch eine firmware-angelegenheit - die sensoren bringen eh schon lange 60fps, liveeview mit ordentlichem display ist drin, die rechenleistung reicht ...
die objektive taugen übrigens auch fürs filmen - soll mir doch nur keiner erzählen, dass die foto-profis sich mit weniger abbildungsqualität zufrieden geben, wie die film-profis ... blendeneinstellung und fokusierung sind ein anderes thema
Antwort von Marco:
"also vor der quicktime-anpassung waren die einbusen schon extrem - hingegen sind mir keine unterschiede zwischen avisynth und dem angepassten qt aufgefallen"
Die wären den meisten ohne AVYSynth-Umweg, aber mit nachträglicher Tonwertkorrektur bei älteren Quicktime-Versionen auch nicht aufgefallen.
Marco
Antwort von iasi:
"also vor der quicktime-anpassung waren die einbusen schon extrem - hingegen sind mir keine unterschiede zwischen avisynth und dem angepassten qt aufgefallen"
Die wären den meisten ohne AVYSynth-Umweg, aber mit nachträglicher Tonwertkorrektur bei älteren Quicktime-Versionen auch nicht aufgefallen.
Marco
also das stimmt so sicherlich nicht - dazu war der tonwertumfang zu erheblich beschnitten ... wenn die wolken weg sind, dann sind sie weg - und wenn der waldrand erst mal in schwarzer soße verläuft, dann sind da eben keine details mehr durch tonwertkorrektur herauszuholen ... das war schon recht extrem damals ...
Antwort von Marco:
Quicktime hatte zumindest auf Windows-Plattformen nichts beschnitten, nur gedrückt. Ich glaube, lediglich auf dem Mac gab es ein paar Konstellationen (z.B. mit Final Cut), bei denen es auch zum Beschneiden des Signals kam, wenn die Quicktime-Architektur mit im Spiel war. Im Vergleich dazu hat es sich dort mit aktuellen Quicktime-Versionen tatsächlich deutlich gebessert.
Marco
Antwort von JonasB:
also ich erinnere mich an einen test im film&tv kameramann : von einer kleinen sony hdv-cam wurde auf 35mm ausbelichtet und dann leuten im kino vorgesetzt - erst im direkten vergleich mit 35mm aufnahmen viel den zuschauern der unterschied auf.
die diskussion über die projektionsqualität in kinos wurde ja schon oft geführt - interessant fand ich jedoch die klagen vieler leute über den formatwechsel bei der dark knight bluray, die zwischen den "normalen" und den im imax-format gefilmten szenen ... den qualitätsunterschied sieht man übrigens selbst bei der bluray ...
lange rede, kurzer sinn: die 5dII-qualität ginge auch fürs kino - viele gründe für eine kinoproduktion eine 5dII zu nutzen, sehe ich andererseits nicht (eigentlich wären da nur die low light-fähigkeiten)
der dslr-hype besteht doch nur aus einem einfachen grund: es gibt für vergleichsbares geld keine cams mit solchen sensoren - und dabei geht es ja nicht nur um die größe.
für die hersteller war die video-implementierung eh nur noch eine firmware-angelegenheit - die sensoren bringen eh schon lange 60fps, liveeview mit ordentlichem display ist drin, die rechenleistung reicht ...
die objektive taugen übrigens auch fürs filmen - soll mir doch nur keiner erzählen, dass die foto-profis sich mit weniger abbildungsqualität zufrieden geben, wie die film-profis ... blendeneinstellung und fokusierung sind ein anderes thema
Also ich weiß noch, wie ich als kleiner Junge, ganz stolz und heimlich (war erst 13) 28 days later auf dem Flohmarkt gekauft hab. Und erst als ich Jahre später nen Kurzfilm mit ner XL1 gedreht hab, hab ich mitbekommen, dass der Film auf DV gedreht wurde.
Ok, die Wahrnehmung eines 13 jährigen ist sicher nicht so fit, aber ich denke das auch kaum einem anderen etwas negatives aufgefallen ist. (Abgesehen von Menschen die sich damit beschäftigen)
Denke auch, dass die 5D Kino tauglich ist, aber noch mindestens 2 Welten vom Film entfernt.
M F G
Jonas
Antwort von freezer:
übrigens ist auch die red one nicht vor clipping und farbrauschen gefeit - die verlangt nach sehr sauberer belichtung, wenn man wirklich alles aus der cam herausholen will, was sie zu bieten hat ... und sie braucht eine gute lichtsetzung ... für no- oder low-budget taugt sie nicht.
das ist keine video-cam und alle, die meinen, man könne da ein prime dranschrauben und frisch drauf los filmen, der ... (ich sags nicht)
Die RED clipped aber schon gleichmäßig in allen Kanälen und so kriegt man in den Hauttönen nicht diesen typischen Gelbstich in den Highlights wie bei vielen anderen Videokameras.
Drauflosfilmen kann man schon, aber dann kommt der gleiche Mist wie bei allen Kameras raus ;)
Wer ernsthaft Filme macht, wird mit jeder Kamera sorgfältig arbeiten.
Ich hatte übrigens bisher keine Mühe Licht für die RED zu setzen...
auch die red one hat ihre schwächen - der sensor bringt gerade mal 9 blendenstufen
"Grade mal" 9 Blendenstufen? Die Canon DSLRs bringen im Fotomodus auch "nur" 9,5 + 1 Blendenstufen im RAW Modus. Und ziemlich genau 10 Blendenstufen habe ich in den RED Aufnahmen bisher auch gehabt.
Die 9 Blendenstufen höre ich immer nur von Leuten, deren Aufnahmen nur zeigen, dass sie mit dem Workflow noch nicht zurechtkommen und Highlights in der Post zu früh clippen.
Abgesehen davon hat Film auch "nur" 10-11 Blendenstufen - keines meiner Fachbücher bestätigt da auch nur einmal ein höheres Ergebnis. Dafür behaupten ein paar eingefleischte 35mm Nutzer, dass Film 16 Blendenstufen hat - geht zwar von der Maximaldichte Log E 3.0 (=1/1024) des Films her schon gar nicht, aber macht nix. :D
Antwort von carstenkurz:
also ich erinnere mich an einen test im film&tv kameramann : von einer kleinen sony hdv-cam wurde auf 35mm ausbelichtet und dann leuten im kino vorgesetzt - erst im direkten vergleich mit 35mm aufnahmen viel den zuschauern der unterschied auf.
Ähm, HDV macht auch mehr Auflösung als die 5D, von der diesbezüglichen Artefaktfreiheit mal ganz zu schweigen, da muss man das deutlich einfachere 25-24fps auch nicht mehr großartig erwähnen.
- Carsten
Antwort von freezer:
Wen's interessiert:
Ich hab mal einen frei verfügbaren Canon 5D Clip von Philip Bloom bearbeitet um zu sehen, was ich da rausholen kann.
Originales AVC MOV
Überarbeitetes MJPG AVI
Ich habe dabei den Luminanzbereich auf die volle Bandbreite korrigiert (sieht man schön im Anzug), Weißabgleich angepasst, Rauschen und Kompressionsartefakte entfernt, Überschärfen an Kontrastkanten reduziert, leichtes Filmkorn reingerechnet und die Bildrate von 30 fps auf 25 fps konvertiert.
Insgesamt lässt sich da schon was rausholen, aus der 5D.
Ich biete u.a. solcherlei Dinge als Postpro-Dienstleistung an.
Antwort von WoWu:
@ iasi
richtig - main ... ändert aber nichts an 4:2:0 und 8-bit
Nur darf man das miteinander nicht vermengen.
4:2:0 und/oder 8bit hat mit dem Codec absolut nichts zu tun.
@freezer
Dafür behaupten ein paar eingefleischte 35mm Nutzer, dass Film 16 Blendenstufen hat - geht zwar von der Maximaldichte Log E 3.0 (=1/1024) des Films her schon gar nicht, aber macht nix. :D
Die Dichte ist lediglich eine andere Bezeichnung für den Gamma Verlauf und "eingefleischte 35mm Nutzer" gehen sogar von mehr als 16 Blenden aus:
So geht zum Beispiel ARRI von 20 Blenden für das Kodak 5279 Filmmaterial bei einer Dichte von weniger als 3 aus. (Immerhin geht anderes Filmmaterial bis zur Dichte 4 und die Funktion gibt lediglich Aufschluss über den Anstieg der Gammakurve).
Nun kann man ARRI sicher auch als "eingefleischte 35mm Nutzer" bezeichnen, aber ich würde mal die Literatur wechseln.
Siehe Anlage: Quelle ARRI
Antwort von iasi:
übrigens ist auch die red one nicht vor clipping und farbrauschen gefeit - die verlangt nach sehr sauberer belichtung, wenn man wirklich alles aus der cam herausholen will, was sie zu bieten hat ... und sie braucht eine gute lichtsetzung ... für no- oder low-budget taugt sie nicht.
das ist keine video-cam und alle, die meinen, man könne da ein prime dranschrauben und frisch drauf los filmen, der ... (ich sags nicht)
Die RED clipped aber schon gleichmäßig in allen Kanälen und so kriegt man in den Hauttönen nicht diesen typischen Gelbstich in den Highlights wie bei vielen anderen Videokameras.
Drauflosfilmen kann man schon, aber dann kommt der gleiche Mist wie bei allen Kameras raus ;)
Wer ernsthaft Filme macht, wird mit jeder Kamera sorgfältig arbeiten.
Ich hatte übrigens bisher keine Mühe Licht für die RED zu setzen...
auch die red one hat ihre schwächen - der sensor bringt gerade mal 9 blendenstufen
"Grade mal" 9 Blendenstufen? Die Canon DSLRs bringen im Fotomodus auch "nur" 9,5 + 1 Blendenstufen im RAW Modus. Und ziemlich genau 10 Blendenstufen habe ich in den RED Aufnahmen bisher auch gehabt.
Die 9 Blendenstufen höre ich immer nur von Leuten, deren Aufnahmen nur zeigen, dass sie mit dem Workflow noch nicht zurechtkommen und Highlights in der Post zu früh clippen.
Abgesehen davon hat Film auch "nur" 10-11 Blendenstufen - keines meiner Fachbücher bestätigt da auch nur einmal ein höheres Ergebnis. Dafür behaupten ein paar eingefleischte 35mm Nutzer, dass Film 16 Blendenstufen hat - geht zwar von der Maximaldichte Log E 3.0 (=1/1024) des Films her schon gar nicht, aber macht nix. :D
mehr als 10-11 blendenstufen kann man schon herausholen, wenn man wirklich alle register zieht - 16 erscheint mir dann aber doch auch ein ziemlich hoher wert ...
ich erinnere mich an einen post von red im forum, bei dem jannard auf die rauschproblematik einging - beherrschbar ist das zweifelsohne - und wer weiß damit umzugehen, bekommt auch tolle ergebnisse
beim lichtsetzen ging es mir letztlich um die lichtmenge, die eine red one benötigt - und das ist dann schon ein zeit- und kostenfaktor ... idealerweise braucht die red one schließlich ausreichend licht für ihre iso250-320 und eben die 5000kelvin ... will man etwas schärfentiefe und eben angemessenes abblenden, dann muss man eben schon auch etwas mehr licht auffahren - ein korrekturfilter frisst dann nochmal etwas licht ...
wer schon mit einer red one drehen will, der sollte schon auch alles aus der kamera herausholen, was geht ... sonst lohnt sich"s nur im hinblick auf die vita
Antwort von iasi:
@ iasi
richtig - main ... ändert aber nichts an 4:2:0 und 8-bit
Nur darf man das miteinander nicht vermengen.
4:2:0 und/oder 8bit hat mit dem Codec absolut nichts zu tun.
@freezer
ach ja?
das h.264 main-profil sieht aber nun mal nicht mehr als 4:2:0 und 8-bit vor ... erst die high-profile bieten bis zu 4:4:4 und 12 bit ...
aber sei es auch drum - es gibt ja sogar gerüchte, dass canon durch ein firmware-update raw bieten wolle - was ich für sehr sehr unwahrscheinlich halte ... aber vielleicht drehen sie ja etwas am codec - was ich aber auch nicht für sehr wahrscheinlich halte ...
würde die 5dII nicht h.264 verwenden, dann ...
aber leider tut sie es nun mal - damit muss man leben ...
übrigens:
würde dieser ansatz ordentlich funktionieren, dann wäre das immerhin schon mal eine erleichterung beim schnitt:
http://www.divideframe.com/?p=gpudecoder
Antwort von JonasB:
Wen's interessiert:
Ich hab mal einen frei verfügbaren Canon 5D Clip von Philip Bloom bearbeitet um zu sehen, was ich da rausholen kann.
Mich interressierts ;) Ist zwar nur ne kurze Sequenz, aber find das Ergebnis deutlich besser. Hut ab ! Könntest du genauer erklären wie du dabei vorgegangen bist? ;) Was für Rauschfilter du zum Beispiel benutzt hast, so das ich es nachvollziehen kann?...Würde mich interressieren wie man Raw Material allgemein so aufpeppelt.
M F G
Jonas
P.S. Meine das Material ist von Laforet ;)
Antwort von WoWu:
@ iasi
das h.264 main-profil sieht aber nun mal nicht mehr als 4:2:0 und 8-bit vor ...
Da wär ich mir eben nicht so sicher, denn die ISO-Spezifikationen 14496
http://scorpiontheater.com/Documents/IP ... bjects.pdf
... beschreiben im Annex A die Limitierungen der Profiles und eine derartige Einschränkung ist dort nicht definiert.
Vielleicht ist das wieder so eine Industrieerfindung, wie auch das 1440.
Jedenfalls wird eine solche Einschränkung vom Standard offenbar nicht getragen und ich finde den Standard schon verbindlich. Aber vielleicht habe ich ja was übersehen ?
Und ich denke, nur weil andere Profiles 4:2:2 im Namen tragen darf nicht den Rückschluss zulassen, dass andere Profiles das nicht können.
Es gibt auch keinen Grund anzunehmen, warum der Bitstream nicht die entsprechenden Chromasamples übertragen sollte. Auch im Flagging gibt es keine Limitierung.
Würde mich also interessieren, ob Du da noch über andere, weiterreichende Informationen verfügst, die das transparenter machen.
Für mich ist im ersten Ansatz immer der Original-Standard das Referenzpapier.
Was die DSRL/RED Diskussion angeht, so glaube ich, dass der konservative Produzent mit seinem ARRI Produkt noch lange im Recht bleiben wird.
Nimmt man einmal die letzte IBC als Milestone, so konnte man von dem ALEV III bereits interessanten Footage in 16 Bit Bildern betrachten und die 2-Channel Auslesung des Sensors generiert einen überraschenden Gammaverlauf).
Die Performance von RED war eher mager und wenn man die beiden neuen Modellreihen EPIC(red) und AlevIII (Arri) vergleicht, liegt man preislich glaub ich auch nicht mehr soweit auseinander.
Bei ARRI konnte man zumindest schonmal sehr aufschlussreiches Footage betrachten und gute, verlässliche Vergleichswerte sehen, während Jim Jannard nur ein poppige RED-one-video dabei hatte, das eigentlich aus hochglanzproduzierten Einzelbildern bestand.
Von DSRL ganz zu schweigen. Schliesslich hat iasi mit dem 4:2:0 / 8Bit Einwand völlig Recht.
Bevor das mehr wird, sind die Hersteller guter Videogeräte längst davon gezogen. Es sind nun mal Geräte, die für kurze Video Schnipsel, erklärtermassen für das Internet, gemacht worden sind.
Antwort von iasi:
liegen nicht doch ein paar € zwischen arri und red?
was mich ein wenig bei den neuen arris irritiert:
"3.5K pixel count provides optimum oversampling for HD Video and 2K DI"
ich weiß also nicht recht - schließlich stellen jetzt sogar schon in deutschland die kinos auf 4k-projektion um ...
beachtlich sind die daten der arri aber schon - eine beeindruckende entwicklung bei den digital-cinema-cams ... red macht mit der nächsten sensorgeneration z.b. ebenfalls einen schritt auf iso800 - so red ( http://www.reduser.net/forum/showthread.php?t=35156 )
bin ja mal gespannt, welche neuigkeiten red diesen monat zu verkünden hat - zeit wird es langsam aber wirklich mal, dass red in die hufe kommt.
die spiegelreflex mit videofunktion sind in ihrer liga aber durchaus nicht zu verachten - bisher liegen sie in ihrer preisklasse im bereich szenischer film durchaus vor den video-cams ...
Antwort von JonasB:
Hier einmal RedOne Aufnahmen, die bis auf die 120 fps aussehen wie aus ner HV20...
http://www.vimeo.com/6942630
Selbst eine Red macht von alleine keine guten Bilder^^ Schade ;)
M F G
Jonas
Antwort von alibaba:
Wie isn der Brennweitenbereich des 8x fixed Zooms der Scarlet is das bekannt? durchgehend Blende 2,4 war das?
Antwort von iasi:
Hier einmal RedOne Aufnahmen, die bis auf die 120 fps aussehen wie aus ner HV20...
http://www.vimeo.com/6942630
Selbst eine Red macht von alleine keine guten Bilder^^ Schade ;)
M F G
Jonas
ja ... wirklich "schade" ...
aber so ist das nun mal: jeder der schon mal mit einer red gedreht hat, gehört zur profi-liga ... das empfinde ich langsam wirklich als problem, wenn es um die zusammenstellung einer crew geht ... meistens ist aber glücklicherweise schon nach wenigen sätzen die heisse luft raus - oder eben nach solchen clips
Antwort von iasi:
Wie isn der Brennweitenbereich des 8x fixed Zooms der Scarlet is das bekannt? durchgehend Blende 2,4 war das?
"Everything in life changes... including our camera specs and delivery dates..."
vielleicht legt sich red diesen monat aber wirklich mal fest - eine große verlautbarung ist zumindest angekündigt
Antwort von rk-film:
Hier einmal RedOne Aufnahmen, die bis auf die 120 fps aussehen wie aus ner HV20...
http://www.vimeo.com/6942630
Selbst eine Red macht von alleine keine guten Bilder^^ Schade ;)
M F G
Jonas
Glaub" ich nicht, dass das mit Red-One gedreht wurde, sieht aus wie mit 1/4 Zoll-Chip runtergenudelt.
Antwort von carstenkurz:
Welche 1/4" macht den 120B/s?
Ausserdem ist die RED am Anfang zu sehen. Büschen viel Aufwand für einen Fake.
Dass eine RAW-Kamera 'von sich aus keine guten Bilder macht', sollte eigentlich halbwegs zum Basiswissen gehören mittlerweile. Das ist ja gerade die Idee dabei. Hier hat sich halt jemand auf die SloMo beschränkt und sonst nichts am Grading getan.
- Carsten
Antwort von WoWu:
Na ja, Carsten, irgend etwas muss er am Grading schon getan haben, denn RAW Bilder sehen anders aus .... aber er hat eben nicht viel Ahnung vom Grading gehabt .... ebenso wenig wie vom Rest ... wie man sieht.
Antwort von carstenkurz:
Er wird die Bilder mit nem Standard-Kameraprofil konvertiert haben. Vermutlich war er eh nicht sonderlich interessiert an der Nummer und wollte nicht auch noch Zeit ins Grading stecken.
Wer weiss, vielleicht sehen wir hier auch gar kein aus RED-RAW konvertiertes Endprodukt, sondern nur ein konvertiertes Quicktime-Proxi davon. Das wäre jedenfalls das schnellste, was man irgendwelchen Beteiligten mal eben in die Hand drücken könnte, und mehr als ein Kameraprofil wird darauf eben auch nicht angewendet.
- Carsten
Antwort von WoWu:
Jau, kann sein.
ich jedenfalls werde noch die nächste "grosse Ankündigung" abwarten und wenn das auch wieder so eine Luftnummer wird, wie viele bisher, denke ich, J.J. wird sich wieder überlegen, dass man mit Sonnenbrillen doch mehr Geld verdienen kann, als mit Hi-Tech.
Und auf das "J.J. you are my hero"- Geschwafel in den Foren kann er vermutlich auch gut verzichten. Jedenfalls wäre mir, mit der derzeitigen Konkurrenz im Nacken, die ihn vor sich hertreibt, auch nicht wohl und ich würde dann auch lieber die Sonnenbrillen wählen.
Antwort von carstenkurz:
Nana, das ist doch etwas überzogen. Der allgemeine RED-Skeptizismus ist doch nach der sehr erfolgreichen R1 überhaupt nicht mehr angebracht.
Immer mehr Kino, HighEnd Werbung und A-Serien werden damit gedreht. Unterm Strich ist das doch sehr gut gelaufen. Dass eine neue Kamera den Pro-Markt innerhalb kürzester Zeit aufräumt ist ja eh nicht zu erwarten, bei solchen Budgets sind die Entscheider verständlicherweise konservativ, und faktisch ist die Firmware der R1 ja auch erst seit Mitte des Jahres auf einem 'final' zu bezeichnenden Stand. Große Mengen an R1 sind im Verleih unterwegs. Für die R1 geht es jetzt erst so richtig los.
Und bezüglich der Fertigstellung des neuen Systems werden hier ja mehr nicht eingehaltene Termine behauptet als es je gegeben hat. Nach der Konvertierung der ursprünglichen SCARLET und EPIC in das DSMC System im letzten Dezember hat RED ja nun diesbezüglich sehr konservativ kommuniziert.
Ich sehe da überhaupt nichts Bedenkliches. Das DSMC System hat eine enorme Schnittstellenkomplexität und sowas stemmt man nicht mal eben, ausserdem macht es ja keinen Sinn, so früh wie möglich ein paar Brains auszuliefern und dann die wichtigen Module hinterhertröpfeln zu lassen - die haben parallel eine ziemliche Menge an Zubehör entwickelt.
Die ersten mit den neuen 5k-Sensoren nachgerüsteten R1s sind gerade an ein paar Betatester gegangen, also sind die neuen Sensoren erwiesenermaßen auch fertig, und vorläufig sehe ich keinen Grund an der Aussage zu zweifeln, dass mit der Lieferung der ASICs in Stückzahlen auch die Kameras verfügbar sein werden.
A bissl Geduld, und man wird belohnt werden. Dass RED von irgendeiner Konkurrenz vor sich her getrieben wird, sehe ich nicht. Bisher hat weder Canon, noch Sony überhaupt auf RED reagiert. Die gegenwärtigen Stückzahlen von RED sind für die eh uninteressant. Bestenfalls um ein paar Prozent HDCAM müsste Sony sich ein bißchen Sorgen machen. Aber bis Mitte nächsten Jahres haben die ja noch genug Zeit für Konter. Die 5D-for-Video-Käufer haben ja schon in den sauren 7D Apfel beißen müssen.
Eher geht ein Kamel durch ein Nadelöhr, als dass die Konkurrenz das Featureset des DSMC-Systems in absehbarer Zeit auch nur ankratzt.
Für den Kunden ist die Konkurrenz eh gut. Manchmal scheint mir, dass Konkurrenz im Videobereich fast der einzige Innovationsfaktor ist. Die ewigen Aufgüsse von Sony und Canon Camcordern nerven doch nur noch.
- Carsten
Antwort von iasi:
Und bezüglich der Fertigstellung des neuen Systems werden hier ja mehr nicht eingehaltene Termine behauptet als es je gegeben hat. Nach der Konvertierung der ursprünglichen SCARLET und EPIC in das DSMC System im letzten Dezember hat RED ja nun diesbezüglich sehr konservativ kommuniziert.
konservaativ kann man die ständigen andeutungen nicht gerade nennen, die immer mal wieder von red unters volk geworfen werden - zuletzt die ankündigung bzgl. der epic auf der messe ... dieses halb halb nervt - von canon und co hört man nichts, bevor das produkt so ziemlich serienreif ist - auch keine andeutungen - die haben nicht mal so einen kommunikationsskanal wie red ... am liebsten wäre mir natürlich, wenn red klar und deutlich sagen würde, was sache ist
Ich sehe da überhaupt nichts Bedenkliches. Das DSMC System hat eine enorme Schnittstellenkomplexität und sowas stemmt man nicht mal eben, ausserdem macht es ja keinen Sinn, so früh wie möglich ein paar Brains auszuliefern und dann die wichtigen Module hinterhertröpfeln zu lassen - die haben parallel eine ziemliche Menge an Zubehör entwickelt.
so ganz überzeugend ist das DSMC-konzept aus meiner sicht nicht - was sollen die wahrscheinlich recht teuren epic-module an einem 2/3"scarlet brain? und die objektive sind auch nicht auswechselbar - mittelformat an videoformat oder wie? porsche felgen an "nem vw polo? oder ein golf-motor im carrera?
A bissl Geduld, und man wird belohnt werden. Dass RED von irgendeiner Konkurrenz vor sich her getrieben wird, sehe ich nicht. Bisher hat weder Canon, noch Sony überhaupt auf RED reagiert. Die gegenwärtigen Stückzahlen von RED sind für die eh uninteressant. Bestenfalls um ein paar Prozent HDCAM müsste Sony sich ein bißchen Sorgen machen. Aber bis Mitte nächsten Jahres haben die ja noch genug Zeit für Konter. Die 5D-for-Video-Käufer haben ja schon in den sauren 7D Apfel beißen müssen.
Eher geht ein Kamel durch ein Nadelöhr, als dass die Konkurrenz das Featureset des DSMC-Systems in absehbarer Zeit auch nur ankratzt.
Für den Kunden ist die Konkurrenz eh gut. Manchmal scheint mir, dass Konkurrenz im Videobereich fast der einzige Innovationsfaktor ist. Die ewigen Aufgüsse von Sony und Canon Camcordern nerven doch nur noch.
- Carsten
mit der 2/3" scarlet wird red aber durchaus im canon und sony wald wildern ... auch 3750$ wären für die angekündigte leistung ein kampfpreis (3k$ für 3k is ja nicht mehr) ...
gerade für erste 3d-versuche ist die kleine scarlet schon sehr interessant (leider gibt"s wohl noch keine angaben zu den maßen)
zudem sind es in der epic-liga ja eher andere konkurrenten als canon und sony - arri hat ja schon mal reagiert (wenn auch wieder mal typisch langsam) ...
jedenfalls geht (auch dank red) die entwicklung nun richtig voran ... bin mal gespannt, was nächstes jahr so alles kommt ...
was meinst du mit sauren 7D Apfel?
bei konsumerprodukten wie der 5dII muss man eben damit leben, dass sie nach 6 monaten in die jahre gekommen sind ... da muss man dann aber eben auch modular denken: neues gehäuse in die equipment-box ... wenn ich denke was allein schon die cf-karten oder lichtstarke objeltive kosten ...
ein 85mm 1.2 L schlägt genauso zu buche wie ein 5dII gehäuse
Antwort von freezer:
Die Dichte ist lediglich eine andere Bezeichnung für den Gamma Verlauf und "eingefleischte 35mm Nutzer" gehen sogar von mehr als 16 Blenden aus:
So geht zum Beispiel ARRI von 20 Blenden für das Kodak 5279 Filmmaterial bei einer Dichte von weniger als 3 aus. (Immerhin geht anderes Filmmaterial bis zur Dichte 4 und die Funktion gibt lediglich Aufschluss über den Anstieg der Gammakurve).
Nun kann man ARRI sicher auch als "eingefleischte 35mm Nutzer" bezeichnen, aber ich würde mal die Literatur wechseln.
Die Dichte ist keine andere Bezeichnung für den Gammaverlauf, sondern gibt Auskunft über die Intensität der Lichtabschwächung.
Eine Dichte von 3.0 lässt nur noch 1/1.000 des Lichts durch, eine Dichte von 4.0 nur noch 1/10.000. Eine Dichte von 4.0 hast Du aber nur bei Positivfilm und in der Druckvorstufe beim Ausbelichten auf SW-Film. Ich habe früher mal in der Druckvorstufe gearbeitet - wenn Du die Schwarzdichte erhöht hast, dann hast Du gleichzeitig den Grauschleier erhöht d.h. im Endeffekt blieb das Verhältnis von Dmax zu Dmin gleich.
Was Du da von ARRI heranziehst ist ein Test, den Kodakwissenschaftler mal gemacht haben - dabei wurden glänzende Metallkugeln fotografiert und man konnte bei 15,9 Stufen über 18% Grau noch Details unterscheiden. Leider wird dieser Test gerne absichtlich mißverstanden bzw. als Marketinggeschwätz mißbraucht.
Das ändert aber nichts daran, dass der tatsächlich nutzbare Bereich 11 Blendenstufen beträgt, bei 7 Stufen im linearen Bereich und +/-2 Stufen Spielraum ober- und unterhalb. Negativfilm tendiert dazu über diesem Bereich sehr stark zu komprimieren, was zwar in einer Zeichnung resultiert, aber die wird immer farbärmer.
Dazu kommt, dass beim Umkopieren auf die Releaseprints der Umfang nochmals beschränkt wird - im Endeffekt ist der wissenschaftlich gemessene Theoriewert zwar nett, aber praktisch irrelevant.
Ich kann ja nicht hergehen und mein Bild um 9 Blenden überbelichten, das dann im Labor zurückkorrigieren und noch immer ein brauchbares Bild erhalten. Zudem gehen dann eventuelle Highlightdetails sowieso im Filmkorn unter.
Der praktisch nutzbare Bereich ist und bleibt:
Antwort von iasi:
ich grüble gerade etwas darüber nach, wie man das zonensystem auf die sensoren der red oder 5dII anwenden sollte.
von vorteil ist da natürlich das histogramm, das angezeigt wird - aber dennoch - das rauschverhalten und clippen ist eben doch etwas anders als bei dia- und negativ ...
da eine raw-"entwicklung" bei der 5dII nicht gegeben ist, sollte man eigentlich im hinblick auf die codec-eigenschaften belichten.
der kontrastumfang des 5dII-sensors soll ja größer sein, als der der red one, aber davon bleibt ja wohl bei den h.264-videos nicht alles hängen ...
bei der red one sollen es 9 blendenstufen sein, die man dank raw-format auch voll nutzen kann. "Sollen" ...
der sensor der 5dII kommt auf 11,9 - zumindest aber auf etwas über 11 bei iso100 und 200 (laut http://www.dxomark.com/index.php/eng/Im ... 5D-Mark-II) ... aber eben nur im raw-format, also nicht bei den videoaufnahmen ...
Antwort von Valentino:
Glaub" ich nicht, dass das mit Red-One gedreht wurde, sieht aus wie mit 1/4 Zoll-Chip runtergenudelt.
Die R1 kann bei 120 Bildern nur 2k auslesen, aber anstatt den ganz Chip 4k Chip auszulesen, liest sie nur die 2k Mitte des Chips aus.
Somit kann die Kamera auch nur ein 2/3" Bildfenster auslesen, aus dem Grund sehen Zeitlupen bei der R1 sehr mittelmäßig aus.
So weit mir das bekannt ist werden sogar deutsche Fernsehproduktionen im 2k Modus produziert. Eine davon war "der kleine Mann", der man das trotz SD sehr deutlich ansah. In dem Bereich ist jede neue Sony/Panasonic HDCAM mit DigiPirmes besser als die R1.
Ganz wichtig bei der R1 sind auch die richtigen Objektive. Wenn das einfach nichts taugt, wie z.B. ein Super16 Zoom dann hilft einem RED RAW auch nicht wirklich weiter.
Antwort von WoWu:
@ freezer
Du relativierst Fakten einfach dadurch, dass Du sagst, man könne den Umfang nicht ausnutzen und das, was da gefilmt worden ist, sei irrelevant.
Mag ja sein, dass das für Dich von wenig Relevanz ist, aber fest steht, dass das Material 20 Blenden zulässt und die Aussage, Filmmaterial gehe nicht über 10-11 Blenden hinaus, nicht zutrifft.
Auch denke ich, von einem "Missbrauch" von Testergebnissen zu sprechen, nur weil einem das Ergebnis nicht in den Kram passt, kann auch kein Argument sein.
Wenn man beginnt zu relativieren, kann man auch gleich danach fragen, bei welcher MTF eigentlich Video nicht mehr anzusehen ist oder ab welchem Störabstandslevel nicht mehr von Video gesprochen werden kann. Auch darüber kann man philosophieren.
Der eine sagt 30%, dem andern reichen noch 10%. Die Firmen hören gern bei 0% auf, weil es sich besser in den Prospekten macht.
Nach Deiner Argumentation würde dann auch 8 Bit Video bei 48db Störabstand aufhören und keine Bilder mehr zulassen.
Das mag ja im Druckbereich, aus dem Du kommst, so üblich sein, aber ich denke, dass Videoleute bewegten Bildern etwas anders gegenüber stehen.
Wieviele Blenden man von einer Kennlinie benutzt, dürfte im Ermessen des Anwenders bleiben.
Hier ging es aber um die pauschale Aussage, Filmmaterial liesse nicht mehr als 10-11 Blenden zu, was definitiv falsch ist.
Ein Bildsensor kommt übrigens auch (im Vergleichswert) auf eine Dichte von 4, was im übertragenen Sinn bedeutet, dass auch zukünftig mit einer hohen Blendendynamik zu rechnen ist.
Der ALEVIII soll in seiner nächsten "Generation" 15 Blenden können.
Das ist doch ein guter Anfang. Nur- warum sollte ARRI das machen, wenn Film ohnehin nur 10-11 Blendenstufen zulässt, da kann der ALEV III ja heute schon mehr.
(Übrigens ich Dichte im chemischen Bereich auch nur eine andere Definition von Gamma, weil Kontrast im Film nur durch die Durchlässigkeit -Transparenz- des Materials erreicht wird.)
Antwort von iasi:
So weit mir das bekannt ist werden sogar deutsche Fernsehproduktionen im 2k Modus produziert. Eine davon war "der kleine Mann", der man das trotz SD sehr deutlich ansah. In dem Bereich ist jede neue Sony/Panasonic HDCAM mit DigiPirmes besser als die R1.
Ganz wichtig bei der R1 sind auch die richtigen Objektive. Wenn das einfach nichts taugt, wie z.B. ein Super16 Zoom dann hilft einem RED RAW auch nicht wirklich weiter.
die öffentlich rechtlichen brauchen ja schließlich ihre 50fps ... dann ginge aber auch 3k
ich will doch hoffen, dass niemand ein super16 zoom an eine red one schraubt
Antwort von iasi:
Der ALEVIII soll in seiner nächsten "Generation" 15 Blenden können.
Das ist doch ein guter Anfang. Nur- warum sollte ARRI das machen, wenn Film ohnehin nur 10-11 Blendenstufen zulässt, da kann der ALEV III ja heute schon mehr.
ja - das nennt man dann fortschritt - DUAL GAIN ARCHITECTURE - hdr auf pixelebene - in der fotografie hat die digitaltechnik durch hdr schon seit längerem im hinblick auf den kontrastumfang dem negativ dem rang abgelaufen ...
Antwort von WoWu:
Ja, nur mit dem Unterschied, dass HDR einen zeitlichen Versatz hat und nur für statische Motive wirklich geeignet ist, hier geschieht es aber parallel und ist ebenso für schnelle Motive nutzbar. Andere Methoden sehen ja auch vor, den Sensor bis zu 16 Mal in einem Frame auszulesen und zeitliche verschiedene Integrationen herzustellen. Funktioniert auch ganz gut. Also es tut sich eine ganze Menge.
Antwort von iasi:
eben ein paar pixel für die lichter und ein paar für die schatten - und dann wird eben fleißig zusammengerechnet - liegt eigentlich nahe - führt so auch nicht zu einem zeitversatz - eigentlich ähnlich wie beim bayer-ischen zusammenrechnen der farben ...
da steckt jedenfalls noch viel potential drin - und das wird sicherlich auch mit zunehmender rechenleistung ausgeschöpft ... video bei den spiegelklappern war ja letztlich auch nur ein abfallprodukt aus live-view und schneller bildverarbeitung ...
es wird wohl ähnlich ablaufen wie damals, als die digitalen-knippsen mit 1 mpixeln begannen ... da ging"s dann auch plötzlich sehr schnell in beeindruckenden schüben ...
und damals meinten auch viele, die dia- und negativqualität und -auflösung könnten die digitalen nie erreichen, denn auch das analoge material würde weiterentwickelt ...
Antwort von WoWu:
Aber ich muss ganz ehrlich sagen: Als ILFORD geschlossen wurde, gab es doch so etwas wie einen kleinen Schreck.
Aera ist eben Aera und so gut und schön digital auch sein mag oder werden sollte. Es fehlt doch die Atmosphäre der Dunkelkammer und der Geruch der Chemikalien und der Trockenpresse.
Von jener Aera bleiben die alten, gewellten Fotos ... was wird wohl von den digitalen Aera bleiben ?
Ich kann heute schon nicht mehr die Files aus den frühen 90er Jahren lesen. Schon komisch.
Antwort von jogol:
Auf Film ausbelichten. Auf jeden Fall die wichtigen Sachen. Ist bei mir nicht soviel, da kann ich für sparen.
Antwort von domain:
...eben ein paar pixel für die lichter und ein paar für die schatten - und dann wird eben fleißig zusammengerechnet - liegt eigentlich nahe ...
Ja liegt nahe und wurde im Prinzip ja auch schon realisiert beim Super-CCD-Chip der vierten Generation von Fuji
http://www.wcm.at/contentteller.php/new ... _ccds.html
Antwort von iasi:
...eben ein paar pixel für die lichter und ein paar für die schatten - und dann wird eben fleißig zusammengerechnet - liegt eigentlich nahe ...
Ja liegt nahe und wurde im Prinzip ja auch schon realisiert beim Super-CCD-Chip der vierten Generation von Fuji
http://www.wcm.at/contentteller.php/new ... _ccds.html
aha - deshalb ist die "alte" fuji s5 pro in sachen dynamic range mit 13,5 immer noch ganz vorn mit dabei: http://www.dxomark.com/index.php/eng/DxOMark-Sensor
Antwort von freezer:
@ freezer
Du relativierst Fakten einfach dadurch, dass Du sagst, man könne den Umfang nicht ausnutzen und das, was da gefilmt worden ist, sei irrelevant.
Mag ja sein, dass das für Dich von wenig Relevanz ist, aber fest steht, dass das Material 20 Blenden zulässt und die Aussage, Filmmaterial gehe nicht über 10-11 Blenden hinaus, nicht zutrifft.
Du solltest den Unterschied zwischen akademischen Messwerten und praktisch anwendbaren Ergebnissen doch wohl kennen.
Ja klar hat man da in den Highlights einen Unterschied irgendwie noch messen können, aber in der Praxis ist das trotzdem unbrauchbar.
Beantworte mir doch bitte die Frage, wie ich bei Material, dass um 7 Blendenstufen überbelichtet ist, noch ein brauchbares Ergebnis zurückholen kann - am besten mit ein paar Praxisbeispielen.
In der Zwischenzeit vertraue ich lieber den Aussagen eines Filmlab Spezialisten wie Dominic Case, der Jahrzehnte Erfahrung hat und dem was ich selbst bereits gesehen habe.
@ freezer
Das mag ja im Druckbereich, aus dem Du kommst, so üblich sein, aber ich denke, dass Videoleute bewegten Bildern etwas anders gegenüber stehen.
Du hast offenbar gar nicht verstanden, worum es in meiner Anmerkung zum Druckbereich ging... abgesehen davon war ich davor Jahre in der Highendscanner-Entwicklung tätig und habe mit fast allen gängigen Filmsorten gearbeitet - bis hin zu höchstauflösenden SW-Aufnahmen von russischen Spionagesatelliten. Ich kenne die Grenzen des Materials.
Hier ging es aber um die pauschale Aussage, Filmmaterial liesse nicht mehr als 10-11 Blenden zu, was definitiv falsch ist.
Bitte lies doch nochmal genau nach, was ich geschrieben habe.
Ich habe gesagt, dass Filmmaterial mehr als 11 Blendenstufen zulässt, aber davon sind ca. 11 Blendenstufen in der Praxis nutzbar, was der gängige Konsens in allen Filmlabs und auch in der Sensitometriekurven der Hersteller wie zB Kodak ist. Film hat eine lineare Responsekurve übr ca. 7 Blendenstufen, darüberhinaus und darunter nimmt die Kompression stark zu.
Es ist auch bei den digitalen Aufzeichnungsgeräten so, dass das theoretische Maximum nicht erreicht wird bzw. in der Praxis nicht einsetzbar ist.
(Übrigens ich Dichte im chemischen Bereich auch nur eine andere Definition von Gamma, weil Kontrast im Film nur durch die Durchlässigkeit -Transparenz- des Materials erreicht wird.)
Der Gamma-Wert gibt die Steilheit der Dichtekurve an.
Im Digitalbereich errechnet sich die Dichte übrigens direkt aus der Bittiefe - d.h. ein 16-bit A/D-Wandler erreicht ein theoretisches Dmax von 4,8 und gängige 12-bit Wandler ein Dmax von 3,6.
Antwort von WoWu:
@ freezer
Ich weiss zwar nicht, worauf Du Dich jetzt beziehst, aber um den Wortlaut Deiner Aussage noch einmal in Erinnerung zu rufen:
Abgesehen davon hat Film auch "nur" 10-11 Blendenstufen - keines meiner Fachbücher bestätigt da auch nur einmal ein höheres Ergebnis. Dafür behaupten ein paar eingefleischte 35mm Nutzer, dass Film 16 Blendenstufen hat - geht zwar von der Maximaldichte Log E 3.0 (=1/1024) des Films her schon gar nicht, aber macht nix. :D
Das ist so, als würdes Du sagen, "Autos fahren nur 130" und wenn man dann anmerkt, dass es auch Autos gibt, die schneller fahren, sagst Du, es sei ohnehin viel zu gefährlich, schneller zu fahren.
So ähnlich ist Deine Argumentation.
Es bleibt dabei, dass Deine oben gemachte Aussage, trotz aller Relativierungsversuche Deinerseits, einfach nur falsch ist.
(Und das, mit den Spionageaufnahmen von russischen Satelliten habe ich auch nicht begriffen.
Normalerweise fotografieren Satelliten nicht auf Filmmaterial, um das es hier geht, weil man die Filme so schlecht aus dem Weltall zurück bekommt und Satelliten eigentlich ja keine Flugeigenschaften zur Landung auf der Erde besitzen. Aber da hab ich vermutlich auch irgend etwas wieder falsch verstanden, mag sein).
Antwort von iasi:
na - und wer hat nun recht?
also wer schon mit der belichtung daneben liegt, muss sich über den kontrastumfang, den sein kamerasensor bietet, eh keine gedanken machen ...
ebenso ist es doch mit den AE-fans - belichtungsreihen lassen sich beim filmen nun mal nur schwerlich machen ...
für diejenigen, die sich jedoch die mühe machen, die hellen und die dunkeln bildteile, die noch zeichnung haben sollen, anzumessen, der freut sich natürlich über einen hohen kontrastumfang - vor allem wenn er eben den gewünschten bereich zwischen hell und dunkel gar abdeckt ...
es ist doch schon mal was feines, wenn man alle bildinformationen (ich meine hier die detailzeichnung), die man sich wünscht, auf dem speicherchip hat - und zwar unabhängig davon, was man später in der postpro macht, denn da freut man sich, über so viel spielraum wie nur möglich ...
Antwort von freezer:
@ freezer
Ich weiss zwar nicht, worauf Du Dich jetzt beziehst, aber um den Wortlaut Deiner Aussage noch einmal in Erinnerung zu rufen:
Abgesehen davon hat Film auch "nur" 10-11 Blendenstufen - keines meiner Fachbücher bestätigt da auch nur einmal ein höheres Ergebnis. Dafür behaupten ein paar eingefleischte 35mm Nutzer, dass Film 16 Blendenstufen hat - geht zwar von der Maximaldichte Log E 3.0 (=1/1024) des Films her schon gar nicht, aber macht nix. :D
Deswegen schrieb ich ja auch das "nur" in Anführungszeichen. Und meine Aussage bleibt korrekt, denn eine lineare Nutzung von 16 Blendenstufen ist NICHT möglich. Und für Dich extra zitiere ich nochmals mich selbst:
Das ändert aber nichts daran, dass der tatsächlich nutzbare Bereich 11 Blendenstufen beträgt, bei 7 Stufen im linearen Bereich und +/-2 Stufen Spielraum ober- und unterhalb. Negativfilm tendiert dazu über diesem Bereich sehr stark zu komprimieren, was zwar in einer Zeichnung resultiert, aber die wird immer farbärmer.
Dazu kommt, dass beim Umkopieren auf die Releaseprints der Umfang nochmals beschränkt wird - im Endeffekt ist der wissenschaftlich gemessene Theoriewert zwar nett, aber praktisch irrelevant.
Ich kann ja nicht hergehen und mein Bild um 9 Blenden überbelichten, das dann im Labor zurückkorrigieren und noch immer ein brauchbares Bild erhalten. Zudem gehen dann eventuelle Highlightdetails sowieso im Filmkorn unter.
@ freezer
Es bleibt dabei, dass Deine oben gemachte Aussage, trotz aller Relativierungsversuche Deinerseits, einfach nur falsch ist.
Nope. Interessanterweise verweigerst Du Dich aber jeglicher logischer Argumentation, kannst keine Beispiele zeigen und ignorierst sämtliche Fakten. Dabei berufst Du Dich ständig auf ein - in der Praxis - irrelevantes Experiment und windest Dich ständig um eine Beweisführung Deinerseits. Das wäre - um Deine Analogien aufzugreifen - wie wenn man sagt das Auto fährt 250 weil der Tacho so weit angeschrieben ist, kann's aber in der Praxis nicht beweisen.
@ freezer
(Und das, mit den Spionageaufnahmen von russischen Satelliten habe ich auch nicht begriffen.
Normalerweise fotografieren Satelliten nicht auf Filmmaterial, um das es hier geht, weil man die Filme so schlecht aus dem Weltall zurück bekommt und Satelliten eigentlich ja keine Flugeigenschaften zur Landung auf der Erde besitzen. Aber da hab ich vermutlich auch irgend etwas wieder falsch verstanden, mag sein).
Nur weil Du Dir nicht vorstellen kannst, wie man etwas macht, heißt das noch lange nicht, dass es nicht möglich war/ist.
Die Spionagesatelliten waren mit einem Auswurfsystem versehen, wo der belichtete Film in einem sicheren Behältnis per Fallschirm nach unten segelte und noch in der Luft (meist per Helikopter) abgefangen wurde.
Heutzutage sind die Satelliten natürlich mit digitalen Sensoren ausgestattet und senden ihre Bilder per Funk.
Antwort von WoWu:
Ich denke, es ist alles gesagt und den Beweis muss ich nicht antreten, den hat Kodak bereits angetreten. Warum sonst sollte Kodak solche Materialparameter veröffentlichen, wenn sie gar nicht stimmen ? Und warum sollte ARRI darauf verweisen und ebenfalls von 20 Blenden ausgehen ?
Natürlich habe ich das Experiment nicht selbst gemacht, Du aber ebenso wenig und Du berufst Dich immer auf Material, das das vielleicht wirklich nicht kann. Deswegen muss es aber nicht heissen, dass anderes Material es nicht kann und ebenso betrifft dies die 250 auf dem Tacho. Dein Auto kann es vielleicht nicht, aber das heist ja noch lange nicht, dass es keine Autos gibt, die 250 fahren, so wie Du behauptest, dass kein Filmmaterial gibt, das keine 20 Blenden kann und begründest auch noch, warum das so ist.
Nun relativierst Du Deine Aussage damit, dass das "nur" eingeschränkt war und sagst damit selbst, dass Deine Begründung eine Luftnummer war.
Ich lass es hier einmal stehen, weil der Thread absurd wird und stelle fest, Filmmaterial hat durchaus einen Blendenumfang von 20 Blenden. Die Behauptung und Begründung, Film hätte nur (waren es 13 ? ) Blenden ist falsch.
Antwort von freezer:
Ich denke, es ist alles gesagt und den Beweis muss ich nicht antreten, den hat Kodak bereits angetreten. Warum sonst sollte Kodak solche Materialparameter veröffentlichen, wenn sie gar nicht stimmen ? Und warum sollte ARRI darauf verweisen und ebenfalls von 20 Blenden ausgehen ?
Seufz. Und wenn Du es hundertmal schreibst, so werden Deine Aussagen leider nicht wahrer. Kodak schreibt in SÄMTLICHEN Datenblättern, dass der NUTZBARE Umfang in etwa 11 Blendenstufen beträgt. Das gleiche schreiben die Filmlabs und alle Fachbücher. Es gibt besagten Test mit dem Ergebnis, dass man mit Ach und Krach irgendwie auf 20 Blenden kommt (die in der Praxis leider nicht nutzbar sind) und die Marketingleute sind darauf angesprungen und präsentieren das wie so oft verfälscht.
Bitte ruf doch einfach bei einem x-beliebigen Filmlab an und frag nach, wenn Du mir schon nicht glaubst, oder frag bei Kodak nach.
Interessant finde ich immer noch, dass Du Dich alleine auf dieses Experiment berufst, aber den Testaufbau und das Ergebnis anscheinend weder verstanden, noch jemals selbst mit so einem Material gearbeitet hast und dementsprechend auch keine Fakten auf den Tisch legen kannst, wo in der PRAXIS dieser Blendenumfang brauchbar zum Einsatz kam.
Nun relativierst Du Deine Aussage damit, dass das "nur" eingeschränkt war und sagst damit selbst, dass Deine Begründung eine Luftnummer war.
Sag mal, liest Du überhaupt was ich schreibe bzw. hast Du mal darüber nachgedacht oder geht es Dir nur darum herumzumosern?
Ich lass es hier einmal stehen, weil der Thread absurd wird und stelle fest, Filmmaterial hat durchaus einen Blendenumfang von 20 Blenden. Die Behauptung und Begründung, Film hätte nur (waren es 13 ? ) Blenden ist falsch.
Zum letzten Mal: Ja, bei einem bestimmten Filmtyp konnten in einem Laborexperiment bis zu 20 Blendenstufen nachgewiesen werden. Diese 20 Blendenstufen sind aber nicht praxistauglich aufgrund der starken Kompression, da hier keine brauchbare außer der Luminanzinformation zurückgeholt werden kann. Es ist daher ein rein akademischer Wert.
Solltest Du in der Lage sein, mir hier entsprechende Aufnahmen aus der Praxis zu zeigen, die das Gegenteil beweisen, so bin ich gerne bereit meine Aussagen zurückzunehmen und Dir voll und ganz Recht zu geben.
Solange Du das aber nicht kannst, solltest Du lieber nicht den Überlegenen spielen.
Antwort von WoWu:
Ja, bei einem bestimmten Filmtyp konnten in einem Laborexperiment bis zu 20 Blendenstufen nachgewiesen werden.
Na siehst Du, das klingt doch schon ganz anders, als: Film kann nur 13 Blenden.
Und:
Sag mal, liest Du überhaupt was ich schreibe
Ja, ich lese die Beiträge, deswegen fallen mir die Fehler ja auch auf.
Antwort von iasi:
nun ... jetzt sind alle argumente ausgetauscht ...
11, 13 16 oder 20 blendenstufen ... nutzt ihr eigentlich euer theoretisches wissen auch in der praxis?
und setzt ihr es dann auch wirklich kreativ ein?
ich meine, wenn da eine innenaufnahme ausgeleuchtet wird, bei der es einen blick durch ein fenster nach draußen gibt - leuchtet ihr dann auf die 11 blendenstufen aus, die euer filmmaterial oder sensor an kontrastumfang bietet? damit man den vogel, der draußen vom baum herunter k..., auch noch schön durchgezeichnet hat. oder darf"s dann doch überstrahlen? oder ...
eine 500er-panasonic bietet ein sehr flaches gammasetting, das einen größeren kontrastumfang bietet - weich und matschig sieht das aus - in der postpro aber erweckt man diese aufnahmen zu strahlendem glanze ...
das hat nun nicht primär etwas mit dem sensor zu tun, aber es soll euch mal klar machen, dass vor allem auch beim negativ viele faktoren mit hineinspielen ... und je nachdem, bekommt man 11 oder 16 blendenstufen kontrastumfang ...
Antwort von WoWu:
@ iasi
Antwort auf Deine Frage ist: Ja
Wir machen zwar nur rd 2 Min Endfertigung pro Tag, aber dazu machen wir täglich fast 1 1/2 Stunden Footage. Und fertigen daraus, je nach Material zwischen 20 und 70 Lizenzminuten täglich.
Unsere 4Stk. 500er haben wir gegen 8Stk. 300er mittlerweile eingetauscht, um durchgängig 10 Bit Material mit den 2000er Kameramaterial mischen zu können.
Du siehst, Theorie mischt sich mit Praxis.
Und die Frage stellt sich doch auch, was ist Theorie und was ist Praxis.
Wenn man die Theorie dadurch definiert, dass sie das Wissen um die technischen Abläufe ist, ist dann die Praxis das Gegenteil ? Also das "Nichtwissen" um die technischen Abläufe ? Soll das besser sein ?
Ich denke, wir gehen konform, dass die Kombination das Optimum darstellt und die Abgrenzung der "Praktiker" gegenüber der Theorie eigentlich nur einräumt, dass man die technischen Abläufe und Hintergründe nicht durchschaut. Also ist es wirklich gut darauf abzuheben ?
Antwort von iasi:
na ganz so sehe ich es nicht - theorie ist wissen unabhängig von technischen abläufen - technische abläufe haben eher etwas mit der praxis zu tun ...
konform gehen wir durchaus dabei, dass praxis, die auf theoretischem wissen basiert, optimal ist.
es gibt leute, die machen eine aufnahme korrekt nach den erlernten technischen abläufen - und es gibt eben leute, die verstehen und durchschauen die technischen abläufe und eben auch den theoretischen hintergrund aus denen diese abläufe entwickelt wurden.
es ist eben doch noch mal ein unterschied, eine belichtung z.b. anhand eines histogramms vorzunehmen oder gezielt das zonensystem und die technischen parameter nutzend das bild durch die gezielte belichtung zu gestalten.
allein schon, dass man sich bewußt macht, welche hellen und welche dunklen bildteile noch zeichnung haben sollen ...
und um zum ausgangsthema zurück zu kommen:
die technischen parameter einer red one geben mir natürlich einen größeren gestalterischen spielraum, als eine 5dII ...
red one contra 5dII:
- für mich ist das eigentlich vor allem red-raw gegen h.264
- 4k muss für mich nicht sein und ist eigentlich ein ziemlicher balast, wenn man es nicht braucht
- low light geht klar an die 5dII, was mir ziemlich wichtig ist
- timecode wäre nett, geht aber auch ohne
- die fixen 30fps der 5dII sind da schon eher unangenehm
- die ganzen negativen effekte, die dem 5dII-sensor nachgesagt werden, stören mich nicht
- das schärfegefeiltsche wenn es z.b. auch um objektive geht, finde ich schlicht übertrieben ... natürlich meine ich hier nicht die unterschiede zwischen einer kit-scherbe und einer ordentlichen festbrennweite
die kommenden reds werden leider auch nur kompromisse bieten:
die 2/3" sind sicherlich keine low-light-perlen und ... DoF ...
die 35er kommen mit unnötig hoher auflösung daher - und bieten nicht 50/60fps bei voller sensorflächennutzung (zumindest die scarlets) ... und die epics spucken unmengen an daten aus, wenn man 50/60fps bei voller sensornutzung haben möchte - das ist dann schon wasserkopfmäßig.
eine 5dII mit einem raw-format und zumindest auch 25fps (50/60 will ich ja gar nicht mal verlangen) würde ich den reds vorziehen.
Antwort von WoWu:
@ iasi
Du mahlst ja ein komisches Bild von der Theorie.
Im Allgemeinen entwirft eine Theorie ein Bild (Modell) der Realität. In der Regel bezieht sie sich dabei auf einen spezifischen Ausschnitt der Realität. Eine Theorie enthält in der Regel beschreibende („deskriptive“) und erklärende („kausale“) Aussagen über diesen Teil der Realität.
Auf dieser Grundlage werden Vorhersagen und Handlungsempfehlungen abgeleitet.
Theorien sind meist mit dem Anspruch verknüpft, sie durch Beobachtungen (z.B. mittels Experimenten oder anderer Beobachtungsmethoden) prüfen zu können.
......
Der Begriff wird alltagssprachlich auch unbestimmt als Gegenteil von Praxis (griechisch πρᾶξις: Handlung, Verrichtung, auch Vollendung) benutzt.
So sieht Wiki das. Damit könnte ich mich anfreunden. So ähnlich sehe ich das auch.
Deshalb sind die Foren auch manchmal voll damit, dass sich jemand über Effekte, schlechte Codecs und alles mögliche beschweren. oft sind das Bedienfehler, weil die Hintergründe nicht erkannt werden.
Was die D5 in RAW angeht, so bin ich nicht so zuversichtlich (jedenfalls nicht in voller Auflösung). 12 Gbit/s (21 Mill Pix) sollen erst mal verarbeitet und abgespeichert werden. Allein für 2 Gbit/s sind bei den derzeitigen Registerbreiten 16 Busse auf 128 Flash Bausteine erforderlich. Und das wären nur HD in RAW. Da sind wir noch lange nicht bei Vollauflösung. Nee, nee, das wird wohl noch eine ganze Weile Wunschdenken bleiben und auch bei RED der Knackpunkt sein.
Edit:
Lass mich meine Frage vom Anfang noch einmal als Wissensfrage stellen, weil ich da wirklich versuche, Klarheit rein zu bringen.
Hast Du bezüglich der 4:2:0 Thematik AVC noch bessere Quellen oder ist der Ursprung da die Tabellen im englischen Wiki ? Den traue ich, wie gesagt nicht, suche aber nach verlässlichen Informationen.
Wenn Du da also was hast, wäre ich für jeden Hinweis dankbar.
Antwort von domain:
Theorien über "Tand aus Menschenhand" sind überhaupt nie Theorien, sondern nur Beschreibungen, also gibt es dort auch kein theoretisches Wissen.
Eine wirkliche Theorie war eine Zeit lang z.B. die Annahme der Existenz von schwarzen Löchern, die dann auch real nachgewiesen werden konnten.
Antwort von WoWu:
Helmut, das wäre ja noch einen Schritt weiter. Hier aber geht es ja einmal mehr um die Abgrenzung des Praktikers .... aber ich glaube, wir gehen gerade deftig ins "OFF". Das sollten wir dem Threadstarter nicht antun.
Grüsse nach Österreich
Antwort von jogol:
Eine wirkliche Theorie war eine Zeit lang z.B. die Annahme der Existenz von schwarzen Löchern, die dann auch real nachgewiesen werden konnten.
In den Köpfen oder in den Ärschen unserer Spezies?