Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Sensorgrößenvergleich Canon EOS C300 und RED Scarlet-X



Newsmeldung von slashCAM:


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Sensorgrößenvergleich Canon EOS C300 und RED Scarlet-X


Space


Antwort von WoWu:

Da muss ich aber sagen, hat RED sehr viel intensiver und besser nachgedacht als Canon und Stu Maschwitz.
Bei einem Crop bekommt man zwar ein anderes Blickfeld, dafür wird an den eigentlichen Objektiveigenschaften nichts verändert, anders als bei der Interpolation.
Nicht nur, dass interpolierte Bilder relativ stark mit Interpolations-Artefakten angereichert sind, die Filter der Skalierung beschneiden auch die hohen Frequenzen und dienen als Rauschfilter. Was noch ganz nützlich klingt, betrifft leider auch feinste Bilddetails.
Das scheint mir RED etwas professioneller zu sehen, wenn sie dem Anwender die Wahl lassen, wann er wo, welche Filter im Workflow einsetzt.
Es kommt aber noch ein weiterer Effekt hinzu, der die Bokeh betrifft denn die Bildinterpolation beschränkt sich ja nicht nur auf die Bildobjekte. Hier leisten die Filter nicht mehr ausreichend Differenzierung. Aus einer traumhaft scheinen Bokeh wird durch die Interpolation oft eine verschmierte Fläche und die Eigenschaften der Bokeh verändert sich merklich.
Sphärisch unterkorrigierten Objektive, die sich in der Bokeh durch ihre Weichheit auszeichnen, hervorgerufen durch Helligkeitsveränderung innerhalb der Zerstreuungskreise, werden zu platten Punkten. Der charakteristische, leicht grünliche Rand wird von der Interpolation für einen Kontrastunterschied gehalten und die Kanten werden geschärft ! (Innerhalb der Bokeh). Dasselbe trifft auch zu, wenn abgeblendet wird, weil die eigentlichen Randstrahlen dann von weiter innen liegenden Lichtstrahlen weiter vor der Sensorfläche auftreffen, was ebenso für eine geringe Randbildung sorgt, die die Interpolation ebenso harsch für Bildinhalt hält und die Kontraste an den Rändern verstärkt.
Alles in allem ist die RED Lösung deutlich professioneller, zumal es keinen Grund gibt, für eine 2k Darstellung mehr als die nativ erforderlichen Sensorpunkte zu nutzen.
Am DoF ändert dies nichts, weil sich depth-of- focus, also der Lichtkegel im Bildraum nicht ändert, sofern man eine identische Austrittspupille verwendet.
Kurzum ... RED hat besser nachgedacht und das professionellere Produkt.

Space


Antwort von radneuerfinder:

Die Schärfentiefe ändert sich mit der Sensorgröße, da man für den gleichen Bildausschnitt eine andere Brennweite benötigt (größerer Effekt). Außerdem muss hinterher das Bild mehr oder weniger vergrößert werden um die gleiche Monitor oder Leinwandgröße zu erreichen (kleinerer Effekt). Da die Red Sensorflächen wie S35 bis 2/3" verwendet, unterscheidet sich das Schärfentiefenverhalten dann auch wie zwischen 35 und EB. Das muss ja nicht schlimm sein. Der Unterschied ist aber nicht wegzudiskutieren.

Space


Antwort von WoWu:

Wenn man die Kamera lediglich von Vollbild auf Crop umstellt, ändert sich nichts. Natürlich hat man bei demselben Objektiv dann einen andern Bildausschnitt.
Und die Reproduktion ist identisch denn es ist egal, ob ich ein Vollbild, das ich auf 2k reduziert habe oder ein nativ in 2k aufgenommenes Bild projiziere. Die Qualität des nativ aufgenommenen Bildes ist nur besser, weil die oben beschriebenen Effekte nicht auftreten.
Die Tiefenschärfe richtet sich ausschliesslich nach dem Lichtkegel und der Cropanteil eines sonst grösseren Sensors (und damit der Definition der Austrittspupille) spielt absolut keine Rolle mehr.
RED weiss schon, was sie da machen.
Insofern geht es hier auch nicht um zwei unterschiedliche Sensorgrössen, sondern um einen Cropanteil eines Sensors

Space


Antwort von radneuerfinder:

WoWu verstehe ich Dich richtig:
Bei Änderung der Bildgeschwindigkeit ergibt sich ein anderer Bildausschnitt. Der Profi behält diesen anderen Ausschnitt, denn dadurch bleibt die Schärfentiefe gleich. Nur dieses Vorgehen ist wirklich professionell?

Space


Antwort von Jott:

Professionell vielleicht, aber weltfremd. In der Realität wird man natürlich die Optik wechseln müssen, um das Windowing quasi zu kompensieren, also eine kürzere Brennweite nehmen - wenn man das gleiche Motiv bei gleicher Kameraposition mit höherer Framerate aufnehmen will.

Eine Kamera, bei der höhere Frameraten mit Windowing einher gehen, ist einfach nicht praktikabel, egal was für gute technische Gründe dahinter stehen. Heisst: wer gerne Slow Motion filmt, ist bei der Scarlet falsch und braucht die EPIC.

Oder - überspitzt - dann tut's auch eine FS100 oder so was, wo man völlig folgenlos auf das Overcranking-Knöpfchen drücken kann.

Space


Antwort von wontuwontu:

Heisst: wer gerne Slow Motion filmt, ist bei der Scarlet falsch und braucht die EPIC. So ist es und nicht anders.

Space


Antwort von WoWu:

@ radneuerfinder

Hier ging es um die Qualitativen Unterschiede eines interpolierte Bilde (von 4k nach 2k).
Das hat weder etwas mit "macht man immer so", noch hat das etwas mit der Auswahl eines Bildausschnittes zu tun.
Man muss schon genau lesen, was ich geschrieben habe.
Daher war die Frage, auch wenn die rhetorisch gemeint war, absolut berechtigt: WoWu verstehe ich Dich richtig Die Antwort ist: nein
Wenn das Einige hier auch nicht verstehen, dann kann ich das durchaus nachvollziehen, weil man natürlich die Vorgänge dahinter auch verstehen muss.
Daher sage ich ja, RED hat genauer nachgedacht, als sie Ihr Aufnahmeverfahren so abgestimmt haben.
Die Bildqualität ist bei nativer Abtastung nun einemmal besser als bei Interpolation.
Wenn das jemand nicht braucht, weil er nur DVDs macht, dann kann ihm das auch egal sein.
Professionell ist lediglich die Abwägung zu einem möglichst guten Bild.
Zu dieser Abwägung gehört nicht nur die Wahl des richtigen Objektivs, sondern auch die Überlegung, wie gut beispielsweise eine Bokeh aussieht.

Aber, wie gesagt, den meisten (nicht Profis) reicht es, dass das Objektiv billig ist und sie werden solche Überlegungen nicht anstellen.
Und für die kommt eine RED, wie Du gesehen hast, sowieso nicht in Frage.
Denen reicht dann irgend ein Henkelmann, der fürs Heimkino irgendwelche Bilder macht.

Space


Antwort von Tiefflieger:

Irgendwelche nicht, solche wie unten schon gar nicht.
(Canon XA 10 ohne Skalierung, FullHD Sensor)


Space



Space


Antwort von WoWu:

Zusammenhang verstehe ich zwar nicht aber Du willst uns damit wahrscheinlich nur zeigen, dass es auch schlechte Kameras und schlechte Auflösungen gibt.
Stimmt, kann ich da nur sagen.
Hast Du Dir mal die technischen Daten des Sensors angesehen ?
Nur hier geht es nicht darum, ob die Kamera einen guten oder einen schlechten Sensor hat, sondern darum, ob interpolierte Pixel eines Gesamtbildes besser aussieht, als die native Aufzeichnung der Pixels ohne steilflankige Filterung.

Space


Antwort von Tiefflieger:

in diesem Thread wird von Skalieren und Crop gesprochen.
Du sprichst von Skalierungs-Artefakten (welche jede VDSLR mit Fotomegapixelsensor hat.)
Anderrerseits von Crop, d.h. mit der einhergehenden Brennweitenveränderung (Winkel) die native 2K Auflösung (1:1 wie benötigt).

Gemäss Canonon hat die XA10 wie auch die XF100/XF300 die gleichen Sensoren.
Diese Sensoren lösen exakt FullHD auf ohne Skalierung (gemäss Hersteller).
Und genau dieses Bild zeigt das Gegenteil, weil die Farbauflösung und somit Detailauflösung schlecht ist.
Der weisse Ring hat Aliasingartefakte (weil benachbarte Farbverlaufpixel fehlen).
Nicht mal die Rolläden im Hintergrund haben saubere Zeichnung nebst Codec Artefakten.

Meine Kamera hat 3x3.05 MPixel brutto ob mit f1.5 oder f8 sind die Bilder Detailscharf bis zum Rand (Bildserien).
Für mich ein Zeichen, dass interpoliert wird und die Farbdetails sind vorhanden und für mich sauber.

Gruss Tiefflieger

Space


Antwort von WoWu:

Wenn von in diesem Zusammenhang von CROP gesprochen wird, so handelt es sich um die Teilfläche eines Sensors, das hat zunächst mal nichts mit der Brennweite des Objektivs zu tun, auch nicht, wenn sich der Bildraum verändert. der Fokusraum verändert sich keinen Deut.
Ausserdem hat es nichts mit der effektiven Abbildungsleistung der einzelnen Pixels zu tun, weil sowohl für den Vollbildsensor, also auch für den Ausschnitt exakt dieselben Pixels zum Einsatz kommen.
Hinzu kommt, dass die Bildbearbeitung einer andern Kameras auch zwangalauefig zu einem andern Ergebnis führen wird, hier also Äpfel und Birnen verglichen werden, denn so würdest Du die Bilder Deiner 1/3" Canon mit dem Ergebnis der C300 oder in diesem fall mit der RED vergleichen. Absurde Vorstellung.
Und nur weil auf deiner Kamera "native Abtastung" steht, ist es nicht Dasselbe.

Space


Antwort von iasi:

@ radneuerfinder

Hier ging es um die Qualitativen Unterschiede eines interpolierte Bilde (von 4k nach 2k).
Das hat weder etwas mit "macht man immer so", noch hat das etwas mit der Auswahl eines Bildausschnittes zu tun.
Man muss schon genau lesen, was ich geschrieben habe.
Daher war die Frage, auch wenn die rhetorisch gemeint war, absolut berechtigt: WoWu verstehe ich Dich richtig Die Antwort ist: nein
Wenn das Einige hier auch nicht verstehen, dann kann ich das durchaus nachvollziehen, weil man natürlich die Vorgänge dahinter auch verstehen muss.
Daher sage ich ja, RED hat genauer nachgedacht, als sie Ihr Aufnahmeverfahren so abgestimmt haben.
Die Bildqualität ist bei nativer Abtastung nun einemmal besser als bei Interpolation.
Wenn das jemand nicht braucht, weil er nur DVDs macht, dann kann ihm das auch egal sein.
Professionell ist lediglich die Abwägung zu einem möglichst guten Bild.
Zu dieser Abwägung gehört nicht nur die Wahl des richtigen Objektivs, sondern auch die Überlegung, wie gut beispielsweise eine Bokeh aussieht.

Aber, wie gesagt, den meisten (nicht Profis) reicht es, dass das Objektiv billig ist und sie werden solche Überlegungen nicht anstellen.
Und für die kommt eine RED, wie Du gesehen hast, sowieso nicht in Frage.
Denen reicht dann irgend ein Henkelmann, der fürs Heimkino irgendwelche Bilder macht. wie ich dieses "profi"-gerede liebe.
natürlich ist es besser, wenn man die raw-daten eines sensorbereichs ausliest und speichert, statt die gesamten sensordaten herunterzurechnen.
dennoch ist es eben doch auch ziemlich unpraktisch und so gar nicht professionell, wenn man mit crop-faktoren zu kämpfen hat, sobald man höhere bildraten oder z.b. hdr nutzen möchte.
mal eben ein anderes - für ww gar adaptiertes - objektiv anzuschrauben, um eine einstellung hdrx zu drehen, ist nicht sehr professionell, sondern bestenfalls ein kompromis.
immerhin scheint dies red ebenfalls klar zu sein, weshalb sie daran arbeiten 4k-hdrx mit 24fps und höherer kompressionsrate zu ermöglichen. dies ist dann zwar auch ein kompromis, aber eben einer, der in der praxis eher zu verkraften ist.

Space


Antwort von WoWu:

Na ja, aber es ging hier auch nicht um die Praktikabilität sondern darum, ob eine Interpolation die Ursprungsqualität einer Abtastung negativ verändert.
Nicht darum, ob es nun bequem oder unbequem ist, ein Objektiv zu wechseln. Da stimme ich mit Dir völlig überein. Daher nutzen wir bei Kameras, die ein solches Ausschnitte zulassen, gleich den passenden Ausschnitt, bevor wie Bildinterpolationen machen, es sei denn, wir benötigen mal ein Weitwinkel, das wir nicht im Kasten haben und müssen es über den Bildraum machen. Das ist aber ziemlich selten.
Aber wie gesagt, das ist eine Frage der Handhabung und keine Frage der Bildqualität.

Space


Antwort von Tiefflieger:

Ausserdem hat es nichts mit der effektiven Abbildungsleistung der einzelnen Pixels zu tun, weil sowohl für den Vollbildsensor, also auch für den Ausschnitt exakt dieselben Pixels zum Einsatz kommen.
Hinzu kommt, dass die Bildbearbeitung einer andern Kameras auch zwangalauefig zu einem andern Ergebnis führen wird, hier also Äpfel und Birnen verglichen werden, denn so würdest Du die Bilder Deiner 1/3" Canon mit dem Ergebnis der C300 oder in diesem fall mit der RED vergleichen. Absurde Vorstellung.
Und nur weil auf deiner Kamera "native Abtastung" steht, ist es nicht Dasselbe. Der vergrösserte Auschnitt oben stammt vom "nativen" Canon FullHD Sensor und ist zum Glück nicht von meiner Kamera..
Denn die löst farbdetailiert in FullHD auf ;-)

Jetzt kommen wir zu einem weiteren wichtigen Punkt Bildverarbeitung.
Wenn jeder Bildpunkte die feinsten Nuancen zeigt und das in einem 12/16 Bit Ziel-Farbraum, so kann man von einem sauber darstellbaren Bild sprechen.
Dann braucht es eigentlich keine Bildverarbeitung, denn für die Bildgebung ist die Verschlusszeit/Blendenkombination mit ND Filter zuständig (wobei ich würde nie einen ND-Filter der nicht dafür eingerechnet ist verwenden).
Vom Bildpunkt muss nur noch der exakte Spannungspegel gelesen werden.

Sobald eine Bildverarbeitung im Spiel ist, wird ein berechnetes abweichendes Verhalten gesteuert (nicht lineare Sensorspannungspegel?).

Spielt es da noch eine Rolle ob von einer höheren Auflösung elektronisch skaliert wird?
(Da ja die bessere Detailauflösung elektronisch zu einer optimierten Auflösung runterskaliert wird).
Dass der BeyerFilter vor dem Sensor Artefakte erzeugt der nicht auf das Objektiv und der exakten Lichtbrechung abgestimmt ist, ist klar (den Muster auf Muster gibt immer Interferenzen). Der ist aber Optisch/Mechanisch bestimmt.

Gruss Tiefflieger

Space


Antwort von iasi:

Wenn von in diesem Zusammenhang von CROP gesprochen wird, so handelt es sich um die Teilfläche eines Sensors, das hat zunächst mal nichts mit der Brennweite des Objektivs zu tun, auch nicht, wenn sich der Bildraum verändert. der Fokusraum verändert sich keinen Deut.
Ausserdem hat es nichts mit der effektiven Abbildungsleistung der einzelnen Pixels zu tun, weil sowohl für den Vollbildsensor, also auch für den Ausschnitt exakt dieselben Pixels zum Einsatz kommen.
Hinzu kommt, dass die Bildbearbeitung einer andern Kameras auch zwangalauefig zu einem andern Ergebnis führen wird, hier also Äpfel und Birnen verglichen werden, denn so würdest Du die Bilder Deiner 1/3" Canon mit dem Ergebnis der C300 oder in diesem fall mit der RED vergleichen. Absurde Vorstellung.
Und nur weil auf deiner Kamera "native Abtastung" steht, ist es nicht Dasselbe. dennoch ist ein 24mm-objetiv bei 4k bei der scarlet ein ww und bei 2k (hdrx) eben schon ein tele.
selbst ein canon 14/2.8 wird bei 2k an der scarlet zum normalobjektiv. braucht es einen größen bildwinkel muss man ein objetiv adaptieren - sehr unpraktisch.

Space


Antwort von WoWu:

Da ja die bessere Detailauflösung elektronisch zu einer optimierten Auflösung runterskaliert wird Dahinter verbirgt sich fälschlicher weise die Annahme, dass dies verlustfrei ist. Aber in Wirklichkeit findet eine Veränderung statt.
Drei Dinge treten zunächst zutage: die Filter sorgen für Überschwinger, die als Kanten wahrgenommen werden. Manche mögen es, weil die Bilder dann crispy wirken. Aber die Filter sorgen auch für Rauschen ... dem wird mit Rauschfiltern abgeholfen. Kann man machen, nur lässt die Kamera nicht mehr die Entscheidung, ob ich das in der Post kontrolliert mache, oder ob es in der Kamera geschehen muss denn es muss in der Kamera geschehen, Stichwort Codec und kappt damit auch meine Bilddetails, denn die Filter können zwischen Rauschen und feinen Grashalmen nicht unterscheiden.

Aber noch etwas geschieht in Bezug auf die Auflösung:
Uns ist aufgefallen, dass die Bokeh in Bildern mit Vollauflösung der Kamera, herunter-interpoliert auf 2k "härter" aussahen, als wenn die Bilder gleich mit 2k Sensorausschnitt gemacht wurden.
Erklärung dafür steht oben.
Daraufhin haben wir noch andere Gesichtspunkte genauer untersucht und gefunden, dass ein Grossteil der interpolierten Bilder aus Artefakten bestanden und die "gekroppten" Bilder sehr viel Detailgetreuer waren.
Feine Bilddetails waren als Gegenstand in interpolierten Bildern gar nicht mehr zu identifizieren (was es ist), wohl aber in "gekroppten".
Das war mal mehr und mal weniger, je nachdem, wie kontrastreich die Bilder waren und wie das Kameraprozessing gegriffen hat, aber die "gekroppten" Bilder waren in der Regel die besseren Bilder.
Eklatant war eben nur das Verhalten der Bokeh, die sich deutlich verändert hat, weil auch Interpolationen auf unscharfe Bildteile völlig anders abgestimmt sind, als auf scharfe Kanten.

Das Thema ist absolut losgelöst von Objektiven und dem Objektraum und erst Recht von irgendwelchen Handhabungen.

Space


Antwort von iasi:

Na ja, aber es ging hier auch nicht um die Praktikabilität sondern darum, ob eine Interpolation die Ursprungsqualität einer Abtastung negativ verändert.
Nicht darum, ob es nun bequem oder unbequem ist, ein Objektiv zu wechseln. Da stimme ich mit Dir völlig überein. Daher nutzen wir bei Kameras, die ein solches Ausschnitte zulassen, gleich den passenden Ausschnitt, bevor wie Bildinterpolationen machen, es sei denn, wir benötigen mal ein Weitwinkel, das wir nicht im Kasten haben und müssen es über den Bildraum machen. Das ist aber ziemlich selten.
Aber wie gesagt, das ist eine Frage der Handhabung und keine Frage der Bildqualität. es ging um das für und wider der canon- und der red-lösung.
- bei der epric tut es finanzielle weh
- bei der canon muss man die interpolation-nachteile schlucken
- bei der scarlet sind bei einigen funktionen kompromisse gefragt, die in der praxis ziemlich einschränkend sind (hdrx geht z.z. nur bei 3k mit crop-faktor 2)

ich hab gerade noch mal nachgesehen - hdrx mit 25fps schafft die scarlet mit 3k-auflösung. immerhin kommt man dann bei einem 14mm-objektiv auf einen bildwinkel, der noch einem 28mm-ww entspricht. dennoch: so eine linse kostet dann bei canon auch gleich mal 2000€.
wie schon erwähnt, will red jedoch 4k-hrdx mit 24fps nachreichen - bei höherer kompressionsrate.

Space



Space


Antwort von Tiefflieger:

Danke für die Erklärung WoWu.
Vielleicht hast du es auch schon gesehen.
Für Frameratentests habe ich auf YouTube Sequenzen heruntergeladen (ich weiss verlustbehaftetes Streaming, grauselig).

Ab 00:12 habe ich Bokeh, ist diese scharf gezeichnet oder eher weich?
http://www.youtube.com/user/Tiefflieger ... WINiDKI2gU

Gruss Tiefflieger

Space


Antwort von toxitobi:

Als Ausweg sehe ich nur einen Adapterring, um 16mm Objektive oder solche für 4/3 zuadaptieren. Diese sollten eigentlich genau den 2fach gecroppten Sensor abdecken.

Gruß Tobi

Space


Antwort von iasi:

Als Ausweg sehe ich nur einen Adapterring, um 16mm Objektive oder solche für 4/3 zuadaptieren. Diese sollten eigentlich genau den 2fach gecroppten Sensor abdecken.

Gruß Tobi unschöne variante

es mag ja ganz nett sein, wenn man ein 170mm/1.4 objektiv durch den crop auf 3k bekommt, wenn man ein 85er nutzt.
aber die notwendigkeit zusätzlicher linsen ist ärgerlich.

andererseits gibt es eben bei raw keine andere lösung als crop, wenn man geringere auflösung braucht.

Space


Antwort von iasi:

ach ja - es soll ja der selbe sensor wie in der epic sein.
welche daten gibt es denn hierzu?
13,5 stops ist klar.

wie sieht es denn mit der empfindlichkeit aus?


wenn schon 4/3-adapter, dann könnte man auch mal das nokton 25/0,95 versuchen.

Space


Antwort von WoWu:

@ Tiefflieger

Die Bokeh sieht sehr flach und konturarm aus. Das kann aber genauso am Coding liegen (was ich fast vermute). Aber solche Flächen machen Interpolationen auch. Nur kommt es eben auf das Ausgangsmaterial an, ob die Linse z.B. überkorrigert ist, dann macht sie eher die schlechte Bokeh oder ob sie akrobatisch ist, dann macht sie einen winzigen grünlichen Rand usw. usw. Auch ist die Bokeh absolut individuell und es gibt keine zwei identischen Bokehs.
Daher ist es auch sehr schwer, so etwas miteinander zu vergleichen. Wohl aber geht es, mit einer Linse, da kann man sehr genau die Verarbeitungsunterschiede sehn. (Wohl gemerkt. Es muss die identische Austrittspupille sein, sonst verändert sich -natürlich- auch die Bokeh).

Aber die Unschärfe ab 00:12 sieht, so, wie sie von youtube rüberkommt, sehr, sehr platt aus und man kann innerhalb der Unschärfe auch nicht mehr differenzieren, denn 2m hinter dem Objekt sieht identisch mit 10m dahinter aus. Eine gute Bokeh lässt hier deutliche Differenzierung zu. Das ist hier gar nicht der Fall.

Space


Antwort von Tiefflieger:

Danke WoWu, ich werde mir mal verschiedenes anschauen :-)

Nach kurzer Analyse "akrobatisch"



Space


Antwort von handiro:

Also ich finde die bokeh von .12-.23 ist schon differenziert: rechts die dunkelgrünen Blätter sind etwas schärfer als die hellen, weiter hinten, links vom Kopf der hübschen Hauptdarstellerin :-)

I love these pixelpeeping discourses :-) mehr davon WoWu!!

Space


Antwort von WoWu:

Tja, ich sag ja, manche brauchen's für ihre DVDs eben nicht. Und wieder Andere sehen es nicht einmal.
Und wenn es Otto Schade nicht gegeben hätte, würden wir nicht einmal was über solche Leute wissen ....
Aber es hat ihn ja gegeben und deshalb wissen wir, dass es Unterschiede gibt und wo deren Grenzen sind.
Aber egal, Hauptsache 4k, scheiss egal, wie das Bild aussieht, weil sie auf die Grösse eine Pixels nicht runter brechen können.

Space


Antwort von WoWu:

@ Tiefflieger
schönen Dank für die Bilder und die Korrektur.
Klar muss es achromatisch heissen, aber Apples neues Korrekturprogramm schlägt manchmal ohne Erbarmen zu und wenn man nicht alles nochmal liest, bleiben nur noch die Stilblüten. :-))

Aber das Problem besteht heute eben darin, dass man möglichst kontrastreiche Bilder haben möchte und die meisten Linsen auf Schärfe überkorrigiert sind. Wenn man aber eine schöne Bokeh im Hintergrund erzeugen will, muss man die Unterkorrektur so groß halten, dass auch die Blendendifferenz sehr groß wird damit wird aber auch die Fokussierung erschwert. Ausserdem geht damit ein Kontrastverlust einher, weil dort, wo die inneren Strahlen einen kleinen Bildpunkt formen, die Äußeren einen Halo erzeugen, der den Bildpunkt umgibt und den Kontrast senkt.
Aber das ist eben schon Bildkomposition, worum sich die Meisten vermutlich nicht kümmern, hauptsache 4k.

Space



Space


Antwort von gast5:

Klar muss es achromatisch heissen, aber Apples neues Korrekturprogramm schlägt manchmal ohne Erbarmen zu *ggggg Safari is schon der Hammer.... geht mir auch immer so..

Space


Antwort von WoWu:

Ja, manchmal kommen schon ulkige Sachen dabei heraus, aber jeder hier im Forum weiss das vermutlich richtig einzuordnen und dass das achromatisch statt akrobatisch im Zusammenhang mit Linsen heissen muss, dürfte jeder wissen.
Schöne neue Softwarewelt :-))

Space


Antwort von iasi:

irgendwie hab ich den faden verloren - ging es nicht um einen sensorgrößenvergleich?

und dabei wären wir eigentlich beim größten makel der scarlet x - um es mal auf den punkt zu bringen: dem crop.
es ist eben eine abgespeckte epic und daher ein kompromis.
hdr = crop faktor 2
50p = crop faktor 3,9

ok - immerhin sind 48p bei 3k und crop-faktor 2 drin.
dennoch: die epic ist ein anderes kaliber - daher auch um einiges teurer.

5k/48p - so muss man drehen, wenn man zukunftssicher arbeiten möchte.

4k/24p ist nur übergang

Space


Antwort von WoWu:

Von welchem Drop sprichst Du ?
Wenn es um die Teilauslesung eines grösseren Sensors geht, ist es eben kein Schwachpunkt.
Von dem "Trip" bin ich lange runter. (Siehe oben)
Wenn es darum geht, dass nur Objektive mit einer kleineren Austrittspupille aufgesetzt werden können, dann mag das gestalterisch ein Engpass sein.

Space


Antwort von Jott:

Teilauslesung/Crop je nach Framerate und Funktion (HDR) ist kein Schwachpunkt? Prima, dann kann RED die EPIC ja einstampfen.

Space


Antwort von Jott:

Teilauslesung/Crop je nach Framerate und Funktion (HDR) ist kein Schwachpunkt? Prima, dann kann RED die EPIC ja einstampfen.

Space


Antwort von domain:

Danke WoWu, ich werde mir mal verschiedenes anschauen :-)
Nach kurzer Analyse "akrobatisch" Sieht wirklich "akrobatisch" aus ;-)
Bei Kameras mit einer rhombenförmigen Zweiflügelblende kann man meiner Meinung nach überhaupt kein vernünftiges Bokeh erzeugen.



Space


Antwort von Tiefflieger:

Das ist mir bewusst, nebst schönen Scheinwerferpunkten mit vier Sternförmigen-Strahlen. :-))

Space


Antwort von Anne Nerven:

Wieso DIE Bokeh? Seit wann es ist denn nicht mehr DAS Bokeh?

Space



Space


Antwort von WoWu:

@domain
Ich kann leider die Bilder nicht sehen, die Du postest, das ist schade. Woran liegt das ? ich habe immer nur so einen Frosch im Eiswürfel.

Space


Antwort von WoWu:

Wieso DIE Bokeh? Seit wann es ist denn nicht mehr DAS Bokeh? Das wird vermutlich, wie die Tiefenschärfe, wieder jeder halten, wie er will.
Ich benutze die deutsche Übersetzung für den japanischen Begriff, dessen Bedeutung "verwirren, ungeordnet" aussagt.

Wicki sagt dazu: Bokeh (von jap. ぼけ boke „unscharf, verschwommen“)

Von beiden Begriffen wäre das Substantiv demnach feminin.
Denn "DAS" Unschärfe oder "DAS" Verwirrung oder "DAS" Unordnung is ja irgendwie nicht so gut.
Aber jeder weiss mal wieder, was gemeint ist und der Artikel ist gar nicht so wichtig.

Space


Antwort von freezer:

Irgendwelche nicht, solche wie unten schon gar nicht.
(Canon XA 10 ohne Skalierung, FullHD Sensor)
Das Bild zeigt deutlich, dass es von einer schlecht deinterlacten 1080i Aufnahme stammt, wo das zweite Halbbild einfach weggelassen wurde. Ich würde das nicht gerade als Referenz nehmen.

Space


Antwort von Jott:

ich habe immer nur so einen Frosch im Eiswürfel. Kommt vor. In Sibirien ist auch schon ein Mammutbaby dringesteckt.

Space


Antwort von carstenkurz:

und dabei wären wir eigentlich beim größten makel der scarlet x - um es mal auf den punkt zu bringen: dem crop. Das ist Unfug, weil dieser Aspekt bei JEDER digitalen Cinekamera so ist. Auch die Epic und die RED One erlauben die höchsten Bildraten nur MIT Cropping.

Die Behauptung, das sei unpraktikabel, entstammt einer unrealistischen Sichtweise auf das Arbeiten mit solchen Kameras. Wer so ein Ding zum Spielen hernimmt, wird sich vielleicht wundern, dass der Bildausschnitt verkleinert wird, wenn man auf Zeitlupe drückt. Eine Sichtweise, die von der Verwendung von Amteuerkameras her rührt, oder eine 'anything goes' Plugins-lösen-alle-Probleme-Mentalität. Tatsächlich unterstützen weder R1 noch EPIC noch Scarlet überhaupt so eine Funktion, mal eben von einem bestimmten Format her aufnehmend die Bildrate in ein anderes Format hinein zu wechseln. Es gibt gar kein Bedienmodell für so einen 'Crop' an diesen Kameras.

Es wird kaum jemand 'plötzlich' eine höhere Bildrate für Slomo wählen und dann verärgert sein, weil er die Optik wechseln muss weil er dummerweise bemerkt, dass der Bildausschnitt sich plötzlich ändert - wenn er den Dreh in Absicht auf Speedramping geplant hat, wird er ihn von vorne herein mit der richtigen Optik geplant haben und eben keinen Wechsel der Optik vornehmen müssen. Wenn er einfach 'nur' eine Szene in HighSpeed drehen will, hat er sich eben für eine bestimmte Brennweite entschieden und dreht die eben damit. Wenn er aus irgendwelchen Gründen einen dauernden Wechsel unter Beibehaltung des Ausschnittes UND Objektabstandes realisieren will, wird er eine Zoomoptik verwenden.
Festbrennweiten sind das Credo engagierten Arbeitens und das ist eben GENERELL unpraktisch, es gibt unzählige andere Gründe, Brennweiten wechseln zu 'müssen'. Und niemand verbietet, mit einer kürzeren Brennweite 24fps zu drehen.

Der einzige Aspekt, der hier vielleicht etwas spezieller ist, ist eben, dass die Epic 4k AUCH in 'SloMo' fähigen Bildraten kann, während die Scarlet eben grundsätzlich 4k nur mit 24 respektive 30fps kann. Mit anderen Worten, in der höchsten Auflösung kann die Scarlet im Unterschied zur Epic keine Zeitlupe.
Tja, muss man einer Kamera, die ein Drittel ihrer potenteren Schwester kostet, jetzt einen 'Mangel' attestieren, oder ist das nur eine dem Preis angemessene Ausstattung? Was würde man sagen, wenn RED den 4k Modus ganz weg gelassen hätte mit der Begründung: 'Das ginge nur mit maximal 24/30fps, da die Kamera in 4k dann keine Zeitlupe könnte, lassen wir 4k ganz weg.' Gleiche Argumention beim Cropping.

Die REDs sind Cinekameras, man muss einfach mal verstehen, was das heisst. Die Canon C300 kommt gewissermaßen 'von unten', die Scarlet 'von oben', das bedingt jeweils andere Kompromisse und vor allem Sichtweisen.

Der Umstand, dass die REDs nicht skalieren, ist eben deren grundsätzlich RAW orientiertem Commitment geschuldet, und das heisst eben nicht, dass der Codec irgendwie 'besser' ist als in einer 5D. Die 5D benutzt gewissermaßen Diafilm, die REDs Negativfilm, das geht auch weit über '8-Bit vs. 10-Bit vs. vs RAW' hinaus. Dafür muss man freilich nachvollziehen, was ein durchgängiger End-to-End RAW Workflow wirklich bedeutet. Die Scarlet ist nunmal kein teurer Camcorder.

Ich kann einem LKW auch nicht vorwerfen, dass er keine Automatik hat oder dass die Reifen so teuer sind. Man macht damit schlicht andere Dinge als mit einem PKW.
Für die Leute, die sich ne bessere 5D wünschen, ist die Scarlet schlicht die falsche Kamera. Die müssen auf den 5D- oder GH2-Nachfolger warten.


- Carsten

Space


Antwort von Jott:

"Das ist Unfug, weil dieser Aspekt bei JEDER digitalen Cinekamera so ist."

5K bis 120fps ohne Windowing/Crop bei der EPIC. DAS ist praktikabel. Erst ab 150fps geht's auf 4K (!) runter.

Die Scarlet ist schon bei leichter Zeitlupe ein harter Kompromiss: geringere Auflösung und deutlich engerer Bildwinkel bei gegebener Optik. Da gibt es nichts schönzureden. 4K-Projekte nur ohne HDR und stur mit Standardrate. Das ist eine brutale Einschränkung gegenüber der EPIC. Nur wem das egal ist und wer beides, Slow Motion und HDR, nicht will und braucht, der macht ein 4K-Schnäppchen.

Space


Antwort von carstenkurz:

Das ist aber ein erheblicher Mangel, wenn ich 150fps drehen will und dann die Optik wechseln muss.


- Carsten

Space


Antwort von Jott:

Textverdreher. Du weiß genau, was ich meine.

Ich drück's mal noch derber aus: das wahre Schnäppchen ist die EPIC. Die Scarlet dagegen ist für viele Genres eine glatte Fehlinvestition. Meine Meinung, muss nicht jeder teilen.

Space


Antwort von Tiefflieger:

Irgendwelche nicht, solche wie unten schon gar nicht.
(Canon XA 10 ohne Skalierung, FullHD Sensor)
Das Bild zeigt deutlich, dass es von einer schlecht deinterlacten 1080i Aufnahme stammt, wo das zweite Halbbild einfach weggelassen wurde. Ich würde das nicht gerade als Referenz nehmen. Ich muss in diesem Zusammenhang etwas präzisieren.
Der original Film stammt von der Seite „film-tv-video.de“.
Der Auschnitt stammt von mir aus einer 9x Vergrösserung einer Szene (entspricht ca. 6K Darstellung).

Artikel, Produkte: Kameras, 12.01.2011
Canon XA10: Kompakt-Camcorder mit Profiambitionen
http://www.film-tv-video.de/produktdeta ... b908a.html (Registrierung erforderlich)

Selbstverständlich habe ich versucht die besten Qualitäten MXP (24 Mbit/s) zu verwenden.
- 01_50i_MXP.MTS
- 01_25p_MXP.MTS

Ich denke es ist ein Zusammenspiel von Sensorauslesung (Pixelbereiche) und Codec (daraus resultierend Interlaced Artefakte).
(Man sieht im Film bei 900% Vergrösserung die zeitversetzte Auslesung von Sensorbereichen. Und ich spreche nicht von Zeilen. Es sind teilweise auch leichte Erschütterungen auf dem Stativ zu erkennen.)

Meine persönliche Erfahrung mit HD Material ist durchwachsen.
Um die reale Qualität zu beurteilen macht man selber Aufnahmen oder lädt von vertrauenswürdigen Quellen die Originale aus der Kamera.
Bei guten HD Aufnahmen sind auf einem FullHD Fernseher bestenfalls kleine Schärfe Unterschiede zu sehen.
Wirklich unsaubere Detailabbildung in Farbe, und daraus resultierend fehlenden Objektdetails und Unschärfen, sieht man erst bei Vergrösserung („unverfälscht“ vom Full HD Fernseher).

Gruss Tiefflieger

Ich selbst Filme mit einer drei Chip Kamera in 1080p50 und aus meiner Erfahrung echtem Full HD

Space



Space


Antwort von WoWu:

Ich selbst Filme mit einer drei Chip Kamera in 1080p50 und aus meiner Erfahrung echtem Full HD Dann musst Du aber schon ein "mächtiges" Objektiv drauf haben denn FullHD heisst ja 2 Mill Bilddetails und nicht 6 Mill. Pixels.
Und dazwischen liegen eben die berühmten "Welten".
:-))

Space


Antwort von iasi:

Wenn es um die Teilauslesung eines grösseren Sensors geht, ist es eben kein Schwachpunkt. es ist ein schwachpunkt - und zwar der größte bei der scarlet x.

in der praxis kann es gar ein echter mist werden: braucht es weitwinkel, muss man z.b. für 2k/50p ein objektiv adaptieren, weil es keine canon-linsen unter 14mm gibt.

Space


Antwort von Tiefflieger:

Ich selbst Filme mit einer drei Chip Kamera in 1080p50 und aus meiner Erfahrung echtem Full HD Dann musst Du aber schon ein "mächtiges" Objektiv drauf haben denn FullHD heisst ja 2 Mill Bilddetails und nicht 6 Mill. Pixels.
Und dazwischen liegen eben die berühmten "Welten".
:-)) Ich habe die Möglichkeit relative Beobachtungen zu machen.
Meine Auswahl beschränkt sich als Amateur auf Kameras mit "Full HD" Sensoren.
(Ich schaue dazu keine Kerzenlicht- und Mondscheinbilder an).
Selbstverständlich macht sie unter bestimmten Licht-, Focus- und Brennweitenbedingungen "Artefakte" und erreicht nicht die theoretische "Detailauflösung" (auch Codec bedingt).
Bis jetzt habe ich noch keine Kamera mit "Full HD" Sensor gesehen die, die Detailauflösung "meiner" Kamera erreicht.

Bezüglich Kinokameras mit Crop stellt sich die Frage wie gross die effektive Pixelfläche für FullHD (2K) ist.
So ist dies indirekt mit den gängigen "Full HD" Sensoren zu vergleichen (Rauschen, Pixelabstand und Bildverarbeitung? mit Zielformat 12/16 Bit)

Grundsätzlich besteht FullHD aus 1920x1080 Pixeln (realen Details <- dazu komme ich noch).
Bei 300 dpi Fotoqualität (Druck) wäre dies ein Papierbild Abzug
im Format: 9x16cm
(exakt 9.144 cm x 16.256 cm)

Der 2. Punkt ist die Darstellung der zeitlichen Details bei digitalen Ausgabemedien (z.B. LCD).

Um die Qualität der Abbildung zu vergleichen muss ich zuerst (progressive) Standbilder anschauen.
Bei Einzelbildern ist ein aufgenomener Bildpunkt exakt gleich am Bildschirm positioniert.
Nun bewegen sich alle Bilddetails, mit der genau definierten Anzahl Bildern pro Sekunde.
Das Auge/Hirn sucht sich eine Referenz und folgt dem "Pixel".
Somit sind alle dynamischen Details niemals "scharf", da sich das Auge auch bewegt. (Wahrnehmung)

Dazu kommt noch, dass sich alle Bildetails zeitlich in der Farbe und der Helligkeit ändern können, mit der entsprechenden Detailauflösung.
Daher ist die Bildauflösung zwar spezifizierbar aber nicht real im wahrsten Sinne des Wortes "greifbar".
(im "Rahmen" meiner Aufnahmen wirken sie möglichst oft "greifbar" ;-))

Und viele zeitliche Details, auch solche die nicht im Bild sind, erzeugen Schallwellen :-) <- dies ist ein ebenso wichtiger Punkt.

Gibt es bei Kino-Kameras auch "Pixel Mapping"?

Gruss Tiefflieger

Selbst bei bei Grossformat Fotokameras gibt es "dynamische Details".
Bei 65 MPixel auf dem Stativ wird für ein Foto der Sensor bewegt (Pixel-Shift).

Space


Antwort von iasi:

Ich selbst Filme mit einer drei Chip Kamera in 1080p50 und aus meiner Erfahrung echtem Full HD Dann musst Du aber schon ein "mächtiges" Objektiv drauf haben denn FullHD heisst ja 2 Mill Bilddetails und nicht 6 Mill. Pixels.
Und dazwischen liegen eben die berühmten "Welten".
:-)) na - irgendwie ist das jedoch auch eine ziemlich ungenaue aussage.

vor allem ist dies alles ziemliches pixelgeschacher.
auch eine red scarlet x nutzt für die 4k-bildpunkt-auflösung keine 16k-pixel.

der eigentliche vorteil bei red ist nun einmal, dass die rot, grün und blau daten getrennt (wenn auch komprimiert) gespeichert werden. leider bringt dies bei der scarlet eben den crop-nachteil mit sich.
und fullhd ist laut definition 1920x1080 - man kann den obigen satz durchaus auch korrekt lesen und die 1080p50 auf die kamera beziehen.

Space


Antwort von WoWu:

Das ist eben eine Frage der Auffassung, was HD charakterisiert.
Ob der Anwender darunter optisch aufgenommene Details versteht, oder ob er verschmierte, interpolierte Bildpunkte darunter versteht, die durch technische Tricks dahin gebracht werden, 6 Millionen Dioden auf dem Display zum Leuten zu bringen.
Ich neige dazu, reale Bilddetails darunter zu verstehen. Und dazu gehört eben auch eine entsprechende Objektivauflösung.
Und egal, ob 4k bei einem Chip oder 6k bei drei Chips, wie in diesem Fall, Objektivleistung bleibt nun einmal Objektivleistung und da kann ich Pixel zählen, soviel ich will, solange die nicht stimmt, kommt hinten nix raus.

Space


Antwort von iasi:

Das ist eben eine Frage der Auffassung, was HD charakterisiert.
Ob der Anwender darunter optisch aufgenommene Details versteht, oder ob er verschmierte, interpolierte Bildpunkte darunter versteht, die durch technische Tricks dahin gebracht werden, 6 Millionen Dioden auf dem Display zum Leuten zu bringen.
Ich neige dazu, reale Bilddetails darunter zu verstehen. Und dazu gehört eben auch eine entsprechende Objektivauflösung.
Und egal, ob 4k bei einem Chip oder 6k bei drei Chips, wie in diesem Fall, Objektivleistung bleibt nun einmal Objektivleistung und da kann ich Pixel zählen, soviel ich will, solange die nicht stimmt, kommt hinten nix raus. wenn es denn auch nur so simple wäre.
lichtempfindliche punkte hat man ja schließlich wirklich so viele wie bildpunkte - nur muss man eben beim bayer-sensor 2 von 4 für grün und je 1 für rot und blau nutzen, um daraus dann auch ein farbiges bild zu erhalten.
wenn man dann daraus farbige bildpunkte berechnet interpoliert man letztlich auch.
wenn canon freilich einen 4k-sensor benutzt, um daraus 2k zu errechnen, kann das durchaus vorteile gegenüber dem 2k-crop der scarlet bringen - je nachdem, wie canon das nun anstellt.

Space


Antwort von Tiefflieger:

Mit der Fragestellung bin fast gezwungen mich auf Pixel zu beziehen.
Denn das schöne an hochaufgelösten Bildern ist die Fülle an Informationen die einem als Betrachter überwältigen (mit einem Wort Wow).
Gleiches gilt auch bei der Aufnahme und die Rahmenbedingungen die man beachten muss.
(Als Amateur hat man keinen 42" Monitor bei der Aufnahme dabei).

Grundsätzlich ist 720p50, 1080p50 oder 4Kp24/p48 wie auch immer nur ein Behältniss für die Pixel- und die Zeitliche Auflösung.
Meine Kamera löst mit drei Sensoren (RGB) und je 3.05 Megapixel (Brutto), die Details in einem FullHD Container in 1080p50 auf (downscaling).
Natürlich hat es einen Grund warum Objektive Zehntausende von Dollar kosten und mit festen Brennweiten die gewünschten Bilder liefern.
Das Objektiv meiner Kamera ist exakt auf diese Sensorkombination und Spezifikation hin entwickelt worden und das in grosser Stückzahl.
In diesem Rahmen erstellt sie bessere Bilder als z.B. einen Sony F3 oder Canon XF 300.
Die Canon produziert interlaced Bilder und die Sony erreicht keine FullHD Pixelauflösung mit diesem Sensor (egal welches Objektiv).

In dem Sinn ist erst mit der Kinoklasse ein Schritt vorwärts in Richtung idealer Bilddarstellung möglich.
Wenn auch mit mehr Aufwand verbunden.

Gruss Tiefflieger

Space


Antwort von WoWu:

@ iasis
Das ist mir schon völlig klar und wenn man Qualität auf den Vergleich unterschiedlicher Kompromisse beschränken will, dann mag das (im Rahmen der verminderten Qualität) auch möglich sein.
Es ändert nur nichts daran, dass Full HD aus 2 Mill Bildpunkten besteht, also aus Details, die mit einer Kamera aufgezeichnet und wiedergegeben werden.
Und da scheinen sich unsere Vorstellungen zu unterscheiden. Für Dich scheint FullHD immer gerade das zu sein, was die Firmen ermöglichen Können (oder wollen), indem sie als FullHD bessere oder schlechtere Kompromisse anbieten und dies über Marketing als Echtes (Full)HD verkaufen.
Sorry, aber das ist nicht mein Ansatz und wie es scheint (glücklicherweise) auch nicht der der Industrie, denn sonst hätte sie schon mit der Entwicklung neuer Technologien aufgehört.
wenn es denn auch nur so simple wäre Dass es simpel ist, hab ich nie angenommen und auch nicht gesagt, nur faule Kompromisse können es eben auch nicht bleiben, die es heute (leider) noch sind.

Space


Antwort von WoWu:

@ Tiefflieger Das Objektiv meiner Kamera ist exakt auf diese Sensorkombination und Spezifikation hin entwickelt worden und das in grosser Stückzahl. Das bedeutet aber eben noch nicht, dass es auch die Leistung erbringt, die für Full HD erforderlich wäre. Das kannst Du Dir ja mal ausrechen, was das Objektiv bei der Sensorgrösse eigentlich leisten müsste. Du wirst überrascht sein.

Space



Space


Antwort von iasi:

nur faule Kompromisse können es eben auch nicht bleiben, die es heute (leider) noch sind. na - ich weiß nicht recht. faule kompromisse sind es ja nun wirklich nicht mehr.
die interpolation bei bayer-sensoren ist ja nun schon ziemlich ausgereift.
die foveon-sensoren sind ebenfalls nicht frei von nachteilen, auch wenn eine interpolation entfällt.
3-chip-technik?

erhöht man die pixelzahl bei einem bayer-sensor, um die interpolation zu vermeiden, bringt dies wiederum all die nachteile der geringerer pixelgröße mit sich.

ich bin eigentlich schon recht angetan von der aktuellen sensortechnik und kann die notwendigen kompromisse nicht als faul empfinden.

da stoßen mir die kompromisse, die die verringerte rechenleistung der scarlet x einem abfordert, schon etwas mehr auf.
auf epic-power für unter 10000€ wird man wohl noch eine weile warten müssen - aber nicht zu lange.

Space


Antwort von WoWu:

Ich mag da ja ziemlich altmodisch sein aber ich vergleiche die Wiedergabe eines Systems immer noch mit dem, was ich mit meinen Augen sehen kann und da kann ich noch sehr genau die Unterschiede feststellen und ich muss sagen, dabei ist es mir auch völlig Wurscht, ob da 4k oder was auch immer drauf steht. Solange ich keine solchen Ergebnisse sehe, sind das für mich nur Zahlen, die Hersteller verkaufsfördernd auf ihre Geräte schreiben und sich dann mit Pixeltricks und Rechenkünsten durch die Argumentation lavieren.

Na klar, hat es Fortschritte gegeben, gar keine Frage und auch, die Versuche, mit grösseren Sensoren an die geringen Objektivleistungen zu gelangen, sind anzuerkennen. Auch, dass der DSLR Berausch des Binning gescheitert ist, ist letztlich ein anzuerkennender Versuch, auf der Suche nach einer Lösung.
Nun probiert man es eben mit Downsampling und hofft, dass die Leute alle so funktionieren, wie Otto Schade es herausgefunden hat und man ihnen viel Kontrast bei niedrigen Ortsfrequenzen als hohe Auflösung verkaufen kann.
Die Industrie ist also mehr bemüht, die Unzulänglichkeiten des menschlichen Sehvermögens zu bedienen, als die realen Auflösungsversprechen.
Insofern haben wir derzeit allerdings nur die Wahl aus faulen Kompromissen.

Und Aussagen wie: "schon ganz gut" trifft die Sache natürlich nur wenn mir jemand FullHD verspricht, verstehe ich darunter auch 2 Mill Details und keine Pixeltricks, angefüllt mit Artefakten, die ich für Details halten soll.

Space


Antwort von domain:

Mal eine Frage an dich Wolfgang: auf dem Mikroskop-Sektor sind Auflösungen von über 300 lp/mm ja nicht ungewöhnlich. Mal verkehrt herum betrachtet und belichtet, in dem Fall könnte das "Objektiv" sogar auf einem 1/4"-Sensor nach meiner Rechnung noch ca. 1050 Linienpaare unterscheidbar darstellen, das entspräche also ziemlich genau einer differenzierenden Belichtung von 2100 Pixeln auf der Längsseite des Chips.
Oder mache ich da einen gedanklichen Fehler?

Space


Antwort von WoWu:

Prinzipiell kein Denkfehler (2-3000 Lp/mm sind keine Seltenheit) nur in der Mikroskopie hast Du Abnehmerröhren, die nur wenige mm gross sind, dafür aber das Signal über mehrere Gitter verstärken. Es werden also mehr Elektronen erzeugt, als Photonen eintreten, dadurch, dass die Photonen zunächst gespiegelt werden. Mir fällt der Fachbegriff im Augenblick nicht ein.
Nur dass die Anwendung leider eben nicht übertragbar ist. (Und auch nicht bezahlbar)
Dazu kommt noch, dass so ein Apochromat höllisch teuer ist und keine verwertbaren Parameter für Video aufweist. (Öffnungswinkel von 50 Grad. Video hat normalerweise, je nach Blende so 0,5 Grad. Und damit liegst Du dann auch schon bei Tiefenschärfe bei einem 1/1000 mm.
Nicht wirklich, dass, was wir brauchen und selbst wenn, dann würde Nyquist wieder einen Strich durch die Rechnung machen, weil die Sensoren nicht mehr passen .... das hatten wir ja (in Gross) bei DSLR.

Ich glaube nach wie vor daran, dass eine Flächenabstimmung mit Sensoren von rd. 10µ das Sensormaß vorgeben werden und auch damit die Leistung der Objektive und ich sehe nur Vorteile darin, wenn man auch Teile von Sensoren benutzt, um geringere Auflösungen zu nutzen.
Die Unschärfe und die Bokeh kommt in Kürze sowieso aus der Software und kein Hahn kräht mehr nach grossen Sensoren, es sei denn, die Pixel werden endlich grösser.

Space


Antwort von Tiefflieger:

Es gibt ja Normtabellen auf denen Muster aufgebracht sind.
Ich habe zwei unabhängige Quellen bei denen verschiedene Kameras unter gleichen Bedingungen zu ähnlichen Auflösungsergebnisssen kommen.

Auch wenn die absoluten Messergebnisse Fehler aufweisen würden, so sind es systemische Fehler und geben doch einen relativen Bezug zu den Kameras.
Und die Bilder von diversen Kameras die ich verglichen habe, nicht nur von SlashCam, zeigen die Qualität.

Mit der Sony HX9V habe ich Fotos, dann mit gleichem Bildauschnitt Videos gemacht.
Zum Vergleich zusätzlich mit meiner Video-Kamera.
So kann ich winzigste Details im Foto sehen und Eindrücke vergleichen.

Gruss Tiefflieger

Space


Antwort von iasi:

Und Aussagen wie: "schon ganz gut" trifft die Sache natürlich nur wenn mir jemand FullHD verspricht, verstehe ich darunter auch 2 Mill Details und keine Pixeltricks, angefüllt mit Artefakten, die ich für Details halten soll. red erzählt dir aber doch dasselbe - crop oder nicht - der bayer-sensor der red liefert auch nur pixel und nicht bildpunkte - sei es nur 4k- oder 2k-auflösung.

ich besitze übrigens eine sigma mit foveon-sensor - die eierlegende wollmilchsau ist das auch nicht.

ich denke, man sollte es mit den ansprüchen an die technische qualität nicht übertreiben.

andererseits habe ich "lawrence of arabia" in einer 70mm fassung gesehen - und später nochmals von einer 35mm-kopie ... wer es selbst gesehen hat, weiß die auslasspunkte zu füllen.
5k soll ja ...

übrigens:
mein praktisches problem bei all dem 4k-jubel: ich hab noch nichts, auf dem ich 4k betrachten könnte.

Space


Antwort von carstenkurz:

RED liefert aber auch selbst offizielle statements, welche nutzbare Auflösung aus den Sensoren rauskommt. Ob man einer ganzen Industrie jetzt missverständliche Verwendung von Begriffen vorwirft - von den 14 Megapixeln eines Mysterium X sensors hat man auch erstmal nicht viel.
Wie die 5k daraus gerechnet sind, nämlich jeweils ein Bayer-Triple, ist ja nun auch kein großes 'Mysterium'.
Aber das sind nunmal die Zahlen, die den Sensor präzise beschreiben. Und bei einer RAW Kamera ist das auch viel sinnvoller als z.B. bei einem DreiChipper. Die Leute, diese Modi tatsächlich nutzen, werden schon wissen, was das in der Praxis bedeutet.

Die anderen kriegen ja selbst die maximal effektiven 720p einer 5D nicht solide fokussiert. Wie sollen die dass bei 4k hinkriegen?


- Carsten

Space


Antwort von WoWu:

Ich will auch am Stand der Technik gar nicht rumnörgeln und jeder weiss, dass es irgendwie weiter geht, aber das, wovor ich mich wehre, ist jeden neuen Versuch der Industrie als die super-tolle Lösung zu proklamieren. Die Firmen fischen alle noch einwenig im Trüben und probieren schon eine ganze Weile alles mögliche aus. (das schliesst den foveon-sensor ein).
Nur vom Ziel, das bei mir nach wie vor (zunächst) FullHD (Bilddetails) bedeutet, sind sie noch entfernt.
Und solange ich auf einem Sensor noch 4 Pixel (oder selbst ein Triple) für einen Bildpunkt brauche und ich nur durch eine weitere Unterabtastung aus 8MP 4k machen kann, wird die Uhr nach meinem Empfinden eigentlich nur in Richtung Marketing gedreht.
Aber, wie gesagt, ich meckere ja gar nicht und finde einige Ergebnisse ja schon recht gut. Nur dieses "Zahlengetrampel" und diese Hochjubeln und Naseruempfen über Sensor-crops ... das kann es wirklich auch nicht mehr sein.
Wir haben letztes Jahr lange überlegt, welche Kamera wir für ein Projekt einsetzen und uns von den vorhandenen Objektiven, (und deren Einsatz) hin zum Kamerakopf bewegt und natürlich den Sensor mit einbezogen.
Und ich muss sagen, es war nicht die schlechteste aller Entscheidungen denn fuer mich ist das Objektiv immer noch das allerschwaechste Glied in der Kette und wenn man da ansetzt, dann ist das erheblich sinnvoller, als wenn man mit Millionen an Mikropixeln rummacht. Und diese ganze Interpolation von Photochips auf 2k stellt sich bei uns auch schon mehr und mehr als Laufkrepierer da.
Gekroppte Bilder sehen deutlich besser aus, als diese zusammewuergten Fotoflächen.
Die Leute, die hier über sowas die Nase rümpfen, sollen erst mal damit arbeiten dann werden sie den Unterschied schon sehen.
Aber, wie gesagt, ich meckere gar nicht, verstehe aber diese ganze 4k Diskussion nicht mehr.

Und was das übertreiben der technischen Anforderung betrifft ... ich denke, ich übertreibe nicht, wenn ich für 2k auch 2k Bildpunkte mit 'ner anständigen MTF, zumindest im pro Sektor verlange und nicht zusammengerechneten Matsch.

Space


Antwort von Tiefflieger:

Wenn ich das hier sehe ist das für mich kein Matsch oder Artefakt, sondern sehe jede Feder und Wimper wie sie sich im Wind bewegen.
Und die Vergrösserung wird dem realen Film-Eindruck nicht gerecht.



Video-Frames von einer Panasonic SD 700 in 1080p50 aufgenommen.

Space



Space


Antwort von WoWu:

Nein, Tiefflieger. Das war auch weder persönlich gemeint, noch war es irgendwie wertend. Aber Interpolation ist nun mal Interpolation und wenn darin aus 4 Pixel einer gemacht wird und dass auch noch, nachdem schon bei der Unterabtastung zusammengemischt wurde, und zusätzlich das Objektiv nicht genuegend aufgelöst hat, dann kommt da schon eine Gemengelage bei heraus, wie sie ruhig besser sein könnt.
Das kann aber für Dein Bilder nur bedeuten, dass sie zukünftig noch besser werden.
Und meine Intention ist ja zu sagen, dass sie Firmen erst mal anständiges 2k abliefern sollen, bevor sie Wind mit 4k machen.

(Ich hab' da übrigens auch monitormäßig noch nichts erschwingliches gesehen).

Space


Antwort von Tiefflieger:

Bei dieser Aufnahme mit grossem 8K Sensor, wenn da der Focus nicht auf den cm stimmt wirst du nicht diese Auflösung erreichen.
Der Vogel bewegt sich......
Darum muss ich etwas schmunzeln, aber das ist nicht respektlos gemeint, wenn an einer VDSLR von Hand herumgeschraubt wird.

Space


Antwort von WoWu:

Da magst Du sogar Recht haben, zumal auch das 1-Chip / 3-Chip noch dazu kommt.
Nur das Auflösungsproblem des Objektivs bleibt natürlich. da wäre auch für Deine Kamera sicher nach oben noch etwas "Luft".
Aber Auflösung ist eben nicht alles. Auch wenn manche hier nicht im "Einzelpixelbereich" denken wollen oder können, so spielen eben doch noch eine Menge Faktoren mit, die ein Bild und auch den Gesamteindruck, mitbestimmen.

Space


Antwort von Tiefflieger:

Das ist so, die Kamera ist ja auch nicht Artefaktfrei mit der Blende und bei Punkt-Lichtern.

Space


Antwort von Tiefflieger:

Und meine Intention ist ja zu sagen, dass sie Firmen erst mal anständiges 2k abliefern sollen, bevor sie Wind mit 4k machen.

(Ich hab' da übrigens auch monitormäßig noch nichts erschwingliches gesehen). Es gibt einen Toshiba 55ZL2G, 55" Quad-FullHD, 800Hz, 3D ohne Brille
Kostet etwa 6000 CHF (digitec.ch) und bietet Bildkalibrierung mit einem Mess-Sensor (wie Spyder 3).
Und ist ca. ende Monat verfügbar.

YouTube empfiehlt für 4K Projektion eine Diagonale von 7.62 m :-)

Gruss Tiefflieger

Space


Antwort von freezer:

Also das hier ist ein von mir um 300% in Photoshop skalierter Screenshot der betreffenden Szene (01_25p_MXP.MTS) - die Qualität sieht recht ordentlich aus. Du hast bei Deinem Screenshot ganz offensichtlich etwas vermurkst ;-)


zum Bild

Das Bild zeigt deutlich, dass es von einer schlecht deinterlacten 1080i Aufnahme stammt, wo das zweite Halbbild einfach weggelassen wurde. Ich würde das nicht gerade als Referenz nehmen. Ich muss in diesem Zusammenhang etwas präzisieren.
Der original Film stammt von der Seite „film-tv-video.de“.
Der Auschnitt stammt von mir aus einer 9x Vergrösserung einer Szene (entspricht ca. 6K Darstellung).

Artikel, Produkte: Kameras, 12.01.2011
Canon XA10: Kompakt-Camcorder mit Profiambitionen
http://www.film-tv-video.de/produktdeta ... b908a.html (Registrierung erforderlich)

Selbstverständlich habe ich versucht die besten Qualitäten MXP (24 Mbit/s) zu verwenden.
- 01_50i_MXP.MTS
- 01_25p_MXP.MTS

Ich denke es ist ein Zusammenspiel von Sensorauslesung (Pixelbereiche) und Codec (daraus resultierend Interlaced Artefakte).
(Man sieht im Film bei 900% Vergrösserung die zeitversetzte Auslesung von Sensorbereichen. Und ich spreche nicht von Zeilen. Es sind teilweise auch leichte Erschütterungen auf dem Stativ zu erkennen.)

Space


Antwort von Tiefflieger:

Danke freezer fürs nachschauen :-)

Vorweg, diese Effekte habe ich mit zwei Player. Dem "Windows Media Player" und "CyberLink PowerDVD" (Kurzz. CPD).

Die Artefakte aus meinem Bild entstehen eindeutig aus dem Deinterlacing.
Das Software Deinterlacing in CPD nutzt "Bitstream-Flaggen".
Software- und Hardwaredeinterlacing (Nvidia) verhalten sich gleich.
(Beim HW-Deinterlacing werden BitStreamflaggen nicht erkannt?)
Die Szenen wurden als 25p und i25 (50 Halbbilder) erstellt.

Die Effekte entstehen zu Beginn bis 00:02, egal ob 25p oder i25 (im Einzelbildmodus).
Daher mein Hinweis, dass beim Codec etwas nicht stimmen kann.
D.h. es werden vermutlich "interlaced Flags" oder eben "das fehlen" im Datenstrom sein.
Bei meinem 50p Material gibt es diese Effekte nicht.

Wird Deinterlacing deaktiviert sind effektiv nur bewegte Objekte Zeilenversetzt und der weisse Tafelrahmen durchgehend rund.
Je nach Rechenaufwand werden mehr oder weniger alle Artefakte zu progressiven Information umgerechnet.
(Störungen treten auch anderenorts bei vertikalen Erschütterungen gegen Ende auf)

Es ist möglich, dass gewisse Hardware und Playerkombinationen während der kompletten Szene keine Artefakte zeigen.
Bei professionellen sollte es ja nicht auftreten.

Meine Aussage zum Bild ist ja auch, dass ich keine solche Artefakte möchte.
Jedenfalls gibt es die bei durchgängig progressivem Video niemals.

Auf SyFy HD gibt es StarTrek "Voyager" im Format SD.
Dort gibt es auf FullHD gesendet am Fernseher deinterlaced Artefakte.
(Schade ist Star Trek insgesammt nicht aufwändiger produziert worden.)

Gruss Tiefflieger

Bei interlaced Aufnahmen werden gerade und ungerade Zeilen (Halbbilder) um 20ms versetzt aufgezeichnet.
In dieser Sequenz gibt es statische und dynamische Objekte.
Mathematisch werden alle Vektoren analysiert und versucht die zeilenversetzten Bereiche zusammenzufügen.
Je nach Einstellung werden bei Standbildern Teilbereiche sauber dargestellt.
Die Storen im Hintergrund zeigen leichte Wellenbewegung beim Framewechsel (deinterlaced).


Also das hier ist ein von mir um 300% in Photoshop skalierter Screenshot der betreffenden Szene (01_25p_MXP.MTS) - die Qualität sieht recht ordentlich aus. Du hast bei Deinem Screenshot ganz offensichtlich etwas vermurkst ;-)


zum Bild


Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


RED Rhino V-Raptor 8K S35 mit Canon RF-Mount für 19.500,- Dollar
Canon und RED - gemeinsame Sache(n)?
8k Canon R5 vs 8k Red Monstro
RED und Canon Mark III kombinieren?
Kurznews: Panasonic GH4 4K vs. RED Epic 5K vs. Canon 5D Mark III Raw
Arri Alexa vs Canon C500 vs Red Epic
Weitere Gerüchte um Red-Clone von Canon – CR1
Canon 5D Mark II, Canon 7D, Nikon D300S und Red One im Vergleich
canon 5dII und Red ... kompromisse hier wie da
Panasonic GH3 vs GH2 vs Canon 5D Mk3 vs Red Scarlet
Canon C300, Red Scarlet oder Black Magic
Kaufempfehlung:FS700, Blackmagic,Canon C100, Canon C300,Red Scarlet,SonyF3?
Neue Firmware für EOS C500 Mark II, EOS C300 Mark III, EOS C70 und EOS R5 C
Canon mit Firmware-Updates für Cinema EOS C70, EOS C300 Mark III und EOS C500 Mark II
Canon: Neue Firmware für EOS C500 Mark II und EOS C300 Mark III bringt neue Funktionen
ab Anfang 2016: SCARLET-W!
Firmware Updates: neue Funktionen ua. für Canon EOS C500 Mark II, C300 Mark III und C70
Firmware-Updates nun auch für Canon EOS C300 Mark III und C500 Mark II erschienen
Canon EOS C500 II und C300 Mark III: Firmware-Updates und Erweiterung für Live-Produktionen
Firmware-Updates für Canon EOS R5 C, C70, C300 Mark III und C500 Mark II angekündigt
Canon: Neue Firmware für EOS R5, EOS R6 und EOS-1D X Mark III bringt u.a. Dual Recording und C-Log 3
Canon EOS R8: Preis-Leistungskracher von Canon im Praxistest. Bester Einstieg für EOS-Filmer?
AnkerWork PowerConf C300 - Smarte HD-Webcam mit integrierter KI-Unterstützung
Anker PowerConf C300 - USB-Webcam mit KI-Unterstützung
C300 Mk iii Belichtung messen hinter LUT
Canon LOG 3, RAW Light und IPB Light für EOS R5, 1-D X III sind da - für EOS R6 auch bald LOG 3




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash