Frage von theproducer:Hallo!
Ich habe folgende Frage:
Was ist bitte der Unterschied zwischen 25F (ist zB bei Canon XH A1 so angegeben) und 25p (zB Sony HVR-Z5)? Oder bedeutet dass das selbe?
Danke
MfG
Antwort von Shiranai:
Siehe hier:
https://www.slashcam.de/info/Canon-XL-H ... 18272.html
Antwort von theproducer:
Also handelt es sich bei 25F nicht um 25 echte Vollbilder, so wie das zB die Canon HV30 macht?
Ist dann um einen Kinolook zu erzielen, die Canon HV 30 der Canon HH A1 vorzuziehen?
mfG
Antwort von WoWu:
25F ist nicht identisch mit 25p und muss nicht identisch sein mit 25 Psf.
Es ist schon ein ganz gewaltiger Unterschied, ob mit Zeilensprung zwei Halbbilder mit 1/50s oder progressiv ein Vollbild in 1/25 sec. oder, wie bei Canon, zwei Halbbilder zu einem Vollbild verschmolzen werden. Dabei wird vor allem die Bewegungsunschärfe mit übernommen. Im Vergleich (i)-(p)-(F) sehen die F-Bilder am schlechtesten aus. Ausserdem ist (F) nicht spezifiziert, anders als beispielsweise (Psf) und kann somit aus einer beliebigen Interpolation bestehen.
Also Finger weg von 25F. Das wäre die schlechteste aller Wahlen. Jedes 25p Bild ist um Meilen besser.
Antwort von Meggs:
Also Finger weg von 25F. Das wäre die schlechteste aller Wahlen. Jedes 25p Bild ist um Meilen besser.
Der Producer nimmt dich ernst, denkt jetzt die HV20 sei besser als die A1, und hat auch schon einen diesbezüglichen Thread aufgemacht.
viewtopic.php?p=370542#370542
Antwort von WoWu:
Das ist eben das Problem, wenn man Dinge nicht im Zusammenhang sieht und alles nur auf einen Parameter reduziert.
Produktionsarbeit, egal, ob hinterher so etwas wie ein "Filmlook" oder ein "stink normales Fernsehbild" dabei herauskommen soll, besteht aus so vielen unterschiedlichen Parametern, die man alle gewichten muss, dass die Frage nach dem Bildformat sicher eine Rolle spielt, aber bei der Menge anderer Parameter manchmal auch in den Hintergrund treten kann.
Aber solche Überlegungen werden leider immer seltener angestellt. Selbiges Thema bei DSRL Video ....
Wir haben kürzlich mal DSRL parallel zu einer Produktion mit einer konventionellen Videokamera laufen lassen. Das Resultat war ernüchternd, weil eine "normale" Produktion vom Ablauf her durch DSRL gar nicht gefolgt werden kann. Das fängt schon bei der Remotebarkeit auf einem Kran an und hört bei Filelängen bei Interviews auf.
Ergebnis: Unter normalen Arbeitsbedingungen, wie sie in der Crew eingeführt sind und sich bewährt haben, liefert die Knipse kaum verwertbare Bilder.
Da kann ich nun lange die Diskussion auf den Parameter "Bildqualität" reduzieren. Ich würde vermutlich zu einem andern Ergebnis kommen, nutzt aber nix.
Daher verstehe ich nicht ganz, warum hier Formate am Bildformat festgemacht werden. mal ganz davon abgesehen, dass 25F wirklich grauslig ist.
Antwort von Rolf Hankel:
25F ist nicht identisch mit 25p und muss nicht identisch sein mit 25 Psf.
Es ist schon ein ganz gewaltiger Unterschied, ob mit Zeilensprung zwei Halbbilder mit 1/50s oder progressiv ein Vollbild in 1/25 sec. oder, wie bei Canon, zwei Halbbilder zu einem Vollbild verschmolzen werden. Dabei wird vor allem die Bewegungsunschärfe mit übernommen. Im Vergleich (i)-(p)-(F) sehen die F-Bilder am schlechtesten aus. Ausserdem ist (F) nicht spezifiziert, anders als beispielsweise (Psf) und kann somit aus einer beliebigen Interpolation bestehen.
Also Finger weg von 25F. Das wäre die schlechteste aller Wahlen. Jedes 25p Bild ist um Meilen besser.
Hallo
Muss da doch mal nachfragen: Bei meiner HV 30 und Hf 100 kann ich wählen zwischen 50i und PF25, ist demnach 50i die bessere Wahl ?
Gruss...Rolf
Antwort von B.DeKid:
Was gefällt Dir denn besser ?
Oder besser gesagt ...wie teuer war denn dein PC?
Meinst Du dein PC könnte mehr Power haben als der Rechner Chip in deiner Kamera ?
Von wem würdest Du denn dann gern die Umrechnung machen lassen wollen?
MfG
B.DeKid
Antwort von Rolf Hankel:
Was gefällt Dir denn besser ?
Oder besser gesagt ...wie teuer war denn dein PC?
Meinst Du dein PC könnte mehr Power haben als der Rechner Chip in deiner Kamera ?
Von wem würdest Du denn dann gern die Umrechnung machen lassen wollen?
MfG
B.DeKid
Vom Eindruck her gefällt mir 25PF besser(kann aber auch Täuschung sein)
Rechner: Intel Q 9550, Ati Radeon HD 4800, 4GB Ram, XP 32Bit Serv.P2.
Meine Frage bezieht sich auf den Beitrag von Wolfgang wo er von 25F abrät
Gruss...Rolf
Antwort von DeeZiD:
25f: Interlaced Material wird deinterlaced und in einem interlaced Container (hier HDV) untergebracht.
Die Qualität dabei ist grauenhaft.
25pf: Progressives Material wird in einem Interlaced Container gespeichert.
Die Qualität dabei ist sehr gut, da kein (minderwertiges wie bei der A1/G1/H1) deinterlacing stattfand.
Gruß Dennis
Antwort von Meggs:
25f: Interlaced Material wird deinterlaced und in einem interlaced Container (hier HDV) untergebracht.
Die Qualität dabei ist grauenhaft.
Dann müsste doch grundsätzlich die Qualität von 50i HDV ebenfalls grauenhaft sein.
HDV wird immer auf einem progressiven Ausgabegerät angeschaut. Das Ausgabegerät macht in Echtzeit bei 50i das selbe, wie bei 25F der Camcorder:
Ein "minderwertiges" Deinterlacen. Meinst du der Monitor kann das viel besser als der Camcorder?
Bei meiner Canon A1s sehen am Monitor weder die 50i-Aufnahmen noch die 25F Aufnahmen grauenhaft aus.
Antwort von DeeZiD:
Am PC lässt sich 50i-Material deutlich besser deinterlacen, als es kameraintern möglich wäre.
50i in Kamera nach 25p(25f): grausam, starker Schärfeverlust, Kantenaufsteilungen, Zittern usw...
50i vom PC (avisynth edint) nach 25p: hervorragend, kein sichtbarer Schärfeverlust, kaum Artifakte, nicht viel schlechter als natives 25p.
50i vom Fernseher/Monitor nach 50p: kommt auf den Fernseher bzw. Monitor an. Wenn man Pech hat wird stinknormales Bobbing verwendet (machen z.B. viele LG-TVs, einfach nur scheußlich).
Gruß Dennis
Antwort von WoWu:
Bewertungen wie
gut oder
schlecht,
scharf oder
unscharf sind immer subjektiv. Was für den einen noch prima aussieht, reicht für den andern schon nicht mehr aus.
Fest steht, dass man bei segmented Frames die Nachteile beider Verfahren hat.
Man muss auf die doppelte zeitliche Auflösung des (i) verzichten (also der Nachteil von (p), muss aber den De-interlacer durchlaufen (Nachteil von i).
Gegenüber einem echten p kommt es immer zu einer zeitlichen Filterung und der damit verbundenen Bewegungsunschärfe.
Bei schnellen Bewegungen mag sie (im laufenden Bild) nicht so auffallen, sie stellt aber immer Stress für den Encoder da und ein Encoding wird dadurch nicht verbessert, sondern in kritischen Bildteilen, verschlechtert. (Nachteil gegenüber p).
Deutlich sieht man die Unterschiede bei der (Still) Gegenüberstellung der drei Formate, wenn schnelle Objekte gezeigt werden.
Daher meine Anmerkung, dass von den 3 Formaten der Kompromiss die schlechteste Wahl ist.
Antwort von Meggs:
Man muss auf die doppelte zeitliche Auflösung des (i) verzichten (also der Nachteil von (p), muss aber den De-interlacer durchlaufen (Nachteil von i).
Wenn ich 50i Material am Computerbildschirm ansehe, sehe ich dann
50 Bilder/sek oder 25 Bilder/sek deinterlaced?
Antwort von Meggs:
Ich stelle die Frage mal andersrum:
Mir ist bei SD und 50i der Vorteil der höheren zeitlichen Auflösung auf einem Röhrenfernseher durchaus bewußt.
Mir ist aber nicht klar, wie bei HD und 50i eine höhere zeitliche Auflösung zustande kommen kann, wenn das was man anschaut immer deinterlaced mit 25 Bildern/Sek dargestellt wird.
Antwort von WoWu:
Du hast den Bewegungsablauf von 50 Bildern/s zusammengefasst in 25 Bildern.
Du siehst also 25 Bilder mit den halben Inhalten von 50 Bildern.
Antwort von Bruno Peter:
"Gegenüber einem echten p kommt es immer zu einer zeitlichen Filterung und der damit verbundenen Bewegungsunschärfe."
Bei der HV20/30/40 ist das anders, vom Chip wird 25x ein ganzes Bild aufgenommen, dann als zeitlich zwei nicht versetzt aufgenommene Halbbilder auf das Band geschrieben. Dieses Material ist zu den 1080i-Projekteinstellungen im NLE kompatibel, ohne Zeitversatz halt und mit allen daraus resultierenden Vorteilen!
Das habe ich aber schon öfters geschrieben lieber WoWu.
Antwort von Meggs:
Bei der HV20/30/40 ist das anders, vom Chip wird 25x ein ganzes Bild aufgenommen, dann als zeitlich zwei nicht versetzt aufgenommene Halbbilder auf das Band geschrieben.
Das ist klar. Das ist ja auch 25P mit CMOS. Hier geht es aber um 25F der Canon 3CCD's.
Antwort von WoWu:
Also erstens gibt es keine Halbbilder, oder Vollbilder, die auf das Band geschrieben werden, sondern nur ein Binary file, in dem das "progressive flag" so oder so gesetzt wird und die Auslesung geschieht am Sensor.
Durch das Flag wird dem nachfolgenden Decoding mitgeteilt, ob der de-interlaser einsetzen soll, oder nicht. Wenn ohnehin ein progressives Bild vorliegen sollte, warum um alles in der Welt sollte das eine Firma ohne Not durch einen De-interlacer schicken, um ein identisches Progressivebild herzustellen ?
Bruno, hast du darauf auch eine Antwort ?
Um auf das Ausgangsproblem in diesem Bezug noch einmal zurück zu kommen ... wo steht eigentlich, dass die A1 progressive ausliest ? Es stimmt nämlich nicht. Die 3 CCDs generiert die progressive fields aus einem interlaced Readout. Damit wird eine Art des de-interleasing in der Kamera vollzogen.
Man mag nun darüber philosophieren, ob das besser als Line-Doubling ist, auf jeden Fall ist es keine progressive Auslesung !!
Daher auch die Bezeichnung F statt Psf. Panasonic beispielsweise liest die Sensoren progressiv aus und erzeugt so echtes Psf, was übrigens nur mit dem SDI Übertragungsweg zusammen hing.
Nur aus diesem Grund wurde überhaupt Psf eingeführt. Das hat nichts mit Speichern auf irgendwelchen Bändern zu tun.
Antwort von Meggs:
Panasonic beispielsweise liest die Sensoren progressiv aus und erzeugt so echtes Psf
Haben deshalb die Panasonic HD-CCD's so wenig Pixel? Soweit ich weiß, kann man CCD's in HD-Auflösung aus zeitlichen Gründen noch nicht progressiv auslesen.
Antwort von Meggs:
@ WoWu
Was mir jetzt noch immer nicht klar ist: Worin besteht der Vorteil der höheren zeitlichen Auflösung bei HDV 50i im Vergleich zu 25F.
Bei 25F werden die 2 Halbbilder vom Camcorder deinterlaced und dabei zu einem Vollbild zusammengerechnet. Bei 50i geschieht genau das selbe hinterher bei der Ausgabe.
Antwort von Meggs:
warum um alles in der Welt sollte das eine Firma ohne Not durch einen De-interlacer schicken, um ein identisches Progressivebild herzustellen ?
Bruno, hast du darauf auch eine Antwort ?
Soweit ich weiß, zeichnet Canon zwar 2 identische i-Frames auf, gibt aber immer 25P aus (steht so im Handbuch der A1S). Das Interlaced-Flag ist also sowohl beim 25P der HC 30 als auch beim 25F der A1 nicht gesetzt, und wird deshalb auch hinterher nicht deinterlaced.
Der Unterschied zwischen 25P(HV30) und 25F(A1) ensteht vor der Aufzeichnung beim Auslesen - die HV30 liest den CMOS progressiv aus, die A1 liest die CCD's interlaced aus und macht dann Deinterlacing. Ab dem Moment ist der Signalweg identisch.
Antwort von DeeZiD:
@ WoWu
Was mir jetzt noch immer nicht klar ist: Worin besteht der Vorteil der höheren zeitlichen Auflösung bei HDV 50i im Vergleich zu 25F.
Bei 25F werden die 2 Halbbilder vom Camcorder deinterlaced und dabei zu einem Vollbild zusammengerechnet. Bei 50i geschieht genau das selbe hinterher bei der Ausgabe.
Merkwürdige Ausgabe...
Also, bei einer 50i-Quelle kann man sich entscheiden, ob man 50p, 25p oder halt 50i ausgibt. Bei 25f ist man auf ein künstlich erzeugtes 25p beschränkt.
Beste Lösung: Kamera mit echten 25p kaufen, falls gewünscht.
Alternative: Mit 50i aufnehmen und am PC per avisynth deinterlacen.
Gruß Dennis
Antwort von WoWu:
@ Meggs
Das ist ja eben zweifelhaft, ob es ein Deinterleasing aus 50 Halbbildern ist oder ob eine art line-Doubling passiert, was natürlich aufgrund der geringeren V-res zu geringeren Flickereffekten führt.
Auch besteht bei (i) in Verbindung mit mit 4:2:0 das Problem der systembedingten Farb- Falschinterpolation ... auch das würde in diesem Fall wegfallen und zwar eine geringere zeitliche Auflösung, aber eben ein "klareres" Bild ergeben.
Sicher alles ein Abwägungssache, die Canon zu diesem obskuren Format gebracht hat. Sie werden sicher schon den einen oder andern Vorteil gegenüber (i) ausgemacht haben.
Man darf es eben nur nicht verwechseln (was leider oft getan wird) mit (Psf) und erst recht nicht mit (P) denn das ist es nun schon gar nicht.
@ Dennis
Wieso war das eine "merkwürdige Ausgabe" .... das war doch völlig korrekt .. und wieso kann ich bei einer 50i Quelle eine 50p Ausgabe herstellen ? Es sei denn, ich wähle die halbe spatiale Auflösung ? Oder habe ich da was falsch verstanden ?
Und wieso kann ich eine 25p Ausgabe wählen, es sei denn ich deinterlease ... Wenn das alles so einfach wäre, gäb es diesen Thread nicht.
Antwort von WoWu:
Soweit ich weiß, zeichnet Canon zwar 2 identische i-Frames auf, gibt aber immer 25P aus (steht so im Handbuch der A1S). Das Interlaced-Flag ist also sowohl beim 25P der HC 30 als auch beim 25F der A1 nicht gesetzt, und wird deshalb auch hinterher nicht deinterlaced.
Der Unterschied zwischen 25P(HV30) und 25F(A1) ensteht vor der Aufzeichnung beim Auslesen - die HV30 liest den CMOS progressiv aus, die A1 liest die CCD's interlaced aus und macht dann Deinterlacing. Ab dem Moment ist der Signalweg identisch.
Das würde aber bedeuten, dass das aufgezeichnete Format (A1) 25p kompatibel ist .... ist es aber nicht. Du kannst mit einer 25p Kamera kein 25F Signal auslesen. (Ich lasse hier mal die HC30 weg, weil sie mit dem eigentlichen Problem nichts zu tun hat)
Und warum sollte Canon bei einer 25i Kamera (50i alte Beziechnung) das Signal nochmals als 25F ausgeben, wenn ein identisches Signal auch im NLE hergestellt werden könnte (denn wie Du beschreibst ist es ja ein ganz normales de.-Interleasing)
Antwort von Meggs:
Im gedruckten Handbuch der A1S steht hierzu was anderes als im Online-Handbuch der A1
"25F-Modus HD nimmt entsprechend den HDV-nativen 1080/25p-Spezifikationen 25 Bilder pro Sekunde auf. Für die Wiedergabe wird das Signal auf 50i konvertiert., die Videoausgabe über den HDV/DV Anschluss erfolgt jedoch mit 25p
Daneben ist ne Grafik, da steht
25F(Camcorder)
25p(Band)
50i(Wiedergabe)
Was auch immer das konkret bedeuten mag.
Was mich mehr interessieren würde: Wie lange dauert das Auslesen der CCD's? Was passiert, wenn ich in 50i mit 1/25 Sekunde belichte? Wenn erst belichtet, dann ausgelesen wird, dann wäre ja bereits bei 1/50 Belichtungszeit in 50i keine Zeit mehr zum Auslesen.
Antwort von WoWu:
Hallo Meggs
Man geht da von rd. 30 MHZ Clockfrequenz aus. Ist aber, wie immer, ganz vom Sensor abhängig und immer eine Abwägung zwischen Wärmeentwicklung und Rauschen und natürlich Ladungszustand, den man immer gern um die 80% halten möchte (muss)... und nicht zu vergessen, die Auflösung.
Aus diesen (und noch einigen andern) Parametern ergibt sich die Clock.
Man kann also von ca. 33ns pro Pixel bei 30 MHz ausgehen. Und jetzt kommt die Auflösung ins Spiel denn bei 1,3 Mpix kommt man schon in kritische Bereiche bei der Clock denn da ist man schon bei 42,9 ms und ein progressives Bild hat nur 40 ms .... Man muss also schon, unter Inkaufnahme des Rauschens, höher takten-.
Man kommt also gar nicht um eine Interpolation herum ... daher die geringen Pixeldichten bei CCDs und der Hang zum Interlaced.
Aber für mich ist es eine grundsätzliche Frage, denn ILT CCDs sind von der Architektur völlig anders aufgebaut und entweder macht ein CCD Interlaced oder eben nicht, beides lässt die Speicheranordnung gar nicht zu.
Wie also soll ein CCD mal (i) in ILT auslesen und mal (p) in FT ? Beides setzt unterschiedliche Speicheranordnungen voraus.
Also was Canon da an kryptischen Dingen angibt ist reine Verbraucherverblödung.
Für mich wird da ein halbes P Bild aus dem I Chip ausgelesen und der Rest dazu interpoliert. Line doubling nennt man das gemeinhin. Vielleicht noch mit ein bisschen Schicki Micki drum herum, aber nicht in voller spatialer Auflösung. Landläufig auch "Progressiv für Arme" genannt.
Antwort von Meggs:
Hallo Wolfgang,
wenn ich dich recht verstehe wird also nicht nach, sondern während der Belichtung ausgelesen, weil das Auslesen genau so lange dauert wie das Belichten.
Ich kann mir das schlecht vorstellen. Der erste ausgelesene Pixel müsste ja dann viel weniger lang belichtet sein, und deswegen auch dunkler erscheinen als der letze.
Nochmal meine Frage: Weißt du was passiert, wenn eine 50i Aufnahme mit 1/25 Sek belichtet wird?
Viele Grüße
Meggs
Antwort von Axel:
Es steht jedem frei, eigene Tests zu machen und kritisch zu vergleichen. Ganz offensichtlich kennt WoWu den F-Modus nur aus der Theorie (bzw. Fantasie, er spekuliert ja bloß), es ist ganz, als lausche man einem Pfarrer über Sex fabeln. Ergebnis eines solchen Tests ist, dass "Line-Doubling" nicht erklären könnte, wieso
• ein "i" Bild desselben Bildausschnitts genau so scharf aussieht wie ein "F" Bild, wenn sich nichts bewegt (Ja, ich weiß, dass das nur mit echtem "p" erklärbar wäre, ich las mal von 11% Auflösungsverlust bei "F", es wird so sein, dass ein solcher mess- und nachweisbar wäre. Line-Doubling wäre aber 50%)
• und deutlich schlechter aussieht als ein "F"-Bild, wenn sich das Bild bewegt (Schwenk),
• es keine Interlace-Artefakte bei "F" gibt, die mit allen, auch kombinierten, nachträglichen Deinterlacing-Techniken im Standbild in der Bewegungsunschärfe zu erkennen sind (ich betone, dass nachträgliches Deinterlacen im Großen und Ganzen die Alternative zu "F" ist. In der Theorie ergeben sich bei adaptivem DI bessere Auflösungen, einfach testen, wieweit dieser Unterschied in der Praxis für einen relevant ist).
Das Mischen von echtem und falschem p ist völlig unproblematisch. 25p mit der EX-3 und 25p der A1 zum Beispiel. Der eine probiert"s aus und macht"s einfach, dem andern ist die Lust vergangen: Zum Schuss zu kommen ist nach den ganzen Einwänden, die er angehört hat, denn doch zu unwahrscheinlich ...
Antwort von Meggs:
Der eine probiert"s aus und macht"s einfach, dem andern ist die Lust vergangen: Zum Schuss zu kommen ist nach den ganzen Einwänden, die er angehört hat, denn doch zu unwahrscheinlich ...
Ich werde es auf alle Fälle ausprobieren. Bei ersten Tests bin ich zum gleichen Ergebnis gekommen: Die F-Aufnahmen sehen keinesfalls schlechter aus als die i-Aufnahmen. Falls sie theoretisch schlechter aussehen müssten, praktisch aber besser aussehen, dann ist mir das egal.
Antwort von Bruno Peter:
Ganz offensichtlich kennt WoWu den F-Modus nur aus der Theorie (bzw. Fantasie, er spekuliert ja bloß), es ist ganz, als lausche man einem Pfarrer über Sex fabeln.
Antwort von WoWu:
Schön, dass Axel, wenn er an Überlegungen nicht teilnehmen kann, ausser Polemik, schlaue Sprüche und schräge Vergleiche beisteuern muss.
Das trägt dann, wie immer, wenigstens zur Belustigung bei.
Vielleicht kann ich mit dem (angefügten) Beispiel dienen, wo selbst Axel offenbar nichts beizusteuern hat, weil solche "Praktiker" aus ihrer eindimensionalen Welt ausser "ich finde es sieht gut aus", keine wirklich verwertbaren Beiträge leisten.
Und .. Axel ... natürlich ist es Spekulation, speziell wenn Canon widersprüchliche Angaben macht, wie von Meggs beschrieben.
Es scheint Canon doch sehr daran zu liegen, die Konsumenten im Unklaren zu lassen, was sich hinter solchen proprietären Formaten verbirgt, die ausser Canon keiner anzubieten hat.
Insofern war Dein Vergleich ziemlich untauglich.
Und ist es nicht Sinn eines Forums, auch darüber nachzudenken, wie ganz bestimmte Formate entstehen und was sie für Vor- oder Nachteile haben ? Muss denn jeder Konsument, so wie Du, alles als "gottgegeben" hinnehmen ?
Wenn Du zu Diskussionen oder zu den Überlegungen keine positiven Beiträge leisten kannst und dessen Inhalte ohnehin nicht verstehst, lehn Dich doch einfach zurück und lies den Thread nicht weiter, bevor Du hier untreffliche Vergleiche anstellst.
(Mal ganz davon abgesehen, dass Dein Weltbild, (auch) was Pfarrer betrifft, offenbar auch noch dem des Mittelalters entspricht und den Pfarrern sicher nicht gerecht wird. Aber vielleicht ist Dein Kenntnisstand der Videotechnik ja ähnlich ... Anlass, das zu glauben, gibst Du ja immer wieder ... aber wer weiss)?
Aber sag uns, wie es gemacht wird, dann kann unsere Überlegungen wenigstens mit einem Ergebnis abgeschlossen werden ... aber das kannst Du offenbar auch nicht ?
Und mal ganz davon abgesehen, dass hier nicht die Rede von P ist, sondern von F und es wenig relevant ist, ob man 25p nun mit irgend etwas mischen kann oder nicht .... F steht hier zur Diskussion und die A1 macht gar kein P ... aber das sind wohl auch nur Verwechslungen aus der Praxis, wenn einem der Unterschied nicht so ganz klar ist ... Da bist Du aber nicht allein.
Und dass Du keinen Unterschied zwischen den Formaten siehst, muss ja nicht zwangsläufig heissen, dass er nicht da ist.
@ Bruno ... soll mich Dein Beitrag zum Thema nun wundern oder willst Du damit nur ausdrücken, dass Du es auch nicht weist ... und nichts konstruktiv beitragen kannst ?
Oder findet sich in dem Zitat ein "Schlüsselwort", auf das Du ganz besonders euphorisch reagierst ?
Antwort von Bruno Peter:
Tsss...
Antwort von TheBubble:
Soweit mir bekannt ist, wird zur Bezeichnung "f" anstelle von "p" zur Abgrenzung verwendet, da interlace CCDs und keine progressiven CCDs eingesetzt werden.
Wie die technische Umsetzung in den jeweiligen Kameras aussieht, müsste man den Hersteller fragen, wenn man eine definitive Antwort haben möchte.
Eine grundsätzlich mögliche Vorgehensweise wäre aber die Folgende: Da drei CCDs zur Verfügung stehen, können diese versetzt (zwei CCDs nehmen das erste Halbbild auf, ein CCD das zweite Halbbild), aber zum gleichen Zeitpunkt, ausgelesen werden. Dies wird dann zu einer progressiven Aufnahme kombiniert.
Antwort von Axel:
@WoWu
Deine Beurteilung meines Charakters ist sicher sehr zutreffend, ich halte mich auch nicht für besonders gebildet. Darin unterscheiden wir uns.
Allen, die es eventuell betrifft, schlage ich lediglich eigene Tests vor (die zappelnde Hand aus WoWus Beweis-Attachment ist ein Beispiel für ein gutes Motiv, ein ganzer Mensch, der stark gestikuliert, ist noch besser). Beurteilt nicht die Standbilder (hier verliert "i" immer), beurteilt das Bild in der Bewegung. Blindtest, bedeutet, jemand anderes soll die Modi wechseln, aufs Geratewohl. Das Ergebnis behaltet für euch.
Antwort von WoWu:
@ Axel
Deine Beurteilung meines Charakters ist sicher sehr zutreffend, ich halte mich auch nicht für besonders gebilde.
Der guten Ordnung halber, würde ich das gern richtig stellen.
Es trifft nicht zu, dass dies meine Ansicht ist.
Dir bleibt es selbstverständlich freigestellt eine eigene Einschätzung vorzunehmen, aber unterschieb mir bitte keinen solchen Behauptungen oder Einschätzungen.
Im übrigen überschätzt Du Dich, anzunehmen, dass sich andere Leute Gedanken über Deinen Charakterzustand machen ... ich jedenfalls nicht.
@ TheBubble
Leider hat man ja keine Möglichkeit, auf die CCD Signale wie vorgeschlagen zuzugreifen, und der, der es hätte (Canon) hat ja kein Interesse daran, sich in die Karten gucken zu lassen und zugeben zu müssen, dass sich hinter ihrer "progressiv" Methode nichts anderes als ein simples "Bobbing" verbirgt.
Antwort von wolfgang:
Ach Gott, immer diese Animositäten. Ich finde, das vergleichende Bild zeigt doch eh recht klar was Sache ist - 50i hat eine gute Bewegungsauflösung, weil hier zwei Halbbilder dargestellt werden. Ein Halbbild von 50i muss schärfer erscheinen, aber in der Bewegung rucket das. Und 25f - nun man sieht es eh.
Kinder, ich wünsche mir halt unverändert echtes 50p... nicht zuletzt, um diese Diskussion nicht immer wieder zu lesen! :))
Antwort von WoWu:
@ theproducer
Vielleicht hier noch zur Veranschaulichung das Resultat aus 25 PF bzw. F
(Anlage) Damit die Spekulation nun endlich aufhört.
Sehr schön zu erkennen, dass sich die Zeilenzahl gegenüber 25i halbiert hat.
Damit ist man mit einer Auflösung von 540 Zeilen dabei.
Jede 720 Kamera macht in P da also bessere Aufnahmen und wenn man dann noch bedenkt, dass der Unterschied zwischen 1280 und 1440 sich auch schon in der Sensorauflösung verliert, würde ich vermutlich das 720p 24 Format einer JVC allemale vorziehen.
Antwort von Axel:
Das werde ich auch mal mit Karte überprüfen. Stellt sich heraus, dass du Recht hast, werde ich natürlich Abbitte leisten. Das bin ich dann wohl schuldig.
Antwort von WoWu:
Axel, Streit ist in meinen Augen nichts Negatives .... insofern trifft der Begriff "Schuld" nicht zu. Ich habe es auch nur vermutet (wie Du richtig erkannt hast) und bin jetzt einen Schritt weiter. Insofern war unser kleiner Disput positiv.
In dem Sinne, besten Gruss
Antwort von TheBubble:
Wenn Du es selbst testest, dann probieres doch bitte auch einmal die (schwarz/weiße) Tafel mit den Linien nicht nur mit weißem Licht beleucht, sondern auch einmal nur mit jeweils einer der drei Grundfarben (RGB) beleuchtet, aufzunehmen.
Antwort von Bruno Peter:
Nee nee..., im Falle 25F hat der ISBN Recht, nicht aber für den Fall 25 PF!
Antwort von WoWu:
Begründung ??
Antwort von Meggs:
Vielleicht hier noch zur Veranschaulichung das Resultat aus 25 PF bzw. F
(Anlage)
Von welchem Camcorder stammt denn die Anlage? War das jetzt PF oder F?
Antwort von WoWu:
Das war (F) aber wer beschreibt den Unterschied zwischen PF und F, solange die Kamera ein Interlaces Chip als Bildsensor hat, wäre ich mal auf den Unterschied zwischen PF und F gespannt.
Kennst Du den Unterschied ?
Und wenn es (P) wäre, warum schreibt Canon dann nicht (P).
...und bitte jetzt nicht wieder die Story von "Halbbildern auf Band gespeichert" ...
Antwort von Meggs:
Das war (F) aber wer beschreibt den Unterschied zwischen PF und F, solange die Kamera ein Interlaces Chip als Bildsensor hat, wäre ich mal auf den Unterschied zwischen PF und F gespannt.
Kennst Du den Unterschied ?
Und wenn es (P) wäre, warum schreibt Canon dann nicht (P).
...und bitte jetzt nicht wieder die Story von "Halbbildern auf Band gespeichert" ...
Du beantwortest immer nur einen Teil der Fragen: Von welchem Camcorder stammt der Anhang???
Die HV30 hat nen völlig anderen Chip als die 3CCD A1. Wer sagt, dass der Chip der HV30 nicht progressiv ausgelesen wird?
Canon schreibt, dass die A1S über FireWire P ausgibt. Nur das Format, das auf Band geschrieben wird, nennt Canon F. Habe ich weiter oben wörtlich zitiert.
Antwort von WoWu:
Das gibt aber keine weiteren Infos her, natürlich hat die HV30 einen andern Chip. Und was Canon so schreibt, widerspricht sich ja auch dauern, wie Du oben auch sehr richtig bemerkt hast.
Also:
Hat die HV30 ein interlace Chip oder nicht ?
Wenn sie ein progressiv ausgelesenes Chip hat, warum gibt sie dann kein P aus ?
Interlace Chips sind aufgrund ihrer Bauform und der damit verbundenen Auslesung gar nicht in der Lage (alle Zeilen) als progressives Bild auszugeben und zeitlich versetzte Zeilen lassen sich zwar zu einen P interpolieren, wie das aber aussieht, wissen wir alle.
Wer sagt, dass der Chip der HV30 nicht progressiv ausgelesen wird?
Ich stelle also fest, Du kannst auch nicht sagen, was für ein Chip in der HV 30 sitzt und verlierst Dich auch in munteren Spekulationen und greifst Dir immer gerade das passende Canon Zitat heraus, obwohl es genügend widersprechende Canon Beschreibungen gibt.
Aber da die HV30 primär ein Interlaced Verfahren Unterstützt, gehe ich nicht davon aus, dass da ein P Chip drin steckt.
Mir ist es auch mittlerweile ziemlich egal, weil die ursprüngliche Diskussion um (F) ging und das Thema habe ich abgeschlossen.
Starker Zweifel besteht bei mir, ob das in andern interlace Kameras grossartig anders gemacht wird, weil der Weg dorthin fast auch nur über die (F) Lösung geht, es sei denn, Du (oder Bruno) zeigst mir eine funktionierende andere Lösung auf und nicht nur "sieht aber so aus...", oder "Canon schreibt doch..." das sind keine Lösungen.
Vielleicht kann ja auch mal einer die HV30 vor eine Tafel halten und die beiden Verfahren vergleichen, dann hätten wir eine Lösung.
Mit diskussionen kommen wir, wie es scheint nicht wirklich weiter.
Antwort von Alan Smithee:
Hat die HV30 ein interlace Chip oder nicht ?
Wenn sie ein progressiv ausgelesenes Chip hat, warum gibt sie dann kein P aus ?
Weil es eine Consumer-Kamera ist soll auch wirklich jedes Schnittprogramm vom Grabbeltisch (das HDV2 capturen kann) mit den p-Aufnahmen umgehen können.
Antwort von WoWu:
Aber wie kann es HDV2 mit einem progressiv arbeitenden Chip capturen ? Nicht nur die Bildsensoren, sondern auch die Abtastverfahren sind grundverschieden und die Verfahren schliessen sich gegenseitig aus, es sei denn, eines der Verfahren wird nachträglich künstlich erzeugt.
Und warum werden dann nicht wenigstens die progressiven Aufnahmen auch als progressiv ausgegeben, warum braucht man dann so ein verschrobene SF Signal ? Jedes NLE kann heutzutage (vermutlich besser) mit P umgehen, als mit I.
Aber die Diskussion dreht sich im Kreis .... all dies wurde bei F schon einmal durchgekaut und es scheint keine neuen Erkenntnisse zu geben, bis endlich mal einer, der eine HV30 hat, sie auch mal vor eine Karte hält.
Und weil alle hier nur rumraten, erlaube ich mir auch noch eine Vermutung und denke, das Ergebnis wird ähnlich aussehen, wie bei F.
Antwort von domain:
Ich fürchte, WoWu hat in jeder Beziehung recht, es sei denn, Canon bildet 25PF grundsätzlich anders und besser ab als 25F.
Habe gerade die FX1 bei 1/25 sec. unter ISO12233 diesbezüglich mal getestet, bei der ja die identische Aufzeichnung von 2 Halbbildern aus einem Vollbild noch nicht als Marketinggag verkauft wurde, aber schon implizit vorhanden war.
Und siehe da, die vertikale Auflösung halbiert sich bei dieser Belichtungszeit in der Tat sofort auf die Hälfte, da brauche ich gar keine Testbilder zu posten, so offensichtlich ist das.
Tippe mal stark darauf, dass dies auch das gängige Aufzeichnungsverfahren von Canon bei 25 PF oder F ist.
Gegenbeweis wäre allerdings interessant.
Antwort von B.DeKid:
Ich hab doch schon tausendmal gesagt das der Canon Modus eine mogel Packung ist!
Und vorallem worum es hier ja ging , war ja die Sinnvolle Frage ob das dann besser für KINO wäre. Weil uns Herr theproducer ja KINO machen will.
Leute Leute , wie man da so lang rumkauen kann... versteh ich nicht.
Wer volle Bilder will der soll doch eine 35mm Kamera kaufen da hat er dann auch volle Bilder;-P
Dummer Thread ...
Antwort von domain:
Ach Gott, immer diese Animositäten...
Kinder, ich wünsche mir halt ....
Unserem Kindergartenonkel geht das ja auch schon auf die Nerven, aber der hat ja nur recht schwache, deshalb müssen wir jetzt ziemlich brav sein.
Antwort von WoWu:
Ich hab doch schon tausendmal gesagt ....
Hättest Du das denn auch substantiieren können ?
Gesagt haben Leute hier viel ....
Dummer Thread ...
Du hättest ihn ja mit Substanz abkürzen können ....
Antwort von B.DeKid:
Sorry WoWu .... aber
- erstens geh Ich da nach Gefühl und Sichtergebniss
- zweitens find ich es doof wenn Leute auf deinen fachlichen Aussagen rum nörgeln (mit verweiss auf die ISBN)
..........................
Desweiteren bin Ich wie Axel sagte , der Meihnung jeder sollte seine Einstellungen wählen wie Ihm beliebt.
Bei mir geht es ja um die XL1s und da sag Ich klar
- 16:9 und Cinema Modus ... lässt man besser aus.
.............................
Ob und welche Cam nun richtiges P macht oder auch nicht ist mir sofern egal , wenn es dem Thread Starter darum geht ...dies als Kriterium für Kino Spots und Filme als Kauf Argument zu werten .... und dann HV30 einer XH A1 vorziehen würde wenn dem so sei.
MfG
B.DeKid
Antwort von TheBubble:
Aber wie kann es HDV2 mit einem progressiv arbeitenden Chip capturen ?
Indem man 50 bzw. 60 mal pro Sekunde den gesamten Chip progressiv ausliest und daraus dann ein Interlace-Frame erzeugt, welcher dann komprimiert und gespeichert wird.
Nicht nur die Bildsensoren, sondern auch die Abtastverfahren sind grundverschieden und die Verfahren schliessen sich gegenseitig aus, es sei denn, eines der Verfahren wird nachträglich künstlich erzeugt.
Man kann es aus progressiven Aufnahmen mit passender Bildwiederholrate nachträglich erzeugen und das ist auch nicht so kompliziert.
Und warum werden dann nicht wenigstens die progressiven Aufnahmen auch als progressiv ausgegeben, warum braucht man dann so ein verschrobene SF Signal ?
Ich nehme an, Du willst wissen, warum man progressive Aufnahmen als Interlace-Aufnahme speichert? Man tut es, weil es einen HDV-Standard für 1080i gibt.
bis endlich mal einer, der eine HV30 hat, sie auch mal vor eine Karte hält.
Welche Karte soll es sein und wie soll der Versuchsaufbau genau aussehen?
Nun nochmal zu den 3-CCD-Kameras mit Interlace-Sensor: In dieser Konstellation kann man zumindest in geeigneten Situationen mehr rausholen, als jede 2. Zeile einfach zu interpolieren. Ob es Hersteller tun und falls ja in welchen Modellen, kann ich natürlich nicht beantworten. Das Prinzip ähnelt aber dem der Auflösungssteigerung durch den Versatz eines CCDs um 1/2 Pixel und in gewisser Weise auch den Verfahren, mit denen aus einem 1-Chip-Sensor mit Farbmuster das eigentliche Bild erstellt wird.
Antwort von WoWu:
@ B.DeKid
erstens geh Ich da nach Gefühl und Sichtergebniss
Na ja, das hat ja auch zu dem Ergebnis geführt, dass beide, die nach Sicht entscheiden, zu unterschiedlichen Ergebnissen gekommen sind.
Axel sagt, es ist alles bestens, Du sagts, es ist alle Müll.
Das Du mit deiner Beobachtung da besser liegst ist ja sehr erfreulich, aber
Sichtergebnisse entstehen eben eher nach dem Zufallsprinzip.
Und wenn der Threadstarten nun im Vorwege keine solchen Vergleiche anstellen kann, warum soll man ihm da nicht auf die Sprünge helfen.
Dass sich nun beide Alternativen als untauglich herausstellen, ist natürlich dumm gelaufen.
Insofern ist das doch ein gutes Ergebnis ... oder ?
- zweitens find ich es doof wenn Leute auf deinen fachlichen Aussagen rum nörgeln
Ich denke, jedes Wissen ist immer nur Vermutungswissen (wie Karl Popper sagt) und eine Widerlegung bedeutet für mich Fortschritt, weil ich Positionen korrigieren kann. Mir hat der Thread etwas gebracht, weil ich mich mit diesem obskuren Format einmal näher beschäftigen konnte, denn ich halte es so wie Du und habe es noch nie als taugliches Format wahrgenommen.
Insofern sind wir da gar nicht weit auseinander, denn auch ich wähle nur Einstellungen, die ich als verwertbar erachte ... wir tun also alle intuitiv dasselbe .... nur eben der Threadstarter brauchte hier noch einen Anschub ... was ja nachvollziehbar ist, um vielleicht auch seine 24p Erfahrungen mit dem "Kinoformat" erst einmal machen zu können.
Ich bin sicher, sein 1000. Posting wird auch eine andere Fragestellung beinhalten ...
In dem Sinne also, beste Grüße
Antwort von WoWu:
@ TheBubble
Natürlich ist es grundsätzlich möglich, aus P- I zu machen. Nur, wenn man sich die Entstehung und das Auslesen von I einmal anschaut, dann bietet es sich im Hinblick auf die "Nebenwirkungen" (entstehenden Artefakte) eher nicht an. Deswegen sagte ich auch, dass eines der Formate immer "getürkt" sein wird, weil die Bildsensoren von ihrem Hardwareaufbau als auch von der Art der Auslesung viel zu unterschiedlich sind, als dass sich beide Formate "perfekt" erzeugen liessen. Dass es mittlerweile alle Firmen machen, heist noch nicht, dass beide Formate in optimierter Form vorliegen müssen.
Ich nehme an, Du willst wissen, warum man progressive Aufnahmen als Interlace-Aufnahme speichert? Man tut es, weil es einen HDV-Standard für 1080i gibt.
Nein, falsch verstanden ... ich wollte wissen, aus welchem Grund eine Firma, die ein echtes p Signal erzeugt, es als proprietäres F, oder PF oder was auch anbieten sollte, wenn es doch, wie hier im Thread behauptet, ein echtes P sein sollte.
Und noch einmal: Der Binary Datenstrom (i oder p) unterscheidet sich nicht bis auf das "progressive flag" !!!
Eine andere Speicherung auf Band ist völliger Quatsch. Wohl aber unterscheiden sich die Methoden, wie die abgetasteten Werte im Bildsensor "zwischen"-gespeichert werden ganz erheblich.
Nun nochmal zu den 3-CCD-Kameras mit Interlace-Sensor: In dieser Konstellation kann man zumindest in geeigneten Situationen mehr rausholen, als jede 2. Zeile einfach zu interpolieren.
Das Problem ist nur, dass ohnehin bei schon jede zweite Reihe des Bildsensors mit in eine Zeile interpoliert wird, um Line Twitter und Flicker zu vermeiden und bei I-CCDs kommt noch erschwerend hinzu, dass jede zweite Sensorfläche abgedunkelt ist, weil sie als Speicher genutzt wird. Es ist also nicht so ganz "linear", was man sich bei einer Abtastung vorstellen darf. Umso schwerer werden alternative Prozesse, speziell, weil die meisten davon aus der Fotografie kommen und sich für schnell laufende Bilder eher als untauglich erweisen. Man muss also immer das bewegte Bild im Kopf haben, wenn man über Alternativen ( die es sicher gibt) nachdenkt.
Antwort von Axel:
"F" ist ein Kompromiss, wie jemand weiter oben geschrieben hat. Das HDV daraus ist ja auf den Rechnern in verschiedenen Formen anzutreffen, als .m2t, als .mpeg, .avi oder .mov, aber die Player zeigen bei "Eigenschaften" keineswegs "progressiv" an, sondern i.d.R. "50i". Auch auf Band zurückspielen kann man einen "als" 25p geschnittenen Film nicht (gilt auch bei CMOS). Schlechte Unterstützung von 1080p25 (z.B. Bluray). Man kann es kaum als Ausgabeformat benutzen, sondern wird normalerweise einen anderen Codec wählen.
Meine "F"-Geschichte, nun möglicherweise eine Geschichte der Irrtümer: Als Videofilmer Amateur, bin ich doch umgeben von Distributions-Hightech (Mein Arbeitsplatz ist D-Cinema Adopter der ersten Stunde), ich würde meinen Blick als auf Schärfe geschult bezeichnen. Auflösung sehe ich als relativ an, nicht nur einer höheren gegenüber einer niedrigeren Auflösung, sondern als zur Beurteilung der Bildqualität - ein subjektiver Ansatz - nur bedingt geeignet und generell völlig überschätzt.
Trotzdem hielt HD Einzug. Meine Kollegen (sechs plus ich), ambitionierte Amateure (alle), Kamerastudenten (zwei), kleingewerbliche Videofilmer (drei), begannen: Einer kaufte eine FX-1. Ich war über die verbesserte Auflösung beeindruckt, sah aber keinen Grund, mich von meiner VX 2000 zu trennen, mich hätte zu dieser Zeit eher die DVX (man beachte: "p"-fähig!) eines Kollegen interessiert. Als derjenige die HVX 200 kaufte (damals inkl. P2-Karten an die 8000 €), war ich, nachdem wir die Bilder auf der großen Leinwand gesehen hatten, völlig überzeugt und begann das Hardc*re-Sparen.
Ein anderer kaufte, ein halbes Jahr oder so später, die XH-A1 (damals ca. 4000 €). Ich hatte vorher bereits hier im Forum fleißig nach dem "F" gefragt, aber widersprüchliche, offensichtlich nicht fundierte Antworten bekommen. Die oben genannte Truppe testete nun die A1, besonders den "F"-Modus im Vergleich zum "i"-Modus. Mein eigenes Urteil: Nicht so toll wie die HVX, aber dafür konnte ich mir für das Ersparte gleich noch einen neuen Rechner gönnen. Mittlerweile habe ich mit einem Kollegen gemeinsam die EX-3 angeschafft.
Meine Kollegen halten die Aussagen von WoWu für unhaltbar, seine Beweise für falsch, insgesamt das Forum für einen Aufschneider-Zoo, in dem man bloß Zeit totschlägt. Das muss nun nicht viel heißen, wir sind gewiss keine Autoritäten, sondern Heinis. Allerdings fährt am besten, wer nur glaubt, was er selbst nachvollzogen hat.
Wenn Du es selbst testest, dann probieres doch bitte auch einmal die (schwarz/weiße) Tafel mit den Linien nicht nur mit weißem Licht beleucht, sondern auch einmal nur mit jeweils einer der drei Grundfarben (RGB) beleuchtet, aufzunehmen.
Ich könnte ja viel behaupten. Ein Test, der etwas hergibt, müsste auch die downloadbaren Originalvideos beinhalten, sowie unbedingt einen Testaufbau, der den genauen, bezifferbaren Auflösungsverlust von "F" zeigt. Außerdem Vergleiche mit verschiedenen Deinterlacing-Methoden, um die naheliegendste zu finden. Bobbing kann man gleich ausschließen, einen 50%igen Auflösungsverlust würde jeder von uns (und von euch) sofort sehen, wir sind nicht ganz blöde! Darum sage ich, dass diese Sprüche immer von Leuten kommen, die "F" selbst gar nicht aus der Praxis kennen.
Dafür brauche ich etwas Zeit. Drücken werde ich mich nicht, ich krieche mit derselben guten Laune zu Kreuze, mit der ich über die Großkotzigkeit anderer abziehe.
Antwort von Meggs:
BDeKid findet F ne Mogelpackung und ganz klar schlecht. Axel und ich können bei F zumindest keine Verschlechterung zu i feststellen.
Warum? Sind wir blind?
Den "Frame-Mode" von Canon gibt es schon ewig. BDeKid hat ne uralte XL1. Bei der war der Framemode einfach schlecht, man sah das sofort.
Bei meiner XM2 ist der Framemode nicht viel besser, wenn ich mit 1/50 Sek belichte. Wenn ich aber mit 1/25 Sek belichte, sieht der Frame-Mode der XM2 viel besser aus.
Bei der A1S sieht der F-Mode richtig gut aus. Bei nem durchschnittlichen Video, Standbilder mit einer Mess-Karte hab ich noch nicht ausprobiert.
Ich habe WoWu weiter oben mindestens 3 Mal gefragt, ob er weiss, was passiert, wenn man mit 50i aufzeichnet und 1/25 Sek Belichtungszeit einstellt. Das hat er immer überlesen, jedenfalls nie beantwortet. Diese Frage habe ich gestellt, weil der "Frame-Mode" der XM2 mit 1/25 Sek. Belichtung viel besser aussieht als mit 1/50 Sek.
Ich habe WoWu mindestens 2 Mal gefragt, von welchem Camcorder seine Testbilder kommen. Diese Frage finde ich deswegen wichtig, weil der Canon-Frame Mode bei der XL1S dermaßen schlecht aussieht, bei der A1S aber richtig gut, bei der HV30 weiß ich es nicht.
Antwort von Axel:
... was passiert, wenn man mit 50i aufzeichnet und 1/25 Sek Belichtungszeit einstellt. Das hat er immer überlesen, jedenfalls nie beantwortet. Diese Frage habe ich gestellt, weil der "Frame-Mode" der XM2 mit 1/25 Sek. Belichtung viel besser aussieht als mit 1/50 Sek.
Früher schrieb ich, dass für 25p 1/50tel die angemessenste Verschlusszeit sei. Ich kam zu diesem Ergebnis allerdings mit "F". Mit echtem p sind es m.E. 1/25tel. Wie immer bitte selbst testen. Die weiter oben beklagte Bewegungsunschärfe bei "F" sieht bei 1/50tel exakt so aus wie bei "p" mit 1/25tel, d.h. ohne die bei Deinterlacing sonst typischen Geister-Blur-Schatten oder sonstigen Artefakte. Wie immer bitte selbst testen.
Antwort von TheBubble:
Ich könnte ja viel behaupten. Ein Test, der etwas hergibt, müsste auch die downloadbaren Originalvideos beinhalten, sowie unbedingt einen Testaufbau, der den genauen, bezifferbaren Auflösungsverlust von "F" zeigt.
Ein Standbild eines Testcharts würden reichen. Der Testaufbau müsste auch nur geeignet sein, eventuelle relative Unterschiede sichtbar zu machen und müsste nicht die tatsächliche Auflösung der Kamera genau bestimmen können (mir ist klar, dass dies deutlich höheren Aufwand erfordern würde).
Bobbing kann man gleich ausschließen, einen 50%igen Auflösungsverlust würde jeder von uns (und von euch) sofort sehen, wir sind nicht ganz blöde! Darum sage ich, dass diese Sprüche immer von Leuten kommen, die "F" selbst gar nicht aus der Praxis kennen.
Naja, ich würde es mir schon einmal genauer ansehen wollen, aber ich kann ja nicht zu Testzwecken einfach alle möglichen Kameras kaufen ;-)
Ich gehe auch nicht davon aus, dass Du einen 50% Auflösungsverlust hast, aber meine Vermutung ist Folgende: Bei weißem Licht und relativ grauen Motiven (->alle drei Primärfarben (R,G,B) treffen auf den Sensoren auf) wird die höchste Auflösung erreicht. Wird nur eine der Primärfarben zur Beleuchtung des Motivs (bzw. Testcharts) verwendet, dann sinkt auch die wahrgenommene Auflösung, da nun der Trick mit dem Zeilenversatz nicht mehr funktioniert. Aber sei bitte, falls Du es ausprobieren willst, durch diese Vermutung nicht voreingenommen.
Antwort von TheBubble:
@ WoWu
Natürlich ist es grundsätzlich möglich, aus P- I zu machen. Nur, wenn man sich die Entstehung und das Auslesen von I einmal anschaut, dann bietet es sich im Hinblick auf die "Nebenwirkungen" (entstehenden Artefakte) eher nicht an.
Welche Artefakte meinst Du konkret? Ein Zeilenflimmern bei Röhrenmonitoren, wenn kein vertikaler Tiefpassfilter eingesetz wird? Aliasingartefakte?
Deswegen sagte ich auch, dass eines der Formate immer "getürkt" sein wird, weil die Bildsensoren von ihrem Hardwareaufbau als auch von der Art der Auslesung viel zu unterschiedlich sind, als dass sich beide Formate "perfekt" erzeugen liessen.
Natürlich müssen immer einige der Formate aus anderen gewonnen werden. Einerseits ist der Sensor progressiv oder interlaced, anderseits haben die meisten heutigen Sensoren für diverse noch unterstützte Aufnahmeformate (z.B. DV) viel zu viele Pixel. Würde man nur die inneren Pixel verwenden, dann würde die Aufnahme viel zu weitwinklig sein und die Sensorfläche wäre vergleichsweise kein. Es muss also so oder so umgerechnet werden.
Nein, falsch verstanden ... ich wollte wissen, aus welchem Grund eine Firma, die ein echtes p Signal erzeugt, es als proprietäres F, oder PF oder was auch anbieten sollte, wenn es doch, wie hier im Thread behauptet, ein echtes P sein sollte.
Ahso. HDV definiert zumindest in 1440x1080er Auflösung nur ein Interlace-Format, leider. Daher werden p-Aufnahmen als interlaced gekennzeichnet abgelegt und man muss die Software für importierte Clips per Hand auf progressiv umstellen. Ich nehme an, ein HDV Label und die Konformität ist den Herstellern wichtiger.
Das Problem ist nur, dass ohnehin bei schon jede zweite Reihe des Bildsensors mit in eine Zeile interpoliert wird, um Line Twitter und Flicker zu vermeiden
Du meinst hier sicherlich Interlace-CCDs. Hier wird nicht interpoliert, sondern es werden immer zwei benachbarte Zeilen gemittelt. Dies entspricht einer Tiefpassfilterung (die für die Anzeige auf Röhrenmonitoren ohnehin zur Vermeidung von Zeilenflimmern angebracht ist), hat aber den Vorteil, dass keine Sensorfläche verschenkt wird und die Lichtausbeute höher ist.
Antwort von Meggs:
Nein, falsch verstanden ... ich wollte wissen, aus welchem Grund eine Firma, die ein echtes p Signal erzeugt, es als proprietäres F, oder PF oder was auch anbieten sollte, wenn es doch, wie hier im Thread behauptet, ein echtes P sein sollte.
Ich finde, hierin drückt sich Canon schon einigermaßen klar aus. Man versteht es vielleicht nur nicht sofort.
Die Ausgabe über FireWire ist genormtes P und wird auch so bezeichnet. Die Aufzeichnung auf Band ist proprietär und wird als F bezeichnet.
Bänder die in F aufgezeichnet sind, können nur von kompatiblen Canon Camcordern gelesen, und als P ausgegeben werden.
Antwort von WoWu:
@ Meggs
was passiert, wenn man mit 50i aufzeichnet und 1/25 Sek Belichtungszeit einstellt.
Die Halbbilder bei I- (CCDs) werden immer mit 40 ms pro Halbbild integriert. Verschlusszeit-Änderungen erzeugen aber nicht mehr oder weniger Halbbilder)
von welchem Camcorder seine Testbilder kommen
XH-A1E
Ansonsten dreht sich der Thread wieder im Kreis ... "sieht alles viel besser aus", "bei laufenden Bildern sieht man das nicht", "kann nicht sein.." usw. aber wenig greifbare Fakten.
Für mich ist das Thema (F) erst einmal abgeschlossen.
Antwort von Bruno Peter:
Vielleicht hier noch zur Veranschaulichung das Resultat aus 25 PF bzw. F (Anlage) Damit die Spekulation nun endlich aufhört.
Nein, das trifft auf HDV25p(PF25) der HV20,30,40 nicht zu!
Habe dafür ebenfalls Beweise, die Zeilenzahl wird nicht halbiert,
auch wenn es der liebe Herr WoWo hier so trommelt!
Antwort von domain:
Also dann zeige uns mal die Beweise. Hier ein einfach durchgeführter Beweis: Testbild auf DIN A4 ausgedruckt und abgefilmt.
Hier das Ergebnis der FX1 mit 1/50 Sekunde 1080i
Hier das Ergebnis der FX1 mit 1/25 Sekunde 1080i.
Bei dieser Belichtungszeit speichert die FX1 zwei Halbbilder aus einem generierten Vollbild ab. Leicht daran zu erkennen, dass es auch bei bewegten Bildern keinen Unterschied macht , ob BOB im VLC aktiv ist oder nicht, d.h. das Bild kann nicht mehr deinterlaced werden, weil beide Halbbilder bereits aus ein und demselben Vollbild stammen. Eine Belichtungszeit von 1/12 Sec. ergibt übrigens 4 Halbbilder, die alle aus ein und demselben Vollbild abgeleitet werden.
Es ist aber eindeutig, dass dieses Vollbild nicht durch hardwaremäßiges Deinterlacing in der Kamera (man sehe sich den Bereich zwischen 6 und 7 an) sondern durch einfache Linieninterpolation eines Halbildes entstanden ist, also real nur mehr die halbe Zeilenanzahl aufweist, genauso übrigens, wie es WoWu für die A1 für das F-Format gezeigt hat.
Sollte das PF-Format (1/25 Sek.) bei der HV20-40 (etc.) nicht deutlich besser aussehen, dann ist der relative Beweis nicht erbracht.
Antwort von B.DeKid:
BDeKid findet F ne Mogelpackung und ganz klar schlecht. .....BDeKid hat ne uralte XL1. ..... XL1s nich XL1 ... aber hast ja recht ...sieht trotzdem noch grottig aus .
;-P
B.DeKid
Antwort von domain:
Das F-Format ist mit ziemlicher Sicherheit eine gewaltige Mogelpackung, zumindest solange, bis uns jemand beweist, dass der Qualtätsabfall nicht so deutlich ist wie bei der FX1 bei 1/25 ist (eigentlich ein typisches P-Format, abgespeichert über zwei Halbbilder) oder wie bei der A1 im F-Modus, der sich ja überhaupt nicht davon unterscheidet, also praktisch ident ist.
Besonders unwahrscheinlich ist auch, dass die Consumermodelle von Canon bessere Ergebnisse abliefern sollten als die A1.
Aber wir werden ja sehen und warten noch auf Beweise .... (und dann nehmen wir alles zurück)
Antwort von DWUA:
Aber wir werden ja sehen und warten noch auf Beweise .... (und dann nehmen wir alles zurück)
Dann, wenn einst aus "Lindenstraße" "Eichenallee "geworden ist
oder der Bauch von Hitchcock bei CSI geöffnet wird.
Oder ist hier etwa Obedienz angesagt?
Antwort von Bruno Peter:
Bei dieser Belichtungszeit speichert die FX1 zwei Halbbilder aus einem generierten Vollbild ab.
Geh..., seit wann kann die Aufnahmechip einer FX1 ein Vollbild in 1920x1080 erfassen, wenn dort nur ein 3CCD mit 972 x 1100 Bildpunkten verbaut ist?
Antwort von domain:
http://www.google.at/search?hl=de&q=gen ... generieren
Interessanter wäre es allerdings, deine ominösen Beweise mal zu sehen.
Wie schon weiter oben gewünscht, geht es hier nicht um absolute Qualität und Auflösung, sondern um einen relativen Vergleich, wie ich ihn in den zwei Bildern dargestellt habe.
Antwort von Meggs:
@Domain
Kannst du mir nen link zu einem Iso-Testbild mit guter Auflösung geben, das man scharf ausdrucken kann? Ich hab ne Weile gegoogelt, aber ich finde nur recht niedrig aufgelöste.
Deinen Test finde ich sehr interessant. Mir ist immer noch nicht so richtig klar, was passiert, wenn man 50i mit 1/25 Sek belichtet. Eigentlich müsste doch erst belichtet, dann ausgelesen werden. Da 50i Aufnahmen zeitlich versetzte Halbbilder zeigen, dachte ich bisher, dass bei 1/50 Belichtungszeit 2 Mal belichtet und 2 Mal 1 Halbbild ausgelesen wird. Kann aber so nicht sein, weil ja schon bei 1/50 Belichtungszeit keine Zeit zum Auslesen mehr da ist. Laut WoWu wird für das Auslesen eines HD-Chip 40 ms benötigt. Dann wird ja ständig ausgelesen. Wenn das so ist, wenn also wirklich bei deinem Test 2 Halbbilder von 1 Belichtung vorliegen, kann ich mir nicht erklären, warum ein Auflösungsverlust vorliegt. Dass es so ist sieht man ja. Aber warum?
Antwort von Bruno Peter:
Bei meiner Kamera wird im Falle 25PF ein ganzes Bild aus dem Aufnahmechip ausgelesen, der hat ja die nötige Bildpunktauflösung. Das passiert natürlich mit einer einzigen Belichtung, also ohne irgendeinem Zeitversatz, es ist eine echte 25p Aufnahme mit Vollbildzeilenzahl. Erst im weiteren Prozess erfolgt die Aufteilung auf zwei - nicht zeitversetzte - Halbbilder zum speichern auf das Band!
Antwort von Meggs:
Bei meiner Kamera wird im Falle 25PF ein ganzes Bild aus dem Aufnahmechip ausgelesen, der hat ja die nötige Bildpunktauflösung.
Die Auflösung des Chips ist in diesem Fall unerheblich. Bei Domains Test sieht man eine Verschlechterung der Auflösung des selben Chips bei 1/25 Sek.
Antwort von domain:
@ Meggs
Gib mal ISO Testcharts in die Bildersuche (groß) von Google ein. Es gibt dort welche von 3648*2736 abwärts.
Bei der FX1 mit ihren interlaced arbeitenden Sensoren wird bei längeren Belichtungszeiten offenbar das Bild in einem wirklich länger belichtet und dann erst ausgelesen. Das ergibt natürlich nur eine Halbbildqualität, die auf Vollbild hochinterpoliert wird. Ist eigentlich gar nicht anders möglich, außer der Chip selbst würde an sich schon progressiv arbeiten.
Dieses generierte (ev. theoretische) Vollbild wird dann offenbar abwechselnd mit geraden und ungeraden Zeilen in Halbbildern aufs Band geschrieben und zwar als Vielfaches von 2 abhängig von einer Belichtungszeit, die länger als 1/50 ist.
Nachdem es hier zu genau den gleichen Effekten kommt, wie sie WoWu für die A1 gezeigt hat, nehme ich an, dass der F-Modus in der FX1 zwar defacto vorhanden ist, aber marketingmäßig zu dieser Zeit noch nicht verwertet wurde.
Antwort von Bruno Peter:
Nun Domain, und wenn ich chipseitig ein aus 1080 Zeilen bestehende ganze Bild aufgenommen habe und es dann für den Datenträger in zwei Halbbilder mit je 540 Zeilen nicht zeitversetzt (<- logisch!) teile für das obere und untere Halbbild und das dann in ein 1080i-Projekt einfüge für die Bearbeitung, dann habe ich nicht nur 540 sondern weiter 1080 Zeilen!
Dieses hier so vorliegende PF25 Bild läßt sich auch wunderbar skalieren ohne Treppchen etc. an schräg verlaufenden Bildkanten!
Wenn aber die Kamera von Haus aus nur ein Halbbild verwendet (lese z.B. die Canon Homepage), dann hat auch Dein Clip im Projekt nur 540 Zeilen und Du hast ein Bild mit Auflösungsverlust!
So, ich denke das müsste jetzt bezüglich meines Einwandes hier geklärt sein.
Antwort von WoWu:
Seit wann kann denn die HV30 1080p ??
Hab ich da was verpasst ?
@ Meggs
nicht das Auslesen dauert 40 ms sondern die Integrationszeit, also der Belichtungsvorgang !! Dabei werden zur halben Zeit beide Halbbilder gleichzeitig belichtet. das macht das interlaced Verfahren ja gerade so "lichtstark".
Also jedes Halbbild wird 40ms belichtet, um es in deiner Terminologie zu sagen, aber die Integrationsphasen der jeweiligen Halbbilder sind um 20ms zueinander versetzt. Die drei Shifts zur Auslesung brauchen wenige ns. (ich muss auch nachschauen wieviel genau).
Antwort von Bruno Peter:
Hab ich da was verpasst ?
Habe ja versucht Dir auf die Sprünge zu helfen.
Antwort von WoWu:
Huhu ... 2,07 Mpix .... das ist wohl das, was Canon VOLLBILD nennt ??
Kannst Du mal rechnen, was da hinter der Bayermaske als Vollbild bezeichnet wird ??
Hab ich eigentlich irgendwo überlesen, dass da in den Spezifikationen was von 1080p steht ?
Sicher kannst Du mir da einen Hinweis geben, wo das steht.
Antwort von domain:
Deine Argumente sind im Prinzip schon richtig Bruno nur setzen sie zu spät an einer Stelle ein, wo die wesentliche Voraussetzung also die Basis, über die hier diskutiert wird, offenbar schon nicht vorhanden ist, nämlich ein vollwertiges progressives Ausgangsbild mit realen 1080 Zeilen.
Das Vorhandensein eines solchen erscheint nach dem bisher gezeigten Material beim F bzw. PF-Modus div. Canon-Modelle bis auf Widerruf als nicht gegeben.
Das Thema ist auch nur deshalb interessant, weil div. Filmer tatsächlich in diesem Format filmen und dadurch nichtwissend womöglich eine ziemliche Verschlechterung der Bildqualität hinnehmen bzw. schon hingenommen haben.
Die Frage kann nicht argumentativ geklärt werden sondern nur mehr über entsprechende, das Gegenteil beweisende Testbilder, auf die wir immer noch warten.
Antwort von deti:
Meine Meinung: 25 Bilder pro Sekunde sind einfach zu wenig, egal auf welche Art sie entstanden sind und eine Kamera ohne 50p ist nicht mehr Stand der Technik.
Deti
Antwort von Bruno Peter:
Hab ich eigentlich irgendwo überlesen, dass da in den Spezifikationen was von 1080p steht ?
Sicher kannst Du mir da einen Hinweis geben, wo das steht.
Typisch kindische Frage. Wer lesen kann, ist klar im Vorteil!
Die Frage kann nicht argumentativ geklärt werden sondern nur mehr über entsprechende, das Gegenteil beweisende Testbilder, auf die wir immer noch warten.
Typisch kindische Forderung. Bei 1080-25p gibt es keine Verluste, es sind 1080 Zeilen vorhanden, nicht nur 540 wie bei 25F!
Meine Meinung: 25 Bilder pro Sekunde sind einfach zu wenig, egal auf welche Art sie entstanden sind und eine Kamera ohne 50p ist nicht mehr Stand der Technik.
1080-50p wäre mir bei einer Consumer-Kamera natürlich viel lieber, gibt es aber noch nicht und damit ist auch aktuell noch nichts überholt. Trotzdem hat 1080-25p für mich viele Vorteile. Du siehst Probleme mit H-Schwenks oder quer bewegten Objekten vor der Kamera? Tja, dann mußt Du Dich szenisch gut vorbereiten auf eine solche Aufnahme, Profis müßten das doch verstehen und umsetzen können!
Antwort von domain:
Frage aus dem Internet:
Pal 25p basically records the same data for field one and field two of each frame.
WHat I was asking about is does the A1 lose horizontal bandwidth when running "frame" mode.
Antwort:
Vertical. It does lose some compared to ideal conditions, but when compared to HV20/30 shots as shown by Taky, A1 is still IMHO better or at least on par resolution-wise.
Weitere Antwort:
Yup.. I read some sites stating Canon F mode cause about 12% vertical loss. However, when I compare the output XH-A1 30F to HV30 30P, I found the image from A1 is sharper.
Woher sollte denn bitte der allgemein attestierte vertikale Auflösungsverlust kommen? Eigentlich undenkbar bei einem echt progressiv ausgelesenen Bild. Ganz im Gegenteil, ohne Deinterlacing müsste ein einzelner Frame sogar deutlich besser aussehen.
Antwort von B.DeKid:
Ich sags noch mal alles MOGELPACKUNG
Wisst Ihr was Volle Bilder von Canon generiert ...... meine 1014XL und zwar bis zu 18 die Sekunde
.........Lol Echt der Sommerlochs Thread schlecht weg.
.......................................................................................
MfG
B.DeKid
as they say Nerds just get a real life guys....
Antwort von Bruno Peter:
Technische Daten HV30
HDV 1440 x 1080/50i
MiniDV 720 x 576/50i
MiniDV 720 x 576/25F
HDV 1440 x 1080/25p
Antwort von WoWu:
Keine Canon Spezifikation ... sondern nur mal wieder das, was am Ausgang zu erwarten ist .... Demnach könnten andere Kameras auch "ne Menge mehr .. siehe JVC.
Bei Canon steht immer nur "VOLLBILD" .... wieder so eine Schöpfung ...
Antwort von Bruno Peter:
Noch mehr Info:
Canon-Info
und man findet auch noch viel mehr bei Canon, wenn man lesen will.
Selbst hier bei slashCam ist das schon 1000mal durchgekaut worden.
Antwort von WoWu:
Danke für den Hinweis, aber daran, wie (I) funktioniert, konnte ich mich noch erinnern, auch die grundsätzliche Beschriebung von (P) war mir noch geläufig. Auch dass CMOS beides können war keine wirkliche Überraschung, aber wo steht denn nun, das die Kamera 1080p macht und was ist eigentlich aus dem ominösen PF Format (oder wie immer das hieß) geworden, um das es hier eigentlich ging ? Schliesslich reden wir ja nicht über Psf und das, was Du gern beschreiben würdest, wäre ja Psf. Warum also schreibt Canon dann nicht Psf ? Also, alte Fragen ... Sommerthema halt.
Antwort von Bruno Peter:
Tja, da mußt Du Dich halt durcharbeiten, es gibt ja genug zugängliche Informationen dazu. Einen guten Beitrag hat mal A. Wunderlich dazu verfaßt.
Das schöne an HDV(25PF) ist, dass ich es beliebig in einem 1080i-Projekt mit i-Clips mischen kann ohne Qualitätsverlust, da es kompatibel ist. Der Vorteil für mich ist halt die Skalierbarkeit ohne Treppenstufen und Deinterlacing, sowie sauberer Masken- und Keyinarbeit etc. Sind wir doch mal ehrlich wie oft saust schon jemand im Affentempo quer zu meiner Kamera oder wann mache ich schon Reißschwenks als Reise- und Tourenfilmer. Wenn, dann habe ich doch weiter die 1080i-Aufnahmeoption und selbst in 1080p kann ich mit ein wenig Überlegung auch etwas gegen das in diesem Forum so gefürchtete Ruckeln tun. Nein, ich bin schon recht froh über die 1080p-Option meiner HV30, vor allem auch bei Lowlight.
Wann es für Consumer-Kameras 1080-50p geben wird, keine Ahnung!
Antwort von Axel:
Yup.. I read some sites stating Canon F mode cause about 12% vertical loss. However, when I compare the output XH-A1 30F to HV30 30P, I found the image from A1 is sharper.
Woher sollte denn bitte der allgemein attestierte vertikale Auflösungsverlust kommen? Eigentlich undenkbar bei einem echt progressiv ausgelesenen Bild. Ganz im Gegenteil, ohne Deinterlacing müsste ein einzelner Frame sogar deutlich besser aussehen.
Es wurde oft behauptet (nicht von Canon) und nie widerlegt (auch von Canon nicht), dass letzten Endes eine Art von Deinterlacing zwischengeschaltet ist. Das erklärte erstens den o.e. Auflösungsverlust gegenüber "i", sowie die "Tatsache" (Beweis folgt), dass eine proportionale Bewegungsunschärfe im "F"-Modus bei 1/50tel erreicht ist, entsprechend 1/25tel bei echtem "p". Der stärkere Motion Blur bei gleicher Verschlusszeit wie "i" (siehe erste Fotoreihe, Attachment von WoWu) könnte sehr gut das Ergebnis einer Bildüberblendung sein. Der Auflösungsverlust bei statischen Motiven schließt adaptives DI aus (hier gäbe es ja keinen Verlust), andererseits auch Bobbing (50 %), die im Standbild absolut nach "p" aussehende Bewegungsunschärfe - ohne für Blending charakteristische Geisterschatten - lässt an die - zumindest in der Postpro - sehr zeitaufwändige Methode des Generierens eines Zwischenbildes denken, die aber nur nach Analyse der Pixelpositionen möglich ist (etwa ReelSmartFieldsKit, keineswegs "Halbbilder entfernen") und daher wohl nicht die Gesuchte sein kann. Letztere DI-Methode ist unbestritten die qualitativ bessere Möglichkeit als "F", aus dem HDV2 einer A1 ein Zeilensprung- und "i"-Artefakt-freies Video zu machen. Es gibt aber einige Gründe, diesen Weg nicht zu gehen:
1. Abgesehen von der - im Interesse der Qualität verschmerzbaren - Rechenzeit, benötigt der Deinterlacer anscheinend einen nicht interframe-basierten Codec, um nicht stellenweise merkwürdige Artefakte wie "sauber abgeschnittenen" Motion Blur zu produzieren. Das kann auch auf einen Bedienungsfehler meinerseits zurückzuführen sein, insgesamt wirkt jedoch das nachträgliche DI auf den Workflow ein (z.B. auch die Verwendung von Masken oder Keys bedenken).
2. Mit der 1440 horizontalen Auflösung wäre HDV2 so oder so ein gequälter Kompromiss. Ich glaube aber nicht einmal an diese, und natürlich auch nicht an 1080. Ich werde versuchen, den Testchart so aufzuteilen, dass ich die tatsächliche horizontale und vertikale Auflösung ermitteln kann. Jeder Besitzer einer Kamera wünscht sich, dass sie die "volle" Auflösung bietet. Dass "einige" der nominell FullHD erreichenden kleinen AVCHD Camcorder das nicht tun, besagt nicht viel über die Qualität des Bildes, aber ich setze es voraus. Letzten Endes zählt das Aussehen des Bildes, und man sollte das Vorhandensein von "p" schon einmal als Vorteil begreifen. Darüber hinaus ist es m.E. am klügsten, jede Kamera als prinzipiell schlecht zu betrachten, d.h. sich ihre Schwächen bewußt zu machen, um diese zu umgehen. Die Auflösung ist da ein relativ neutraler Posten. Absolutes No-Go sollte es sein, Auflösung zu verschenken. Wer andererseits sein Herz an 1080 hängt, dem wird es gebrochen. Selbst die relativ hochpreisigen EX"e errreichen es nicht, wie ich versuchen werde zu zeigen.
3. Ein Testchart verhält sich zu einem intuitiv beurteilten Eindruck wie eine Autopsie zum Gespräch mit einem lebenden Menschen. Ein "i" Bild war für Liebhaber bewegter Bilder schon immer ein Ärgernis, ist nun mit dem Aussterben der klassischen "i"-Fernseher nicht mehr hinnehmbar. Während die Kränze und Gebinde um einen Sarg in der Aussegnungshalle in ernüchternder Klarheit und Schärfe zutage treten, lässt bereits ein sauberer Schwenk mit dem Trauerzug (von einem nicht mehr ganz so sauberen "Mitgehen" zu schweigen) die Bewegung völlig unnatürlich wirken, und da es im gesamten Bild kein Pixel gibt, das gleich bleibt, ist der Eindruck verheerend. Nur ein echtes Vollbild hält hier stand, WoWu hat Recht. Aus Rührei ("i") wird nie wieder ein Omelette ("p"). Hier ist aber gerade "F" weitaus besser, als man vermuten könnte. Ein kurzer Clip in "i", in "F", in nachträglich generiertem "p" und in echtem "EX-p" kann das demonstrieren.
Antwort von deti:
Anbei ein ISO-Crop bei 1/250 in 50i und PF25 von einer Canon HF100. Auch hier ist ein deutlicher Schärfeverlust im PF25-Modus zu beobachten. Als Video hier:
Deti
Antwort von Bruno Peter:
Sieht nicht gut aus bei Dir.
In meinem Fall läßt 25PF nicht nach im Vergleich zu 50i.
Antwort von Atom:
Jetzt war ich wirklich neugierig und habe es selbst probiert. Fazit: Kann keinen Unterschied erkennen (Test mit XH-A1, 25F und 1080i bei Manuell 1/50, 2,8) Wenn die Schärfe sitzt sehen beide gleich gut aus.
Antwort von B.DeKid:
Sieht nicht gut aus bei Dir.
......
Komm Bruno Peter , bei deiner Erfahrung aus dem Bereich der Fotografie und der Freizeit die Du zu haben scheinst , mach uns doch mal ein Testchart Bild in i und p , unter Studio Licht Bedingungen, ohne UV Filter , ohne da hinter dem Stativ auf und ab zu gehen und Schwingungen zu erzeugen.
Und nix da noch mal mit Camera RAW oder Lightroom / Bridge / PS drüber gehen.
Warum hast das eigentlich noch nicht gemacht? Hätte Ich an deiner Stelle schon vor 3 Tagen gemacht.
........................................................
Wisst Ihr warum das eigentlich relativ ist sich über die Thematik - als nicht Entwicklungs Techniker - zu diskutieren.... weil die Aufnahmen der meisten Otto Normal User eh nicht dadurch beeinflusst werden geschweige den die Clips in Ihrer Story besser werden.
MfG
B.DeKid
Antwort von Bruno Peter:
Das habe ich schon vor längerer Zeit auf meine Page eingestellt.
Nein, kein Abfall der Luminnzauflösung bei 25PF feststellbar B.DeKid!
Antwort von B.DeKid:
Na ja dann bin Ich ja zufrieden und freue mich das Ich anscheinend oft richtig lag wenn Ich jemandem die HV30 empfohlen habe als Einsteiger Camcorder mit Spitzen Werten,oder?
MfG
B.DeKid
Da will Ich ja mal hoffen das bald die Nachfolger der XH A1 und XL H1 rauskommen;-)!!! Auf das Canon sich da genauso viel Mühe gibt wie bei der HV Reihe.
Antwort von WoWu:
Kid ... Du weist doch ... Unterschiede festzustellen bedarf einer Darstellung, in der auch Unterschiede sichtbar sind.
Das ist wie mit der Beugung ... bei Kameras mit Bonsai Objektiven ist die Objektiv-Auflösung meist schon so schlecht, dass Beugungseffekte überhaupt nicht mehr sichtbar sind.
Scheinbar treten sie also nicht auf.
Erst bei Kameras und Objektiven, die überhaupt in der Lage sind, solche Differenzen darzustellen, finden sie auch erst sichtbar statt.
Das verleitet manchmal dazu, solche Kameras für "nachbesserungswürdig" zu halten.
Insofern wünsch Dir eine solche "Nachbesserung" lieber nicht.
Es ist also alles relativ. :-)
Antwort von Meggs:
Da will Ich ja mal hoffen das bald die Nachfolger der XH A1 und XL H1 rauskommen;-)!!! Auf das Canon sich da genauso viel Mühe gibt wie bei der HV Reihe.
Die gibt es doch schon. Aber bei der XH A1S haben sie anscheinend wieder genau so geschludert. Genau so wie damals bei deiner XL1S.
Antwort von B.DeKid:
Die s Versionen intressieren ja eigentlich nicht.....
Und NEIN also zu der XL1 ist die XL1s doch wessentlich überholt worden ...was man von den XH A1 und XL H1 Versionen nicht behaupten kann.
MfG
B.DeKid
Antwort von Meggs:
Und NEIN also zu der XL1 ist die XL1s doch wessentlich überholt worden ...was man von den XH A1 und XL H1 Versionen nicht behaupten kann.
Oh, woher weißt du ...???
Antwort von B.DeKid:
Weil Ich damals ddie XL 1 sehr genau beobachtet hab und dann die XL1s gekauft hab . Zur XL2 gabs dann nochmal nen RIESEN Sprung.
Vergleich mal Spezifikationen der XL1 zur XL1s und dann mal XH A1 vs. XH A1s einzig die Option bei der XL H1 das sie als Field und Studio Version dann raus kamm(mit dem Erscheinehn der XL H1s - was sich auch Preislich bemerkbar macht(e) - gabs selbst bei Ihr keine nennenswerten Updates.
Eine XL H "2" und eine XH A "2" wird bestimmt wieder den Markt beflügeln , quasi den EX Sonys die Show stehlen.
Die APS C Chips die mittlerweile gut ausgereitzt werden im Foto Sektor zB sind auch in meinen Augen ein klarer Favorit für ein folge Modell.
Canon würde nicht auf Vollformat Sensoren ala 5D setzen weil die Datenmenge die dadurch anfällt noch nicht wirklich verarbeitet werden kann.
Aber na ja alles nur ein Blick in die Glaskugel, wir werden es sehen - aber Canon wird sich treu bleiben und was feines basteln , davon geh Ich mal schwer aus.
MfG
B.DeKid
Und ja dann wäre es auch mal Zeit für mich auf den HD Zug aufzuspringen ... obwohl meine XL Cams echt gute Dienste leisten - vor allem da Ich sie ja nicht zum Geld verdienen nutze sondern eher privat mit spiele. Über was neues würd Ich mich trotzdem freuen.;-)
Antwort von Meggs:
Vergleich mal Spezifikationen der XL1 zur XL1s und dann mal XH A1 vs. XH A1s einzig die Option bei der XL H1 das sie als Field und Studio Version dann raus kamm(mit dem Erscheinehn der XL H1s - was sich auch Preislich bemerkbar macht(e) - gabs selbst bei Ihr keine nennenswerten Updates.
Ich blicke zwar bei deiner Grammatik nicht so durch, aber ich vermute, du willst mit diesem Satz zum Ausdruck bringen, dass die A1S praktisch identisch mit der A1 sei.
Ich gebe zu, wenn man den Slashcam-Test durchliest, bekommt man auch diesen Eindruck. Videoaktiv dagegen hob den Funktionalitätszuwachs hervor.
Die A1S hat als Verbesserung 3, gleichzeitig, unabhängig voneinander, bedienbare Einstellringe am Objektiv für Blende, Zoom und Focus. Die Geschwindigkeit dieser Ringe ist besser regelbar. Die XLR-Eingänge sind getrennt regelbar. Das und noch ein paar Feinheiten im Audio-Bereich, sowie verbesserte selective Rauschunterdrückung, waren mir die 300€ Aufpreis für die A1S wert. Ich habs mir auch gut überlegt, man kann ja noch beide neu kaufen.
Antwort von B.DeKid:
Reden wir nun über Grammatik oder Technik?-)
Meine persl. Meihnung war zu den s Versionen ... das man diese auf den Markt brachte / bringt weil in der Schublade schon eine bessere Idee steckte , die man aber keinesfalls unausgereift auf den Markt werfen wollte.
Aber sach um auf das Thema zurück zu kommen ....filmst Du denn mit die Cine Modus deiner XHA1s ... ist der vielleicht sogar schon besser als der in der XH A1 ;-)
MfG
B.DeKid
PS; Jetzt halt Ich schon selber das Sommerloch am leben...tztztz.
Antwort von Meggs:
Reden wir nun über Grammatik oder Technik?-)
Du über Technik, ich über Grammatik.
Aber sach um auf das Thema zurück zu kommen ....filmst Du denn mit die Cine Modus deiner XHA1s ... ist der vielleicht sogar schon besser als der in der XH A1 ;-)
Ich bin ehrlich gesagt noch nicht dazu gekommen. Aber selbst wenn ich es ausprobiert habe, kann ich keinen Vergleich zu A1 ziehen, weil ich keine A1 habe.
Antwort von Meggs:
Ich bin jetzt endlich dazugekommen, ein Testchart abzufilmen.
Das Video, das auch 50i mit 1/25 Sek, 25F mit 1/25 Sek und 25F mit 1/125 Sek vergleicht, kann wer will runterladen:
http://www.videomaier.de/A1/50i25f.mpg
Antwort von Ficeduld:
Also ich seh keinen Auflösungsverlust bei 25F, liegt vermutlich an meinen Augen. Obwohl 50% Verlust müsste auch ich sehen....?
Antwort von Meggs:
Ich kann auch zumindest keinen gravierenden Auflösungsverlust sehen.
Wer sich die Mühe macht, und das 75 mb Video runter ladet, sieht da u.a. auch 50i mit 1/25 Sek. Auch hier kann ich keine großen Unterschiede in der Scharfe feststellen, im Gegensatz zu Domains Test mit seiner FX1. Ich habe darauf geachtet, dass immer ungefähr der selbe Blendenwert eingestellt war (6). Deswegen ist logischerweise der Clip 50i 1/25 heller als 50i 1/50. Das ist bei Domain nicht so. Wenn die Blende bei 1/25 stark zumacht, kann der Schärfeverlust auch daher kommen (Beugung).
Mein Testchart war nicht jungfräulich, sondern ein mit der Google Bildersuche gefundenes Testchart einer Panasonic TZ7. Alle hochaufgelösten Testcharts, die ich gefünden habe, waren Ergebnisse eines Testfotos.
Die Clips habe ich mit HDV-Split gecaptured, in ein 50i-Premiere Pro 2.0 Projekt importiert, dann als MPEG2 progressiv gerendert.
Wenn ich die Original-Clips (interlaced oder progressiv) mit dem VCL-Mediaplayer anschaue, kann ich ebenfalls keine gravierenden Unterschiede feststellen.
Die exportierten Frames habe ich so gelassen, wie sie sind, also 1440 x 1080, deswegen die eiförmigen Kreise. Ich wollte nichts verändern.
Normalerweise filme ich keine Testcharts, sondern reale Bilder. Dabei sehen die Aufnahmen im F-Mode sehr gut aus, eher besser als die 50i Aufnahmen. Aber das hatten wir ja schon.
Ich gehe mal davon aus, dass die Testbilder von WoWu wirklich von einer A1 stammen. Wenn das wirklich so ist, dann hat Canon bei der A1S auch den Framemode verbessert. Im Online-Handbuch der A1 steht bei der Ausgabe über FireWire F-Mode. Im gedruckten Handbuch der A1S steht an dieser Stelle P. Aber das ist Spekulation.
Antwort von Ficeduld:
Ich habe die XH-A1 und filme seit Jahren nur 25F, nicht aufgrund von Geschwätz sondern eigenen Tests und Vergleichen....also: bin ganz deiner Meinung.
Soviel mein Input zum Thema.
Antwort von Bruno Peter:
in ein 50i-Premiere Pro 2.0 Projekt importiert
Und dann ein Standbild aus einem Halbbild gemacht?
Oder bist Du Dir sicher, dass PP 2.0 Dein Bild aus zwei deinterlaced Halbbildern gemacht hat?
Antwort von Meggs:
Und dann ein Standbild aus einem Halbbild gemacht?
Oder bist Du Dir sicher, dass PP 2.0 Dein Bild aus zwei deinterlaced Halbbildern gemacht hat?
Ich gehe davon aus, dass Premiere ein Standbild aus 2 Halbbildern macht. Bei Bewegungen sieht man das richtig gut, deswegen exportiert man Frames am besten aus rel. unbewegten Szenen.
Antwort von Bruno Peter:
Du mußt Dich halt davon überzeugen und es korrekt machen.
Antwort von Meggs:
Du kannst dir ja das MPEG runterladen, das ich gelinkt habe, da sieht es gleich aus. Genauso wie in den originalen Clips des Camcorders.
Antwort von Bruno Peter:
Nee, brauche ich nicht!
Antwort von Ficeduld:
Wen interessiert ein Standbild? Die Auflösung im fertigen Produkt, sprich Video zählt doch. Und das hat Meggs geliefert.
Antwort von Axel:
"F" scheint bei A1 genauso auszusehen wie bei der Nachfolgerin. Man kann von keinem Tester erwarten, alle Funktionen richtig einzuschätzen, vor allem nicht mit einer Eigenkreation von Canon. Auch Leute, die sich Experten nennen, können nicht alles wissen. In dem ansonsten sehr guten Buch Shut up and Shoot werden in Bezug auf mehrere Kameras nicht ganz korrekte Angaben gemacht. Am besten ist, wenn man seinen eigenen Augen traut.
Dennoch: Kann es sein, dass ich mir selbst eine Testkarte mit Illustrator bauen muss, weil alles, was downloadbar ist, offenbar ein schlechter Scan ist?
Antwort von Bruno Peter:
Guck hier
Etwas ganz anderes (Original 1080p) von 5 bis 20 MHz: Klick
Antwort von Ficeduld:
ich hab den hier genommen:
http://www.gpsinformation.org/jack/phot ... tests.html
Gruss
Joachim
Antwort von Bruno Peter:
Nanü, habt Ihr die Funktionalität Eurer Kameras immer noch nicht abgeklärt?
Es sind doch dolle Testmethoden hier angekündigt worden.