Frage von Sören:Hallo zusammen,
habe mit der kürzlich erworbenen HF100 die ersten Aufnahmen gemacht.
U.a. in XP+ und FXP. Beim Abspielen am PC über die mitgelieferte Software (ImageMixer 3 Player) fiel mir auf, dass die Fenster immer gleich groß waren. (Einstellung: tatsächliche Größe)
Aufnahmeauflösung ist ja einmal 1440x1080 bzw. 1920x1080.
Wird die geringe Auflösung immer automatisch hochgerechnet? Das Bild bei XP+ war definitiv nicht kleiner.
Zwischen XP+ und FXP fiel mir bei diesen 1. Aufnahmen auch kein großer Qualitätsunterschied auf. Wie sind denn hier Eure Erfahrungen? Gibt es Aufnahmesituationen, bei denen die Qualitätsunterschiede besonders deutlich sein sollten? Ich hatte z.B. schon extra mit maximalen Zoom winzige Details aufgenommen, aber i.V. war kaum ein Unterschied festzustellen.
Danke,
Sören
Antwort von darg:
Auf was fuer einem Monitor hast Du Dir das angesehen, also die Aufloesung. Wenn der Monitor eine kleinere Aufloesung als DEin Video hat, kann es sein, dass der die beiden wegen der "paar" Pixel mehr oder weniger in einem standardisierten Fenster abspielt, so dass der Unterschied nicht auffaellt.
Gruss
Axel, San Jose
Antwort von WoWu:
Es kann aber auch sein, dass der Sensor gar keine 1920 hergibt .... altes Thema ...
Alter Zaubertrick ... wie mache ich aus 1x 2.07 MP 1920x1080:
Antwort: gar nicht, ich behaupte es nur.
Beobachtung kann also auch stimmen und selbst die 1440 sind keine 1440 sondern nur so um die 1200 ... der Rest ist Interpolation.
Antwort von Bruno Peter:
Kannst Du Deine Behauptung mit Fakten belegen bezogen auf die Canon HF100?
Antwort von ruessel:
Aus meiner HF100 kommt im besten Modus ein gleich aufgelöstes Bild wie von meiner HDV HV20/30 heraus, ich kann in der Filmpraxis meist keinen Unterschied feststellen. Nur der Bildkontrast der HF100 ist knackiger und spielt meiner Meinung nach ein besseres aufgelöstes Bild vor.....
Nach meinen angelesenen Infos eines Bildchipherstellers, kann eine Kamera mit nur einem Bildchip durch das Bayer-Farbraster bedingt, nur Faktor 0.7-0.8 (0.8 nur mit sehr hohen elektronischen Aufwand) in der Farbauflösung liefern:
1920x0.7= 1.344 Pixel das dürfte dann die beste Auflösung sein, theoretisch sollte dafür der 1440er Modus völlig ausreichen.
Antwort von Sören:
Der Monitor bietet ausreichend Auflösung - ist ein 24"er mit 1920x1200er Auflösung.
Antwort von WoWu:
Moin Bruno,
Die Sache mit den Auflösungen ist eigentlich eine sehr einfache Rechnung:
Geht man von einem 3,31 MPix Chip aus, so ist das erst einmal die Baufom 4:3 ... Das sind 1576 vertikal und 2101 horizontal. Auf 16:9 Nutzfläche umgerechnet wären das wieder 2101 horizontal aber nur 1182 vertikal.
Bayer-Mosaik geht Wolfgang von 0,7-0,8 aus.
Ich gehe da eher von 0,6 aus (40% Verlust) und komme in Bezug auf die gesamte 4:3 Fläche auf 945 x 1260, weil das Filter ja über dem gesamten Chip liegt. (Werden doppelbrechende Filter eingesetzt sind es 0,5)
Der Knackpunkt dabei ist auch die vertikale Auflösung.
Selbst wenn ich bei einem 16:9 Bild 0,8 ansetze, komme ich ebenfalls auf 945 (1182x0,8).
Die 1080 werden also erst gar nicht erreicht und die horizontale Auflösung ist dann eine Verhältnis daraus.
Wie man es also dreht und wendet, 1920x1080 kommen nie dabei heraus.
Antwort von Meggs:
Aufnahmeauflösung ist ja einmal 1440x1080 bzw. 1920x1080.
Wird die geringe Auflösung immer automatisch hochgerechnet? Das Bild bei XP+ war definitiv nicht kleiner.
Da sind doch rechteckige Pixel im Spiel. Wenn es in 1440x1080 dargestellt würde, wäre es ja zu 4:3 verzogen.
Da das 16:9 Flag gesetzt ist, stellt der Player es auch so dar, und interpoliert die fehlenden horizontalen Pixel. Genau so wie bei SD.
Antwort von WoWu:
Es gibt auf keinem Sensor rechteckige Pixels !
Antwort von Meggs:
Es gibt auf keinem Sensor rechteckige Pixels !
Natürlich nicht, hab ich ja auch nicht gesagt. Ich denke aber doch, dass du weisst, wie es gemeint ist. Das Bild wird bei der Wiedergabe horizontal gestreckt, so dass sich aus der 4:3 Auflösung ein 16:9 Bild ergibt.
Antwort von Bruno Peter:
Hallo Wolfgang,
Wie man es also dreht und wendet, 1920x1080 kommen nie dabei heraus.
Die Datei auf der Speicherkarte beinhaltet eindeutig 1920x1080, wird vom Bildprozessor so erzeugt. Mir ging es garnicht darum welchen Input der CMOS-Chip liefert, Dir offensichtlich schon und so entstehen Mißberständnisse. Die Bildqualität dieser Kamera ist nach meiner Meinung schon sehr überzeugend und die Kamera hat auch viele manuelle Eingriffsmöglichkeiten im Gegensatz zu den Sony-Kameras wo man voll auf Automatik setzt.
Derzeit videofilme ich allerdings mit meiner HD-Bandkamera etwa 14fach billiger, wenn ich die Preise von Band und Speicherkarte miteinander vergleiche und die Archivierung des Schnitts auf Band ist problemlos möglich.
Sicher werde ich mir auch wieder etwas neues kaufen und werde dann mit diesem neuen Video- und Speichersystem leben müssen. Vorläufig aber besteht bei mir kein Grund einen Kamerawechsel durchzuführen, da alles was vorhanden ist, bestens und störungsfrei mit guter Qualität funktioniert.
Antwort von WoWu:
Hallo Bruno ...
gar keine Frage ... jedes System, mit dem der Anwender zufrieden ist ist zwangsläufig das richtige System ... da bin ich völlig bei Dir und die Vielfalt der Entscheidungsgründe ist wahrscheinlich ebenso vielfältig wie die Anwender.
Das ist ebenso gut und daran wird sich in Zukunft auch nichts ändern.
Das 1920 abgespeichert werden ist ziemlicher Blödsinn und wohl nur dem Umstand geschuldet, dass das fertige "FullHD" File übergeben werden muss, anders als bei der Echtzeit-Ausspielung, bei der die Interpolation erst bei der Wiedergabe vorgenommen werden kann.
So hat jedes Speichermedium auch seine schwachen Seiten. Man muss sich das mal vorstellen, rd. die Hälfte des Speichers wird "gestopft" mit unechten Daten.
Ansonsten hatte ich dann deine Antwort anders verstanden.
Kannst Du Deine Behauptung mit Fakten belegen bezogen auf die Canon HF100?
... aber Ruessel wohl auch ...
...... na, gut, dass wir mal drüber gesprochen haben ...:-))))
Was mich aber mal interessiert wäre Dein Eindruck, wenn Du irgendwie mal eine der 3MOS Panasonics in die Finger bekommst (und sei es auch nur für ein paar Stunden).
Wenn es soweit sein sollte, mail mich doch mal an. Ich hätte da ein paar dezidierte Fragen.
@ Ruessel
... ebenso grosse Bitte ...
@ Meggs
Tut mir leid, ... hatte ich anders verstanden. Nichts für ungut.
Antwort von Bruno Peter:
Man muss sich das mal vorstellen, rd. die Hälfte des Speichers wird "gestopft" mit unechten Daten.
Das wird aber sehr gut gemacht, den das ausgezeichnete Ergebnis spricht ja für sich. Aber klar, wir bekommen das Ergebnis des Bildprozessors serviert, nicht das was die Optik "sieht"...
Welche Kamera im Consumer-Lager liefert von der Optik bis zum Speicher ein 1:1 Ergebnis?
Antwort von WoWu:
Derzeit wahrscheinlich keine ..... nur dann sollen die Hersteller es auch nicht ständig dreist behaupten und sich einwenig mehr der Wahrheit verpflichtet fühlen.
Dann sollen sie dieses HD Format nicht mit 1920x1080 definieren, sonder besser mit "prima Bilder", wenn sie es ohnehin nicht schaffen auch das zu liefern, was drauf steht.
Bei jeder Waschmittelpackung ist sofort der "Bär" los, wenn ein paar Gramm weniger drin sind, als drauf steht ..... im Camcorderbereich ist davon nichts zu merken ... vielleicht auch, weil die Consumenten nicht kritisch genug sind und sich für teures Geld jeden alles Mögliche andrehen lassen.
Antwort von wolfgang:
Was mir an dieser Diskussion auffällt: bei den ersten 1920er AVCHD Camcordern zeigten so ziemlich alle Tests, dass zwischen 1440 und 1920er Qualität praktisch kein Unterschied ist.
Seit der SR11/12 und der HF10/100 hat sich das geändert, hier wird nun davon gesprochen, dass diese Geräte die 1080i zur Gänze ausschöpfen würden. Auch bei Nachfoldern der JVC HD7 habe ich Testmateril gesehen, wo die Qualität des 1920er Materials besser war als von 1440er Material.
Wie erklärt sich dieser Befund mit den hier diskutierten Ansätzen?
Antwort von Sören:
Wahrscheinlich wurde nur der Druck seitens der Hersteller auf die Redaktionen größer, doch endlich mal von einem signifikanten Unterschied zu schreiben... ;-)
Ich jedenfalls sehe nichts, aber eventuell muss ja man erst techn. Messverfahren bemühen.
Antwort von WoWu:
Es bleibt bei den physikalischen Grundgrößen:
1x 3 Mpix Chip und Farbmaske. Das ist so, als wenn jemand aus einem halben Liter Wasser 1 Liter Brause macht .... die andere Hälfte ist dann Schaum ...
Abgesehen davon neigen Menschen natürlich auch dazu das zu sehen, was sie sehen w(s)ollen ... ganz besonders die Tester.
Mag sein, dass die HF100 eine besser arbeitende Kantenschärfung hat. Oder das Bild ist generell einwenig kontrastreicher.
Komischer weise rechnen solche Tester niemals nach ... warum eigentlich nicht ?
Ansonsten gebe ich Sören da recht. Wo nur ein halber Liter drin ist, kann auch nicht mehr herauskommen. Ansonsten könnte Canon damit den Nobelpreis für Physik verdienen.
Ansonsten besteht ja auch die Möglichkeit das 1440er Material einwenig anders zu behandeln, damit überhaupt ein Unterschied zu sehen ist ...
Antwort von ruessel:
Das ist so, als wenn jemand aus einem halben Liter Wasser 1 Liter Brause macht .... die andere Hälfte ist dann Schaum ...
Der Vergleich ist von dir? Finde ich richtig gut... ist so... so gut plastisch Vorstellbar. ;-)
Antwort von wolfgang:
Nee, es gab etwa bei der HD6 entspechendes Bildmaterial - der 1920er Modus war besser. Was nicht heißt, dass der die theoretischen Grenzen ausschöpft, sondern wohl nur, dass der 1440er Modus noch schlechter war. Nobelpreis interssiert mich nicht - wohl aber die Erklärung für die Beobachtungen.
Unabhängig davon kommen Tester bei der HF100 auf eine Vertikalauflösung von 730 LP, und auf eine Horizontalauflösung von 626 LP - wie das wohl geht, bei 1080i?
Antwort von WoWu:
LP pro WAS ?
TVL/ph oder LP/mm oder ist das nun wieder was ganz Eigenes ?
Tester kommen gern auf Resultate, die ausser ihnen keiner versteht.
Selbst das TVL/ph ist eine Messmethode aus einer Zeit, als es noch den Kathodenstrahl gab und keine Pixels.
Man konnte den Elektrodenstrahl mit den unterschiedlichsten Werten ablenken und auch in seiner Helligkeit ziemlich beliebig hell/dunkel werden lassen.
Dabei kamen dann die unterschiedlichsten Ergebnisse heraus.
TV-Linies beschreiben (per Definition) die maximale Anzahl erkennbarer Änderungen, die auf einer horizontalen Linie (Fernsehzeile) erzeugt werden können.
Sollten es also TVL sein, dann müsste sich das auch auf die Anzahl der Änderungen auf der Horizontalen beziehen.
Ausserdem fehlt dann die Größenangabe, also pro ph ??
Weil die Messmethode aber auch noch aus der analogen Zeit stammt, bezieht sich das gesamte Verfahren auf ein quadratisches Bildfenster von 75% des gesamten 5 MHz Bereiches einer TV Übertragung.
Du siehst schon, da messen Experten in HDTV herum, mit Methoden, die per Definition nichts mit HDTV zu tun haben und müssen so zwangsläufig zu Ergebnissen kommen, die mit NICHTS vergleichbar sind.
Deine Verwunderung teile ich daher.
Aber vielleicht haben sie ja ihre eigenen Werte erfunden.
Aber selbst wenn ich die Werte mal auf die Trägerbandbreite von HD umrechne, wären das für HDTV (1080) 30 MHz 872 TVL/ph .... 626 TVl wären also erheblich zuwenig und wenn es tatsächlich LP sind, wären das 1252 TVl, also Ultra-HD.
Für 720 wären das 582 TVl/ph, also 730 oder 626 wären bereits viel zu viel und wenn es Lp sind, dann erst recht. (Aber der Camcorder hat gar kein 720).
Selbst wenn man den Referenzpunkt 27,5 MHz annimmt, bei dem im 1080 Format 45% angegeben werden, müssten das immer noch 800 TVL sein.
Gehe ich einmal davon aus, dass jetzt die 626 keine LP sondern TVL sind, bestätigt das allerdings, das die Auflösung weit unter dem Soll (800) ist.
Du siehst, Tester wursteln da vor sich hin und schreiben eine Zeug zusammen, das mit keinem Messverfahren (ausser ihrem Eigenen) korreliert und erst recht keine Werte ergibt, die man mit andern Verfahren vergleichen könnte.
Was sollen also solche Tests dann überhaupt ?
Also, wie gesagt, ich teile Deine Verwunderung.
Antwort von wolfgang:
Tja, was die Tests an sich sollen, ist schon klar - mich etwa interessiert schon, welche Horizontal- und Vertikalauflösung tatsächlich optisch umgesetzt wird. Um diese info zu bekommen, gibts ja Prüflabors - aber inhaltlich korrekt sollten die schon messen (was ich vermute, schon der Fall ist - nur sind die Angaben eher unklar).
Antwort von WoWu:
Na, ja, inclusive aller Fehler, Fehler in Videokabeln, PC"s, Prefilteringfehler, Einengung der Bandbreite und natürlich auch aller optischen Krücken, wie Kantenschärfung und Anhebung (bzw. Verlaufänderung des Gammalevels, ohne Berücksichtigung des S/N Abstandes und natürlich aller Interpolationen.
Was also misst man da, wenn man einen solchen Über-Testbild (Papier / Beleuchtung), Objektiv, Sensor, Signalprozessing, Interpolation, Monitor ... eigentlich misst ?
Diese selbsternannten Messlabore verdienen soviel Vertrauen, wie der Präsident der Vereinigten Staaten.
Wenn dann noch ein Wert dabei heraus kommt, den keiner zu deuten weiss und Kurven, die lediglich schick anzusehen sind, aber die Aussagekraft eines Kühlschrankes haben, dann ist so mancher Konsument damit natürlich schnell über den Tisch gezogen.
Dabei gibt es Richtwerte, die einen Vergleich zulassen würden. Nur traut sich eben derzeit keiner einen solchen Vergleich anzustellen, erst recht nicht, die Redaktionen, weil der nächste Werbeauftrag oder Gerätebeistellung sich dann verzögern könnte.
Nein, nein, da bleibe ich lieber bei der guten alten Berechnung. Die ist nachvollziehbar und stimmt in den allermeisten fällen, wie man immer wieder sehen kann.
Beste Grüße nach Wien ...
Antwort von NTSC:
E=mc2 :) irgewndwie wird mit horizontal vertikal pixel dies das nicht die frage beantwortet:) hier gibt jemand mit wissen an :)
Antwort von WoWu:
Immer noch besser mit als dies das nicht die frage ... ohne ....
Nur kein Neid. Lesen hilf jedem weiter ...
Du weist ja, wer lesen kann (und will) ist klar im Vorteil.