Frage von lehrling76:Ich blicke derzeit leider immer weniger durch. Auch durch das googlen hab ich mehr Verwirrtheit als Klarheit bekommen...
Wenn ich mir die Angaben der Videoauflösungen anschaue würde eine 300 Kamera von Sony (Sony HDR-CX116) eine bessere Auflösung machen als z.B. eine Sony HVR-Z1!?
Ist nach den Angaben der Videoauflösungen das ganze soweit korrekt, dass der Kauf eines "Band-Camcorders" gegenüber den Speicherkarten-Cameras, welche FULL HD Aufnahmen gar kein Sinn macht?!
Wieso kaufen heute noch Leute z.B. die PD150er und Co ?!
Bei welchem Gerät hätte ich z.B. die besseren Ergebnisse:
Sony HVR-Z1: HDV 1440 x 1080/60i
oder
Sony HF S21: AVCHD 1920 x 1080/50i
oder
eine Sony PD170 ?!
Es wäre echt super wenn Ihr mir da weiter helfen könntet. Gerne auch Links mitteilt, wenn es solch ähnliche Themen schon gab!?
Antwort von Replay:
Unabhängig vom ganzen Rest würde ich mir heutzutage keinen Bandcamcorder mehr kaufen.
Wenn man es ausschließlich (!) auf die Schärfe reduziert, ist es egal ob CX115 oder EX1R (die Sony HF S21 wird als Canon HF S21 angeboten ;). Auf dem TV wird anhand der Schärfe niemand sagen können, welche Kamera da aufgezeichnet hat.
Die Unterschiede zwischen Consumer, Prosumer und Profi liegen ganz woanders. Bei den Profimühlen gibt es solche Nettigkeiten wie Waveform-Monitor, Knee-Funktion, etc. Und natürlich die entsprechenden Formate mit 4:2:2-Abtastung (z. B. wegen Greenscreen). Und vom Kontrastumfang mal ganz zu schweigen.
Heute spielen folgende Auflösungen die wichtigste Rolle:
720 x 576 50i oder 25/50p (anamorph für 16:9)
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1920 x 1080 50i oder 50p
30/60 i oder p ist NTSC, also Finger weg.
Und nochwas: Die Auflösung alleine macht noch lange kein technisch gutes Bild. Na ja, für den Inhalt ist die Kamera sowieso nicht verantwortlich ;)
Antwort von Bernd E.:
Der Vergleich, den du anstellst, hat wenig Aussagewert, weil die Pixel-Auflösung nur ein Faktor von vielen ist - und nicht gerade der wichtigste -, wenn es um die Qualität geht. Zur Verdeutlichung ein Extrembeispiel: Nimm auf der einen Seite irgendeinen der FullHD-"China-Böller" für 80 Euro vom Lebensmitteldiscounter und auf der anderen Seite einen XDCAM HD-Schultercamcorder mit 1440x1080 Pixeln für 25 000 Euro. Und nun überleg, welche von beiden Kameras die höhere Auflösung hat - aber welche das dramatisch bessere Bild...
...Wieso kaufen heute noch Leute z.B. die PD150er und Co ?...
Solche SD-Camcorder hoher Qualität reichen für viele Zwecke aus und spätestens dann, wenn es in Richtung Lowlight geht, lassen sie so manchen neueren HD-Camcorder alt aussehen. Trotzdem spricht hierzulande - leider - nicht mehr allzuviel dafür, heute noch in diese Technik zu investieren. Die stark fallenden Preise dieser Geräte auf dem Gebrauchtmarkt sprechen da ja eine deutliche Sprache.
Antwort von Jott:
Heute spielen folgende Auflösungen die wichtigste Rolle:
720 x 576 50i oder 25/50p (anamorph für 16:9)
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1920 x 1080 50i oder 50p
Was'n das? 576i50 für SD-Fernsehen, in HD 1080i50 (Standard), 1080p25 und nach den neuesten IRT-Richtlinien auch 1080p50. 720p50 ist bei den Sendern draussen - einzige Ausnahme noch: das ZDF. Das aber nur am Rande.
Lass dich nicht ins Bockshorn jagen: die technische Auflösung auf Karten, Bändern oder Festplatten sagt praktisch gar nichts über die Bildqualität aus - die ergibt sich primär aus Optik und Sensor, und deren reale Auflösung liegt meistens deutlich darunter.
Eine reine SD-Kamera aber, die nicht mal 16:9 kann (und das wäre bei der PD-150/170 der Fall), ist aus meiner Sicht heute verbranntes Geld. 4:3 ist mausetot. Wenn nur SD, dann bitte wenigstens eine Kamera, die echtes anamorphes 16:9 beherrscht. Da es allerdings nur noch HD-Fernseher gibt und auch auf YouTube mit SD kaum etwas anzufangen ist, muss man bei der Anschaffung eines SD-Camcorders schon die Sinnfrage stellen - es sei denn, man jobbt für einen der vielen kleinen Lokalsender.
Antwort von lehrling76:
Danke für Euer schnelles Feedback,....
Jott: macht es denn nach Deiner Meinung noch Sinn eine gebrauchte Sony z1 zu kaufen (HDV 1440 x 1080/50i) ?! oder wäre ich da im vergleich mit einer gh2 oder CANON hf s21 besser aufgehoben???
Antwort von Jott:
Wie soll man das beantworten? Die Z1 ist halt ein Klassiker, zwar schon 6 Jahre alt, aber immer noch gern genommen, da recht professionell bedienbar. Sieht man daran, dass sie selten gebraucht zu haben ist und wenn, dann zu erstaunlich hohen Preisen.
Für Gelegenheitsfilmer gilt allerdings: die beste Kamera ist die, die man immer dabei hat. Dazu ist die Z1 zu groß.
Antwort von Replay:
Heute spielen folgende Auflösungen die wichtigste Rolle:
720 x 576 50i oder 25/50p (anamorph für 16:9)
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1920 x 1080 50i oder 50p
Was'n das?
Was das ist? Öhm... Auflösungen und fps, welche von vielen Kameras unterstützt werden? Wie wär's damit? Ok, die 750p50 sind ein Verschreiber ^^
Außerdem wurde nicht gefragt, welche Auflösungen/fps für's TV wichtig sind ;) Wenn man Broadcast ins Spiel bringt, wäre das Format auch noch wichtig.
Antwort von WoWu:
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1280x720 ist ein ausschliesslich progressiver Hd Standard.
Davon gibt es kein (i)
Jott:
und nach den neuesten IRT-Richtlinien auch 1080p50. 720p50 ist bei den Sendern draussen - einzige Ausnahme noch: das ZDF. Das aber nur am Rande.
Auch Quatsch. nach den letzten IRT Richtlinien (Okt.2010) ist 720p50 keineswegs draußen.
Aber nicht jeder kennt die Richtlinien, nur dann sollte man sich auch nicht darauf berufen.
Insgesamt gibt es 11 HD Spezifikationen: 9 progressive und 2 interlaced.
Antwort von lehrling76:
*lacht** ...sieht Ihr was ich meine?! ....man wird selbst hier immer mehr verwirrter :-)
...gibt es denn irgendwelche Links bzgl. den Anforderungen!? Hab verschiedene Sender angeschrieben, allerdings bisher nicht wirklich eine klare Ansage erhalten...
Antwort von pilskopf:
Ein Sender wird dir jedes Material aus der Hand reißen wenn es gut genug ist. ABER ob sich einer vom Sender dein Material dazu überhaupt erst sichtet steht auf nem anderen Blatt. Produzieren würd ich immer in der höchsten Auflösung, runterrechnen geht immer.
Antwort von WoWu:
@ lehrling76
Es ist ganz einfach:
Die HD Formate werden von der SMPTE festgelegt.
Dazu gibt es zwei Papiere :SMPTE 274M und 296M
Aus der Liste kannst Du die derzeitigen Standards erkennen.
Dort wirst Du kein 1080p50 finden, weil es derzeit noch nicht standardisiert ist. Daher vermutlich auch der zaghafte Vorstoß in Richtung Kameraunterstützung.
Es ist aber zu vermuten, dass es für 1080p50 auch einen skalierbaren Codec geben wird, der dann Teil des Standards wird.
Antwort von lehrling76:
pilskopf: recht haste! :-) ...bin im übrigen in deine gruppe bei facebook beigetreten! gefällt mir :)
Antwort von lehrling76:
Vielen Dank WOWu.. gleich mal ausdrucken und Ablegen :)))
Antwort von Bernd E.:
......gibt es denn irgendwelche Links bzgl. den Anforderungen!?...
viewtopic.php?t=81904
viewtopic.php?t=85633
viewtopic.php?t=82471
Antwort von lehrling76:
BERND :-))) bist der beste! lieben Dank :-***
...hab somit nun was als Nachtlektüre :)
Antwort von hubse:
Hallo zusammen,
Bei den Profimühlen gibt es solche Nettigkeiten wie Waveform-Monitor, Knee-Funktion, etc. Und natürlich die entsprechenden Formate mit 4:2:2-Abtastung (z. B. wegen Greenscreen). Und vom Kontrastumfang mal ganz zu schweigen.
Wodurch wird der Kontrastumfang eigentlich beeinflusst? Hängt das nur von Sensorgröße und Lichtstärke ab? Denn der Farbraum sollte doch eigentlich bei allen Geräten gleich groß sein.
Und was für einen Qualitätsunterschied erreiche ich durch eine 4:2:2-Kodierung eigentlich? Ich versteh nicht, was das mit nem Greenscreen zu tun haben könnte, oder anders ausgedrückt - für was genau brauche ich 4:2:2? Brauchen TV-Anstalten das als "Datenreserve" zum Umrechnen?
Gruß,
Martin
Antwort von WoWu:
Der Kontrastumfang hängt mit dem Füllfaktor des Sensors zusammen.
Aber ich denke, den Umfang meinst Du gar nicht.
Man muss noch den Kontrast Verlauf anschauen, also ob die Kurve linear oder gekrümmt übertragen wird, um mehr Umfang in möglichst wenig Digitalwerte (8Bit) zu "stopfen".
RAW Signale haben daher zwansläufig einen geringeren Dynamikumfang als Signale die beispielsweise der Gamma 2,2 Kurve entsprechen.
Oder es ist gemeint, wie einzelne Partien des Bildes abgestuft sind, also Durchzeichnung in dunklen/hellen Bereichen.
Das wiederum hängst sowohl vom Füllfaktor ab, weil dort natürlich die Menge der Abstufungen grundsätzlich festgelegt werden, also ob Du einen 6, 8, 10, 12 oder mehr Bit Sensor hast, als auch von der Quantisierung des Signals ab, weil dort die Samples festgelegt werden und nicht immer ist die höhere Quantisierung die bessere Lösung, weil geringere Quantisierung manchmal auch besser als Tiefpassfilter wirkt, also nicht jedes Signal ist sinnvoll in 10 Bit.
Und für manche Sensoren ist selbst 8 Bit noch zuviel.
Das alles wirkt auf den Kontrast, bzw. auf den Eindruck des Bildes.
Nun übertragen Sensoren ja keine Farbe, sondern es werden nur die Helligkeitswerte für bestimmte Farben übermittelt
Was die Unterabtastung angeht, so muss man wissen, dass bei 4.2:0 quasi nur ein Viertel der Farbinformationen abgetastet werden. Aber die Menge ist gar nicht so schlimm, wie man oft fälschlicherweise sagt. Es geht vielmehr darum, dass bei der Abtastung 4 Farbinformationen zu einem Farbwert interpoliert, also zusammengemischt werden. Es entsteht also bereits ein Wert, der nur noch bedingt etwas mit den ursprünglichen Werten zu tun hat.
Hinzu kommt noch, dass die Lage der Abtastwerte im Signal ungünstig für eine weitere Interpolation der Farbe, bzw. eine weitere Unterabtastung ist. Dies geschieht, wenn man ein Signal, das zwischenzeitlich aus 4:2:0 ... über 4:2:2 ... dann wieder zu 4:2:0 gewandelt wird. Leider ist das erforderlich, weil in TV Stationen mit 4:2:2 gearbeitet wird, hinterher im Sendesignal aber wieder auf 4:2:0 zur Distribution gewandelt wird.
Dann hat die Farbe (was natürlich besonders Kanten betrifft, Flächen sind nicht so kritisch) manchmal nur noch geringe Ähnlichkeit mit dem Original und auch bei Flächen entstehen dadurch manchmal die "Schweinchengesichter".
Du siehst also, 4:2:0 hat mehr mit der Qualität der Farbe zu tun und mit dem Workflow, bis das Ganze beim TV Zuschauer ankommt.
4:2:0 sieht meistens in den Ursprungs-NLEs noch ganz gut aus, aber wenn es hinterher den gesamten Bearbeitungs- und Sendeweg durchlaufen hat, leider oft nicht mehr.
Auf das Keying gehe ich jetzt gar nicht mehr ein, das ist noch ein anderes Thema.
Antwort von hubse:
Hallo WoWu (wie üblich),
also Hintergrund für die vorherige Frage war eigentlich: Ich bin beim Einarbeiten in Vegas letztens auf das Fenster "Videoscopes" gestoßen. Was da tatsächlich angezeigt wird (bis aufs Histogramm) hab ich absolut noch nicht verstanden, bin dann beim Beitrag von Replay auf "Waveformmonitor" gestoßen, und hab die leichte (vielleicht auch falsche) Idee, dass das damit was zu tun haben könnte - Also die Anzeige, ob die Farbe, die vielleicht ganz gut am Monitor "ausschaut" auch tatsächlich messtechnisch was taugt.
Da die Farbe zum großtenteil nichts mit dem Farbwerten sondern mit Helligkeitswerten zu tun hat (ich geh mal davon aus, dass das bei Video so ähnlich läuft wie bei JPEG - Umrechnung von RGB in YUV - , dass alle Helligkeitswerte erhalten bleiben, aber nur so-und-so-viel Farbwerte benötigt werden), bekomme ich mit einer großen "Profi"-Kamera automatisch sendefähiges Material zustande? Denn wenn ich z.B. zu wenig Licht habe (oder zu blöd zum einstellen bin...), dann ists doch völlig wurscht, ob ich jetzt mit 4:2:2 oder 4:2:0 aufnehme - die Qualität der Farbe ist doch so oder so schlecht.
Ich hab irgendwo gelesen, dass bei der ARD (oder ZDF) letztens eine Doku gesendet wurde, die mit einer DSLR aufgenommen wurde (über ein Krankenhaus in Berlin). Und DSLRs haben bei Video doch eine 4:2:0 Codierung - also wie zum Teufel habens die geschafft, das sendefähig zu bekommen? Denn wie du letztens in einem Beitrag geschrieben hast, können TV-Anstalten durchaus erkennen, ob eine 4:2:0-Codierung zu einer 4:2:2-Codierung "aufgeblasen" wurde - und das TV-Anstalten sowas nicht besonders mögen.
Gruß,
Martin
Antwort von WoWu:
Martin,
.....das muss ich mal zerlegen ...
Fangen wir hinten an ...
Die letzte Folge von "Dr.House" ist ja auch mit DSLR gedreht worden. Greg Yaitanes hat in einem Interview gesagt, sie hätten damit in der Postproduktion soviel Arbeit gehabt, dass sie hätten gleich in 35mm drehen können.
Ich will damit sagen, dass es natürlich möglich ist, auch solches Material sendefähig zu machen und wenn kein Workflow und keine weitere Wandlung mehr dazwischen liegt und das ganze dann (möglichst) gleich als MPEG4 auf dem Sendeserver landet, dann sieht das Zeug auch beim Zuschauer so aus, wie in der Post.
Ich schließe also nicht aus, dass das bei dem Charité Beitrag ähnlich war.
Mit den Farbwerten, also der Lage der Farben innerhalb eines Farbraums hat das aber nichts zu tun.
Dies betrifft mehr die Aufteilung innerhalb der Digitalwerte.
Die sogenannten illegalen Farben, die im digitalen Bereich aber abnehmende Bedeutung haben und einwenig noch Relikt aus analogen (PAL) Zeiten waren.
Nur manche stieren eben noch auf das Vectorskope und werden verrückt, wenn mal eine Farbe nicht genau sitzt.
Allerdings sollte das von der Kamera her schon stimmen, damit nicht bei der Aufnahme schon Dinge geschehen, die man unter Umständen in der Post korrigieren muss.
Im Waveform sieht man eigentlich nur die Lumaanteile der Farben und dass ist dann eine Sache des Pegels, den man mit etwas Erfahrung auch schon im Bildgemisch sieht.
Aber das ist absolut Geschmacksache, das schreibt dir keiner vor, wie kräftig deine Farben sein müssen. Nur oben gibt es natürlich eine Wertegrenze.
Aber Du hast natürlich Recht, zwischen Monitor und Waveform sollte ein plausibler Zusammenhang herrschen, weil Dir ein verkurbelter Monitor natürlich "Bananen" anzeigen kann, ein Waveform eigentlich nicht. Daher ist ein Blick auf das Messgerät eigentlich immer angesagt. Aber wenn man dann irgendwann festgestellt hat, Monitor und WV stimmen überein, dann hat die Kontrolle abnehmende Tendenz.
Diese Sache mit dem Wechsel der Farbräume ist noch ein ganz eigenes Thema und nicht so in 2 Worten erklärt. ich würde einen Wechsel, wenn irgendwie möglich, immer unterlassen. Es hat NUR Nachteile.
bekomme ich mit einer großen "Profi"-Kamera automatisch sendefähiges Material zustande?
Ja, Du bekommst auf jeden Fall bessere Farbqualitäten, besonders an den Kanten und erhältst eine bessere Farbauflösung. Aus den zuvor erklärten Gründen bestehen TV Anstalten darauf, was ich verstehen kann.
Du bekommst auch 4:2:2 niemals hinterher wieder hin, wenn es einmal unterabgetastet war.
Es gibt da so Rechenexample, die das belegen wollen, aber Subsampling hat nichts mit Samplemengen zu tun, sondern mit Samplequalitäten. Die bekommst Du aus einer ordentlichen Kamera geliefert.
So, ich hoffe, ich hab nix vergessen .... sind wir jetzt eigentlich OT ?
Dann sorry an lehrling76, wir wollen ja nun seinen Thread nicht vergewaltigen.
Antwort von lehrling76:
Quatsch! ...ich finds sehr interessant und versuche mitzukommen :-))) ...und freu mich zudem dass ich nicht allein wach bin um die Uhrzeit ;-)
Woher weißt du mit welcher Cam Dr house gedreht wurde? Gibts dafür Links? (sorry wenn ich mal zu neugierig sein sollte)
Antwort von Bernd E.:
...Woher weißt du mit welcher Cam Dr house gedreht wurde? Gibts dafür Links?...
Das Thema wurde damals, als es aktuell war, quer durchs Internet breitgetreten, aber fürs erste findest du hier Infos und Links:
viewtopic.php?t=80376
Antwort von Replay:
Hinzu kommt noch, dass die Lage der Abtastwerte im Signal ungünstig für eine weitere Interpolation der Farbe, bzw. eine weitere Unterabtastung ist. Dies geschieht, wenn man ein Signal, das zwischenzeitlich aus 4:2:0 ... über 4:2:2 ... dann wieder zu 4:2:0 gewandelt wird. Leider ist das erforderlich, weil in TV Stationen mit 4:2:2 gearbeitet wird, hinterher im Sendesignal aber wieder auf 4:2:0 zur Distribution gewandelt wird.
Dann hat die Farbe (was natürlich besonders Kanten betrifft, Flächen sind nicht so kritisch) manchmal nur noch geringe Ähnlichkeit mit dem Original und auch bei Flächen entstehen dadurch manchmal die "Schweinchengesichter".
@ hubse
Hier schließt sich der Kreis zum Greenscreen (siehe Zitat, Hervorhebung durch mich). Wenn man sowas mit 4:2:0 macht, hat man um das Objekt (Moderator) vor dem Greenscreen einen netten Rand, was dann wirklich wie Kuhstall-TV des Dorfsenders aussieht.
Grundsätzlich gilt, daß das Ausgangsmaterial in der bestmöglichen Qualität (Auflösung, Farbabtastung, etc.) vorliegen muß. Also auch damit in der Post arbeiten. Erst im letzten Schritt kann man die technische Qualität reduzieren, sei es das Senden, die Erstellung einer DVD/BR oder was auch immer. Im Archiv landet ebenfalls die technisch beste Qualität.
Antwort von hubse:
Hallo,
Hier schließt sich der Kreis zum Greenscreen (siehe Zitat, Hervorhebung durch mich). Wenn man sowas mit 4:2:0 macht, hat man um das Objekt (Moderator) vor dem Greenscreen einen netten Rand, was dann wirklich wie Kuhstall-TV des Dorfsenders aussieht.
Ist das der Grund, warum bei einer 4:2:0-Koderierung auch die Treppeneffekte, besonders bei dünnen Linien und großen Hell-Dunkel-Kontrasten, viel schlimmer aussehen als bei einer 4:2:2-Kodierung (nach meinem subjektiven Laien-Eindruck...)?
Gruß,
Martin
P.S. Ich finds echt Klasse, dass sich die Profis hier, insbesondere WoWu, für solche Fragen Zeit nehmen. Also: Danke!
Antwort von Replay:
Der Treppeneffekt liegt meist an der künstlichen Nachschärfung der Kamera (Kantenaufsteilung). Bei Profimühlen kann man das einstellen und bei den Customer-Panas auch.
Kantenaufsteilung heißt, daß an Kanten/Rändern den Kontrast angehoben wird. Das menschliche Sehen empfindet hohe Kantenkontraste als Schärfe, wo eigentlich keine Schärfe ist. Es ist also lediglich eine Täuschung, die aber auch saftige Nachteile hat. Dazu gleich mehr.
Im Normalfall wird also ohne Kantenaufsteilung gedreht, daher auch mein Tip an die Pana-Nutzer, die Schärfe zurückzudrehen, da in der Werkseinstellung der Customer-Panas eine künstliche Nachschärfung gegeben ist (zum Teil sogar relativ stark).
Sony und JVC verzichten fast ganz auf solche Tricks. Eine minimale (!) Nachschärfung kann durchaus gut sein.
Hochgeschärfte Bilder sehen auf den ersten Blick knackiger aus, auf den zweiten und genauen Blick offenbaren sich eben solche Effekte, wie Du sie beschreibst. Und wo der Kontrast angehoben wird, verschwinden, gerade bei kleinen Details, die Farben. Wenn dann auch noch eine 4:2:0-Abtastung ins Spiel kommt, hat man meiner Meinung nach einen GAU.
Wenn Dir das auffällt, ist Dein Blick alles, nur nicht Laienhaft.