Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // Klarheit im Dschungel der Videoauflösung!?



Frage von lehrling76:


Ich blicke derzeit leider immer weniger durch. Auch durch das googlen hab ich mehr Verwirrtheit als Klarheit bekommen...

Wenn ich mir die Angaben der Videoauflösungen anschaue würde eine 300 Kamera von Sony (Sony HDR-CX116) eine bessere Auflösung machen als z.B. eine Sony HVR-Z1!?

Ist nach den Angaben der Videoauflösungen das ganze soweit korrekt, dass der Kauf eines "Band-Camcorders" gegenüber den Speicherkarten-Cameras, welche FULL HD Aufnahmen gar kein Sinn macht?!

Wieso kaufen heute noch Leute z.B. die PD150er und Co ?!

Bei welchem Gerät hätte ich z.B. die besseren Ergebnisse:

Sony HVR-Z1: HDV 1440 x 1080/60i
oder
Sony HF S21: AVCHD 1920 x 1080/50i
oder
eine Sony PD170 ?!

Es wäre echt super wenn Ihr mir da weiter helfen könntet. Gerne auch Links mitteilt, wenn es solch ähnliche Themen schon gab!?

Space


Antwort von Replay:

Unabhängig vom ganzen Rest würde ich mir heutzutage keinen Bandcamcorder mehr kaufen.

Wenn man es ausschließlich (!) auf die Schärfe reduziert, ist es egal ob CX115 oder EX1R (die Sony HF S21 wird als Canon HF S21 angeboten ;). Auf dem TV wird anhand der Schärfe niemand sagen können, welche Kamera da aufgezeichnet hat.

Die Unterschiede zwischen Consumer, Prosumer und Profi liegen ganz woanders. Bei den Profimühlen gibt es solche Nettigkeiten wie Waveform-Monitor, Knee-Funktion, etc. Und natürlich die entsprechenden Formate mit 4:2:2-Abtastung (z. B. wegen Greenscreen). Und vom Kontrastumfang mal ganz zu schweigen.

Heute spielen folgende Auflösungen die wichtigste Rolle:

720 x 576 50i oder 25/50p (anamorph für 16:9)
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1920 x 1080 50i oder 50p

30/60 i oder p ist NTSC, also Finger weg.

Und nochwas: Die Auflösung alleine macht noch lange kein technisch gutes Bild. Na ja, für den Inhalt ist die Kamera sowieso nicht verantwortlich ;)

Space


Antwort von Bernd E.:

Der Vergleich, den du anstellst, hat wenig Aussagewert, weil die Pixel-Auflösung nur ein Faktor von vielen ist - und nicht gerade der wichtigste -, wenn es um die Qualität geht. Zur Verdeutlichung ein Extrembeispiel: Nimm auf der einen Seite irgendeinen der FullHD-"China-Böller" für 80 Euro vom Lebensmitteldiscounter und auf der anderen Seite einen XDCAM HD-Schultercamcorder mit 1440x1080 Pixeln für 25 000 Euro. Und nun überleg, welche von beiden Kameras die höhere Auflösung hat - aber welche das dramatisch bessere Bild...
...Wieso kaufen heute noch Leute z.B. die PD150er und Co ?... Solche SD-Camcorder hoher Qualität reichen für viele Zwecke aus und spätestens dann, wenn es in Richtung Lowlight geht, lassen sie so manchen neueren HD-Camcorder alt aussehen. Trotzdem spricht hierzulande - leider - nicht mehr allzuviel dafür, heute noch in diese Technik zu investieren. Die stark fallenden Preise dieser Geräte auf dem Gebrauchtmarkt sprechen da ja eine deutliche Sprache.

Space


Antwort von Jott:

Heute spielen folgende Auflösungen die wichtigste Rolle:

720 x 576 50i oder 25/50p (anamorph für 16:9)
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1920 x 1080 50i oder 50p Was'n das? 576i50 für SD-Fernsehen, in HD 1080i50 (Standard), 1080p25 und nach den neuesten IRT-Richtlinien auch 1080p50. 720p50 ist bei den Sendern draussen - einzige Ausnahme noch: das ZDF. Das aber nur am Rande.

Lass dich nicht ins Bockshorn jagen: die technische Auflösung auf Karten, Bändern oder Festplatten sagt praktisch gar nichts über die Bildqualität aus - die ergibt sich primär aus Optik und Sensor, und deren reale Auflösung liegt meistens deutlich darunter.

Eine reine SD-Kamera aber, die nicht mal 16:9 kann (und das wäre bei der PD-150/170 der Fall), ist aus meiner Sicht heute verbranntes Geld. 4:3 ist mausetot. Wenn nur SD, dann bitte wenigstens eine Kamera, die echtes anamorphes 16:9 beherrscht. Da es allerdings nur noch HD-Fernseher gibt und auch auf YouTube mit SD kaum etwas anzufangen ist, muss man bei der Anschaffung eines SD-Camcorders schon die Sinnfrage stellen - es sei denn, man jobbt für einen der vielen kleinen Lokalsender.

Space


Antwort von lehrling76:

Danke für Euer schnelles Feedback,....

Jott: macht es denn nach Deiner Meinung noch Sinn eine gebrauchte Sony z1 zu kaufen (HDV 1440 x 1080/50i) ?! oder wäre ich da im vergleich mit einer gh2 oder CANON hf s21 besser aufgehoben???

Space


Antwort von Jott:

Wie soll man das beantworten? Die Z1 ist halt ein Klassiker, zwar schon 6 Jahre alt, aber immer noch gern genommen, da recht professionell bedienbar. Sieht man daran, dass sie selten gebraucht zu haben ist und wenn, dann zu erstaunlich hohen Preisen.

Für Gelegenheitsfilmer gilt allerdings: die beste Kamera ist die, die man immer dabei hat. Dazu ist die Z1 zu groß.

Space


Antwort von Replay:

Heute spielen folgende Auflösungen die wichtigste Rolle:

720 x 576 50i oder 25/50p (anamorph für 16:9)
1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender)
1920 x 1080 50i oder 50p Was'n das?


Was das ist? Öhm... Auflösungen und fps, welche von vielen Kameras unterstützt werden? Wie wär's damit? Ok, die 750p50 sind ein Verschreiber ^^

Außerdem wurde nicht gefragt, welche Auflösungen/fps für's TV wichtig sind ;) Wenn man Broadcast ins Spiel bringt, wäre das Format auch noch wichtig.

Space


Antwort von WoWu:

1280 x 720 50i oder 50p (750p50 -> deutsche ÖR-Sender) 1280x720 ist ein ausschliesslich progressiver Hd Standard.
Davon gibt es kein (i)

Jott: und nach den neuesten IRT-Richtlinien auch 1080p50. 720p50 ist bei den Sendern draussen - einzige Ausnahme noch: das ZDF. Das aber nur am Rande. Auch Quatsch. nach den letzten IRT Richtlinien (Okt.2010) ist 720p50 keineswegs draußen.
Aber nicht jeder kennt die Richtlinien, nur dann sollte man sich auch nicht darauf berufen.


Insgesamt gibt es 11 HD Spezifikationen: 9 progressive und 2 interlaced.

Space


Antwort von lehrling76:

*lacht** ...sieht Ihr was ich meine?! ....man wird selbst hier immer mehr verwirrter :-)

...gibt es denn irgendwelche Links bzgl. den Anforderungen!? Hab verschiedene Sender angeschrieben, allerdings bisher nicht wirklich eine klare Ansage erhalten...

Space



Space


Antwort von pilskopf:

Ein Sender wird dir jedes Material aus der Hand reißen wenn es gut genug ist. ABER ob sich einer vom Sender dein Material dazu überhaupt erst sichtet steht auf nem anderen Blatt. Produzieren würd ich immer in der höchsten Auflösung, runterrechnen geht immer.

Space


Antwort von WoWu:

@ lehrling76
Es ist ganz einfach:
Die HD Formate werden von der SMPTE festgelegt.
Dazu gibt es zwei Papiere :SMPTE 274M und 296M

Aus der Liste kannst Du die derzeitigen Standards erkennen.
Dort wirst Du kein 1080p50 finden, weil es derzeit noch nicht standardisiert ist. Daher vermutlich auch der zaghafte Vorstoß in Richtung Kameraunterstützung.
Es ist aber zu vermuten, dass es für 1080p50 auch einen skalierbaren Codec geben wird, der dann Teil des Standards wird.

Space


Antwort von lehrling76:

pilskopf: recht haste! :-) ...bin im übrigen in deine gruppe bei facebook beigetreten! gefällt mir :)

Space


Antwort von lehrling76:

Vielen Dank WOWu.. gleich mal ausdrucken und Ablegen :)))

Space


Antwort von Bernd E.:

......gibt es denn irgendwelche Links bzgl. den Anforderungen!?... viewtopic.php?t=81904
viewtopic.php?t=85633
viewtopic.php?t=82471

Space


Antwort von lehrling76:

BERND :-))) bist der beste! lieben Dank :-***

...hab somit nun was als Nachtlektüre :)

Space


Antwort von hubse:

Hallo zusammen,
Bei den Profimühlen gibt es solche Nettigkeiten wie Waveform-Monitor, Knee-Funktion, etc. Und natürlich die entsprechenden Formate mit 4:2:2-Abtastung (z. B. wegen Greenscreen). Und vom Kontrastumfang mal ganz zu schweigen. Wodurch wird der Kontrastumfang eigentlich beeinflusst? Hängt das nur von Sensorgröße und Lichtstärke ab? Denn der Farbraum sollte doch eigentlich bei allen Geräten gleich groß sein.

Und was für einen Qualitätsunterschied erreiche ich durch eine 4:2:2-Kodierung eigentlich? Ich versteh nicht, was das mit nem Greenscreen zu tun haben könnte, oder anders ausgedrückt - für was genau brauche ich 4:2:2? Brauchen TV-Anstalten das als "Datenreserve" zum Umrechnen?

Gruß,

Martin

Space


Antwort von WoWu:

Der Kontrastumfang hängt mit dem Füllfaktor des Sensors zusammen.
Aber ich denke, den Umfang meinst Du gar nicht.
Man muss noch den Kontrast Verlauf anschauen, also ob die Kurve linear oder gekrümmt übertragen wird, um mehr Umfang in möglichst wenig Digitalwerte (8Bit) zu "stopfen".
RAW Signale haben daher zwansläufig einen geringeren Dynamikumfang als Signale die beispielsweise der Gamma 2,2 Kurve entsprechen.
Oder es ist gemeint, wie einzelne Partien des Bildes abgestuft sind, also Durchzeichnung in dunklen/hellen Bereichen.
Das wiederum hängst sowohl vom Füllfaktor ab, weil dort natürlich die Menge der Abstufungen grundsätzlich festgelegt werden, also ob Du einen 6, 8, 10, 12 oder mehr Bit Sensor hast, als auch von der Quantisierung des Signals ab, weil dort die Samples festgelegt werden und nicht immer ist die höhere Quantisierung die bessere Lösung, weil geringere Quantisierung manchmal auch besser als Tiefpassfilter wirkt, also nicht jedes Signal ist sinnvoll in 10 Bit.
Und für manche Sensoren ist selbst 8 Bit noch zuviel.
Das alles wirkt auf den Kontrast, bzw. auf den Eindruck des Bildes.

Nun übertragen Sensoren ja keine Farbe, sondern es werden nur die Helligkeitswerte für bestimmte Farben übermittelt

Was die Unterabtastung angeht, so muss man wissen, dass bei 4.2:0 quasi nur ein Viertel der Farbinformationen abgetastet werden. Aber die Menge ist gar nicht so schlimm, wie man oft fälschlicherweise sagt. Es geht vielmehr darum, dass bei der Abtastung 4 Farbinformationen zu einem Farbwert interpoliert, also zusammengemischt werden. Es entsteht also bereits ein Wert, der nur noch bedingt etwas mit den ursprünglichen Werten zu tun hat.
Hinzu kommt noch, dass die Lage der Abtastwerte im Signal ungünstig für eine weitere Interpolation der Farbe, bzw. eine weitere Unterabtastung ist. Dies geschieht, wenn man ein Signal, das zwischenzeitlich aus 4:2:0 ... über 4:2:2 ... dann wieder zu 4:2:0 gewandelt wird. Leider ist das erforderlich, weil in TV Stationen mit 4:2:2 gearbeitet wird, hinterher im Sendesignal aber wieder auf 4:2:0 zur Distribution gewandelt wird.
Dann hat die Farbe (was natürlich besonders Kanten betrifft, Flächen sind nicht so kritisch) manchmal nur noch geringe Ähnlichkeit mit dem Original und auch bei Flächen entstehen dadurch manchmal die "Schweinchengesichter".
Du siehst also, 4:2:0 hat mehr mit der Qualität der Farbe zu tun und mit dem Workflow, bis das Ganze beim TV Zuschauer ankommt.
4:2:0 sieht meistens in den Ursprungs-NLEs noch ganz gut aus, aber wenn es hinterher den gesamten Bearbeitungs- und Sendeweg durchlaufen hat, leider oft nicht mehr.
Auf das Keying gehe ich jetzt gar nicht mehr ein, das ist noch ein anderes Thema.

Space


Antwort von hubse:

Hallo WoWu (wie üblich),

also Hintergrund für die vorherige Frage war eigentlich: Ich bin beim Einarbeiten in Vegas letztens auf das Fenster "Videoscopes" gestoßen. Was da tatsächlich angezeigt wird (bis aufs Histogramm) hab ich absolut noch nicht verstanden, bin dann beim Beitrag von Replay auf "Waveformmonitor" gestoßen, und hab die leichte (vielleicht auch falsche) Idee, dass das damit was zu tun haben könnte - Also die Anzeige, ob die Farbe, die vielleicht ganz gut am Monitor "ausschaut" auch tatsächlich messtechnisch was taugt.

Da die Farbe zum großtenteil nichts mit dem Farbwerten sondern mit Helligkeitswerten zu tun hat (ich geh mal davon aus, dass das bei Video so ähnlich läuft wie bei JPEG - Umrechnung von RGB in YUV - , dass alle Helligkeitswerte erhalten bleiben, aber nur so-und-so-viel Farbwerte benötigt werden), bekomme ich mit einer großen "Profi"-Kamera automatisch sendefähiges Material zustande? Denn wenn ich z.B. zu wenig Licht habe (oder zu blöd zum einstellen bin...), dann ists doch völlig wurscht, ob ich jetzt mit 4:2:2 oder 4:2:0 aufnehme - die Qualität der Farbe ist doch so oder so schlecht.

Ich hab irgendwo gelesen, dass bei der ARD (oder ZDF) letztens eine Doku gesendet wurde, die mit einer DSLR aufgenommen wurde (über ein Krankenhaus in Berlin). Und DSLRs haben bei Video doch eine 4:2:0 Codierung - also wie zum Teufel habens die geschafft, das sendefähig zu bekommen? Denn wie du letztens in einem Beitrag geschrieben hast, können TV-Anstalten durchaus erkennen, ob eine 4:2:0-Codierung zu einer 4:2:2-Codierung "aufgeblasen" wurde - und das TV-Anstalten sowas nicht besonders mögen.

Gruß,

Martin

Space



Space


Antwort von WoWu:

Martin,
.....das muss ich mal zerlegen ...

Fangen wir hinten an ...
Die letzte Folge von "Dr.House" ist ja auch mit DSLR gedreht worden. Greg Yaitanes hat in einem Interview gesagt, sie hätten damit in der Postproduktion soviel Arbeit gehabt, dass sie hätten gleich in 35mm drehen können.
Ich will damit sagen, dass es natürlich möglich ist, auch solches Material sendefähig zu machen und wenn kein Workflow und keine weitere Wandlung mehr dazwischen liegt und das ganze dann (möglichst) gleich als MPEG4 auf dem Sendeserver landet, dann sieht das Zeug auch beim Zuschauer so aus, wie in der Post.
Ich schließe also nicht aus, dass das bei dem Charité Beitrag ähnlich war.

Mit den Farbwerten, also der Lage der Farben innerhalb eines Farbraums hat das aber nichts zu tun.
Dies betrifft mehr die Aufteilung innerhalb der Digitalwerte.
Die sogenannten illegalen Farben, die im digitalen Bereich aber abnehmende Bedeutung haben und einwenig noch Relikt aus analogen (PAL) Zeiten waren.
Nur manche stieren eben noch auf das Vectorskope und werden verrückt, wenn mal eine Farbe nicht genau sitzt.

Allerdings sollte das von der Kamera her schon stimmen, damit nicht bei der Aufnahme schon Dinge geschehen, die man unter Umständen in der Post korrigieren muss.

Im Waveform sieht man eigentlich nur die Lumaanteile der Farben und dass ist dann eine Sache des Pegels, den man mit etwas Erfahrung auch schon im Bildgemisch sieht.
Aber das ist absolut Geschmacksache, das schreibt dir keiner vor, wie kräftig deine Farben sein müssen. Nur oben gibt es natürlich eine Wertegrenze.
Aber Du hast natürlich Recht, zwischen Monitor und Waveform sollte ein plausibler Zusammenhang herrschen, weil Dir ein verkurbelter Monitor natürlich "Bananen" anzeigen kann, ein Waveform eigentlich nicht. Daher ist ein Blick auf das Messgerät eigentlich immer angesagt. Aber wenn man dann irgendwann festgestellt hat, Monitor und WV stimmen überein, dann hat die Kontrolle abnehmende Tendenz.

Diese Sache mit dem Wechsel der Farbräume ist noch ein ganz eigenes Thema und nicht so in 2 Worten erklärt. ich würde einen Wechsel, wenn irgendwie möglich, immer unterlassen. Es hat NUR Nachteile. bekomme ich mit einer großen "Profi"-Kamera automatisch sendefähiges Material zustande? Ja, Du bekommst auf jeden Fall bessere Farbqualitäten, besonders an den Kanten und erhältst eine bessere Farbauflösung. Aus den zuvor erklärten Gründen bestehen TV Anstalten darauf, was ich verstehen kann.
Du bekommst auch 4:2:2 niemals hinterher wieder hin, wenn es einmal unterabgetastet war.
Es gibt da so Rechenexample, die das belegen wollen, aber Subsampling hat nichts mit Samplemengen zu tun, sondern mit Samplequalitäten. Die bekommst Du aus einer ordentlichen Kamera geliefert.

So, ich hoffe, ich hab nix vergessen .... sind wir jetzt eigentlich OT ?
Dann sorry an lehrling76, wir wollen ja nun seinen Thread nicht vergewaltigen.

Space


Antwort von lehrling76:

Quatsch! ...ich finds sehr interessant und versuche mitzukommen :-))) ...und freu mich zudem dass ich nicht allein wach bin um die Uhrzeit ;-)

Woher weißt du mit welcher Cam Dr house gedreht wurde? Gibts dafür Links? (sorry wenn ich mal zu neugierig sein sollte)

Space


Antwort von Bernd E.:

...Woher weißt du mit welcher Cam Dr house gedreht wurde? Gibts dafür Links?... Das Thema wurde damals, als es aktuell war, quer durchs Internet breitgetreten, aber fürs erste findest du hier Infos und Links:
viewtopic.php?t=80376

Space


Antwort von Replay:




Hinzu kommt noch, dass die Lage der Abtastwerte im Signal ungünstig für eine weitere Interpolation der Farbe, bzw. eine weitere Unterabtastung ist. Dies geschieht, wenn man ein Signal, das zwischenzeitlich aus 4:2:0 ... über 4:2:2 ... dann wieder zu 4:2:0 gewandelt wird. Leider ist das erforderlich, weil in TV Stationen mit 4:2:2 gearbeitet wird, hinterher im Sendesignal aber wieder auf 4:2:0 zur Distribution gewandelt wird.
Dann hat die Farbe (was natürlich besonders Kanten betrifft, Flächen sind nicht so kritisch) manchmal nur noch geringe Ähnlichkeit mit dem Original und auch bei Flächen entstehen dadurch manchmal die "Schweinchengesichter".


@ hubse

Hier schließt sich der Kreis zum Greenscreen (siehe Zitat, Hervorhebung durch mich). Wenn man sowas mit 4:2:0 macht, hat man um das Objekt (Moderator) vor dem Greenscreen einen netten Rand, was dann wirklich wie Kuhstall-TV des Dorfsenders aussieht.

Grundsätzlich gilt, daß das Ausgangsmaterial in der bestmöglichen Qualität (Auflösung, Farbabtastung, etc.) vorliegen muß. Also auch damit in der Post arbeiten. Erst im letzten Schritt kann man die technische Qualität reduzieren, sei es das Senden, die Erstellung einer DVD/BR oder was auch immer. Im Archiv landet ebenfalls die technisch beste Qualität.

Space


Antwort von hubse:

Hallo,
Hier schließt sich der Kreis zum Greenscreen (siehe Zitat, Hervorhebung durch mich). Wenn man sowas mit 4:2:0 macht, hat man um das Objekt (Moderator) vor dem Greenscreen einen netten Rand, was dann wirklich wie Kuhstall-TV des Dorfsenders aussieht. Ist das der Grund, warum bei einer 4:2:0-Koderierung auch die Treppeneffekte, besonders bei dünnen Linien und großen Hell-Dunkel-Kontrasten, viel schlimmer aussehen als bei einer 4:2:2-Kodierung (nach meinem subjektiven Laien-Eindruck...)?

Gruß,

Martin

P.S. Ich finds echt Klasse, dass sich die Profis hier, insbesondere WoWu, für solche Fragen Zeit nehmen. Also: Danke!

Space


Antwort von Replay:

Der Treppeneffekt liegt meist an der künstlichen Nachschärfung der Kamera (Kantenaufsteilung). Bei Profimühlen kann man das einstellen und bei den Customer-Panas auch.

Kantenaufsteilung heißt, daß an Kanten/Rändern den Kontrast angehoben wird. Das menschliche Sehen empfindet hohe Kantenkontraste als Schärfe, wo eigentlich keine Schärfe ist. Es ist also lediglich eine Täuschung, die aber auch saftige Nachteile hat. Dazu gleich mehr.

Im Normalfall wird also ohne Kantenaufsteilung gedreht, daher auch mein Tip an die Pana-Nutzer, die Schärfe zurückzudrehen, da in der Werkseinstellung der Customer-Panas eine künstliche Nachschärfung gegeben ist (zum Teil sogar relativ stark).

Sony und JVC verzichten fast ganz auf solche Tricks. Eine minimale (!) Nachschärfung kann durchaus gut sein.

Hochgeschärfte Bilder sehen auf den ersten Blick knackiger aus, auf den zweiten und genauen Blick offenbaren sich eben solche Effekte, wie Du sie beschreibst. Und wo der Kontrast angehoben wird, verschwinden, gerade bei kleinen Details, die Farben. Wenn dann auch noch eine 4:2:0-Abtastung ins Spiel kommt, hat man meiner Meinung nach einen GAU.

Wenn Dir das auffällt, ist Dein Blick alles, nur nicht Laienhaft.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


Neue Videokamera (4k, 50fps) gesucht, Systemcamera-Dschungel, bisher: FDR AX53
Ruben Östlund: Warum der Pitch der entscheidende Schritt bei der Filmentwicklung ist
“Der Koch, der Wirt und der Fußball” – 40 Jahre Rudis Beisl
Der Sensor der Canon EOS R6 - Rolling Shutter und Debayering
Der Sensor der Panasonic S5 - Rolling Shutter und Debayering
Der Sensor der Sony Alpha 7S III - Rolling Shutter und Debayering
Der Dynamikumfang der Sony A7SIII im Vergleich mit Canon R5, R6 und Panasonic S5
Der Sensor der Blackmagic URSA Mini Pro 12K - Demosaicing und Rolling Shutter
Der Sensor der Canon EOS C70 - Rolling Shutter und Debayering
Der CineEI-Modus der Sony FX6 erklärt
Plugin zum Kopieren der Stimmfrequenz um daraus Stimme der Schauspieler zu immitieren?
Der Sensor der Sony A1 - Rolling Shutter und Debayering
Nikon Z6II und Video Assist 12G: Wie gut ist Blackmagic Raw mit der Nikon Z6II in der Praxis?
Blackmagic 6K RAW mit der Panasonic S1H und dem Video Assist 12G in der Praxis
Vilmos Zsigmond (1930 - 2016) - Der mit der Kamera malte
Der Mann, der vom Himmel fiel (The Man who Fell to Earth) — Alex Kurtzman/Joss Agnew/Jenny Lumet
Der Tascam XLR-Adapter CA-XLR2d an der Canon EOS R3 und R5 C - inkl. Panasonic S1H-Vergleich




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash