Wissen  Warum braucht(e) man eine Videoschnittkarte?

Warum braucht(e) man eine Videoschnittkarte?

Was bringt eigentlich eine dedizierte Capture/Wiedergabe-Karte in der heutigen Zeit? Um dies zu erklären hilft vor allem ein Blick in die Geschichte der Videobearbeitung am PC und Mac.

// 10:22 Do, 28. Nov 2019von

Vor der Jahrtausendwende waren sogenannte Videoschnittkarten für PCs und Macs unabdingbar um (semi-)professionell Videos zu bearbeiten. Die (damals noch VGA-Karten genannten) Grafikkarten in den Rechnern gaben keine analogen PAL- oder NTSC-Signale aus und die meisten Videos wurden interlaced produziert, was dem (noch ebenfalls analogen) VGA-Signal eines Computers genauso fremd war. Somit konnte man nur mit speziellen Videoschnittkarten eine korrekte Wiedergabe des Videosignals in der Timeline erreichen. Gleichzeitig waren Videoschnittkarten auch nötig, um das Videomaterial überhaupt in den Rechner zu bekommen. Hierfür mussten die analogen Signale vom Band digitalisiert werden. Dieser Prozess wurde Capturing genannt.




Mit MiniDV fielen analoge Schranken

Mit der Einführung von (Mini)DV um die Jahrtausendwende konnten auch semiprofessionelle Anwender Videoaufnahmen in PAL oder NTSC-Auflösung endlich digital in der Kamera auf Band speichern. Dadurch wandelte sich das Capturing, also das Einlesen der Aufnahmen in den Computer. War dies bis dahin noch eine Analog-Digital-Wandlung wurde es mit MiniDV zu einer rein digitalen Übertragung, die seinerzeit über Firewire erfolgte. Zur zeitlichen Einordnung: Firewire konkurrierte zu dieser Zeit mit USB um die Vorherrschaft als externer digitaler PC-Anschluss. Diesen Kampf gewann schließlich USB und Firewire versank mit dem Aussterben der Mini(H)DV-Kameras anschließend wieder in der Versenkung. Eine dedizierte Videoschnittkarte sollte um die Jahrtausendwende also am besten DV digital über Firewire einlesen und das Interlaced-Format an einen (immer noch) analog angeschlossenen Vorschaumonitor ausgeben können.



Eine Schnittkarte (hier von Canopus) die DV- und Analog-Video ein- und ausgeben konnte.
Eine Schnittkarte (hier von Canopus) die DV- und Analog-Video ein- und ausgeben konnte.



Digitale Displays machten Interlaced-Video überflüssig

Der dann folgende Aufstieg von hochauflösenden HD-Formaten war eng mit dem Abgang der Fernseher- und Monitor-Röhre verknüpft. Was gleichzeitig Interlaced-Formate obsolet und HD-Video auf den jetzt aufkommenden Computer-Displays problemlos darstellbar machte.



Mit der Ablösung der Röhre durch Displays wurde auch deren Anschluss digital. Dabei gingen unverständlicherweise Consumer Geräte wie Fernseher andere Wege als Computer Displays oder Studiomonitore, was in drei, bis heute gepflegten Anschlussarten resultierte: HDMI für Consumer, Displayport für Computer und SDI für Professional Video.



In der Praxis kann heutzutage jedoch jeder Anschluss fast jeden Standard übertragen und die Wandlung zwischen den Anschlussarten ist auch sehr einfach und kostengünstig zu bewerkstelligen. Auch deswegen verwischen hier die Grenzen in den letzten Jahren immer mehr.






Leserkommentare // Neueste
wolfgang  //  14:20 am 29.11.2019
Deiner durchaus!
carstenkurz  //  00:28 am 29.11.2019
Computer liefern seit jeher RGB full range - VGA, DVI, HDMI, Displayport. Erst mit der Verbreitung von HDMI-Ausgängen kamen die Optionen, YCbCr und limited range auszugeben, damit...weiterlesen
MK  //  22:03 am 28.11.2019
Video ist YUV, PC ist RGB...
Ähnliche Artikel //
Umfrage
    Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
RSS Facebook Twitter slashCAM-Slash