Logo Logo
///  >

Grundlagen : Warum braucht(e) man eine Videoschnittkarte?

von Do, 28.November 2019 | 3 Seiten | diesen Artikel auf einer Seite lesen

 Einleitung
 Mit MiniDV fielen analoge Schranken
 Digitale Displays machten Interlaced-Video überflüssig

Vor der Jahrtausendwende waren sogenannte Videoschnittkarten für PCs und Macs unabdingbar um (semi-)professionell Videos zu bearbeiten. Die (damals noch VGA-Karten genannten) Grafikkarten in den Rechnern gaben keine analogen PAL- oder NTSC-Signale aus und die meisten Videos wurden interlaced produziert, was dem (noch ebenfalls analogen) VGA-Signal eines Computers genauso fremd war. Somit konnte man nur mit speziellen Videoschnittkarten eine korrekte Wiedergabe des Videosignals in der Timeline erreichen. Gleichzeitig waren Videoschnittkarten auch nötig, um das Videomaterial überhaupt in den Rechner zu bekommen. Hierfür mussten die analogen Signale vom Band digitalisiert werden. Dieser Prozess wurde Capturing genannt.



Mit MiniDV fielen analoge Schranken



Mit der Einführung von (Mini)DV um die Jahrtausendwende konnten auch semiprofessionelle Anwender Videoaufnahmen in PAL oder NTSC-Auflösung endlich digital in der Kamera auf Band speichern. Dadurch wandelte sich das Capturing, also das Einlesen der Aufnahmen in den Computer. War dies bis dahin noch eine Analog-Digital-Wandlung wurde es mit MiniDV zu einer rein digitalen Übertragung, die seinerzeit über Firewire erfolgte. Zur zeitlichen Einordnung: Firewire konkurrierte zu dieser Zeit mit USB um die Vorherrschaft als externer digitaler PC-Anschluss. Diesen Kampf gewann schließlich USB und Firewire versank mit dem Aussterben der Mini(H)DV-Kameras anschließend wieder in der Versenkung. Eine dedizierte Videoschnittkarte sollte um die Jahrtausendwende also am besten DV digital über Firewire einlesen und das Interlaced-Format an einen (immer noch) analog angeschlossenen Vorschaumonitor ausgeben können.

Eine Schnittkarte (hier von Canopus) die DV- und Analog-Video ein- und ausgeben konnte.





Digitale Displays machten Interlaced-Video überflüssig



Der dann folgende Aufstieg von hochauflösenden HD-Formaten war eng mit dem Abgang der Fernseher- und Monitor-Röhre verknüpft. Was gleichzeitig Interlaced-Formate obsolet und HD-Video auf den jetzt aufkommenden Computer-Displays problemlos darstellbar machte.

Mit der Ablösung der Röhre durch Displays wurde auch deren Anschluss digital. Dabei gingen unverständlicherweise Consumer Geräte wie Fernseher andere Wege als Computer Displays oder Studiomonitore, was in drei, bis heute gepflegten Anschlussarten resultierte: HDMI für Consumer, Displayport für Computer und SDI für Professional Video.

In der Praxis kann heutzutage jedoch jeder Anschluss fast jeden Standard übertragen und die Wandlung zwischen den Anschlussarten ist auch sehr einfach und kostengünstig zu bewerkstelligen. Auch deswegen verwischen hier die Grenzen in den letzten Jahren immer mehr.

Das Ende des Capturings / 24, 30, 50 oder 60p mit und ohne Frameraten-Konvertierung


3 Seiten:
Einleitung / Mit MiniDV fielen analoge Schranken / Digitale Displays machten Interlaced-Video überflüssig
Das Ende des Capturings / 24, 30, 50 oder 60p mit und ohne Frameraten-Konvertierung
Moderne Grafikkarten mit 10 Bit YUV
  

[39 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
wolfgang    14:20 am 29.11.2019
Deiner durchaus!
carstenkurz    00:28 am 29.11.2019
Computer liefern seit jeher RGB full range - VGA, DVI, HDMI, Displayport. Erst mit der Verbreitung von HDMI-Ausgängen kamen die Optionen, YCbCr und limited range auszugeben, damit...weiterlesen
MK    22:03 am 28.11.2019
Video ist YUV, PC ist RGB...
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Investitionen und Steuern für selbständige / freiberufliche Filmer Di, 26.Januar 2021
Steuern und Finanzen sind durchaus für viele Filmemacher relevant. Darum wollten wir auch mal ein paar grundlegende Worte dazu verlieren...
Grundlagen: Richtig satt - Was bei der Sättigung eines Video-Clips falsch laufen kann Di, 21.Juli 2020
Wir werfen einen kritischen Blick auf die Sättigungsfunktion in Videoschnittprogrammen und zeigen einen Ansatz, wie man die Sättigung nach persönlichen Präferenzen anpassen kann...
Grundlagen: Warum man Camcorder/Kameras nicht einfach als Webcams nutzen kann Di, 14.April 2020
Viele Camcorder oder Kameras sind Webcams qualitativ überlegen, doch fürs Streaming oder Videokonferenzen ist deren Nutzung nicht trivial zu realisieren...
Grundlagen: Was ist ETTR und wann macht es Sinn? Di, 17.Dezember 2019
ETTR hört man als Begriff immer wieder, jedoch steckt dahinter mehr als nur die Idee einer Zebra-Belichtung. Wir versuchen uns (mal wieder) an einer Erhellung…
Grundlagen: Die Philosophie des Editings - Typische Schritte des Filmschnitts Do, 19.Juli 2018
Grundlagen: Rigkomponenten: Schärfezieheinrichtung (Follow Focus) Teil 2 Di, 18.August 2015
Grundlagen: Rigkomponenten: Schärfezieheinrichtung (Follow Focus) Teil 1 Di, 4.August 2015
Grundlagen: Mikrofone Fr, 5.Juli 2013
Grundlagen: Was unterscheidet Cine-Optiken von Foto-Objektiven? Hier: Auflagemaße – wer passt zu wem? Mo, 1.Juli 2013
Grundlagen: Stereoskopisches 3D Glossar Mo, 11.Oktober 2010
Grundlagen: In den Tiefen der Farben Fr, 20.Juli 2007
Grundlagen: 25p mit Full-True-HD oder wie man Marketing-Buzzwords entschlüsselt Mo, 19.Februar 2007


[nach oben]


[nach oben]















Artikel-Übersicht



Artikel-Kategorien:

Specialsschraeg
1. April - 30. September / Düsseldorf
Young Film Lab
9-20. Juni / Berlin
Berlinale Summer Special
19-30. Juni / Düsseldorf
24h to take
1-10. Juli / München
Filmfest München
alle Termine und Einreichfristen


update am 17.Juni 2021 - 15:39
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*