Aktuelles HD(V)-Hardwaretrends in der Videobearbeitung

HD(V)-Hardwaretrends in der Videobearbeitung

Hochauflösende Videobearbeitung benötigt jede Menge Rechenpower. Doch diese kommt in Zukunft nicht nur aus einem Hauptprozessor...

// 00:42 Sa, 15. Okt 2005von

So mancher fühlt sich bei der HD(V)-Bearbeitung wieder um ein paar Jahre zurückversetzt: Denn plötzlich gehören ruckelnde Videowiedergabe und ewige Renderzeiten wieder zum Schnittalltag, ganz wie beim DV-Editing vor der Jahrtausendwende. Doch keine Angst, es wird nicht wieder fünf Jahre dauern, bis man auch auf einem Heim-PC bequem HD(V)-Material bearbeiten kann, denn es zeichnen sich eine Menge neue Technologien am Horizont ab:






Doppelher(t)z

Schon heute sind sowohl von Intel als auch von AMD die ersten DualCore-Prozessoren im Handel erhältlich. Hierbei stecken die Hersteller in die Verpackung eines Prozessors zwei Kerne. Diese können dann in der Theorie doppelt so schnell rechnen, wie ein einzelner Prozessor. Diese Idee ist an sich nicht neu. Schon seit längerem gibt es sogenannte Dual-Prozessor-Rechner, auf denen sich zwei Prozessoren auf dem Mainboard befinden. Allerdings benötigt man nun nicht mehr die teuren Mainboards, da diese Dual-Technologie jetzt Mainstream (und damit deutlich günstiger) wird.



Um jedoch einen zweiten Prozessorkern wirklich zu nutzen, müssen die Programme speziell dafür angepasst werden. Viele Hersteller haben Ihre Hausaufgaben allerdings schon gemacht, da Intel mit der sogenannten Hyperthreading-Technologie bereits seit längerem eine Zwei-Prozessor-Simulation im Pentium4-Kern eingebaut hat. Diese ist zwar nicht so schnell wie ein echter DualCore-Prozessor, jedoch konnten dadurch auch schon früher Programme einen Geschwindigkeitsvorteil erzielen, die für mehrere Kerne optimiert wurden.



Mit der Kraft der zwei Herzen: In Intels neuen Prozessoren rechnen zwei Kerne
Mit der Kraft der zwei Herzen: In Intels neuen Prozessoren rechnen zwei Kerne


Übrigens integriert Intel diese Hyperthreading-Technologie auch in dem Top-Modell (840 Extreme Edition) der DualCore-Pentium 4-Prozessoren. Programme finden in so einem Fall 4 logische Prozessoren im System vor. Die gerade vergestellen Paxville-Xeons unterstützen diese Technologie ebenfalls und können so auf einem klassischen Dual-Mainboard sogar 8 logische Kerne zur Verfügung stellen.





Was bringt´s?

Doch was bringen mehr Prozessoren beim Videoschnitt? In einem optimalen Fall kann der Geschwindigkeitszuwachs durch einen zweiten virtuellen Prozessor wie bei Hyperthreading ca. 30 Prozent betragen. Durch einen echten zweiten Kern sind theoretisch sogar 95 Prozent „drin“. In der Praxis zeigt beispielsweise Canopus mit Edius, dass auf einem herkömmlichen Dual-Xeon-System (mit 3,6 Ghz) schon heute vier HD-Videoströme in Echtzeit möglich sind. Diese Leistung sollte in naher Zukunft daher auch mit einem „einfachen“ DualCore-Prozessor-System in greifbare Nähe rücken.



Wer in erster Linie Videos schneidet und nur ab und zu ein paar Überblendungen oder Titel einfügt, sollte also mit einem günstigen DualCore-System schon bald ruckelfrei und in Echtzeit arbeiten können. Sobald jedoch Effekte ins Spiel kommen, sieht die Sache noch anders aus. Da bei HD gegenüber DV eine fünffach größere Pixelmenge bearbeitet werden muss, benötigt man prinzipiell auch die fünffache Renderleistung für Effekte. Für Applikationen wie After Effects empfehlen sich daher weiterhin teure Dual-Sockel-Workstations mit DualCore-Kernen, da man hier praktisch niemals genügend Arbeitsleistung „unter der Haube“ haben kann.








Gitter statt Gatter

Eine weitere Technologie zur Geschwindigkeitssteigerung ist die sogenannte Grid-Technologie. Hierbei werden mehrere leistungsstarke Computer über ein Netzwerk zusammengeschlossen, um die Berechnungen untereinander aufzuteilen. Eine Vorstufe zu dieser Technologie ist das bekannte Netzwerkrendering, welches bereits heute viele Applikationen beherrschen. So bekommt beispielsweise Rechner 1 das erste Frame zur Berechnung, Rechner 2 das zweite etc. Solange sich solche Renderprozesse beliebig (und sinnvoll) aufspalten lassen, gewinnt man mit jedem zusätzlichen Rechner weitere Rechenpower. Das Grid-Computing geht sogar noch einen Schritt weiter und zerlegt einzelne Bilddteile in Renderaufgaben. Ziel ist dabei auch schon während des Arbeitens am PC (Stichwort Preview) die Rechenleistung aller Rechner nutzen zu können. Momentan stellt jedoch die heute übliche (weil günstige) Gigabit-Vernetzung noch einen Flaschenhals dar. 100MB/s reichen einfach nicht aus, um mehrere Rechner in sekundenbruchteilen mit HD-Strömen zu Versorgen. Spezielle Techniken wie Inifiniband sind auf der anderen Seite noch fast unbezahlbar.


Doch es gibt bereits findige Ansätze, die bei der Grid-Vernetzung ebenfalls mit Kompression arbeiten. So ist es durchaus vorstellbar, dass man in ein paar Jahren unter After Effects HD-Echtzeiteffekte erzielen kann, indem man einfach ein paar Aldi-Rechner zu einem Grid-Cluster zusammenbindet.






Ausgelagert

Doch es müssen nicht immer die Hauptprozessoren sein, die bei der Effektberechnung die ganze Arbeit erledigen. Schon seit längerem findet man in vielen Videoschnittprogrammen sogenannte GPU-Effekte. Solche Effekte werden auf dem Prozessor der Grafikkarte berechnet, der ja eigentlich für solche Aufgaben optimiert wurde. Denn liegt ein Videoframe einmal im Grafikspeicher, so können dort spezielle Videoeffekte bis zu 50 Mal schneller berechnet werden als im Hauptprozessor. Allerdings gibt es dabei auch ein Problem: Der Weg zur Grafikkarte über den AGP-Port ist eine Einbahnstrasse: Zwar können Videodaten sehr schnell über diesen Port auf der Grafikkarte landen. Sind die Effekte dort jedoch einmal berechnet, kann man diese nur sehr langsam auslesen. Dies ändert sich jedoch durch den neuen PCI-Express-Steckplatz (nicht zu verwechseln mit PCI-X), der auch ein schnelles Rückschreiben ermöglicht. Auf modernen Systemen mit PCI-Express-Grafikkarte sollten GPU-Effekte daher spürbar schneller sein, als „normale“ Videoeffekte.


Programme wie Apples Motion oder Jahshaka unter Linux machen bereits exzessiven Gebrauch von diesen GPU-Effekten. Apple hat sogar die neuen Grafikroutinen für Videoeffekte (CoreImage) von Mac OSX 10.4 (Tiger) komplett an diese Technologie angepasst.



Bei Motion nutzt auch Apple zur Effekt-Beschleunigung bereits die Grafikkarte.
Bei Motion nutzt auch Apple zur Effekt-Beschleunigung bereits die Grafikkarte.


Einen radikalen Schritt weiter geht jedoch die Firma Tenomichi (www.tenomichi.com) mit Ihrem Programm 3D-Edit. Denn bei diesem Programm werden nicht nur die Effekte auf der Grafikkarte erzeugt, sondern das gesamte Programm läuft direkt auf der Grafikkarte. Dadurch ist die Anzahl der Videospuren nicht mehr von Hauptprozessor abhängig, sondern nur noch vom Grafikkartenmodell. Unterstützt werden dabei hauptsächlich aktuelle DirectX9-Karten von ATI und Nvidia. Matrox bleibt leider außen vor. In einer angekündigten Profiversion sollen bis zu 5 HD-Ströme mit (fast) beliebig vielen Grafiklayern kombinierbar sein. Die Bedienung des Programms ist allerdings noch etwas gewöhnungsbedurftig. Es jedoch nicht undenkbar, dass findige Programmierer eines Tages eine ähnliche Technik als Plugin-Engine für ein gängiges Schnittprogramm anbieten.



Videoschnitt direkt auf  der Grafikkarte: Mit 3D-Edit von Tenomichi schon heute möglich.
Videoschnitt direkt auf der Grafikkarte: Mit 3D-Edit von Tenomichi schon heute möglich.





Frischzellenkur

Und auch von ganz anderer Seite könnte eine Überraschung für Videobearbeiter ins Haus stehen. Denn Anfang nächsten Jahres will Sony die neue Playstation 3 ausliefern. Und in dieser Spielekonsole verrichtet ein neuer Prozessor namens Cell seine Arbeit. Dahinter verbirgt sich eigentlich nichts anderes, als eine Mischung aus Mulitprozessorkern und (verdammt schnell verbundene) Grid-Technologie. Sozusagen ein kleines Grid-Netzwerk aus diversen Prozessoren auf einem Chip. Dieser Chip ist in Grundzügen mit dem Power 5-Prozessor von IBM kompatibel, der unter anderem auch als G5-Prozessor in diversen PowerMacs wiederzufinden ist. Diesem Chip sagt man wahre Wunderleistungen im Bereich der Videoeffekte nach. Und IBM hat bereits angekündigt auf Basis dieses Cell-Chips Workstations zu bauen und zu vertreiben, die unter anderem für professionelle Videoeffekte eingesetzt werden sollen. Allerdings werden diese Workstations wohl eher in fünfstelligen Preisregionen angesiedelt sein, was semiprofessionelle Anwender größtenteils ausschließen wird. Nachdem Apple jedoch in nächster Zeit auf die Intel-Architektur umsattelt, wird es wohl niemals Power-Macs geben, die auf dem G5-Cell basieren (auch wenn es eine Zeit lang solche Gerüchte gab). Vielleicht reicht es jedoch für eine einsteckbare Cell-Zusatzkarte, um unter Final Cut Pro auch HD-Echtzeiteffekte zu ermöglichen. Wahrscheinlich ist das jedoch nicht.








Fazit

Mit den kommenden DualCore-Prozessoren verdoppelt sich praktisch sprunghaft die Leistung heutiger PCs. Gerade im Videoschnittbereich können schon heute viele Programme einen zweiten Prozessor nutzen, weshalb einfache HD(V)-Schnittaufgaben in nächster Zeit auf gängigen PCs wohl kein Problem mehr darstellen werden. Wer noch mehr Leistung braucht kann immer noch zu Dual-Boards greifen, bevor er sich auf eine Speziallösung einlässt. Denn beschleunigte Effekte durch die Grafikkarte oder Zusatzhardware alá Cell bedeuten immer eine gewisse Einschränkung, da meistens nur wenige, spezielle Effekte der Applikation beschleunigt werden. Hoffnungsvoller ist da dann schon eher die Grid-Technologie, die sich jedoch noch in den Kinderschuhen befindet und noch schnellere Netzwerkverbindungen benötigt.


Ähnliche Artikel //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash