So mancher fühlt sich bei der HD(V)-Bearbeitung wieder um ein paar Jahre zurückversetzt: Denn plötzlich gehören ruckelnde Videowiedergabe und ewige Renderzeiten wieder zum Schnittalltag, ganz wie beim DV-Editing vor der Jahrtausendwende. Doch keine Angst, es wird nicht wieder fünf Jahre dauern, bis man auch auf einem Heim-PC bequem HD(V)-Material bearbeiten kann, denn es zeichnen sich eine Menge neue Technologien am Horizont ab:
Doppelher(t)z
Schon heute sind sowohl von Intel als auch von AMD die ersten DualCore-Prozessoren im Handel erhältlich. Hierbei stecken die Hersteller in die Verpackung eines Prozessors zwei Kerne. Diese können dann in der Theorie doppelt so schnell rechnen, wie ein einzelner Prozessor. Diese Idee ist an sich nicht neu. Schon seit längerem gibt es sogenannte Dual-Prozessor-Rechner, auf denen sich zwei Prozessoren auf dem Mainboard befinden. Allerdings benötigt man nun nicht mehr die teuren Mainboards, da diese Dual-Technologie jetzt Mainstream (und damit deutlich günstiger) wird.
Um jedoch einen zweiten Prozessorkern wirklich zu nutzen, müssen die Programme speziell dafür angepasst werden. Viele Hersteller haben Ihre Hausaufgaben allerdings schon gemacht, da Intel mit der sogenannten Hyperthreading-Technologie bereits seit längerem eine Zwei-Prozessor-Simulation im Pentium4-Kern eingebaut hat. Diese ist zwar nicht so schnell wie ein echter DualCore-Prozessor, jedoch konnten dadurch auch schon früher Programme einen Geschwindigkeitsvorteil erzielen, die für mehrere Kerne optimiert wurden.
Mit der Kraft der zwei Herzen: In Intels neuen Prozessoren rechnen zwei Kerne
Übrigens integriert Intel diese Hyperthreading-Technologie auch in dem Top-Modell (840 Extreme Edition) der DualCore-Pentium 4-Prozessoren. Programme finden in so einem Fall 4 logische Prozessoren im System vor. Die gerade vergestellen Paxville-Xeons unterstützen diese Technologie ebenfalls und können so auf einem klassischen Dual-Mainboard sogar 8 logische Kerne zur Verfügung stellen.
Was bringt´s?
Doch was bringen mehr Prozessoren beim Videoschnitt? In einem optimalen Fall kann der Geschwindigkeitszuwachs durch einen zweiten virtuellen Prozessor wie bei Hyperthreading ca. 30 Prozent betragen. Durch einen echten zweiten Kern sind theoretisch sogar 95 Prozent „drin“. In der Praxis zeigt beispielsweise Canopus mit Edius, dass auf einem herkömmlichen Dual-Xeon-System (mit 3,6 Ghz) schon heute vier HD-Videoströme in Echtzeit möglich sind. Diese Leistung sollte in naher Zukunft daher auch mit einem „einfachen“ DualCore-Prozessor-System in greifbare Nähe rücken.
Wer in erster Linie Videos schneidet und nur ab und zu ein paar Überblendungen oder Titel einfügt, sollte also mit einem günstigen DualCore-System schon bald ruckelfrei und in Echtzeit arbeiten können. Sobald jedoch Effekte ins Spiel kommen, sieht die Sache noch anders aus. Da bei HD gegenüber DV eine fünffach größere Pixelmenge bearbeitet werden muss, benötigt man prinzipiell auch die fünffache Renderleistung für Effekte. Für Applikationen wie After Effects empfehlen sich daher weiterhin teure Dual-Sockel-Workstations mit DualCore-Kernen, da man hier praktisch niemals genügend Arbeitsleistung „unter der Haube“ haben kann.
Gitter statt Gatter
Eine weitere Technologie zur Geschwindigkeitssteigerung ist die sogenannte Grid-Technologie. Hierbei werden mehrere leistungsstarke Computer über ein Netzwerk zusammengeschlossen, um die Berechnungen untereinander aufzuteilen. Eine Vorstufe zu dieser Technologie ist das bekannte Netzwerkrendering, welches bereits heute viele Applikationen beherrschen. So bekommt beispielsweise Rechner 1 das erste Frame zur Berechnung, Rechner 2 das zweite etc. Solange sich solche Renderprozesse beliebig (und sinnvoll) aufspalten lassen, gewinnt man mit jedem zusätzlichen Rechner weitere Rechenpower. Das Grid-Computing geht sogar noch einen Schritt weiter und zerlegt einzelne Bilddteile in Renderaufgaben. Ziel ist dabei auch schon während des Arbeitens am PC (Stichwort Preview) die Rechenleistung aller Rechner nutzen zu können. Momentan stellt jedoch die heute übliche (weil günstige) Gigabit-Vernetzung noch einen Flaschenhals dar. 100MB/s reichen einfach nicht aus, um mehrere Rechner in sekundenbruchteilen mit HD-Strömen zu Versorgen. Spezielle Techniken wie Inifiniband sind auf der anderen Seite noch fast unbezahlbar. Doch es gibt bereits findige Ansätze, die bei der Grid-Vernetzung ebenfalls mit Kompression arbeiten. So ist es durchaus vorstellbar, dass man in ein paar Jahren unter After Effects HD-Echtzeiteffekte erzielen kann, indem man einfach ein paar Aldi-Rechner zu einem Grid-Cluster zusammenbindet.
Ausgelagert
Doch es müssen nicht immer die Hauptprozessoren sein, die bei der Effektberechnung die ganze Arbeit erledigen. Schon seit längerem findet man in vielen Videoschnittprogrammen sogenannte GPU-Effekte. Solche Effekte werden auf dem Prozessor der Grafikkarte berechnet, der ja eigentlich für solche Aufgaben optimiert wurde. Denn liegt ein Videoframe einmal im Grafikspeicher, so können dort spezielle Videoeffekte bis zu 50 Mal schneller berechnet werden als im Hauptprozessor. Allerdings gibt es dabei auch ein Problem: Der Weg zur Grafikkarte über den AGP-Port ist eine Einbahnstrasse: Zwar können Videodaten sehr schnell über diesen Port auf der Grafikkarte landen. Sind die Effekte dort jedoch einmal berechnet, kann man diese nur sehr langsam auslesen. Dies ändert sich jedoch durch den neuen PCI-Express-Steckplatz (nicht zu verwechseln mit PCI-X), der auch ein schnelles Rückschreiben ermöglicht. Auf modernen Systemen mit PCI-Express-Grafikkarte sollten GPU-Effekte daher spürbar schneller sein, als „normale“ Videoeffekte. Programme wie Apples Motion oder Jahshaka unter Linux machen bereits exzessiven Gebrauch von diesen GPU-Effekten. Apple hat sogar die neuen Grafikroutinen für Videoeffekte (CoreImage) von Mac OSX 10.4 (Tiger) komplett an diese Technologie angepasst.
Bei Motion nutzt auch Apple zur Effekt-Beschleunigung bereits die Grafikkarte.
Einen radikalen Schritt weiter geht jedoch die Firma Tenomichi (www.tenomichi.com) mit Ihrem Programm 3D-Edit. Denn bei diesem Programm werden nicht nur die Effekte auf der Grafikkarte erzeugt, sondern das gesamte Programm läuft direkt auf der Grafikkarte. Dadurch ist die Anzahl der Videospuren nicht mehr von Hauptprozessor abhängig, sondern nur noch vom Grafikkartenmodell. Unterstützt werden dabei hauptsächlich aktuelle DirectX9-Karten von ATI und Nvidia. Matrox bleibt leider außen vor. In einer angekündigten Profiversion sollen bis zu 5 HD-Ströme mit (fast) beliebig vielen Grafiklayern kombinierbar sein. Die Bedienung des Programms ist allerdings noch etwas gewöhnungsbedurftig. Es jedoch nicht undenkbar, dass findige Programmierer eines Tages eine ähnliche Technik als Plugin-Engine für ein gängiges Schnittprogramm anbieten.
Videoschnitt direkt auf der Grafikkarte: Mit 3D-Edit von Tenomichi schon heute möglich.
Frischzellenkur
Und auch von ganz anderer Seite könnte eine Überraschung für Videobearbeiter ins Haus stehen. Denn Anfang nächsten Jahres will Sony die neue Playstation 3 ausliefern. Und in dieser Spielekonsole verrichtet ein neuer Prozessor namens Cell seine Arbeit. Dahinter verbirgt sich eigentlich nichts anderes, als eine Mischung aus Mulitprozessorkern und (verdammt schnell verbundene) Grid-Technologie. Sozusagen ein kleines Grid-Netzwerk aus diversen Prozessoren auf einem Chip. Dieser Chip ist in Grundzügen mit dem Power 5-Prozessor von IBM kompatibel, der unter anderem auch als G5-Prozessor in diversen PowerMacs wiederzufinden ist. Diesem Chip sagt man wahre Wunderleistungen im Bereich der Videoeffekte nach. Und IBM hat bereits angekündigt auf Basis dieses Cell-Chips Workstations zu bauen und zu vertreiben, die unter anderem für professionelle Videoeffekte eingesetzt werden sollen. Allerdings werden diese Workstations wohl eher in fünfstelligen Preisregionen angesiedelt sein, was semiprofessionelle Anwender größtenteils ausschließen wird. Nachdem Apple jedoch in nächster Zeit auf die Intel-Architektur umsattelt, wird es wohl niemals Power-Macs geben, die auf dem G5-Cell basieren (auch wenn es eine Zeit lang solche Gerüchte gab). Vielleicht reicht es jedoch für eine einsteckbare Cell-Zusatzkarte, um unter Final Cut Pro auch HD-Echtzeiteffekte zu ermöglichen. Wahrscheinlich ist das jedoch nicht.
Fazit
Mit den kommenden DualCore-Prozessoren verdoppelt sich praktisch sprunghaft die Leistung heutiger PCs. Gerade im Videoschnittbereich können schon heute viele Programme einen zweiten Prozessor nutzen, weshalb einfache HD(V)-Schnittaufgaben in nächster Zeit auf gängigen PCs wohl kein Problem mehr darstellen werden. Wer noch mehr Leistung braucht kann immer noch zu Dual-Boards greifen, bevor er sich auf eine Speziallösung einlässt. Denn beschleunigte Effekte durch die Grafikkarte oder Zusatzhardware alá Cell bedeuten immer eine gewisse Einschränkung, da meistens nur wenige, spezielle Effekte der Applikation beschleunigt werden. Hoffnungsvoller ist da dann schon eher die Grid-Technologie, die sich jedoch noch in den Kinderschuhen befindet und noch schnellere Netzwerkverbindungen benötigt.
Super Artikel, doch was meiner Meinung nach fehlt ist der Hinweis, das hier AMD Systeme deutliche Vorteile haben. Dual Core Athlons haben durch den eingebauten Memorycontroller...weiterlesen
Scoop: Color (Grading) in Final Cut Pro X? Di, 14.Juni 2011 Aktuell bin ich persönlich ja eher kein Verfechter von Final Cut Pro, jedoch lassen die aktuellen Hinweise zum neuen Final Cut Pro X bei mir die Hoffnung keinem, dass sich hier einmal wirklich ein Hersteller Gedanken gemacht hat, wie man eine Farbkorrektur brauchbar in ein Schnittprogramm integrieren kann.
Test: Final Cut Pro für iPad in der Praxis: Der beste Videoeditor für Tablet? Di, 23.Mai 2023 Wir hatten vorab Gelegenheit, das neue Final Cut Pro für iPad auf dem aktuellen iPad Pro von Apple zu testen. Mit dem leistungsstarken M2 Chip des iPad Pro steht viel Rechenpower zur Verfügung, die wir uns u.a. auch im 8K 10 Bit und 4K ProRes RAW Betrieb (Nikon Z8) genauer angeschaut haben. Hier unsere ersten Eindrücke von Final Cut Pro für iPad
Test: Blackmagic DaVinci Resolve für iPad Pro: Ultramobiler Videoschnitt mit Farbkorrektur Do, 1.Dezember 2022 Wir haben soeben unseren Beta-Zugang zu Blackmagic Designs DaVinci Resolve for iPad erhalten und wollen hier einen ersten Überblick sowie unsere ersten Eindrücke vom "ultramobilen" Tablet-Videoschnitt und Farbkorrektur-Workflow schildern. Zum Einsatz kam neben der (bemerkenswert stabilen) Betaversion von DaVinci Resolve 18 for iPad Apples aktuelles iPad Pro 12.9" (6. Generation) WiFi Cellular inkl. 1 TB SSD sowie der aktuell Apple Pencil (2. Generation).
Test: iPad (Pro) als Vorschaumonitor am MacBook Pro: Besseres mobiles Videoschnitt-Setup? Do, 10.November 2022 Das neue 12.9" iPad Pro (6. Generation) ist in der slashCAM Redaktion angekommen und wir wollten wissen, wie gut es sich als Vorschaumonitor für mobile Videoschnitt-Setups mit dem MacBook Pro eignet. Wir gehen hier u.a. das Vorschaumonitor-Setup via Sidecar Schritt-für-Schritt durch, schauen uns die Monitoring-Performance an und prüfen das Zusammenspiel mit Resolve, Final Cut Pro und Premiere Pro.