///  >

Ratgeber : Der optimale PC für den Videoschnitt - Teil 2: Die Grafikkarte - GPU Beschleunigung per CUDA und OpenCL

von Mo, 15.Juli 2013 | 13 Seiten (Artikel auf einer Seite)


H.264 Encoding per GPU: Geschwindigkeit und Qualität
Auf CPUs integrierte GPUs: Intel HD, AMD Radeon HD
Software, die CUDA, OpenCL, OpenGL und mehrere GPUs unterstützt
H.264 und MPEG-2 En- und Decoding Beschleunigung per Intel Quick Sync Video
Grafikkarten-Varianten der verschiedenen Hersteller
Die Nomenklatur von Grafikchips: die Leistungsklassen
Abwärme, Stromverbrauch und Kühlung der GPU
Übertaken von Grafikkarten
Grafikkarten-Revisionen
Die Pro-Karten: Nvidia Quadro und AMD FirePro
Der Grafikkartenspeicher: das GPU VRAM
Multi GPU: Beschleunigung durch mehrere Grafikkarten
Die Anschlüsse: DVI, HDMI, DisplayPort und VGA
Mehrere Bildschirme: Multi-Display Output





Die Grafikkarte: Beschleunigung per CUDA und OpenCL



Waren leistungsstarke Grafikkarten (Graphics Processing Unit - GPU) früher vor allem für Gamer wichtig, sind sie mit der zunehmenden Nutzung ihrer Rechenfähigkeiten durch unterschiedliche Programme immer wichtiger auch für andere Anwendungsbereiche. Jede größere Rechenoperation, die in viele voneinander unabhängige Teilaufgaben zerlegt werden kann, kann theoretisch per GPU parallel berechnet werden, indem sie gleichzeitig in den Hunderten von Rechenkernen der GPU (Unified Shader/CUDA Cores (Nvidia) bzw. auch Stream Processors (ATI/AMD) genannt) ausgeführt wird. Gerade bei der Videoverarbeitung lassen sich viele der anfallenden Aufgaben in einfache Funktionen aufteilen, weil viele Operationen z.B. einzelne Bilder, Bildbestandteile oder Einzelbildfolgen unabhängig voneinander betreffen. Zum Beispiel werden von einigen Videoabearbeitungsprogrammen schon Funktionen wie etwa die Komprimierung, Formatumwandlung, Änderungen der Bildcharakteristiken (z.B. Skalierung), die Bildstabilisierung und viele Effekte (wie etwa Blenden, Partikeleffekte, Blur) per GPU beschleunigt.

Konkret arbeitet die GPU-Beschleunigung per CUDA (Compute Unified Device Architecture) von Nvidia und / oder per OpenCL/OpenGL (Open Computing Language/Open Graphics Library), das von AMD/ATI, Nvidia und Intel unterstützt wird. Bisher wurde Nvidias proprietäre CUDA (Befehlssatz-)Erweiterung eher eingesetzt, doch die offene Lösung OpenCL/OpenGL, die inzwischen sowohl von Nvidia als auch von ATI- und Intel Grafikeinheiten interpretiert werden kann, wird jetzt immer häufiger zusätzlich oder sogar alleine unterstützt. So nutzt etwa Adobes neue Version Premiere CC sowohl CUDA als auch OpenCL Grafikkarten (und ebenso wie DaVinci Resolve dann auch mehrere). DaVinci Resolve (Version 9) dagegen nutzt momentan nur CUDA (also Nvidia) Karten zur zusätzlichen Berechnung – mit der Version 10 wird aber ebenfalls auch OpenCL unterstützt werden. Die neuesten Versionen der populären Open-Source Toolkits x264 (zur De-/Komprimierung von H.264) und Ffmpeg (genutzt u.a. von MPlayer, VLC, xine und Handbrake ) werden auch teilweise per OpenCL beschleunigt

Der Vorteil von OpenCL/OpenGL für die Hersteller liegt in der Offenheit des Standards: entsprechender Programm-Code läuft auf allen Grafikkarten und muss nicht extra angepasst werden (wie bisher CUDA). Deswegen scheint OpenCL/GL der Standard der Zukunft zu werden (zumal es auch von Nvidia unterstützt wird - allerdings hinken Nvidia GPUs bei der OpenCL Performance noch hinterher).

Wem allerdings der Support per Grafikkarte auch in älteren/anderen Programmen wichtig ist, ist mit einer Nvidia Karte aufgrund der (noch) breiteren (und meist schon länger eingesetzten) Unterstützung per CUDA-Beschleunigung unter Umständen besser bedient als mit einer von AMD/ATI. Ob aber eine Grafikkarte tatsächliche unterstützt wird von einem Programm, hängt auch jeweils vom verwendeten Treiber und der Version der GPU ab - es lohnt sich also ein Blick in die offiziellen jeweiligen Systemanforderungen. Die OpenCL-Unterstützung durch Intel-GPUs startet z.B. erst ab IvyBridge (HD Graphics 2500/4000) : SandyBridge (HD Graphics 2000/3000) hat noch keine, Haswell (HD Graphics 4200/4400/4600/5000/5100/5200) schon.




H.264 Encoding per GPU: Geschwindigkeit und Qualität



Ein allgemeiner Vorsichtshinweis: man sollte bei Vergleichen von CPU- und auf der GPU erfolgenden Berechnungen von Videos immer auch die Bildqualität berücksichtigen, denn der jeweilig ausgeführte Programmcode kann sich (auch in den Ergebnissen) stark unterscheiden. So kann es speziell beim H.264-Encoding je nach Implementierung starke Unterschiede geben, weil der verwendete Programmcode auf ganz unterschiedliche Ziele hinoptimiert sein kann: wenn die Encoding-Geschwindigkeit am wichtigsten ist, kann darunter die Qualität der Komprimierung leiden. Und es kommt ganz auf die Umsetzung der Aufgabe (sei es Komprimierung oder etwas anderes) im jeweiligen Programmcode an, wie gut jeweils die CPU-Kerne und GPU-Shader (Recheneinheiten) ausgenutzt werden, da nicht automatisch mehr Kerne eine schnellere Geschwindigkeit bedeuten.
H.264 Encoding per GPU ist ein spezieller Sonderfall, weil dieses auf aktuellen GPUs von jeweils extra dafür designten Hardwareeinheiten (Intel: Quick Sync, Nvidia: NVENC, AMD: Video CodecCodec im Glossar erklärt Engine VCE) erledigt wird, auf deren Arbeit externe Programmierer, welche diese Funktionen nutzen, kaum Einfluss ausüben können. Der Open Source Encoder x264 ermöglicht in neuen Versionen einigen der Encoding-Funktionen die Beschleunigung per OpenCL - die Resultate sind aber bisher bescheiden. Vor dem Entschluss, eines dieser Verfahren zu verwenden, sollten also entweder eigene oder externe Tests der Bildqualität der Ergebnisse stehen.




Auf CPUs integrierte GPUs: Intel HD, AMD Radeon HD



Eine Grafikeinheit ist auch bei vielen modernen Prozessoren integriert (z.B. bei manchen Modellen von Intels i3, i5, i7 Prozessoren) die zwar nicht für Hochleistungsanforderungen wie etwa 3D Berechnungen bei Spielen taugt, aber zumindest 2D- und einige 3D Aufgaben gut übernehmen kann - so kann man sich bei Computern ohne solche Aufgaben eine Extragrafikkarte sparen). Für eine substantielle GPU-Beschleunigung von Videobearbeitungsprogrammen, die vergleichbar mit der Beschleunigung durch dezidierte bessere Grafikkarten ist, reichen die integrierten Grafikchips aber noch nicht aus.

Links:
Liste der offiziell unterstützten Grafikkarten, die zur Beschleunigung von Operationen in Adobe Premiere genutzt werden können.
GPU-Z Diagnoseprogramm für die Grtafikkarte: Welche Standards werden in welcher Version unterstützt? Was sind die technischen Daten der Grafikkarte?
OpenCL Benchmarks

Dual GPU Karte GTX-690





Software, die CUDA, OpenCL, OpenGL und mehrere GPUs unterstützt



Hier eine kleine Liste aktueller Video-Software, die die Beschleunigung verschiedener Funktionen (wie etwa Export, Rendering, Vorschau bzw Wiedergabe) durch die Grafikkarte per CUDA oder OpenCL/OpenGL unterstützen. Ganz unterschiedlich ist die GPU-Unterstützung in einzelnen untergeordneten Funktionen wie etwa speziellen Effekten/Filtern oder (externen) Plugins - hier helfen nur Suchen auf den jeweiligen Herstellerseiten, Erfahrungsberichte anderer User im Netz oder eigene Tests, wenn eine Funktion besonders wichtig ist und oft eingesetzt werden soll. Soweit bekannt, geben wir auch an, ob mehrere GPUs zur Berechnung unterstützt werden (Multi GPU). Oftmals muss die GPU-Unterstützung per CUDA oder OpenCL/OpenGL auch explizit eingeschaltet werden für die verschiedenen unterstützten Funktionen. Die Beschleunigung durch CUDA bzw. OpenCL kann ganz unterschiedlich ausfallen - und Funktionen ganz verschieden stark beschleunigt werden in Programmen die beides unterstützen. Bei der Auswahl der richtigen Grafikkarte sollte man sich von den entsprechenden Benchmarks für sein(e) Programm(e) leiten lassen - und ob das Programm eher per CUDA oder OpenCL beschleunigt wird. Von Adobe gibt es z.B. Listen mit den offiziell unterstützten Grafikkarten, die man konsultieren sollte, um keine böse Überraschung zu erleben (und Tests von Usern mit inoffiziell unterstützten Karten).



Programme die GPU-Beschleunigung unterstützen


Schnittprogramme
Per GPU in Adobe Premiere CS5, CS5.5, CS6 und CC in der Mercury Playback Engine (MPE) die Wiedergabe, GPU-Effekte, Deinterlacing, Blenden, Skalierung, Previews und der finale Output beschleunigt (GPU-Modus: "GPU Acceleration" statt "Software Only") - nicht jedoch das Encoding und Decoding (das wird per CPU berechnet). Die MPE benötigt minimal 896 MB VRAM im in Aktion treten zu können. Und: "In a Premiere Pro based system, the CPUs are decoding the video and your GPU is handling many or all of the effects."

- Adobe Premiere CC: CUDA und OpenCL (Multi GPU - nicht aber in der MPE, nur für Export) - die MPE unterstützt CUDA und OpenCL
- Adobe Premiere CS6: CUDA und OpenCL (nur manche Karten) - nur mit bestimmten Grafikkarten jeweils - die Mercury Playback Engine (MPE) unterstützt nur CUDA (bzw OpenCL nur ATI 6770M/6750M unter OS X) - keine Unterstütung von SLI (also Zusammenschaltung von GPUs)!
- Adobe Premiere Elements 11: kein CUDA/OpenCL Support
- Avid Media Composer 7: CUDA
- Sony Vegas Pro 12: CUDA und OpenCL, 512 GPU RAM minimal, Export und Wiedergabe (bis 4,3x) - www.sonycreativesoftware.com/vegaspro/gpuacceleration
- Sony Movie Studio: kein CUDA/OpenCL Support
- MAGIX Video deluxe MX: beschleunigter Export per OpenCL und CUDA - support2.magix.com/customer/de/hwencoding2
- EDIUS Pro 6.5/ 7: kein CUDA/OpenCL Support
- Edius Neo 3.5: kein CUDA/OpenCL Support
- Cyberlink PowerDirector 11: OpenCL (Multi GPU)
- Pinnacle Studio 16: CUDA

Compositing-/Gradingprogramme:
- Adobe After Effects CS6: CUDA und OpenGL (Multi GPU nur CUDA Raytracing) - unterschiedliche Funktionen werden per CUDA bzw. OpenGL unterstützt
- Adobe After Effects CC: CUDA und OpenGL (Multi GPU)
- DaVinci Resolve 9: CUDA (Multi GPU)
- DaVinci Resolve 10: CUDA und OpenCL (Multi GPU)
- Hitfilm: OpenGL
- Magic Bullet Colorista II: OpenGL
- Magic Bullet DeNoiser: OpenCL


Adobe Premiere CC Mercury Playback Engine Performance mit GPU



Als Illustration, was GPU-Unterstützung an Geschwindigkeit bringen kann, ein Beispiel von Adobe Premiere CS6 Renderzeiten (Export 6 LayerLayer im Glossar erklärt mit Effekten als H.264):
8:16 CPU (8 Core 3.2 GHz Xeon)
1:44 Nvidia Quadro 2000
1:11 Nvidia Quadro 4000
0:56 Nvidia Tesla C2075 plus Quadro 2000
(Nvidia Quadro nur für GUI, Tesla für GPU-Berechnungen - AFX kann beide nutzen)

Hier ein weiterer CUDA Benchmark von verschiedenen GT/GTX/Quadro-Karten unter Premiere Pro CS6: Time Line Render per GPU/Software und H.264/MPEG Export per GPU/Software - und noch einer. Interessant beim zweiten Test ist die Erkenntnis das ab der GTX650 die Performance nicht mehr zunimmt.




H.264 und MPEG-2MPEG-2 im Glossar erklärt En- und Decoding Beschleunigung per Intel Quick Sync Video



Eine weitere Möglichkeit der Beschleunigung von Encoding/Decoding besteht durch Intels Quick Sync, das auf einigen der neueren CPUs von Intel integriert ist und bei bestimmten Funktionen wie etwa der Komprimierung von H.264 und MPEG-2MPEG-2 im Glossar erklärt Video deutlich schneller (doppelt bis mehrfach so schnell) als die CPU (und sogar GPU) arbeitet. Die CPU wird bei der Dekomprimierung/Komprimierung per Quick Sync so gut wie gar nicht in Anspruch genommen. Intel setzt dabei auf spezialisierte Recheneinheiten der integrierten GPU - Quick Sync bieten also nur Intel Prozessoren, die auch über eine Grafikeinheit verfügen und diese auch aktiv ist. Per Quick Sync Video beschleunigt werden können allerdings nicht wie per CUDA/OpenCL allgemeine Rechenoperationen, sondern nur das De- und Encodieren von Video - denn Quick Sync ist in Hardware gegossen, hoch spezialisiert und kann nicht per Firmware upgedatet werden oder per Software umprogrammiert werden und zu einem anderen Zweck genutzt werden.

Die H.264 Komprimierung von Video ist natürlich einer der am öftesten vorkommenden rechenintensiven Aufgaben eines Videoschnitt-PCs - und wer sich vor allem an langen Rechenzeiten dafür stört, sollte darauf achten, dass sein Prozessor Quick Sync beherrscht (so lassen sich je nach den anderen Aufgaben des PCs auch teure CPU-Kerne einsparen und durch Quick Sync Power ersetzen). Allerdings gibt es warnende Stimmen (etwa im zugehörigen Wikipedia-Eintrag), dass die Optimierung auf Geschwindigkeit zu Lasten der Bildqualität geht (im Vergleich zur Komprimierung per CPU). Nach Einschätzung von Anandtech ist die Bildqualität aber ausreichend gut - und Intel will in der neuesten Generation auch noch die Qualität verbessert haben (sowie die Encoding Optionen) - man sollte trotzdem nicht die allerhöchste Qualität vom Output erwarten.

Vor allem die beschleunigte Komprimierung von H.264/MPEG-2 Video per Quick Sync wird von einigen Programmen unterstützt, u.a. von denen, die MainConcept Codecs benutzen bzw folgenden anderen: EDIUS, Sony Vegas 12 (nur Sony AVC/MVC), CyberLink MediaEspresso / PowerDirector, GoPro CineForm Studio, Sorenson Squeeze, Handbrake sowie Magix Video Pro X. Durch die Veröffentlichung des neuesten Intel Media SDKs 2013 und dessen Öffnung werden wahrscheinlich demnächst auch ausser Handbrake viele weitere Open Source Programme Quick Sync unterstützen. Adobe Premiere Pro/Elements kann die Komprimierung von H.264/MPEG-2 per Quick Sync mit Hilfe dieses Intel Encoding Plugins nutzen.

Links:
Intel Haswell Quick Sync Benchmark




Grafikkarten-Varianten der verschiedenen Hersteller



Auf den ersten Blick verwirrend ist die Vielfalt der Grafikkarten der verschiedenen Hersteller wie etwa Asus, Gigabyte, Sapphire, XFX, Zotac, EVGA, MSI und anderen. Sie ist jedoch nur scheinbar so groß: eigentlich gibt es nur zwei Hersteller von Grafikkarten-Technik (neben den in die CPU integrierten GPUs von Intel): Nvidia und AMD (die ATI gekauft haben). Sie stellen die Technik (GPU plus Chipsatz) der Grafikkarten her und definieren die verschiedenen Grafikkartenklassen (wie etwa Nvidia GTX660, GTX770,GTX780 usw) sowie Unterklassen (Ti/Boost), für die sie dann auch jeweils Referenzdesigns rausgeben. Die kompletten Grafikkarten werden dann als Samples bzw. Testexemplare produziert - einige Modelle werden auch direkt vertrieben.

Den Großteil von Grafikkarten stellen aber andere Firmen daraus her: sie produzieren aufgrund dieser Referenz-Designs eigene Boards, die sie dann mit den Chips von Nvidia/AMD bestücken - deswegen unterscheiden sich die resultierenden Grafikkarten (zumal die Boards auch oft wiederum nur von einem Großproduzenten wie etwa Foxconn hergestellt werden) nur gering: die Firmen verpassen ihnen ihr Logo und Gehäuse, bestimmen das mitgelieferte Zubehör (Kabel, Adapter, Software,...) und manchmal auch noch die Größe des VRAMs und sie bestimmen die Taktung (und davon abhängig auch den Stromverbrauch, deswegen wird auch jeweils eine eigene Kühllösung - als Kombination aus Kühlrippen und Lüftern - mitproduziert). Je nach Kühllösung kann sich auch die Bauhöhe von Karten eines Modells unterscheiden. Oftmals gibt eine Firma auch mehrere Versionen einer Grafikkarte heraus, die dann in Taktung und Kühlung (und natürlich dem Preis) differieren. Wichtig für den Kauf ist hier das jeweilige Preis/Leistungsverhältnis sowie die Qualität und Lautstärke der Kühllösung (die auch von der Qualität der Kühlung im gesamten Gehäuse abhängt). Manche Grafikkartenlüfter belassen die Abwärmeluft im Gehäuse und verwirbeln diese nur, andere blasen sie direkt raus – es lohnt sich also die verwendete Kühltechnik näher anzuschauen.

Die grundsätzlichen Grafikkarten-Treiber stammen von den beiden Ur-Herstellern Nvidia und AMD - die jeweiligen Firmen, die ihre darauf basierenden Grafikkarten-Varianten verkaufen, liefern zwar oft auch eigens gebrandete Treiber, diese sind jedoch meist nicht so aktuell wie die Orginaltreiber - man sollte also von Anfang an die jeweils passenden Nvidia oder AMD WHQL-Treiber anstelle der mitgelieferten installieren.




Die Nomenklatur von Grafikchips: die Leistungsklassen



Die Benennungen von Grafikkarten wirken auf den ersten Blick verwirrend, können aber mit einem einfachen Code entschlüsselt werden - in den Namen verbergen sich nämlich Alter und Performance-Grading.

AMD / NVIDIA Grafikkarten Nomenklatur: was bedeuten die Zahlen?
AMD:
1. Zahl: Generation
2. Zahl: Klasse (1,2 Integrierte Grafik, 3,4 Unterklasse, 5,6 Einsteigerklasse, 7,8 Mittelklasse, 9 HighEnd)
3. Zahl: Performance Rang innerhalb einer Klasse (je höher desto besser)
zB. Radeon HD 7870 = 7. Generation / Klasse 8 (Mittelklasse)

NVIDIA:
GeForce: Grafikkarte für Consumer-Markt (im Gegensatz zu Prokarten der Quadro-Reihe oder Tesla-Karten)
Präfixe:
GT: Einsteiger
GTS: Mittelklasse
GTX: Mittelklasse bis High-End

Das Suffix Ti (bzw. Boost) definiert schnellere Versionen eines Modells mit höherem Takt, höherer Speicherbandbreite(geschwindigkeit) und mehr CUDA Cores gegenüber dem Basismodell, die eine deutlich gesteigerte Performance bringen und die Karte eigentlich in eine höhere Leistungsklasse heben.

1. Zahl: Generation
2. Zahl: Klasse (1,2 Unterklasse, 3,4 Einsteiger, 5,6 Mittelklasse, 7,8 High-End, 9 Dual-GPU) - (je höher desto besser) - wenn <5 dann wird kein Extra 6-Pin Stromstecker benötigt
zB GTX 650 = 6. Generation / Mittelklasse)
3. Zahl: Performance Rang innerhalb einer Klasse (je höher desto besser)
Aktuelles Nvidia-Spitzenmodell ist die GeForce GTX Titan, die noch über der GTX780 angesiedelt ist (mit 6GB VRAM, 2688 Shadern und 288.4 GB/sGB/s im Glossar erklärt Speicherbandbreite)


Es gilt: je höher die (2.) Nummer, desto schneller (und desto schneller getaktet ist die Karte bzw. desto mehr Shader Cores besitzt sie - ganz ähnlich wie bei den CPUs). Basisregel: je höher getaktet, je mehr Shader Cores (CUDA Kerne) und je mehr VRAM eine Grafikkarte besitzt, desto schneller ist sie (im Vergleich mit anderen Karten derselben Chip-Generation/Klasse). Ebenso wirkt sich (je nach Art der Nutzung) auch die Größe des VRAMs und die BandbreiteBandbreite im Glossar erklärt von dessen Anbindung, also die Geschwindigkeit des Speichers auf die Performance aus. Außerdem ist generell jede neue Grafikkarten-Generation schneller als die vorhergehende (im Vergleich Modell zu Modell - die Geschwindigkeit kann aber vom Hersteller zum Zweck der Modelldifferenzierung auch wieder eingebremst werden).

Ein guter genereller Hinweis auf die Rechenstärke einer GPU ist also die Anzahl der Recheneinheiten, die Taktung und die Speichergeschwindigkeit (die sich auch als Flaschenhals bei der Berechnung erweisen und die Performance der Shader-Recheneinheiten ausbremsen kann). Hier eine Übersicht von technischen Daten von Nvidia Karten - die "Core Config" enthält die Anzahl der Shader - die von grade mal ca. 100 (bei Einstiegskarten) bis zu rund 2700 beim aktuellen Spitzenmodell GeForce Titan reichen können. Allerdings sind die Recheneinheiten von Nvidia und AMD nicht gleichwertig und in der Anzahl simpel vergleichbar. Die Spalte Memory/Bandwidth zeigt die Geschwindigkeit an, mit der auf den Speicher der Grafikkarte (VRAM) zugegriffen werden kann und die für viele Anwendungen sehr wichtig ist.




Abwärme, Stromverbrauch und Kühlung der GPU



Je stärker aber die GPU ist, umso heißer kann sie auch werden - und umso besser muss sie gekühlt werden. Ist man lärmempfindlich, sollte man also darauf achten, dass die Grafikkartenlüfter auch unter Vollast möglichst leise sind bzw die Kühlungslösung gut durchdacht ist (2 Lüfter sind z.B. eher leiser als ein schneller laufender). Durch den Lüfter brauchen manche Karten aber mehr Platz und belegen durch den hohen Aufbau 2 PCIe-Steckplätze. Einen guten Hinweis auf die zu erwartende Hitzeentwicklung (und den Stromverbrauch) gibt auch die TDP (Thermal Design Power) Angabe einer Grafikkarte, die aussagt, wieviel thermische Verlustleistung maximal abgeführt werden muss, um den Prozessor (GPU) am oder unter ihrer Höchsttemperatur laufen zu lassen. Hier eine Übersicht der TDP-Werte vieler Grafikkarten. Daraus kann man auch ersehen, wieviel Strom eine Grafikkarte in Relation zu ihrer Leistung ziehen kann. Manchmal gibt es überraschende Unterschiede bei Karten gleicher Leistungsfähigkeit. Bei weniger Stromverbrauch muss nicht nur weniger gekühlt werden sondern man spart auch auf die Dauer Geld - es lohnt sich also durchaus ein Blick auch in diese Liste.




Übertaken von Grafikkarten



Übertaktete bzw spezielle übertaktbare teure Grafikkarten lohnen sich nur, wenn man die zusätzliche Performance wirklich braucht (manchmal kann man per Overclocking die Performance des nächsthöheren GPU-Modells erreichen). Man kann seine Grafikkarte auch selbst per Software-Tool übertakten und sich so manchmal Geld sparen - allerdings sollte man dabei gut auf die Kühlung achten, denn wenn die zusätzliche Schnelligkeit auf Kosten der Stabilität geht, lohnt sich das Übertakten nicht wirklich. Neu ist aber das Boost-Feature bei Grafikkarten, das, ähnlich dem Turbo-Boost von CPUs, bei Bedarf den Takt und die Spannung automatisch höher schaltet (falls es die aktuelle Temperatur der GPU erlaubt) und so die Geschwindigkeit erhöht.


Es gibt Extra-Lüfterkarten (die die warme Luft aus dem Gehäuse blasen), die man neben die Grafikkarte stecken kann zur zusätzlichen Kühlung - wenigstens aber sollte man, wenn möglich, den Slot daneben zur besseren Kühlung freilassen. Eine andere Möglichkeit ist der Einsatz eines komplett neuen speziellen Lüfters für die Grafikkarte, der den mitgebrachten ersetzt (was man aber nur machen sollte wenn der mitgelieferte Kühler partout nicht ausreicht) - hier sollte die Kühlleistung mindestens dem TDP (siehe oben) entsprechen.

Links:
GPU Overclocking Guide




Grafikkarten-Revisionen



Ein Faktor kompliziert die Modellbezeichnungen und ihre Leistungsmerkmale etwas: von verschiedenen Grafikkarten gibt es unterschiedliche Revisionen mit differierenden Leistungsdaten. So können die Revisionen eines Grafikkartenmodells sich nicht nur unterscheiden in Typ und Größe des verwendeten VRAMs, dem Bus InterfaceInterface im Glossar erklärt und der Anzahl der vorhandenen CUDA Kerne, sondern auch in der Taktung und Speicherbreite bzw. -bandbreite. Beispiel ist hier etwa die GeForce GT 640. Es lohnt sich also, die technischen Daten des exakten Modells zu kennen, das man besitzt bzw. zu kaufen plant um sicher zu wissen, wieviel Leistung es besitzt (und ebenso bei Benchmarks darauf achten).




Die Pro-Karten: Nvidia Quadro und AMD FirePro



Darüberhinaus gibt es von Nvidia die Quadro-Reihe bzw von AMD die FirePro-Serie professioneller Grafikkarten, die sich vor allem durch mehr (und zertifiziertes) ECC-VRAM (bis zu 6 GB), besseren Support sowie zertifizierte Treiber von den Modellen der GeForce-GPUs unterscheidet. Anhand der Chip-ID der GPU werden vom Treiber besondere Profi-Funktionalitäten (z.B. für CAD) und weitere Einstellmöglichkeiten freigeschaltet. Eine solche ist z.B. die Fähigkeit von einigen von Nvidias Quadro-Karten auf speziellen Monitoren 10-Bit, bzw. 30-Bit Farbinformationen auszugeben - Adobe (Premiere Pro) CS6/CC etwa unterstützt diese Funktion. Diese Profi-Funktionen machen die Quadro-Karten aber teurer als normale Grafikkarten - die Zertifizierung ist auch der Grund, warum Quadro-Karten am ehesten in offiziellen Hardwareanforderungen (z.B. von Adobe oder Blackmagic DaVinci Resolve) empfohlen werden.

Equivalente: Nvidia Quadro - (alte) GeForce Karten:
Nvidia Quadro 2000 (1 GB VRAM, 192 Shader, 41.6 GB/sGB/s im Glossar erklärt, 128 BitBit im Glossar erklärt Bus) ab 310 Euro - GeForce GTS 450 (1,5 GB, 144 Shader, 96 GB/sGB/s im Glossar erklärt, 192 BitBit im Glossar erklärt Bus)
Nvidia Quadro 4000 (2 GB, 256 Shader, 89.6 GB/sGB/s im Glossar erklärt, 256 BitBit im Glossar erklärt Bus) ab 720 Euro - GeForce GTX 460 SE (1 GB, 288 Shader, 108.8 GB/sGB/s im Glossar erklärt, 256 BitBit im Glossar erklärt Bus)
Nvidia Quadro 5000 (2,5 GB, 352 Shader, 120 GB/sGB/s im Glossar erklärt, 320 BitBit im Glossar erklärt Bus) ab 1600 Euro - GeForce GTS 465 (1 GB, 352 Shader, 102.6 GB/sGB/s im Glossar erklärt, 256 BitBit im Glossar erklärt Bus)
Nvidia Quadro 6000 (6 GB, 448 Shader, 144 GB/sGB/s im Glossar erklärt, 384 BitBit im Glossar erklärt Bus) ab 3400 Euro - GeForce GTS 470 (1,2 GB, 448 Shader, 133.9 GB/sGB/s im Glossar erklärt, 320 BitBit im Glossar erklärt Bus)

Zum Vergleich aktuelle GTX 6xx-Grafikkarten, die die Werte der Quadros übertreffen:
Nvidia GeForce GTX 650 Ti Boost (2 GB, 768 Shader, 144.2 GB/sGB/s im Glossar erklärt, 192 BitBit im Glossar erklärt Bus) ab rund 150 Euro
Nvidia GeForce GTX 670 (4 GB, 1344 Shader, 192.2 GB/sGB/s im Glossar erklärt, 256 BitBit im Glossar erklärt Bus) ab rund 320 Euro


Nvidias Tesla-Reihe ist ähnlich der Quadro-Serie, nur noch mehr auf Berechnungen per GPU spezialisiert (manche Modelle besitzen gar keinen Monitor-Output). Wenn die Spezialfeatures der Pro-Serien nicht genutzt werden und wenn es bei den genutzten Anwendungen vor allem auf reine Performance ankommt, lohnt sich fürs gleiche (oder auch weniger) Geld eher eine Lösung auf Radeon bzw. GTX-Basis (also eine Consumer Karte). Denn nur wenn die Treiber auch Funktionen bereitstellen, die vom Programm zur zusätzlichen Beschleunigung (oder Rechengenauigkeit) genutzt werden kann, kann die Performance der Profi-Karten grösser sein als jene vergleichbarer (von wegen Anzahl von Shadern und VRAM) Consumer-Grafikkarten (die billiger sind).

Links:
Ein Vergleich der Nvidia Quadro 4000 mit einer GTX 660 und GTX 660 Ti in After Effects
OpenCL-Benchmarks von FirePro, Quadro, Radeon und GTX Grafikkarten: Dieser Test zeigt stark unterschiedliche OpenCL-Performance von AMD/Nvidia-GPUs je nach Aufgabe




Der Grafikkartenspeicher: das GPU VRAM



Extrem wichtig für die Beschleunigung per GPU ist das auf der Grafikkarte vorhandene VRAM (dessen Größe und art in den technischen daten oder sogar schon im Namen der Grafikkarte zu finden sind): um einen (oder mehrere) Frame(s) auf der GPU berechnen zu können, muss er vollständig auf deren Speicher passen - Adobe gibt zum Beispiel für Premiere die Formel (Höhe x Breite in Pixel) geteilt durch 16.384 an, um den Platzbedarf in Megabytes zu berechnen. Daraus folgt, daß größere Auflösungen mehr Speicher belegen, hier die Beispielrechnung für Premiere (die analog auch für andere GPU-beschleunigte Videoprogramme gilt):

BreiteHöhePixelSpeicherplatz pro Frame
HD 720p128072092160057 MB
HD 1080p192010802073600127 MB
UlraHD384021608294400506 MB
4K DCI409621608847360540 MB
5K (RED)5120270013824000844 MB
6K (RED)61443160194150401185 MB


Da die Grafikkarte auch noch für andere Aufgaben Speicherplatz benötigt, sollte das GPU-RAM nicht zu knapp bemessen werden - vor allem, wenn in der Zukunft auch mit höherauflösendem Material gearbeitet werden soll. 1 GB VRAM ist deswegen das absolute Minimum - je komplexer die Aufgaben und je mehr per CUA/OpenCL berechnet werden soll, desto größer als diese Mindestvorgabe sollte der Grafikkartenspeicher sein. Der Speicherplatzbedarf wird durch die Nutzung mehrerer Bildschirme ebenfalls grösser.

Die Performance korreliert jedoch nicht per se linear zur Größe des VRAMS: nicht alle GPU-beschleuigten Programme nutzen größeren zur Verfügung stehenden Speicher aus. Ein weiterer Aspekt ist die Geschwindigkeit des verwendeten VRAMS: je schneller es ist und je schneller es angeschlossen ist (->Busbreite), desto höher ist die resultierende Geschwindigkeit des Speichers und desto schneller die GPU insgesamt. Tests weisen darauf hin, dass z.B. bei Premiere nicht die Anzahl der Shader, sondern die Speichergeschwindigkeit der entscheidende Geschwindigkeitsfaktor bei der Nutzung von GPU-Beschleunigung ist. Bei der Auswahl der richtigen Grafikkarte sollte also sehr auf eine hohe Speicherbandbreite geachtet werden, wenn diev GPU genutzt werden soll. Und: um die maximale Geschwindigkeit nicht auszubremsen, sollte für die Grafikkarte immer ein 16x Slot genutzt werden.

Links:
CUDA Enabler: Um Adobe Premiere in Versionen die älter sind als Adobe CC mit anderen als den zertifizierten Nvidia-Grafikkarten zu beschleunigen
Hardware Tips für Adobe
Premiere Pro CS6, After Effects CS6

Daten aller Nvidia Grafikkarten wie z.B. Speicherbandbreite (Bandwidth) und Speichertyp (DRAM type) - 288.4 GB/sGB/s im Glossar erklärt ist momentan die höchste Bandbreite.




Multi GPU: Beschleunigung durch mehrere Grafikkarten



Programme, die dezidiert die Leistung der Grafikkarte nutzen, können oft mit einer oder mehreren zusätzlichen Karten die Rechenleistung noch weiter beschleunigen. So kann das Grading-Tool DaVinci Resolve zum Beispiel mehrere Grafikkarten zur reinen Berechnung von Effekten nutzen (zusätzlich zu einer Grafikkarte für die Darstellung der Bedienoberfläche) - ebenso wie die neuen Versionen Adobe Premiere CC (zum Teil) und After Effects CC. Anstatt zwei Grafikkarten einzusetzen, gibt es auch Grafikkarten, die 2 GPUs (Graphics Processing Units - also Grafikprozessoren) auf einer Karte vereinen (wie z.B. die Nvidia GTX 690 oder AMD Radeon HD 7990) - bei diesen ist allerdings zu beachten, dass ihr effektiver Speicher pro GPU nur die Hälfte des VRAM-Gesamtspeichers ausmacht - was bei manchen Programmen (wie z.B. DaVinci Resolve) einen Unterschied ausmachen kann.



Die Anbindung per PCIe Lanes
Voraussetzung für den Einsatz mehrerer Grafikkarten sind natürlich auch die zur Verfügung stehenden PCIe 2.0/3.0 Slots und deren Größe und Beschaltung (x4, x8 oder x16) - von CPU, Chipsatz und dem Mainboardhersteller (Layout) hängt dann, ab wieviele Karten wie schnell genutzt werden können - selbst bei besseren Chipsätzen wie dem X87 können nicht alle x16 Slots auch mit x16 Geschwindigkeit betrieben werden. Bestimmend dafür ist die Anzahl der zur Verfügung stehenden PCIe Lanes und deren Anbindung (direkt zur CPU oder über den Chipsatz) und die ist abhängig vom Chipsatz: Sandy Bridge/LGA 1155 besitzt 16 primäre (d.h. direkt an die CPU angebundene) PCIe 2.0 Lanes für GPUs, Ivy Bridge/LGA 1155 16 PCIe 3.0 Lanes und Sandy Bridge-Extreme/Ivy Bridge-Extreme/LGA 2011 besitzt 32 PCIe 3.0 Lanes. Dazu kommen noch die sekundären PCIe Lanes, die per Chipsatz angebunden sind (meist 8 PCIe Lanes). Deswegen bieten LGA 2011/Z79 Mainboards die schnellste Anbindung für Multi-GPU Konfigurationen.

(Dual)-Workstation Mainboards wie etwa das Asus Z9PE-D8 WS bieten sogar 88 Lanes (davon 2 x 40 primär) in Form von 4x PCIe 3.0 x16 und 3x PCIe 3.0 x16 (elektrisch nur x8) - also Platz und Geschwindigkeit genug für mehrere GPUs. Ein Beispiel für die so mögliche extreme Erweiterbarkeit eines GPU-Systems zeigt die FASTRA II Workstation auf, die mit 13 GPUs (auf 7 Grafikkarten) bestückt ist und ein für GPU/CUDA-Aufgaben spezialisiertes Asus Mainboard verwendet, das 7 PCIe 2.0 x16 Slots bietet, von denen 4 gleichzeitig als x16 bzw 8 als x8 angesprochen werden können.

Um bei PCs über die vorhandenen Anschlussmöglichkeiten (die Anzahl der PCIe x16 Slots) hinaus zu gehen, gibt es sogenannte PCIe Expander, wie zum Beispiel den GPU-Xpander, mit deren Hilfe der PCIe-Bus um mehrere Slots erweitert werden kann und so zusätzlichen GPUs (oder auch I/O-Erweiterungskarten) Platz bietet. Das ist jedoch sehr teuer (ab 3000 Dollar) und nur für High-End Systeme mit höchsten Leistungsanforderungen relevant, denen die vorhandenen PCIe-Slots auf dem Mainboard nicht mehr ausreichen.

Bei der Konfiguration eines Mehr-GPU-Systems ist zu beachten, daß die Arbeit mit mehreren Hochleistungsgrafikkarten unter Last einen sehr hohen Stromverbrauch verursacht, das System sollte also auf gute Lüftung und ausreichend Stromzufuhr (ein großes Netzteil) ausgelegt sein. Und: durch die Grafikkarten-Lüfter wird eine High-End Karte auch oft so "dick", dass sie zwei Slots belegt - man sollte also darauf achten, dass das Layout des Mainboards dies zuläßt, d.h. das der Lüfter der einen Grafikkarte nicht den x16 Slot für die andere verdeckt - oder dass es sogar die Möglichkeit bietet, 3 Grafikkarten einzusetzen.

Auch zu beachten ist beim Einsatz von DaVinci Resolve, dass eine GPU nur zum RendernRendern im Glossar erklärt der GUI benötigt – diese wird dann aber nicht zur zusätzlichen Berechnung eingesetzt, es reicht dafür also eine simple Grafikkarte. Resolve spricht jede Karte einzeln an und nicht beide zusammen per SLI/CrossFire.

Links:
Benchmarks Mac Pro mit bis zu 5 GPUs per Cubix GPU PCIe Xpander




Die Anschlüsse: DVI, HDMIHDMI im Glossar erklärt, DisplayPort und VGA



Aktuelle Grafikkarten bieten verschiedene Arten von Anschlüssen - vornehmlich vertreten sind DVI-I, DVI-D, HDMIHDMI im Glossar erklärt und DisplayPort. Je nach Karte sind mehrere dieser Anschlüsse vorhanden und können auch zusammen genutzt werden, um verschiedene Monitore gleichzeitig anzusprechen. Für Videoschnitt besonders interessant ist der Betrieb der Grafikkarte mit mehreren Monitoren - verwirrend aber die Möglichkeiten, was wie angeschlossen werden kann, wenn der Monitor einen anderen Anschluss hat als die noch freien Grafikkartenoutputs. Per Adapter können aber oft auch noch andere als die aufgeführten Anschlüsse genutzt werden. Je nach Ausstattung liegen passende Kabel bzw. Adapter der Grafikkarte bei oder müssen extra erworben werden. Sollen auf dem Computersystem auch Blu-Ray Disks angeschaut werden können, wird aufgrund der DRM-Maßnahmen (HDCP) ein HDMI-oder DisplayPort-Ausgang benötigt.

DVI-I Dual Link, DVI-D Dual Link, HDMIHDMI im Glossar erklärt und DisplayPort Ausgänge



DVI
Single Link: maximale Auflösung 1920x1200 (WUXGA) bei 60 Hz
Dual Link: besitzt die doppelte BandbreiteBandbreite im Glossar erklärt eines Single Link Anschlusses und kann so eine höhere Auflösung übertragen. Die maximale Auflösung von Dual Link DVI Ausgängen ist bei aktuellen Grafikkarten 2560x1600 @ 60 Hz (Bildern pro Sekunde).

-DVD-D: "Digital only" - Single or Dual Link - rein digitaler Ouput
-DVI-I: "Integrated" - Analog und Digital am selben Ausgang - kann Single oder Dual Link sein. Analoge VGA-Outputs sind per Adapter an DVI-I möglich.


Die verschiedenen DVI-Typen



HDMI
Je nach Spezifikation können per HDMIHDMI im Glossar erklärt Bilder mit unterschiedlicher maximaler Auflösung betrachtet werden. Nach HDMIHDMI im Glossar erklärt 1.4 können über eine einzelne Verbindung maximal 4096x2160 Bilder mit 36-bit/Pixel Farbtiefe bei 24 fps übertragen werden bzw 2560x1600p60 mit 30 BitBit im Glossar erklärt Farbtiefe pro Pixel. Die Spezifikation 2.0 wird auch 4K mit höheren Bildwiederholraten erlauben. Anders als DVI wird bei HDMIHDMI im Glossar erklärt auch das Audio mitübertragen - unterstützt werden ausserdem von HDMIHDMI im Glossar erklärt 1.4 u.a. folgende Features: sRGB, YCbCr, Deep Color, xvYCC, Dolby TrueHD, DTS-HD Master Audio, 3D over HDMIHDMI im Glossar erklärt sowie Blu-ray Disc und HD DVD und DVD-Audio.

HDMI



DisplayPort
DisplayPort ist HDMIHDMI im Glossar erklärt und DVI technisch überlegen und eigentlich nicht kompatibel mit HDMIHDMI im Glossar erklärt oder DVI - Dual Mode DisplayPorts (DP++) können aber auch ein DVI Single Link oder HDMIHDMI im Glossar erklärt 1.2/1.4 Signale übertragen, die dann per passivem Adapter als Ausgang angeboten werden kann. Per aktivem Adapter können auch VGA oder Dual Link DVI an einen normalen DisplayPort angeschlossen werden. DisplayPort bietet auch die Möglichkeit des Daisy-Chaining, also des Hintereinanderschaltens mehrerer Displays.

Die DisplayPort Spezifikation 1.2 erlaubt eine DatenrateDatenrate im Glossar erklärt von bis zu 2160 MB/sMB/s im Glossar erklärt (über 4 Kanäle), was maximal 3840x2400 bzw 4096x2560 Pixeln entspricht. Der Mini-DisplayPort ist zum normalen elektrisch kompatibel und kann per einfachem Adapter in ein solches umgewandelt werden.

DisplayPort



Mini DisplayPort






Mehrere Bildschirme: Multi-Display Output



Für die Arbeit mit Video sind Multi-Monitor-Setups sehr praktisch: während ein Monitor der Vorschau dient (auf professionelleren Systemen kann diese auch auf einem Extra-Previewmonitor per I/O-Karte oder Box erfolgen), zeigt der zweite (oder sogar auch) dritte die Oberfläche des Programms an. Mehrere Displays lassen sich bei Nvidia und AMD Grafikkarten auch zu einem virtuellen zusammenfassen, also einem Desktop mit einer horizontal sehr hohen Auflösung. Einige Programme erlauben es, die einzelnen Funktionen/Menüpunkte in Form von Extra-Fenstern beliebig auf dem Desktop zu plazieren - so kann man sich sein (je auf einen Arbeitsablauf abgestimmtes) ideales Programm-Layout erstellen und meist auch abspeichern, so dass die Fenster, die während eines Arbeitsschritttes benötigt werden, an den besten Positionen für die Arbeit anzeigt werden.

Billigere Consumer ATI Karten haben allgemein eine bessere Multimonitorunterstützung als die entsprechenden Modelle von von Nvidia (und verbrauchen weniger Strom) - ab der Radeon HD5000 haben sie meist eine 3 Monitor Unterstützung (per DisplayPort). NVIDIA Karten können ab den Oberklasse Modellen (ab der GT 660) sogar 4 Displays per vier Ausgänge ansprechen.

Links:
Benchmarks Charts für Grafikkarten
AFX und DaVinci Benchmarks mit mehreren Grafikkarten
Hier eine Tabelle von Nvidia mit einem relativen CUDA-Performance Vergleich vieler Nvidia-Karten
Premiere Mercury Playback Engine Benchmarks
Multi-GPU LuxMark Benchmarks




Im nächsten Teil werden wir die Festplatte, das Gehäuse und Netzteil sowie Optimierungen per Software behandeln. Danke für alle bisherigen Hinweise und Verbesserungen! Wir haben versucht, sie auch noch nachträglich in unseren Text einzubauen und freuen uns über weitere Tips!

Besonderen Dank auch an unsere Forenmitglieder (Valentino, CedricRotherwood, B.DeKid, iasi, sqywalka, Reiner M und Holger P sowie andere)!




    

[93 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
dienstag_01    16:49 am 22.7.2013
Nee, encodieren können die nicht. Ob es eine komplette Decodiereinheit ist, weiss ich nicht. Quellen sieht es trübe aus, Hardwarebeschleunigung ist ein Stichwort, hardware...weiterlesen
mannamanna    16:19 am 22.7.2013
Vom Prinzip her ja. Ich rede hier aber nicht von Cuda, sonder von der seit Geforce 7 oder 8 verbauten Hardwarebeschleunigung. Eben die, auf die die Player zurückgreifen. Aber...weiterlesen
dienstag_01    16:08 am 22.7.2013
Ist schon richtig so. Vom Prinzip her ja. Ich rede hier aber nicht von Cuda, sonder von der seit Geforce 7 oder 8 verbauten Hardwarebeschleunigung. Eben die, auf die die Player...weiterlesen
[ Alle Kommentare ganz lesen]

Artikel zum selben Thema:

Ratgeber: Der optimale PC für den Videoschnitt - Teil 3: HDDs, SSDs, Netzteil und Gehäuse Mi, 31.Juli 2013
Ratgeber: Der optimale PC für den Videoschnitt - Teil 1: CPU, Mainboard und RAM Mi, 26.Juni 2013

Weitere Artikel:


Ratgeber: Hardware zur 4K-Videobearbeitung - Teil 1: CPU und Co. Do, 27.August 2015
Wenn man Editing, Compositing und Color-Grading nicht als ruckeliges Daumenkino betreiben will, gibt es bei der Komponentenwahl für ein geeignetes 4K-Schnittsystem doch ein paar Dinge zu beachten… (Sponsored by SAE)
Ratgeber: Was bringt Sandy Bridge für den Videoschnitt? Di, 4.Januar 2011
Intel hat ja heute auf der CES seine neue Prozessor-Generation "Sandy Bridge" offiziell vom Stapel gelassen. Hierbei dürfte vor allem für Videoschneider die neue Desktop-Serie der Core i5 und Core i7-Reihe von Interesse sein.
Ratgeber: Erste Einschätzung: QuadCore mit AMD und Intel Fr, 10.November 2006
AMD hat mittlerweile seine neue 4x4-Architektur offiziell vorgestellt. Nachdem Intel ja bereits Anfang November mit seinem QX6700 Quad-Core Prozessor vorgeprescht ist, muss AMD jetzt auch mal in die Gänge kommen...
Ratgeber: Nachgerechnet - Mac Pro Mi, 9.August 2006
Der neue Mac Pro ist da. Wir haben mal nachgerechnet, wie sich die neuen Modell-Konfigurationen gegenüber klassischen Intel-PCs schlagen...
Ratgeber: Was für einen PC brauche ich für den Videoschnitt? Fr, 13.Januar 2006
Ratgeber: Das optimale Schnittsystem Teil 4: Massen-Backup Di, 29.November 2005
Editorials: AMD RX Vega - Zu teuer für den Videoschnitt? So, 20.August 2017
Kurztest: AMD Radeon Pro WX7100 - Polaris im Workstation-Gewand Fr, 12.Mai 2017
Test: Nvidia GTX1080 Ti in Resolve und Premiere Pro - purer Luxus? Do, 20.April 2017


[nach oben]


[nach oben]
















passende Forenbeiträge zum Thema
Computer:
Macbook 2017 - 10bit?
Edius 8.22 / 8.20 verschied. große Bildausschnitte je nach PC
Intel entwickelt externe High-End GPUs
Welches MacBook Pro für mobilen Videoschnitt?
PC DVI-D Signal auf Field Monitor aufzeichnen
Intels nächste CPU kommt mit integrierter AMD GPU!
Wer schenkt armen Schüler einen neuen Schnittcomputer :)
mehr Beiträge zum Thema Computer

PC:
Field Monitor 7": Gibt's ein "Must Have"?
Premiere Notebook für 2000€
Waveform-Monitor
Optimierte Dateien in FCPX ja oder nein?
SALT VV - VistaVision Lens Shootout
Blackmagic Design: Neue Konverter, 8K Decklink-Karte und Micro Camera Updates
Plugin-Update mit neuen Transitions -- Red Giant Universe 2.2
mehr Beiträge zum Thema PC




update am 20.November 2017 - 18:00
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*
Specialsschraeg
23-26. November / Hannover
up-and-coming
28. Januar 2018/ Hanau
JUNG & ABGEDREHT – Jugend-Kurzfilmfestival
15-25. Februar 2018/ Berlin
Berlinale
17-22. Februar 2018/
Berlinale Talents
alle Termine und Einreichfristen