Themen schraeg
Wissen
Codecs· Einführungen· Lexika
Hardware
Camcorder· Cinema-Kamera· Computer· DVD· Video-DSLR· Zubehör
Software
3D· Compositing· Download· DVD· Effekte· Farbkorrektur· Player· Tools· Videoschnitt
Filmpraxis
Beleuchtung· Drehbuch· Filmen· Filmlook· Keying· Montage· Regie· Sound· Tips
DV-Film
Festivals· Filme
Sonstiges
Hersteller· Reviews· Technik
/// Interviews : Compositing

Interviews : Die Zukunft von Blender im Videobereich - Interview mit Ton Roosendaal
von Do, 28.Februar 2008    


Wir hatten auf der Berlinale die Möglichkeit ein paar Worte mit Ton Roosendaal zu wechseln, seines Zeichens Erfinder und Maintainer von Blender. Uns interessierte dabei natürlich vor allem, wie sich das Programm in Zukunft in den Bereichen Editing und Compositing entwickeln wird...

// Als Webseite für digitales Video interessieren uns natürlich vor allem die integrierten Compositing-Funktionen von Blender. Können wir hier in Zukunft noch deutlich mehr von dir oder der Entwicklergemeinde erwarten?

Ton: Gegenfrage: Kennst du in in der Open Source Szene einen guten Open Source-Compositor...

// Nein. Es gibt zwar Jahsaka, aber das funktioniert nicht wirklich.

Ton: Ja, Genau. Und ebenso düster sieht es eigentlich mit Editing aus. Auch unser integriertes Editing war eigentlich nur dafür gedacht, um gerenderte Animationen schnell als Rohschnitt aneinander zu kleben, aber man kann es auch dafür benutzen, um einen kompletten Film zu scheiden. Und genau das ist das selbe Problem mit dem integrierten Compositing. Die beiden Tools wurden nun mal für 3D-Werker gemacht. Wenn sie nun alle benutzen wollen, gibt es natürlich Probleme. Mann kann zwar auch einen 5 Stunden-Film mit Blender scheiden, aber das war niemals Sinn der Sache.

Ich bin einfach ziemlich überrascht, dass es in der gesamten Open Source Szene noch niemals gelungen ist ein gutes und erfolgreiches Video Schnitt- oder Compositing-Programm hervorzubringen. Es gibt da zwar Jahshaka, Cinelerra, Cinepaint. Und an all diesen Baustellen wird auch gearbeitet, aber keines dieser Projekte hebt ab. Das wundert mich, denn sooo schwierig ist es auch nicht solche Programme zu schreiben, oder?

// Stimmt schon. Ein Basis-System fürs Compositing dürfte wirklich nicht allzu schwer zu coden sein.

Ton: Ja. Es nicht so schwer, sondern nur viel Arbeit. Aber es könnte ja einfach mal jemand anfangen und mit einem oder zwei Effekten starten....

// Gut möglich, aber zurück zur aktuellen Situation, und wie es aussieht habt ihr nun mal gerade das einzige funktionierende Open Source Compositing-System auf dem Markt...

Ton: Ja, das kann schon sein. Und es wird sogar immer besser. Das hat in erster Linie wegen unserem Entwicklungsmodell so gut geklappt. In bin in erster Linie wegen Elephants Dream und dem neuen Apricot-Project hier auf der Berlinale. Die Blender Foundation hat sich entschlossen nicht einfach Entwickler werkeln zu lassen, sondern wir würfeln ein paar echt kreative Menschen zusammen und geben ihnen eine Aufgabe. Also so was wie: „Macht einen wirklich fantastisch aussehenden Film, was fehlt euch dafür in Blender?“ Das schafft einen Fokus für uns, sich auf die wirklich benötigten Funktionen zu konzentrieren, die in der Praxis verlangt werden.
Das ist dann ein bisschen wie bei einer Inhouse-Software-Entwicklung eines Hollywood Studios. Nur, dass sich unsere Kreativ-Teams nach jedem Projekt auch wieder auflösen und in aller Welt verstreuen. Wenn man das ein paar mal mit verschiedenen Teams gemacht hat, wird die Software viel besser, als wenn man stetig ein festes Programmierteam daran rummachen lässt. Entwickler wollen ja immer jede Kleinigkeit ausdiskutieren oder auskämpfen und dauernd geht es dann darum, in welcher Richtung es letztendlich weiter geht. Und das ist kontraproduktiv.
Bei unserem Modell dagegen haben wir für Elephants Dream ein Compositing-System gebraucht. Punkt. Und der musste innerhalb von vier Monaten startklar sein. Punkt. Echt wahr. Wir haben einfach gemacht, was wir gebraucht haben. Darum ist das Modul auch nach wie vor nur für HD ausgelegt. 4K oder auch 10K-Compositing ist in Blender nach wie vor nicht möglich. Dafür läuft es für Video und Film bis 2K ziemlich rund.

// Blender ist tatsächlich auf 2K begrenzt?

Ton: Ja, momentan fehlt uns ein Tile-Manager, der die Unmengen an Speicher für die gigantischen Datenmassen verwaltet. Der Compositor arbeitet immer nur ganze Bilder ab, was auch das Aufteilen auf mehrere Prozessorkerne erschwert....

// Das führt uns zur nächsten Frage. Die Geschwindigkeit von Blender wirkt aufgrund der vollen 32 Float Verarbeitung gegenüber der Konkurrenz doch etwas langsam. Sind hier ein paar moderne Ansätze wie GPU-Rendering oder Multiprozessor-Unterstützung geplant?

Ton: Am Threading arbeiten wir auf jeden Fall. Was die Unterstützung durch die Grafikkarte angeht, haben wir noch nichts entschieden. Das ganze darf jedoch auf keinen Fall zu Lasten der Bildqualität gehen. Vielleicht wollen wir die GPU für eine schnelle Vorschau benutzen, aber eher nicht für das finale Rendering. Aber das müssen wir noch untersuchen. In diesem Fall müssen wir uns aber auf die Community verlassen, ob in dieser Richtung etwas kommt.

// Also gibt es momentan keinen konkreten Code für GPU-Rendering in Blender?

Ton: Es gab einmal einen Entwickler, der sich damit beschäftigt hat. Grundsätzlich haben ein paar Sachen damit auch funktioniert, aber die haben es niemals in den offiziellen Code geschafft. Es war mehr ein Experiment und es ist auch schwer das ganze sauber integrieren. Ansonsten setzen wir lieber auf clevere Algorithmen, z.B. dass das Programm darauf achtet, was wirklich verändert wurde und nur die Veränderungen neu rechnet.

// Gerade als Multiplattform-Lösung dürfte GPU Rendering ja ziemlich schwer zu implementierern sein...

Ton: Ja, aber die gute News für die Leser von slashCAM: Wir planen gerade zwei neue Projekte im Blender-Institut. Es ist zwar eigentlich noch weit davon entfernt spruchreif zu sein, aber eines davon wird explizit für digitale Filmemacher sein. Ich möchte dazu nur so viel sagen:
Es gibt sehr viele Independent-Filmemacher und kleinere Studios, die ein gutes Compositing-System suchen. Die wollen aber unter anderem auch einen Motion Tracker und RealTime-Editing...

// und wann werden wir davon etwas zu Gesicht bekommen?

Ton: Keine Ahnung, wir müssen erstmals die Teams und Sponsoren zusammen bekommen. Beim anderen Projekt soll es übrigens um 4K-Cinema gehen. Und nachdem immer mehr Produktionen von 2K auf 4K umsteigen, wartet hier auch nochmal eine Herausforderung fürs Compositing. Und bei dieser Gelegenheit werden wir uns auch dem Geschwindigkeits-Problem annehmen (müssen). Das wird dann wahrscheinlich auf Tile-Based-Compositing herauslaufen. Aber das 4K-Projekt könnte eher etwas für Erwachsene werden, mit Monstern Explosionen und Kämpfen. Also keine Story, nur Action! Aber wie gesagt, Beide Projekte sind noch nicht in trockenen Tüchern. Eine endgültige Ankündigung steht noch aus und auch die Finanzierung ist noch nicht hundertprozentig geklärt.

// Noch eine technische Frage: Wie sieht es mit einem Plugin-System im Compositor aus?

Ton: Das steht in unserer Wunschliste ganz oben. Aber es ist noch nichts in dieser Richtung passiert. Wir brauchen dafür ein gutes System. Jeder Anwender will seine eigenen speziellen Nodes haben, und wir können nicht alles in Blender einbauen. Dann hätten wir irgendwann 1000 verschiedene Nodes, die alles verstopfen. Also ja, es soll ein PlugIn-System geben, aber das dauert seine Zeit.
Künstler, die programmieren können, sind hier klar im Vorteil, denn die programmieren sich ihre Effekte einfach direkt in Blender ein. Ein ziemlicher Vorteil von Open Soucre. Darum sind Plugins eigentlich auch eher für kommerzielle Programme wichtig.
Gerade lasse ich ca. 75 Prozent aller eingereichten Effekte nicht in den Blender-Haupt-Zweig, sondern sage den Entwicklern: Wartet auf das PluginPlugin im Glossar erklärt System oder programmiert doch erst das Plugin-System! Die Leute können nicht dauernd Effekte machen, die nicht in das Konzept von Blender passen. Ich persönlich möchte schon, dass Blender in erster Linie ein 3D-Tool bleibt und nicht ein Filmemacher-Tool wird.

// Also keine Editing- und Compositing Suite?

Ton: Die Filmemacher-Community kann uns helfen, Blender in dieser Hinsicht besser zu machen und da gibt es auf jeden Fall Überschneidungen, aber eben auch Unterschiede. Aber es könnte sich jederzeit eine Blender-Version abspalten, die speziell fürs Editing und Compositing gestaltet wurde. Auch ohne eigene Version wird übrigens Blender 2.5 in dieser Hinsicht viel ermöglichen, weil man das InterfaceInterface im Glossar erklärt sehr frei gestalten kann. So kann man dann die ganze Oberfläche selbst gestalten und so auch nur den Sequenzer und den Compositior herausstellen. Damit könnte man Blender dann leicht in ein Schnittsystem oder was auch immer umwandeln. Schließlich wollen ja nicht Filmemacher Blender nutzen, sondern auch Architekten oder SpieleDesigner. Stolpern eure Leser denn wegen dem Compositor über Blender?

// Wir haben dazu einmal ein paar Workshops gemacht, aber die meisten Leser dürften After Effects benutzen und werden das auch die nächsten 10 Jahre tun. Aber eine legale Version von After Effects belastet stark das Budget eines Low-Budget Filmemachers, alleine darum wollen wir günstige Alternativen unterstützen.

Ton: Naja, Blender ist ja eher wie Shake, denn wie After Effects. Allerdings haben wir auch ein paar Funktionen, die man meines Wissens in professionellen Paketen gar nicht bekommt: Z.B. Multi Sample Editing. Das braucht man im 3D-Compositing und ist eine Form des Anti-Aliasing, das erst nach Compositing, Color-Grading und HDR-Conversion einsetzt. Das gibt wirklich wunderschöne und natürlich Kanten. Das braucht zwar ca. 1 Minute pro FrameFrame im Glossar erklärt, aber die Bildqualität ist dadurch überragend.

// Also nicht so wie die 8 Bit-Farbauflösung, die bei After Effects noch als Standard eingestellt sind ;)

Ton: Wie? After Effects arbeitet mit 8 BitBit im Glossar erklärt Integern?

// Naja, Teilweise kann es auch 16 BitBit im Glossar erklärt und 32 BitBit im Glossar erklärt Float, aber nach wie vor nicht alle Effekte werden dabei unterstützt und das ganze wirkt etwas wie zusammengeklebt.

Ton: Das ist natürlich auch einer der Gründe, warum Blender etwas langsamer ist. Wir arbeiten immer durchgehend mit 32 BitBit im Glossar erklärt Float. Keine Kompromisse bei der Qualität.

// Darum freuen wir uns ja auch, wenn Blender irgendwann mehrere Threads unterstützt.

Ton: Man kann schon heute im Blender-Compositor Multithreading nutzen, wenn man sein Projekt schön parallel anordnet. Wenn man 4 oder 5 Bilder zusammen mixt und die Color-Corrections als erstes macht, dass kann Blender das parallel berechnen. Erst an der Stelle, an der mehrere Bilder zusammenkommen, muss man auf die anderen Prozesse warten. Solange man nicht gleich am Anfang alle Bilder mit Alpha-Over zusammen mischt, wird schon heute vieles parallel gerechnet.
Aber das macht man als User doch eigentlich sowieso automatisch. Der Hintergrund wird etwas geblurrt, der Vordergrund bekommt eine Color Correction...

// Letzte Frage: Wie sieht es eigentlich mit einem integrierten Motion Tracker aus?

Ton: Sobald unser 4K-Projekt dazu anläuft, werden wir wahrscheinlich auch eine Lösung dazu haben.

// Wir danken für dieses Gespräch.


   

[noch keine Leserkommentare] [Kommentar schreiben]   

Weitere Artikel:

News: Die neuesten Videotechnologien von der Siggraph 2012 Mo, 20.August 2012
Wie jedes Jahr wurden auch heuer auf der Computergraphik-Konferenz Siggraph viele neue Methoden vorgestellt, um realistische Bilder zu generieren oder zu manipulieren. Wir stellen hier die interessantesten video-relevanten Algorithmen vor.
Test: DaVinci Resolve Lite für Windows - Erste Eindrücke Di, 31.Januar 2012
DaVinci für den PC ist fast da. Die verfügbare Beta zeigt erstmalig ein kostenloses, aus dem professionellen Einsatz stammendes Color-Grading-System für jedermann. Wir haben einmal einen kurzen Blick auf die aktuelle PC-Fassung geworfen und kamen aus dem Staunen nicht heraus...
Test: CS5 Files, Teil 6 - After Effects Sandy Bridge RAM Einflüsse Di, 29.März 2011
Nachdem wir unser Testsystem gerade mit After Effects CS5 näher analysieren, darf natürlich auch der Einfluss des RAMs nicht außen vor bleiben. Interessanterweise mussten wir hierfür einige frühere Vermutungen nun wieder teilweise revidieren.
Test: CS5 Files, Teil 5 – After Effects – Auswirkungen der Speicher-Geschwindigkeit Mo, 22.November 2010
Essays: Ramen R.I.P Di, 2.November 2010
Test: CS5 Files, Teil 4 – After Effects – Multicore und RAM Mi, 27.Oktober 2010
Buchkritiken: Foundation Blender Compositing Do, 15.Oktober 2009
Test: FINAL CUT STUDIO 3 - TEIL 3/Motion 4 & Compressor 3.5 & Fazit Do, 1.Oktober 2009
Test: Der stille Klassiker - Combustion 2008 Di, 4.März 2008
Ratgeber: Die slashCAM-Produkte des Jahres 2007 – Compositing Sa, 12.Januar 2008
Grundlagen: Grundlagen Color-Grading Fr, 2.November 2007
Test: Apple Color 1.0 Mo, 16.Juli 2007


[nach oben]


[nach oben]















Artikel-Übersicht


Artikel-Kategorien:
Test
Grundlagen
Tips
Workshop
Einführungen
Erfahrungsberichte
Kurztest
Ratgeber
Buchkritiken
Scoop
Sponsored Workshop
Interviews
Ausprobiert
Interviews
Basiswissen Videoproduktion
Tutorials
News
Essays
Editorials
Berichterstattung
Home Media
Aktionen
Werbung
Filmkritiken
Glosse
Problemlösungen

passende Forenbeiträge zum Thema
Compositing:
Kurznews: Blender Video Editing Tutorial
After Effects Bereiche mit bildbasierten informationen füllen
Fehlererklärung bei rendern
DaVinci Resolve 11 Release
Kurznews: Blackmagic Design DaVinci Resolve 11 ist da
30p Davinci Resolve 11
Edius Pro 7 und DaVinci Resolve 11 Workflow
mehr Beiträge zum Thema Compositing




update am 2.September 2014 - 18:15
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*
Specialsschraeg
11. August - 26. November / Dinslaken
35. Niederrheinischer Filmwettbewerb
3-7. September / Berlin
ifab Filmfestival
10-14. September / Oldenburg
Oldenburg Filmfestival
12-13. September / Oderaue
4. OderKurz-Filmspektakel
alle Termine und Einreichfristen