Als erstes benötigen wir ein Video ohne Kamerabewegung, das von einem Stativ aufgenommen wurde. Alternativ kann man auch (wie in unserem Fall) versuchen, ein aus der Hand aufgenommenes Smartphone-Video vor dem Einsatz mit einem digitalen Tracker/Stabilizer zu stabilisieren.
Dieses Video importieren wir in Photoshop als Startprojekt. Anschließend sollten wir eine Zeitleiste (1) sowie eine kontextbezogene Taskleiste (2) sehen. Fehlen diese beiden Elemente, so lassen sich diese im Fenster-Menü (3) aktivieren:
Als nächstes erzeugen wir einen Rahmen um das Bild, in welchem die KI zusätzlichen Bildinhalt "erfinden" soll. Hierfür wählen wir "Bild/Arbeitsfläche..." und geben die Größe für unser finales Projekt ein. Wir wollen für unser Projekt noch eine virtuelle Zoomfahrt realisieren und als finale Ausgabeauflösung FullHD nutzen. Also geben wir eine doppelt so große Arbeitsfläche mit 4K-Auflösung ein:
Anschließend wählen wir mit dem Auswahlwerkzeug unser Video aus und kehren unsere Auswahl um, so dass nun die neu hinzugekommene leere Bildfläche selektiert ist. Dann klicken wir in der kontextbezogenen Taskleiste auf "Generative Füllung".
Photoshop fragt uns nun, was wir für Vorstellungen für die "Füllung" haben. Mit diesem Prompt kann man mittlerweile sogar in deutscher Sprache agieren. Wir haben jedoch den subjektiven Eindruck, dass man mit englischen Begriffen meistens bessere Ergebnisse erzielt. Wir haben für unser Beispiel einmal "futuristic town in the jungle" ausprobiert.
Photoshop generiert nun mit seiner KI eine neue Ebene. Diese muss man zur Sichtbarkeit noch über die Videoebene schieben (1) und in der Timeline auf die Videocliplänge anpassen (2). Über das Eigenschaften-Feld lassen sich nun Variationen auswählen (3), löschen, weitere erzeugen und/oder hierfür auch der Prompt verändern (4):
Über "Datei/Exportieren/Video Rendern..." können wir den fertigen Clip in 4K aus Photoshop exportieren:
Statt das Video in Photoshop zu öffnen, könnte man auch diesen Weg gehen:
1. In Resolve ein Standbild aus dem Video speichern.
2. Das Standbild in Photoshop erweitern lassen...weiterlesen
Darth Schneider 20:43 am 16.8.2023
@iasi
Ein Mattepainting braucht man doch aber vor allem dann wenn man das was darauf zu sehen ist, eben nicht einfach mit einer Kamera abfilmen kann…Weil es die Dinge die darauf...weiterlesen
iasi 14:29 am 16.8.2023
Gute Idee.
Wäre es denn nicht einfacher, ein Standbild des Videos fürs Mattepainting zu nutzen und dann alles im Schnittprogramm zusammenzufügen. Dann würden sich die Bilder...weiterlesen
Workshop: Compositing mit Blender Teil 3 Di, 24.April 2007 In den ersten beiden Workshops zu Blender wurde ein wichtiger Punkt ausgespart, weil er unter Windows und OS X einfach noch nicht richtig funktionierte: Die Animation. Das Problem ist mittlerweile mit der Version 2.43 behoben, weshalb wir uns im dritten Teil dieser Serie nun endlich darum kümmern können...
Workshop: Compositing mit Blender Teil 2 Fr, 22.September 2006 Nachdem wir uns im ersten Teil mit den echten Basics beschäftigt haben, gehen wir im zweiten Teil auf die grundsätzliche Arbeit mit Nodes ein.
Workshop: Workshop: Audio in After Effects 7.0 Do, 7.September 2006 Wenn die Rede von After Effects ist, dreht es sich fast immer um Bilder und selten um Ton. Dabei weiss jeder Motion Designer: Eine mittelmäßige Animation ist mit gutem Sound zu retten - aber ein schlechter Sound macht jede noch so brilliante Animation kaputt. Ton ist also wichtiger für unseren Gesamteindruck als das Bild.
Workshop: Compositing mit Blender Teil 1 Di, 11.Juli 2006 Der erste Teil dieses Workshops beschreibt sozusagen die Basic-Basics der Blender-Compositing Funktionen: Nämlich, wie man überhaupt erst einmal ein Bild zu sehen bekommt.