Logo Logo
/// 

Editorials : Die Zukunft des Tracking - das Ende der High-Speed-Kameras?

von Di, 27.Juni 2023 | 3 Seiten | diesen Artikel auf einer Seite lesen

 Einleitung
 In der Praxis

Viruswarnung

Nachdem wir ja kürzlich etwas kritisch auf die Zukunft der Kameraentwicklung geblickt haben, stehen wir vielleicht auch etwas in der Beweislast, welche Funktionen in Zukunft von der Computational Videography übernommen werden könnten.

Ein dabei von uns bislang wenig beachtetes Feld ist das Tracking, denn Verbesserungen in diesem Bereich ziehen in der Postproduktion extreme Möglichkeiten synthetischer Optimierungen nach sich. Nicht nur bei der Stabilisierung und der Berechnung von Slow Motions oder nachträglichem Motion Blur - in zweiter Instanz kann Motion Tracking sogar "über Bande" beim Denoising und damit der Dynamik helfen, sofern man damit Objekte zuverlässig erkennen und über die Zeit verfolgen kann.



Für die meisten Tracking-Anwendungen sind Optical Flow Algorithmen aktuell der Goldstandard. Hierbei versucht ein Algorithmus einzelne Pixel im Bild zu erfassen und in ihrer Bewegung vorherzusagen. Sogenannte Solver versuchen dann ein komplexes Gleichungssystem für einige Pixel im Bild so zu lösen, dass die Abweichung von der Vorhersage mit den tatsächlich verfolgten Pixeln bestmöglich übereinstimmt.

Hat man so die Bewegung einiger Pixel als Bewegungsvektor gelernt, so kann man leicht Zwischenbilder generieren, weil die Position des Pixels zwischen zwei Bildern durch das gefundene Formel-System interpoliert werden kann.



In der Praxis



In der Praxis funktioniert dies oft auch erstaunlich gut. Gerade synthetische SlowMotion-Bewegungen können bereits ziemlich realistisch gerendert werden, was den Einsatz einer HighSpeed-Kamera in manchen Fällen überflüssig gemacht hat. Bzw. man kann Slow Motion damit sogar nachträglich in Bereichen einsetzen, in denen eine High Speed Kamera nicht zur Verfügung stand.

Pixelpeeper finden bei vielen synthetischen Bewegungen jedoch oft Stellen, die optisch nicht stimmen und gar nicht so selten kommt es bei vielen Optical Flow Anwendungen auch zu deutlich sichtbaren Artefakten, die nicht erst bei genauem Hinsehen offensichtlich werden.



Allerdings weiß man beim Dreh nie, ob man eventuell problematisches Tracking-Material für die Postproduktion erzeugt hat - weshalb man sich bei wichtigen Produktionen lieber nicht auf Optical Flow Algorithmen verlässt. Zumindest solange sie nicht noch zuverlässiger agieren...

Vorhang auf für Omnimotion und TAPIR


3 Seiten:
Einleitung / In der Praxis
Vorhang auf für Omnimotion und TAPIR
Was bedeutet perfektes Tracking für die Postproduktion?
  

[6 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Rick SSon    10:02 am 5.7.2023
Ich finde die Entwicklung ja schön, aber sind nicht heutzutage sowieso schon beinah alle Medien überstilisiert? Persönlich messe ich den Erfolg eines Drehs eigentlich daran,...weiterlesen
medienonkel    15:50 am 29.6.2023
Indiana Jones 6 -auf der Suche nach dem bewährten Artefakt
MK    20:38 am 28.6.2023
Aber immerhin bewährte Artefakte... ;-)
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Editorials: Midjourney trifft Pika Labs: Generative KI -Videos - Was geht, was kommt? Fr, 29.September 2023
Seitdem Midjourney oder Stable Diffusion fotorealistische Bilder generieren kann, will man natürlich auch realistische Bewegungen "digital erträumen". Doch das erweist sich für ein KI-Modell noch einmal als ziemlich anspruchsvollere Aufgabe...
Editorials: Die IBC 2023 und die KI-Revolution - War da was oder kommt das noch? Mi, 20.September 2023
Die IBC hat gerade wieder ihre Pforten geschlossen - doch von generativer Video KI war noch nichts zu sehen.
Editorials: Die Zukunft der Hybrid-Kameras - wohin geht die Reise? Fr, 2.Juni 2023
Sind hybride Kameras für die szenische Arbeit etwa "fertig" entwickelt? Und falls ja, was bedeutet dies für die Zukunft dieser Geräteklasse?
Editorials: Stockt die KI-Revolution in der Videoproduktion? Di, 7.März 2023
Aktuelle Technologien wie Stable Diffusion lassen eine KI-zentrierte Videoproduktion als bald greifbare Realität erscheinen. Doch bei den großen Softwareherstellern scheint dagegen eher KI-Stillstand zu herrschen...
Editorials: Aus dem Uncanny Valley mitten ins Herz Mo, 28.November 2022
Editorials: Sapphire F8 - Spekulationen zum neuen Atomos Sensor Mi, 23.November 2022
Editorials: Dynamik und Belichtungsspielraum - Hintergründe zum slashCAM Dynamik Vergleich Do, 17.November 2022
Editorials: ARRI und RED Medien unter Windows nicht mehr lesbar - Microsoft UDF Probleme Di, 19.Juli 2022
Editorials: Sonys Sensor-Visionen - Smartphones übertreffen DSLMs ab 2024 Mo, 13.Juni 2022
Editorials: Canon und RED - gemeinsame Sache(n)? Mo, 21.Februar 2022
Editorials: Die slashCAM Highlights des Jahres: Was hat uns beeindruckt, begeistert, überrascht ...? Do, 6.Januar 2022
Editorials: COMPUTEX 2021 für Editoren - AMD imponiert mit stacked Cache CPU , GPUs bleiben knapp Fr, 4.Juni 2021


[nach oben]


[nach oben]















Artikel-Übersicht



Artikel-Kategorien:



update am 1.Oktober 2023 - 17:48
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*