Dies alles wird nicht zwingend mit virtuellen Sets einhergehen, denn man wird in der Post auch ohne Greenscreen leicht Gegenstände entfernen oder einer Szene hinzufügen können. Auch wird man kleinere Versprecher der Schauspieler inklusive der falschen Mundbewegung mit ein paar Mausklicks korrigieren können.
Und hier wird nicht Schluss sein. Vieles wird man überhaupt nicht mehr filmen, sondern einer KI beschreiben, welche die entsprechenden Szenen dann visuell umsetzt. Als Regisseur wird man wahrscheinlich typische Regieanweisungen geben können, die dann "live" umgesetzt werden. "Etwas weniger Licht im Gesicht, das Hemd etwas blasser und da hinten den Busch bitte noch etwas dichter."
Klingt utopisch? Wer einmal mit GPT-3 und dergleichen experimentiert hat, sieht das vielleicht schon heute anders. Wir jedenfalls werden versuchen, euch bei slashCAM mit dem Blick auf kommende Technologien weiter auf dem Laufenden zu halten...
PS Alle unsere News zum Thema KI/Machine Learning/Neuronale Netze finden sich hier.
1)Echtes HDR Video z.B. durch höher aufgelöster Sensoren mit unterschiedlich lange belichtenden Pixel-Gruppen.
2) RGB+Z Kanal. Also einen zusätzlichen Kanal für die...weiterlesen
tom 18:55 am 7.2.2021
Die Diskussion über Politik findet sich hier wieder:
viewtopic.php?f=17&t=151839
norbi 01:10 am 6.2.2021
ja Musterkennung gibts ja schon ne weile..
Man unterscheidet auch zwischen schwachen und starken KI. Das erste ist begrenzt auf einen abgesteckten Bereich und für eine bestimmte...weiterlesen
Editorials: Wann kommt... Wireless Compressed Output? Mo, 31.Oktober 2011 Was konnten HDV-Camcorder, was AVCHD und DSLRs nicht mehr können? Den komprimierten Output über Firewire streamen. Warum ist diese Funktion eigentlich unter den Tisch gefallen und warum könnte soetwas heute dennoch praktisch sein?