Digitalisierung & Restauration alter Film- und Videoaufnahmen Forum



Deinterlacing (theorie)



Alles zum Thema Digitalisierung von Super 8, VHS und anderen analogen Videoformaten bis zum Grabbing von DV/MiniDV und zum Deinterlacing
Antworten
retrograde
Beiträge: 2

Deinterlacing (theorie)

Beitrag von retrograde » So 16 Jan, 2022 12:29

Hallo zusammen,

ich bin der "Neue" hier im Forum und schon lange Fan "alter Technik" und beschäftige mich seit einiger Zeit mit dem Thema analoger Videosignale und deren Digitalisierung. Ja, vielleicht 30 Jahre zu spät, aber was solls, ich finds spannend und interessant!

In dem Zusammenhang kam als erstes die Frage bei mir auf wie man eine Aufnahme auf von einer VHS-Kassette digitalisiert. In der Zwischenzeit hat sich da bei mir so einiges an Equipment und (halb) Wissen angesammelt und hoffe die Wissenslücken mit Eurer Hilfe hier schließen zu können.

Besonders die enorme Vielfalt an Standards und Formaten macht es einem nicht leicht. Daher habe ich mir gedacht von gaaanz vorn zu beginnen, also der Theorie wie ein Videosignal überhaupt erst entsteht, wie es transportiert (gespeichert) und wiedergegeben werden kann. Auf der Suche nach Leuten die mir das geduldig erklären können bin ich auf dieses Forum gestoßen, denn ja, es steht mit Sicherheit alles irgendwo im Internet, aber das empfinde ich noch als "Information Overkill" weil ich die Flut an Information noch nicht kanalisieren kann.

Nach einigen Versuchen kam ich mit dem Thema Deinterlacing in Berührung, weil mir die damit verbundenen Artefakte aufgefallen sind (Kamm-Effekte bei schnellen Bewegungen). Bei einem Röhrenbildschirm wird das ja aufgrund der Trägheit des Leuchtstoffes nicht auffallen, bei der Wiedergabe auf einem LCD-Monitor jedoch schon sehr.

Wie begegnet man diesem Effekt am besten? Ich habe von verschiedenen Deinterlace-Methoden gelesen, kann diese aber nicht recht einschätzen bezüglich Geschwindigkeit (Ressourcenbedarf) und Qualität. Kürzlich habe ich mir z.b. das Entrausch-Plugin von Neat-Video gekauft und festgestellt das dieses zwar hervorragende Arbeit leistet, es aber Tage dauern kann einen ganzen Film damit zu rendern :-/

Sollte man deinterlacing überhaupt in Software durchführen? Gibt es Hardware für sowas bzw. spezielle Hardwarebeschleunigung für den PC?




MK
Beiträge: 1794

Re: Deinterlacing (theorie)

Beitrag von MK » So 16 Jan, 2022 12:52

Deinterlacing macht heute jeder 08/15 Videplayer am PC in Echtzeit... für Archivzwecke sollte man interlaced Material nicht deinterlacen da man sich so die Nutzung zukünftiger (besserer) Techniken verbaut.

Anders sieht es aus wenn man Interlaced-Material in einem ansonsten Progressiven Projekt verwenden möchte, da macht Deinterlacing Sinn.

Die Kamm-Effekte sind auf einem Röhren-TV nicht auf Grund der Trägheit des Leuchtstoffs nicht zu sehen sondern weil dort die Halbbilder nacheinander abgespielt werden und am PC je nach Software 2 Halbbilder zeitgleich zu sehen sind.




cantsin
Beiträge: 10831

Re: Deinterlacing (theorie)

Beitrag von cantsin » So 16 Jan, 2022 13:59

Interlacing bedeutet ja, dass z.B. in 50 Bildern pro Sekunde keine Voll-, sondern Halbbilder gespeichert werden. Die zwei Halbbilder kann man dann im Reißverschlussverfahren zu einem 25p-Video zusammenfügen, hat dann aber die Kammartefakte bei Bewegungen, weil die Hälfte des Bildes ja schon aus der nächsten Bewegungsphase des aufgenommenen Motivs stammt.

Dieses Bild hier zeigt das ganz gut:
deinterlace.png
(Frame 1 und 2 wären in einem 50 Bilder/Sek.-Interlaced Video, Frame 3 resultiert, wenn man diese Interlaced-Bilder in einem Video mit 25 Bildern/Sek. speichert.)


Die einzige 'saubere' Weise des Deinterlacing ist, aus dem 25 Bilder/s-Video wieder ein 50 Bilder/s-Video zu machen. Nur hast du dann das Problem, dass in jedem dieser Einzelbilder jeweils die Hälfte der Bildzeilen fehlt. Die müsstest Du also algorithmisch rekonstruieren; im Falle der obigen Smilies also ihre herausgeschnittenen Teile wieder hinzuraten.

Bisherige Rekonstruktionsverfahren sind da eher primitiv - die interpolieren einfach die fehlenden Pixel aus den Nachbarzeilen sowie aus dem Nachbar-Bild.

Die Zukunft des Deinterlacing liegt daher ganz klar bei KI-/machine learning-Verfahren (wie sie jetzt bereits in KI-Upscalern wie Topaz AI verfügbar sind, aber noch technisch in den Kinderschuhen stecken), die - genau wie bei KI-Upscaling - diese fehlenden Bildteile durch ihre Heuristiken bzw. ihr über Bildbibliotheken angelerntes "Wissen" über das Aussehen von Objekten in der Welt wiederherstellen. Im Falle der obigen Smilies würde ein KI-System z.B. erkennen, dass es sich um Smilies handelt, und bei ihrer Wiederherstellung versuchen, deren Kreisformen sowie die Bögen der Gesichtselemente wieder geometrisch richtig und vollständig zu zeichnen.

Daher ist es in der Tat das beste, Interlaced-Material so zu archivieren, wie es ist, damit man von jedem technischen Fortschritt der Deinterlacing-Verfahren profitieren kann, und das Deinterlacing nur für Ansichtskopien zu verwenden.

EDIT: Topaz AI hat bereits ein Deinterlacing-Modul, vielleicht sollte man sich das mal ansehen:

Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.




retrograde
Beiträge: 2

Re: Deinterlacing (theorie)

Beitrag von retrograde » So 16 Jan, 2022 20:16

Super Infos, vielen Dank!

Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist? Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite. Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?

Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?




cantsin
Beiträge: 10831

Re: Deinterlacing (theorie)

Beitrag von cantsin » So 16 Jan, 2022 20:52

retrograde hat geschrieben:
So 16 Jan, 2022 20:16
Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist?
In den meisten Fällen, bzw. bei klassischen PAL- und NTSC-Fernsehen: Ja.

Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite.
Ja, aber auch weil die Kathodenstrahlen der Bildröhren analoger Fernseher nicht schneller waren, bzw. nicht 480 (NTSC-) bzw. 576 (PAL-) Zeilen in einem Rutsch runterleuchten konnte, sondern nur 240 bzw. 288 Zeilen pro 1/50 Sekunde.
Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?
Das ist schon richtig, wenn das Ausgangmaterial z.B. 25p ist (z.B. bei einem Fernseh- oder Kinofilm) und dann als 50i ausgestrahlt werden. Da ist das Deinterlacing tatsächlich nur das simple Zusammensetzen der beiden Halbbilder.
Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?
Du würdest Stroboskop-Flackern sehen, weil sich die Bildfrequenz halbiert.




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» Kann man mit MacBooks Videos bearbeiten?
von klusterdegenerierung - Sa 19:09
» MacOS 12 Monterey seit ca. 19 Uhr verfügbar
von vaio - Sa 19:03
» Der "R. I. P."-Thread für Bekanntheiten
von Darth Schneider - Sa 18:58
» Ach, du lieber Koala: Tiergarten Schönbrunn
von 3Dvideos - Sa 18:50
» Nach dem Trailer zu urteilen, könnte der doch was werden
von thsbln - Sa 18:43
» Final Cut Pro: Apple antwortet auf offenen Brief von Profi-Usern
von Frank Glencairn - Sa 18:32
» RED verklagt Nikon wegen interner, komprimierter RAW Aufnahme bei der Nikon Z9
von Frank Glencairn - Sa 18:19
» >Der LED Licht Thread<
von Frank Glencairn - Sa 17:45
» Was schaust Du gerade?
von roki100 - Sa 16:21
» SmallHD Action 5: Neuer günstiger 5" Kameramonitor mit 2.000 Nits Helligkeit
von -paleface- - Sa 13:43
» Laowa Nanomorph 1,5x - drei Cine-Anamorphoten für Super35 demnächst im Crowdfunding
von andieymi - Sa 11:07
» Zacuto Viewfinder Sony FS5/FS5 II
von Mayk - Sa 10:59
» Mac journaled auf PC lesen?
von R S K - Sa 10:53
» Kommende Sony Alpha 7R V filmt wohl in 8K - Datenblatt geleakt
von Jott - Sa 7:40
» Sachtler Touch&Go Keilplatte auf Einbein
von Alex - Sa 7:27
» 4 Tonspuren mit der C200
von jmueti - Fr 22:25
» Linsen (Vintage, Anamorphic & Co.)
von roki100 - Fr 20:24
» Canon EOS R7 und R10: APS-C-Kameras mit RF-Mount - günstiger S35-Traum für Filmer?
von dienstag_01 - Fr 18:18
» Panasonic GH6 - Sensorqualität, Rolling Shutter und ein leise Vermutung...
von Darth Schneider - Fr 16:49
» Insta360 Sphere - 360°-Kamera für DJI Mavic Air 2/2S
von Jott - Fr 16:42
» Suche Universal Diffusor für Rundleuchte?
von funkytown - Fr 10:32
» DJI Mini 3 Pro: Führerscheinfreie Drohne (C0-Specs) mit 4K 60p Aufnahme – Pro unter 250g?
von rush - Fr 10:26
» KI hilft mit - Die Magic Mask in Davinci Resolve 18
von macaw - Fr 9:04
» Elvis — Baz Luhrmann/Sam Bromell/Jeremy Doner
von 7River - Fr 7:34
» ARRI Alexa 35 mit 17 Blendenstufen - Neue Dynamik-Referenz?
von iasi - Do 23:08
» Was hörst Du gerade?
von klusterdegenerierung - Do 16:19
» Blackmagic Design Ursa Mini 4,6K EF
von andieymi - Do 15:53
» Panasonics S Kameras: "Nasse" Sensorreinigung - womit?
von MK - Do 15:35
» Für einen Netflix-Trailer nicht schlecht. Hat ordentlich Bums!!
von klusterdegenerierung - Do 9:59
» Eure Erfahrung mit magic mask in DaVinci Resolve?
von Axel - Do 9:36
» Umfrage zum Farbmanagement - "How do you manage your colors?"
von Jobbel - Do 0:24
» GH6 ProRes
von Darth Schneider - Mi 20:00
» Schnittrechner
von Jost - Mi 19:01
» Top Gun: Maverick (2020) - offizieller Trailer
von Darth Schneider - Mi 18:50
» RØDECaster Pro II: aktualisiertes All-In-One Audio Production Studio
von Darth Schneider - Mi 18:47
 
neuester Artikel
 
17 Blendenstufen mit Arri Alexa 35

Die ARRI Alexa steht vor der Tür - und kann auf dem Papier mit einer erstaunlichen Dynamik beeindrucken. Wir wagen uns an eine erste Einschätzung... weiterlesen>>

Magic Mask in Resolve 18

Hinter der "Magic Mask" versteckt sich ein neuronales Netz, welches nahezu vollautomatisch Masken erstellen kann. Diese Masken erlauben es Menschen sowie Objekte im Bild zur weiteren Bearbeitung vom Hintergrund freizustellen... weiterlesen>>