Digitalisierung & Restauration alter Film- und Videoaufnahmen Forum



Deinterlacing (theorie)



Alles zum Thema Digitalisierung von Super 8, VHS und anderen analogen Videoformaten bis zum Grabbing von DV/MiniDV und zum Deinterlacing
Antworten
retrograde
Beiträge: 2

Deinterlacing (theorie)

Beitrag von retrograde » So 16 Jan, 2022 12:29

Hallo zusammen,

ich bin der "Neue" hier im Forum und schon lange Fan "alter Technik" und beschäftige mich seit einiger Zeit mit dem Thema analoger Videosignale und deren Digitalisierung. Ja, vielleicht 30 Jahre zu spät, aber was solls, ich finds spannend und interessant!

In dem Zusammenhang kam als erstes die Frage bei mir auf wie man eine Aufnahme auf von einer VHS-Kassette digitalisiert. In der Zwischenzeit hat sich da bei mir so einiges an Equipment und (halb) Wissen angesammelt und hoffe die Wissenslücken mit Eurer Hilfe hier schließen zu können.

Besonders die enorme Vielfalt an Standards und Formaten macht es einem nicht leicht. Daher habe ich mir gedacht von gaaanz vorn zu beginnen, also der Theorie wie ein Videosignal überhaupt erst entsteht, wie es transportiert (gespeichert) und wiedergegeben werden kann. Auf der Suche nach Leuten die mir das geduldig erklären können bin ich auf dieses Forum gestoßen, denn ja, es steht mit Sicherheit alles irgendwo im Internet, aber das empfinde ich noch als "Information Overkill" weil ich die Flut an Information noch nicht kanalisieren kann.

Nach einigen Versuchen kam ich mit dem Thema Deinterlacing in Berührung, weil mir die damit verbundenen Artefakte aufgefallen sind (Kamm-Effekte bei schnellen Bewegungen). Bei einem Röhrenbildschirm wird das ja aufgrund der Trägheit des Leuchtstoffes nicht auffallen, bei der Wiedergabe auf einem LCD-Monitor jedoch schon sehr.

Wie begegnet man diesem Effekt am besten? Ich habe von verschiedenen Deinterlace-Methoden gelesen, kann diese aber nicht recht einschätzen bezüglich Geschwindigkeit (Ressourcenbedarf) und Qualität. Kürzlich habe ich mir z.b. das Entrausch-Plugin von Neat-Video gekauft und festgestellt das dieses zwar hervorragende Arbeit leistet, es aber Tage dauern kann einen ganzen Film damit zu rendern :-/

Sollte man deinterlacing überhaupt in Software durchführen? Gibt es Hardware für sowas bzw. spezielle Hardwarebeschleunigung für den PC?




MK
Beiträge: 1778

Re: Deinterlacing (theorie)

Beitrag von MK » So 16 Jan, 2022 12:52

Deinterlacing macht heute jeder 08/15 Videplayer am PC in Echtzeit... für Archivzwecke sollte man interlaced Material nicht deinterlacen da man sich so die Nutzung zukünftiger (besserer) Techniken verbaut.

Anders sieht es aus wenn man Interlaced-Material in einem ansonsten Progressiven Projekt verwenden möchte, da macht Deinterlacing Sinn.

Die Kamm-Effekte sind auf einem Röhren-TV nicht auf Grund der Trägheit des Leuchtstoffs nicht zu sehen sondern weil dort die Halbbilder nacheinander abgespielt werden und am PC je nach Software 2 Halbbilder zeitgleich zu sehen sind.




cantsin
Beiträge: 10748

Re: Deinterlacing (theorie)

Beitrag von cantsin » So 16 Jan, 2022 13:59

Interlacing bedeutet ja, dass z.B. in 50 Bildern pro Sekunde keine Voll-, sondern Halbbilder gespeichert werden. Die zwei Halbbilder kann man dann im Reißverschlussverfahren zu einem 25p-Video zusammenfügen, hat dann aber die Kammartefakte bei Bewegungen, weil die Hälfte des Bildes ja schon aus der nächsten Bewegungsphase des aufgenommenen Motivs stammt.

Dieses Bild hier zeigt das ganz gut:
deinterlace.png
(Frame 1 und 2 wären in einem 50 Bilder/Sek.-Interlaced Video, Frame 3 resultiert, wenn man diese Interlaced-Bilder in einem Video mit 25 Bildern/Sek. speichert.)


Die einzige 'saubere' Weise des Deinterlacing ist, aus dem 25 Bilder/s-Video wieder ein 50 Bilder/s-Video zu machen. Nur hast du dann das Problem, dass in jedem dieser Einzelbilder jeweils die Hälfte der Bildzeilen fehlt. Die müsstest Du also algorithmisch rekonstruieren; im Falle der obigen Smilies also ihre herausgeschnittenen Teile wieder hinzuraten.

Bisherige Rekonstruktionsverfahren sind da eher primitiv - die interpolieren einfach die fehlenden Pixel aus den Nachbarzeilen sowie aus dem Nachbar-Bild.

Die Zukunft des Deinterlacing liegt daher ganz klar bei KI-/machine learning-Verfahren (wie sie jetzt bereits in KI-Upscalern wie Topaz AI verfügbar sind, aber noch technisch in den Kinderschuhen stecken), die - genau wie bei KI-Upscaling - diese fehlenden Bildteile durch ihre Heuristiken bzw. ihr über Bildbibliotheken angelerntes "Wissen" über das Aussehen von Objekten in der Welt wiederherstellen. Im Falle der obigen Smilies würde ein KI-System z.B. erkennen, dass es sich um Smilies handelt, und bei ihrer Wiederherstellung versuchen, deren Kreisformen sowie die Bögen der Gesichtselemente wieder geometrisch richtig und vollständig zu zeichnen.

Daher ist es in der Tat das beste, Interlaced-Material so zu archivieren, wie es ist, damit man von jedem technischen Fortschritt der Deinterlacing-Verfahren profitieren kann, und das Deinterlacing nur für Ansichtskopien zu verwenden.

EDIT: Topaz AI hat bereits ein Deinterlacing-Modul, vielleicht sollte man sich das mal ansehen:

Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.




retrograde
Beiträge: 2

Re: Deinterlacing (theorie)

Beitrag von retrograde » So 16 Jan, 2022 20:16

Super Infos, vielen Dank!

Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist? Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite. Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?

Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?




cantsin
Beiträge: 10748

Re: Deinterlacing (theorie)

Beitrag von cantsin » So 16 Jan, 2022 20:52

retrograde hat geschrieben:
So 16 Jan, 2022 20:16
Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist?
In den meisten Fällen, bzw. bei klassischen PAL- und NTSC-Fernsehen: Ja.

Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite.
Ja, aber auch weil die Kathodenstrahlen der Bildröhren analoger Fernseher nicht schneller waren, bzw. nicht 480 (NTSC-) bzw. 576 (PAL-) Zeilen in einem Rutsch runterleuchten konnte, sondern nur 240 bzw. 288 Zeilen pro 1/50 Sekunde.
Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?
Das ist schon richtig, wenn das Ausgangmaterial z.B. 25p ist (z.B. bei einem Fernseh- oder Kinofilm) und dann als 50i ausgestrahlt werden. Da ist das Deinterlacing tatsächlich nur das simple Zusammensetzen der beiden Halbbilder.
Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?
Du würdest Stroboskop-Flackern sehen, weil sich die Bildfrequenz halbiert.




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» Was hörst Du gerade?
von klusterdegenerierung - Di 0:08
» "Bleistiftmikrofone" - welches?
von berlin123 - Mo 22:18
» Für Videoschnitt geeignet ?
von Sebasco - Mo 22:12
» DUNE !
von iasi - Mo 22:09
» Was schaust Du gerade?
von Frank Glencairn - Mo 21:30
» The Boys Staffel 3 - offizieller Redband Teaser Trailer
von Funless - Mo 20:18
» Gimbal für Panasonic HC-VXF11
von CaptainPicard - Mo 19:58
» Kompatibilitätsproblem Final Cut Pro & Color Finale
von moma - Mo 19:27
» Offener Brief an Tim Cook wegen Final Cut Pro
von Jott - Mo 18:40
» Erfahrungsbericht: Montage und Betrieb AX700 auf Ronin RSC2
von cantsin - Mo 17:52
» Kaufberatung 50mm E-Mount Autofokus für VIDEO(!)
von rush - Mo 17:47
» Neue SanDisk Extreme Pro microSD und SD UHS-I Karten: Die schnellsten der Welt
von slashCAM - Mo 16:39
» Z Cam ZRAW - Hacker stellt CDNG Konverter in Aussicht
von Clemens Schiesko - Mo 16:00
» Was hast Du zuletzt gekauft?
von ruessel - Mo 13:20
» Nur Sternenlicht als Beleuchtung: Neuer KI-Algorithmus entrauscht Videos perfekt
von slashCAM - Mo 12:45
» Blendenzieher und Donut für 3D-Druck
von FocusPIT - Mo 12:19
» Audio Knacksen in Resolve Projekt
von dosaris - Mo 11:57
» Probleme Installation Ronin RSC2 mit Sony Ax700
von CaptainPicard - Mo 10:16
» Panasonic GH6 - Sensorqualität, Rolling Shutter und ein leise Vermutung...
von -paleface- - Mo 8:59
» Schnäppchenecke
von elephantastic - So 22:00
» Laowa Nanomorph 1,5x - drei Cine-Anamorphoten für Super35 demnächst im Crowdfunding
von Funless - So 19:40
» Zoom F1: neuer kleiner Audio-Fieldrecorder mit Lavalier oder Richtmikrofon
von Blackbox - So 19:26
» Sony A7S III erste Erfahrungen, Bugs, Problemlösungen,...
von Axel - So 19:25
» ND Filter für DJI Pocket 2
von rush - So 18:04
» DJI Mini 3 Pro: Führerscheinfreie Drohne (C0-Specs) mit 4K 60p Aufnahme – Pro unter 250g?
von rush - So 17:34
» Viewsonic VP2776 ColorPro: neuer 27" Monitor mit integrierter Farbkalibrierung
von markusG - So 12:21
» SanDisk Professional Pro-Blade: Modulares SSD Speichersystem für Kameras mit USB-C Aufnahme
von slashCAM - So 12:18
» 14 Tipps für hochqualitative After Effects-Animationen
von slashCAM - Sa 12:02
» Canon EOS R5 C - Sensortest - Rolling Shutter, Debayering und Dynamik
von AndySeeon - Fr 18:03
» Video als Gemälde
von markusG - Fr 16:02
» Grafikkarte mit 8 GB für Davinci Resolve
von Bruno Peter - Fr 12:44
» Heute hat es Netflix erwischt
von iasi - Fr 12:38
» Biete ++ Nitze V-Mount Adapter mit Fxlion V-Mount Platte für Z-Cam
von panalone - Fr 12:05
» Blackmagic Design - Resolve 18 mit Cloud Schwerpunkt und Storage Hardware
von klusterdegenerierung - Fr 11:26
» Professionelle Lautsprecher von den 60er bis 90er Jahren
von ruessel - Fr 10:33
 
neuester Artikel
 
Canon EOS R5 C - Sensortest

Nach längerer Wartezeit hat es schließlich auch mal ein Serienmodell der Canon R5 C in unsere Redaktion geschafft, mit dem wir unsere üblichen Messungen durchführen konnten... weiterlesen>>

DJI Mini 3 Pro im Praxistest

Mit der DJI Mini 3 Pro stellt DJI seine bislang ambitionierteste Drohne in der populären Sub- 250g Klasse vor. Mit 4K 60p Aufnahme, neuem RC Controller inkl. integriertem Bildschirm, Flugzeiten bis max. 47 (!) Minuten, Hinderniserkennung (APAS 4.0), Active Track, Point of Interest 3.0, D-Cinelike Gammaprofil, 120p Zeitlupe (HD), Hyperlapse uvm. - wie Pro ist also die neue Mini 3 Pro? weiterlesen>>