Digitalisierung & Restauration alter Film- und Videoaufnahmen Forum



Deinterlacing (theorie)



Alles zum Thema Digitalisierung von Super 8, VHS und anderen analogen Videoformaten bis zum Grabbing von DV/MiniDV und zum Deinterlacing
Antworten
retrograde
Beiträge: 2

Deinterlacing (theorie)

Beitrag von retrograde »

Hallo zusammen,

ich bin der "Neue" hier im Forum und schon lange Fan "alter Technik" und beschäftige mich seit einiger Zeit mit dem Thema analoger Videosignale und deren Digitalisierung. Ja, vielleicht 30 Jahre zu spät, aber was solls, ich finds spannend und interessant!

In dem Zusammenhang kam als erstes die Frage bei mir auf wie man eine Aufnahme auf von einer VHS-Kassette digitalisiert. In der Zwischenzeit hat sich da bei mir so einiges an Equipment und (halb) Wissen angesammelt und hoffe die Wissenslücken mit Eurer Hilfe hier schließen zu können.

Besonders die enorme Vielfalt an Standards und Formaten macht es einem nicht leicht. Daher habe ich mir gedacht von gaaanz vorn zu beginnen, also der Theorie wie ein Videosignal überhaupt erst entsteht, wie es transportiert (gespeichert) und wiedergegeben werden kann. Auf der Suche nach Leuten die mir das geduldig erklären können bin ich auf dieses Forum gestoßen, denn ja, es steht mit Sicherheit alles irgendwo im Internet, aber das empfinde ich noch als "Information Overkill" weil ich die Flut an Information noch nicht kanalisieren kann.

Nach einigen Versuchen kam ich mit dem Thema Deinterlacing in Berührung, weil mir die damit verbundenen Artefakte aufgefallen sind (Kamm-Effekte bei schnellen Bewegungen). Bei einem Röhrenbildschirm wird das ja aufgrund der Trägheit des Leuchtstoffes nicht auffallen, bei der Wiedergabe auf einem LCD-Monitor jedoch schon sehr.

Wie begegnet man diesem Effekt am besten? Ich habe von verschiedenen Deinterlace-Methoden gelesen, kann diese aber nicht recht einschätzen bezüglich Geschwindigkeit (Ressourcenbedarf) und Qualität. Kürzlich habe ich mir z.b. das Entrausch-Plugin von Neat-Video gekauft und festgestellt das dieses zwar hervorragende Arbeit leistet, es aber Tage dauern kann einen ganzen Film damit zu rendern :-/

Sollte man deinterlacing überhaupt in Software durchführen? Gibt es Hardware für sowas bzw. spezielle Hardwarebeschleunigung für den PC?



MK
Beiträge: 4186

Re: Deinterlacing (theorie)

Beitrag von MK »

Deinterlacing macht heute jeder 08/15 Videplayer am PC in Echtzeit... für Archivzwecke sollte man interlaced Material nicht deinterlacen da man sich so die Nutzung zukünftiger (besserer) Techniken verbaut.

Anders sieht es aus wenn man Interlaced-Material in einem ansonsten Progressiven Projekt verwenden möchte, da macht Deinterlacing Sinn.

Die Kamm-Effekte sind auf einem Röhren-TV nicht auf Grund der Trägheit des Leuchtstoffs nicht zu sehen sondern weil dort die Halbbilder nacheinander abgespielt werden und am PC je nach Software 2 Halbbilder zeitgleich zu sehen sind.



cantsin
Beiträge: 14305

Re: Deinterlacing (theorie)

Beitrag von cantsin »

Interlacing bedeutet ja, dass z.B. in 50 Bildern pro Sekunde keine Voll-, sondern Halbbilder gespeichert werden. Die zwei Halbbilder kann man dann im Reißverschlussverfahren zu einem 25p-Video zusammenfügen, hat dann aber die Kammartefakte bei Bewegungen, weil die Hälfte des Bildes ja schon aus der nächsten Bewegungsphase des aufgenommenen Motivs stammt.

Dieses Bild hier zeigt das ganz gut:
deinterlace.png
(Frame 1 und 2 wären in einem 50 Bilder/Sek.-Interlaced Video, Frame 3 resultiert, wenn man diese Interlaced-Bilder in einem Video mit 25 Bildern/Sek. speichert.)


Die einzige 'saubere' Weise des Deinterlacing ist, aus dem 25 Bilder/s-Video wieder ein 50 Bilder/s-Video zu machen. Nur hast du dann das Problem, dass in jedem dieser Einzelbilder jeweils die Hälfte der Bildzeilen fehlt. Die müsstest Du also algorithmisch rekonstruieren; im Falle der obigen Smilies also ihre herausgeschnittenen Teile wieder hinzuraten.

Bisherige Rekonstruktionsverfahren sind da eher primitiv - die interpolieren einfach die fehlenden Pixel aus den Nachbarzeilen sowie aus dem Nachbar-Bild.

Die Zukunft des Deinterlacing liegt daher ganz klar bei KI-/machine learning-Verfahren (wie sie jetzt bereits in KI-Upscalern wie Topaz AI verfügbar sind, aber noch technisch in den Kinderschuhen stecken), die - genau wie bei KI-Upscaling - diese fehlenden Bildteile durch ihre Heuristiken bzw. ihr über Bildbibliotheken angelerntes "Wissen" über das Aussehen von Objekten in der Welt wiederherstellen. Im Falle der obigen Smilies würde ein KI-System z.B. erkennen, dass es sich um Smilies handelt, und bei ihrer Wiederherstellung versuchen, deren Kreisformen sowie die Bögen der Gesichtselemente wieder geometrisch richtig und vollständig zu zeichnen.

Daher ist es in der Tat das beste, Interlaced-Material so zu archivieren, wie es ist, damit man von jedem technischen Fortschritt der Deinterlacing-Verfahren profitieren kann, und das Deinterlacing nur für Ansichtskopien zu verwenden.

EDIT: Topaz AI hat bereits ein Deinterlacing-Modul, vielleicht sollte man sich das mal ansehen:

Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



retrograde
Beiträge: 2

Re: Deinterlacing (theorie)

Beitrag von retrograde »

Super Infos, vielen Dank!

Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist? Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite. Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?

Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?



cantsin
Beiträge: 14305

Re: Deinterlacing (theorie)

Beitrag von cantsin »

retrograde hat geschrieben: So 16 Jan, 2022 20:16 Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist?
In den meisten Fällen, bzw. bei klassischen PAL- und NTSC-Fernsehen: Ja.

Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite.
Ja, aber auch weil die Kathodenstrahlen der Bildröhren analoger Fernseher nicht schneller waren, bzw. nicht 480 (NTSC-) bzw. 576 (PAL-) Zeilen in einem Rutsch runterleuchten konnte, sondern nur 240 bzw. 288 Zeilen pro 1/50 Sekunde.
Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?
Das ist schon richtig, wenn das Ausgangmaterial z.B. 25p ist (z.B. bei einem Fernseh- oder Kinofilm) und dann als 50i ausgestrahlt werden. Da ist das Deinterlacing tatsächlich nur das simple Zusammensetzen der beiden Halbbilder.
Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?
Du würdest Stroboskop-Flackern sehen, weil sich die Bildfrequenz halbiert.



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von roki100 - Do 1:00
» NAB 2024 Neuigkeiten
von pillepalle - Do 1:00
» Was hörst Du gerade?
von roki100 - Do 0:12
» Was hast Du zuletzt gekauft?
von Jörg - Mi 22:30
» Flackern bei der Digitalisierung - USB Grabby
von Laboriosa - Mi 20:53
» Canon öffnet RF-Mount - Erste Objektive von Sigma (18-50 mm f/2.8) und Tamron (11-20 mm f/2,8)
von cantsin - Mi 20:26
» Tragischer Unfall am Set trotz Filmwaffe: Kamerafrau stirbt nach Schuß von Alec Baldwin
von iasi - Mi 19:53
» SmallRig @ NAB 2024: Potato Jet Stativ, Brandon Li Cage, VB212 Akku
von iasi - Mi 19:46
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von roki100 - Mi 19:32
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von mikroguenni - Mi 18:46
» Avid Liquid 7.2 installieren
von unikator2022 - Mi 18:29
» Insta360 X4 360°-Action-Kamera filmt in 8K
von matthew - Mi 17:19
» >Der LED Licht Thread<
von Darth Schneider - Mi 17:06
» Retention Video Editing ist tot
von DeeZiD - Mi 16:56
» Resolve-Mac, 5000€
von Franz86 - Mi 14:34
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von cantsin - Mi 13:39
» Audition CS6 > Arbeitsbereich aus Versehen gelöscht
von Herbie - Mi 12:10
» DJI Power 500 und 1000: Mobile Powerstations mit bis zu 1.024 Wh
von slashCAM - Mi 9:27
» Atomos Neon 24 - 4K HDR-Grading Display-Recorder
von teichomad - Mi 9:14
» Atomos Ninja als HDMI-Recorder
von Saint.Manuel - Mi 8:41
» DaVinci Resolve 19: Die neuen Funktionen ausführlich erklärt
von freezer - Mi 8:20
» Meine erste Kritik in Filmthread :-)
von Frank Glencairn - Mi 8:12
» Kostenloser Fairlight Workshop mit Mary Plummer
von Frank Glencairn - Mi 6:31
» AMDs Notebook APU Strix Halo - besser als Apples M3 Pro Chip?
von macaw - Mi 6:31
» Musikvideo Floridas Klaus "Che Guevara"
von MK - Di 18:37
» Realistischer und mehr Details - Adobe Firefly Image 3 Model für Web und Photoshop
von slashCAM - Di 14:48
» Adobe Firefly KI jetzt auch mobil in neuer Express App verfügbar
von slashCAM - Di 14:15
» Z Cam E2G, E2C, E2-6F, E2-S6, E2-F8
von Clemens Schiesko - Di 13:45
» Canon öffnet RF-Mount - aber nur für APS-C
von stip - Di 10:10
» Linsen (Vintage, Anamorphic & Co.)
von Frank Glencairn - Di 9:35
» Cannes 2024
von 7River - Di 9:28
» Blackmagic PYXIS 6K: Die Vollformat „Box“-Kamera mit Viewfinder, 2x SDI, Sideplates (!) uvm.
von Frank Glencairn - Di 9:24
» Woody Allen: Coup de Chance (ab Herbst 2023, Venedig)
von Skeptiker - Di 8:19
» Panasonic HC X2000 und Rode
von rush - Mo 21:02
» SmallRig: Creators Toolkit
von Darth Schneider - Mo 15:13