Digitalisierung & Restauration alter Film- und Videoaufnahmen Forum



Deinterlacing (theorie)



Alles zum Thema Digitalisierung von Super 8, VHS und anderen analogen Videoformaten bis zum Grabbing von DV/MiniDV und zum Deinterlacing
Antworten
retrograde
Beiträge: 2

Deinterlacing (theorie)

Beitrag von retrograde »

Hallo zusammen,

ich bin der "Neue" hier im Forum und schon lange Fan "alter Technik" und beschäftige mich seit einiger Zeit mit dem Thema analoger Videosignale und deren Digitalisierung. Ja, vielleicht 30 Jahre zu spät, aber was solls, ich finds spannend und interessant!

In dem Zusammenhang kam als erstes die Frage bei mir auf wie man eine Aufnahme auf von einer VHS-Kassette digitalisiert. In der Zwischenzeit hat sich da bei mir so einiges an Equipment und (halb) Wissen angesammelt und hoffe die Wissenslücken mit Eurer Hilfe hier schließen zu können.

Besonders die enorme Vielfalt an Standards und Formaten macht es einem nicht leicht. Daher habe ich mir gedacht von gaaanz vorn zu beginnen, also der Theorie wie ein Videosignal überhaupt erst entsteht, wie es transportiert (gespeichert) und wiedergegeben werden kann. Auf der Suche nach Leuten die mir das geduldig erklären können bin ich auf dieses Forum gestoßen, denn ja, es steht mit Sicherheit alles irgendwo im Internet, aber das empfinde ich noch als "Information Overkill" weil ich die Flut an Information noch nicht kanalisieren kann.

Nach einigen Versuchen kam ich mit dem Thema Deinterlacing in Berührung, weil mir die damit verbundenen Artefakte aufgefallen sind (Kamm-Effekte bei schnellen Bewegungen). Bei einem Röhrenbildschirm wird das ja aufgrund der Trägheit des Leuchtstoffes nicht auffallen, bei der Wiedergabe auf einem LCD-Monitor jedoch schon sehr.

Wie begegnet man diesem Effekt am besten? Ich habe von verschiedenen Deinterlace-Methoden gelesen, kann diese aber nicht recht einschätzen bezüglich Geschwindigkeit (Ressourcenbedarf) und Qualität. Kürzlich habe ich mir z.b. das Entrausch-Plugin von Neat-Video gekauft und festgestellt das dieses zwar hervorragende Arbeit leistet, es aber Tage dauern kann einen ganzen Film damit zu rendern :-/

Sollte man deinterlacing überhaupt in Software durchführen? Gibt es Hardware für sowas bzw. spezielle Hardwarebeschleunigung für den PC?



MK
Beiträge: 4426

Re: Deinterlacing (theorie)

Beitrag von MK »

Deinterlacing macht heute jeder 08/15 Videplayer am PC in Echtzeit... für Archivzwecke sollte man interlaced Material nicht deinterlacen da man sich so die Nutzung zukünftiger (besserer) Techniken verbaut.

Anders sieht es aus wenn man Interlaced-Material in einem ansonsten Progressiven Projekt verwenden möchte, da macht Deinterlacing Sinn.

Die Kamm-Effekte sind auf einem Röhren-TV nicht auf Grund der Trägheit des Leuchtstoffs nicht zu sehen sondern weil dort die Halbbilder nacheinander abgespielt werden und am PC je nach Software 2 Halbbilder zeitgleich zu sehen sind.



cantsin
Beiträge: 16331

Re: Deinterlacing (theorie)

Beitrag von cantsin »

Interlacing bedeutet ja, dass z.B. in 50 Bildern pro Sekunde keine Voll-, sondern Halbbilder gespeichert werden. Die zwei Halbbilder kann man dann im Reißverschlussverfahren zu einem 25p-Video zusammenfügen, hat dann aber die Kammartefakte bei Bewegungen, weil die Hälfte des Bildes ja schon aus der nächsten Bewegungsphase des aufgenommenen Motivs stammt.

Dieses Bild hier zeigt das ganz gut:
deinterlace.png
(Frame 1 und 2 wären in einem 50 Bilder/Sek.-Interlaced Video, Frame 3 resultiert, wenn man diese Interlaced-Bilder in einem Video mit 25 Bildern/Sek. speichert.)


Die einzige 'saubere' Weise des Deinterlacing ist, aus dem 25 Bilder/s-Video wieder ein 50 Bilder/s-Video zu machen. Nur hast du dann das Problem, dass in jedem dieser Einzelbilder jeweils die Hälfte der Bildzeilen fehlt. Die müsstest Du also algorithmisch rekonstruieren; im Falle der obigen Smilies also ihre herausgeschnittenen Teile wieder hinzuraten.

Bisherige Rekonstruktionsverfahren sind da eher primitiv - die interpolieren einfach die fehlenden Pixel aus den Nachbarzeilen sowie aus dem Nachbar-Bild.

Die Zukunft des Deinterlacing liegt daher ganz klar bei KI-/machine learning-Verfahren (wie sie jetzt bereits in KI-Upscalern wie Topaz AI verfügbar sind, aber noch technisch in den Kinderschuhen stecken), die - genau wie bei KI-Upscaling - diese fehlenden Bildteile durch ihre Heuristiken bzw. ihr über Bildbibliotheken angelerntes "Wissen" über das Aussehen von Objekten in der Welt wiederherstellen. Im Falle der obigen Smilies würde ein KI-System z.B. erkennen, dass es sich um Smilies handelt, und bei ihrer Wiederherstellung versuchen, deren Kreisformen sowie die Bögen der Gesichtselemente wieder geometrisch richtig und vollständig zu zeichnen.

Daher ist es in der Tat das beste, Interlaced-Material so zu archivieren, wie es ist, damit man von jedem technischen Fortschritt der Deinterlacing-Verfahren profitieren kann, und das Deinterlacing nur für Ansichtskopien zu verwenden.

EDIT: Topaz AI hat bereits ein Deinterlacing-Modul, vielleicht sollte man sich das mal ansehen:

"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



retrograde
Beiträge: 2

Re: Deinterlacing (theorie)

Beitrag von retrograde »

Super Infos, vielen Dank!

Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist? Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite. Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?

Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?



cantsin
Beiträge: 16331

Re: Deinterlacing (theorie)

Beitrag von cantsin »

retrograde hat geschrieben: So 16 Jan, 2022 20:16 Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist?
In den meisten Fällen, bzw. bei klassischen PAL- und NTSC-Fernsehen: Ja.

Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite.
Ja, aber auch weil die Kathodenstrahlen der Bildröhren analoger Fernseher nicht schneller waren, bzw. nicht 480 (NTSC-) bzw. 576 (PAL-) Zeilen in einem Rutsch runterleuchten konnte, sondern nur 240 bzw. 288 Zeilen pro 1/50 Sekunde.
Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?
Das ist schon richtig, wenn das Ausgangmaterial z.B. 25p ist (z.B. bei einem Fernseh- oder Kinofilm) und dann als 50i ausgestrahlt werden. Da ist das Deinterlacing tatsächlich nur das simple Zusammensetzen der beiden Halbbilder.
Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?
Du würdest Stroboskop-Flackern sehen, weil sich die Bildfrequenz halbiert.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



 Aktuelle Beiträge [alle Foren]
 
» KI-Revival für 100 Hongkong-Filmklassiker angekündigt
von 7River - Mo 7:11
» Welches objektiv für nachtaufnahmen? EOS R8
von Jan - So 22:16
» S: Videokamera
von Darth Schneider - So 15:20
» Googles KI-Videogenerator Veo 3 startet in Deutschland – mit Grenzen
von philr - So 15:12
» Meta fährt Quest & VR runter
von iasi - So 11:44
» Gelöscht
von Darth Schneider - So 5:58
» 90 Video-producing Agenturen in meiner Stadt - Zu viel konkurrenz ?
von Effess - Sa 22:38
» Blackmagic PYXIS 6K nun also unter 2000€
von iasi - Sa 12:26
» Die richtige Speicherkarte
von Astradis - Sa 12:07
» Accsoon SeeMo 4K HDMI Adapter macht Handy zum Kameramonitor - samt Livestreaming
von slashCAM - Fr 15:30
» Apple gibt iPhone-Videoaufnahme im Kinomodus für alle frei
von DeeZiD - Do 16:40
» ONLINE-VIDEO-MONITOR 2025
von ruessel - Do 11:49
» Selena Gomez Video mit Iphone gedreht 496 Millionen Klicks
von MovieGuy - Mi 16:31
» Sony BURANO - kostenfreier Austausch des Infrarot (IR)-Sperrfilters
von slashCAM - Mi 14:12
» C70 + DJI Ronin RS2
von rob - Mi 12:49
» Tamron 16-30mm F/2.8 Di III VXD G2 - Ultra-Weitwinkel-Zoom für Sony und Nikon
von slashCAM - Mi 9:36
» RIP - Frank Glencairn :-(
von Alex - Mi 8:39
» Die Filmanalyse - Mit Wolfgang M Schmitt
von Nigma1313 - Di 21:15
» Cineflares Lens Lab wächst
von ruessel - Di 17:17
» Sony A1 vs Nikon Z6 III vs Panasonic S5IIX: Ist höhere Sucherauflösung in der Praxis besser?
von slashCAM - Di 15:33
» Neue SFX-KI in Adobe Firefly erzeugt lizenzfreie Soundeffekte
von Darth Schneider - Di 12:59
» Resolve Studio: 360 Grad Formatüberschreitend und immersiv
von Jott - Di 12:11
» Interview Bildwinkel tauschen
von pillepalle - Mo 22:10
» Kamera fürs TV / Doku
von Darth Schneider - Mo 21:37
» Deity Theos vs Sennheiser EW DP - Erfahrungen?
von rush - Mo 19:16
» Sony Burano: Kostenfreier Austausch des Infrarot-Sperrfilters bis Mai 2026
von ruessel - Mo 18:04
» Nvidias SUPER-Modelle RTX 5070 / Ti / 5080 mit deutlich mehr Speicher
von Tscheckoff - Mo 12:49
» Erstes Update von DaVinci Resolve 20 - u.a. mit Blackmagic RAW SDK 4.6
von freezer - Mo 12:36
» Hollywood in der Krise: Kalifornien erhöht Steueranreize für Dreharbeiten
von 7River - Mo 7:25
» Blackmagic URSA Cine 17K 65 bekommt Netflix Zertifizierung
von iasi - So 22:43
» Insta360 Flow 2: 3-Achsen Smartphone-Gimbal mit automatischem KI-Tracking
von slashCAM - So 9:15
» Vermutlich 8k 60fps bei Sony A7V?
von Jott - So 6:28
» YoloLiv YoloCam S7 - 4K Streaming-Kamera mit MFT-Sensor, Wechselmount und Dual Native ISO
von Darth Schneider - Sa 21:15
» Panasonic S1 mit Ausrüstung zu verkaufen
von hoerspielwerkstatt - Sa 16:00
» DJI ermässigt Preis für RAW Lizenz für Inspire 3 und Ronin 4D von 999 Euro auf 1 Euro
von iasi - Sa 10:55