Digitalisierung & Restauration alter Film- und Videoaufnahmen Forum



Deinterlacing (theorie)



Alles zum Thema Digitalisierung von Super 8, VHS und anderen analogen Videoformaten bis zum Grabbing von DV/MiniDV und zum Deinterlacing
Antworten
retrograde
Beiträge: 2

Deinterlacing (theorie)

Beitrag von retrograde »

Hallo zusammen,

ich bin der "Neue" hier im Forum und schon lange Fan "alter Technik" und beschäftige mich seit einiger Zeit mit dem Thema analoger Videosignale und deren Digitalisierung. Ja, vielleicht 30 Jahre zu spät, aber was solls, ich finds spannend und interessant!

In dem Zusammenhang kam als erstes die Frage bei mir auf wie man eine Aufnahme auf von einer VHS-Kassette digitalisiert. In der Zwischenzeit hat sich da bei mir so einiges an Equipment und (halb) Wissen angesammelt und hoffe die Wissenslücken mit Eurer Hilfe hier schließen zu können.

Besonders die enorme Vielfalt an Standards und Formaten macht es einem nicht leicht. Daher habe ich mir gedacht von gaaanz vorn zu beginnen, also der Theorie wie ein Videosignal überhaupt erst entsteht, wie es transportiert (gespeichert) und wiedergegeben werden kann. Auf der Suche nach Leuten die mir das geduldig erklären können bin ich auf dieses Forum gestoßen, denn ja, es steht mit Sicherheit alles irgendwo im Internet, aber das empfinde ich noch als "Information Overkill" weil ich die Flut an Information noch nicht kanalisieren kann.

Nach einigen Versuchen kam ich mit dem Thema Deinterlacing in Berührung, weil mir die damit verbundenen Artefakte aufgefallen sind (Kamm-Effekte bei schnellen Bewegungen). Bei einem Röhrenbildschirm wird das ja aufgrund der Trägheit des Leuchtstoffes nicht auffallen, bei der Wiedergabe auf einem LCD-Monitor jedoch schon sehr.

Wie begegnet man diesem Effekt am besten? Ich habe von verschiedenen Deinterlace-Methoden gelesen, kann diese aber nicht recht einschätzen bezüglich Geschwindigkeit (Ressourcenbedarf) und Qualität. Kürzlich habe ich mir z.b. das Entrausch-Plugin von Neat-Video gekauft und festgestellt das dieses zwar hervorragende Arbeit leistet, es aber Tage dauern kann einen ganzen Film damit zu rendern :-/

Sollte man deinterlacing überhaupt in Software durchführen? Gibt es Hardware für sowas bzw. spezielle Hardwarebeschleunigung für den PC?



MK
Beiträge: 4177

Re: Deinterlacing (theorie)

Beitrag von MK »

Deinterlacing macht heute jeder 08/15 Videplayer am PC in Echtzeit... für Archivzwecke sollte man interlaced Material nicht deinterlacen da man sich so die Nutzung zukünftiger (besserer) Techniken verbaut.

Anders sieht es aus wenn man Interlaced-Material in einem ansonsten Progressiven Projekt verwenden möchte, da macht Deinterlacing Sinn.

Die Kamm-Effekte sind auf einem Röhren-TV nicht auf Grund der Trägheit des Leuchtstoffs nicht zu sehen sondern weil dort die Halbbilder nacheinander abgespielt werden und am PC je nach Software 2 Halbbilder zeitgleich zu sehen sind.



cantsin
Beiträge: 14269

Re: Deinterlacing (theorie)

Beitrag von cantsin »

Interlacing bedeutet ja, dass z.B. in 50 Bildern pro Sekunde keine Voll-, sondern Halbbilder gespeichert werden. Die zwei Halbbilder kann man dann im Reißverschlussverfahren zu einem 25p-Video zusammenfügen, hat dann aber die Kammartefakte bei Bewegungen, weil die Hälfte des Bildes ja schon aus der nächsten Bewegungsphase des aufgenommenen Motivs stammt.

Dieses Bild hier zeigt das ganz gut:
deinterlace.png
(Frame 1 und 2 wären in einem 50 Bilder/Sek.-Interlaced Video, Frame 3 resultiert, wenn man diese Interlaced-Bilder in einem Video mit 25 Bildern/Sek. speichert.)


Die einzige 'saubere' Weise des Deinterlacing ist, aus dem 25 Bilder/s-Video wieder ein 50 Bilder/s-Video zu machen. Nur hast du dann das Problem, dass in jedem dieser Einzelbilder jeweils die Hälfte der Bildzeilen fehlt. Die müsstest Du also algorithmisch rekonstruieren; im Falle der obigen Smilies also ihre herausgeschnittenen Teile wieder hinzuraten.

Bisherige Rekonstruktionsverfahren sind da eher primitiv - die interpolieren einfach die fehlenden Pixel aus den Nachbarzeilen sowie aus dem Nachbar-Bild.

Die Zukunft des Deinterlacing liegt daher ganz klar bei KI-/machine learning-Verfahren (wie sie jetzt bereits in KI-Upscalern wie Topaz AI verfügbar sind, aber noch technisch in den Kinderschuhen stecken), die - genau wie bei KI-Upscaling - diese fehlenden Bildteile durch ihre Heuristiken bzw. ihr über Bildbibliotheken angelerntes "Wissen" über das Aussehen von Objekten in der Welt wiederherstellen. Im Falle der obigen Smilies würde ein KI-System z.B. erkennen, dass es sich um Smilies handelt, und bei ihrer Wiederherstellung versuchen, deren Kreisformen sowie die Bögen der Gesichtselemente wieder geometrisch richtig und vollständig zu zeichnen.

Daher ist es in der Tat das beste, Interlaced-Material so zu archivieren, wie es ist, damit man von jedem technischen Fortschritt der Deinterlacing-Verfahren profitieren kann, und das Deinterlacing nur für Ansichtskopien zu verwenden.

EDIT: Topaz AI hat bereits ein Deinterlacing-Modul, vielleicht sollte man sich das mal ansehen:

Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



retrograde
Beiträge: 2

Re: Deinterlacing (theorie)

Beitrag von retrograde »

Super Infos, vielen Dank!

Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist? Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite. Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?

Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?



cantsin
Beiträge: 14269

Re: Deinterlacing (theorie)

Beitrag von cantsin »

retrograde hat geschrieben: So 16 Jan, 2022 20:16 Was ich noch nicht ganz verstehe ist wie das mit den Halbbildern gedacht war. Ist es so das ein solches analoges Videosignal einfach nur eine Aneinanderreihung von Halbbildern ist, welche einfach nur jeweils um eine Zeile verschoben ist?
In den meisten Fällen, bzw. bei klassischen PAL- und NTSC-Fernsehen: Ja.

Das wurde ja mit beginn dieser Technik so geplant, also nicht als Verbesserung oder so nachträglich eingeführt. Der Hintergrund ist klar, wegen der begrenzten Bandbreite.
Ja, aber auch weil die Kathodenstrahlen der Bildröhren analoger Fernseher nicht schneller waren, bzw. nicht 480 (NTSC-) bzw. 576 (PAL-) Zeilen in einem Rutsch runterleuchten konnte, sondern nur 240 bzw. 288 Zeilen pro 1/50 Sekunde.
Aber es muss schon damals klar gewesen sein das jedes Halbbild bei schnellen Bewegungen ein leicht anderes Motiv zeigt. Warum aber dann überall der Hinweise das 1. und 2. Halbbild zu einem Vollbild gehören. Das wäre dann doch eigentlich nicht richtig?
Das ist schon richtig, wenn das Ausgangmaterial z.B. 25p ist (z.B. bei einem Fernseh- oder Kinofilm) und dann als 50i ausgestrahlt werden. Da ist das Deinterlacing tatsächlich nur das simple Zusammensetzen der beiden Halbbilder.
Mal angenommen ich könnte meinen Röhren-TV so einstellen das er nur eines der beiden Halbbilder zeigt, also z.B. nur die Geraden. Würde ich dann schwarze Streifen auf meinem TV-Bild sehen?
Du würdest Stroboskop-Flackern sehen, weil sich die Bildfrequenz halbiert.



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von roki100 - Fr 1:32
» Was hörst Du gerade?
von klusterdegenerierung - Fr 0:41
» Dank KI: Propagandafilm leichtgemacht
von Jalue - Fr 0:32
» Anfänger im Schnitt Stunden- bzw. Tageshonorar Beteiligung am Gewinn
von Jalue - Fr 0:13
» Blackmagic PYXIS 6K: Die Vollformat „Box“-Kamera mit Viewfinder, 2x SDI, Sideplates (!) uvm.
von freezer - Fr 0:09
» Repariert bebob noch ältere Produkte?
von Skeptiker - Fr 0:01
» NAB 2024 Neuigkeiten
von pillepalle - Do 22:35
» Sony bringt weiteres Weitwinkel-Zoomobjektiv - FE 16-25mm F2.8 G
von rush - Do 21:59
» Microsoft VASA-1 generiert realistische Video-Portraits aus einer Audiodatei
von MK - Do 20:51
» Suche JVC DT-V1910CG oder Sony BVM D/A-Serie Monitore
von guut - Do 19:16
» Linsen (Vintage, Anamorphic & Co.)
von TomStg - Do 16:55
» Western Digital Ultrastar Transporter: 368 TB in der Aktentasche
von juergensaibic - Do 15:54
» Blackmagic URSA Cine 12K - 16 Blendenstufen für 15.000 Dollar!
von iasi - Do 15:53
» Freefly Systems Ember S2.5K - High Speed Kamera für 25.000 Dollar
von roki100 - Do 15:01
» Atomos 5" Shinobi/SDI und Ninja/V Zubehör-Set fabrikneu/unbenutzt
von Rockie - Do 13:29
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von Skeptiker - Do 12:43
» Messevideo: Atomos NINJA PHONE erklärt
von rob - Mi 22:39
» Was hast Du zuletzt gekauft?
von Jörg - Mi 22:08
» Blackmagic Box Camera
von roki100 - Mi 20:31
» GPS Receiver GP-E2 Standort anzeigen
von Reinhold888 - Mi 17:32
» Western Digital stellt weltweit erste 4 TB SD-Karte vor
von Walter Schulz - Mi 16:43
» Insta360 X4 360°-Action-Kamera filmt in 8K
von Achim KCW - Mi 16:13
» Netflix „Ripley“
von TomStg - Mi 13:17
» Adobe entfernt negativ promts
von klusterdegenerierung - Mi 12:09
» Tragischer Unfall am Set trotz Filmwaffe: Kamerafrau stirbt nach Schuß von Alec Baldwin
von 7River - Mi 11:23
» Dehancer Pro - Filmsimulation auf höchstem Niveau
von Frank Glencairn - Mi 10:19
» Blackmagic DaVinci Resolve 19 jetzt auch auf Deutsch
von medienonkel - Mi 9:58
» DJI Avata 2, Goggles 3 und RC Motion 3 im ersten Praxistest
von Videopower - Di 23:35
» RED ist nun eine Nikon-Tochter - und Jarred Land abgesetzt
von iasi - Di 23:24
» ASUS ProArt PA32KCX - 8K Mini-LED-Monitor mit DisplayPort 2.1
von MK - Di 20:22
» Blackmagic stellt neues DaVinci Resolve Micro Color Panel für 495 Dollar vor
von patfish - Di 19:57
» Neues Blackmagic DaVinci Resolve 19 bringt über 100 neue Funktionen
von MK - Di 19:23
» Videointerview: Die neue Blackmagic PIXIS 6K Box Kamera erklärt
von iasi - Di 18:42
» Adobe Firefly für Premiere Pro - Generative Extend, Object removal/addition
von klusterdegenerierung - Di 16:47
» Welches Highclass Smartphone für gute BTS-Video?
von Frank Glencairn - Di 16:09