Noch ist die Encodingzeit etwas zäh, aber ein neues Paper belegt, was von vielen Beobachtern aktueller KI-Algorithmen schon länger erwartet wurde. Ein auf neuronalen Netzen beruhender Codec schlägt in diesem Versuch alle bisher bekannten Codecs im Bezug auf Bildqualität und Effizienz. Einfach erklärt: Es wird dabei eine Folge von Frames in ihrer Struktur "verstanden", was deren Reproduktion ohne die üblichen Artefakte ermöglicht. Stattdessen wirken die feinsten Details eher wie mit einem Aquarellpinsel gemalt:
Lässt man objektive Messwerte -wie den der Strukturierten Ähnlichkeit (MS-SSIM)- die Qualität beurteilen, so gewinnt der neue Codec im Paper schon durch die Bank. Offen bleibt allerdings, ob dies auch mit anderen Testvideos oder mit speziellen Problemen wie schnellen Schwenks gelingen würde.
Auf jeden Fall scheint damit ein Beweis erbracht, dass Algorithmen mittels künstlicher Intelligenz durchaus noch niedrigere Kompressionsraten für die Distribution ermöglichen werden.