Noch ist die Encodingzeit etwas zäh, aber ein neues Paper belegt, was von vielen Beobachtern aktuelle KI-Algorithmen schon länger erwartet wurde. Ein auf neuronalen Netze...
Könnt ihr dies nicht einfach (wie die meisten) "AI" nennen; stolpere jedesmal über dieses KI, dass ich nur bei euch lese...
Antwort von Frank Glencairn:
Ich glaub wenn man einen Median Filter drauf haut sieht's genauso aus :D
Antwort von Skeptiker:
Zitat (slashCAM): ... Ein auf neuronalen Netzen beruhender Codec schlägt in diesem Versuch alle bisher bekannten Codecs im Bezug auf Bildqualität und Effizienz. ..."
Kommt darauf an, was man von "Bildqualität" erwartet.
Wenn es die Details sind, so vermisse ich die im 9er-Bildblock links unten (3 Vögel beim Wegfliegen) im Vergleich zu H.265 rechts unten (Strukturen in der weissen Brust des Vogels und einzelne Federn des ausgebreiteten Flügels).
Zitat (slashCAM) "... Stattdessen wirken die feinsten Details eher wie mit einem Aquarellpinsel gemalt ...".
Eben. Falls die feinsten Details dann überhaupt noch vorhanden sind. Kennt man bereits von Bildern, die übermässug entrauscht wurden - Stichwort "Wachsgesichter".
Aber stimmt! - beim neuen Codec fehlen neben an sich erwünschten Details eben auch die unerwünschten Pixel-Artefakte. In der verlinkten Kurzfasssung (Abstract) des wiss. 'Papers' als "blocking artifacts and pixelation" bezeichnet - dort ist in Bezug auf den Vorsprung in der Kodier-Effizienz übrigens nur von "Standard Definition" (herkömmliche Files bis zu 1.6x grösser) und "HD 1080p" (herkömmliche Files bis zu 1.2x grösser) die Rede.
Fazit:
Im bin vorläufig skeptisch.
Das ist natürlich ein vorschnelles Urteil aufgrund zweier Bildbeispiele (bei denen mir die Kodier-Bitrate nicht klar ist - liegt die eher im tiefsten Brereich, damit die Pixelartefakte bei H.265 & Co überhaupt sichtbar werden?), aber ob Aquarellierung mit Detailverlust zugunsten eines harmonischen Gesamt-Bildeindrucks akzeptabel ist oder nicht, hängt wohl in erster Linie von der Verwendung der Bilder ab (und davon, wie wichtig eine möglichst geringe Datenrate mit trotzdem fehlenden Kompressionsartefakten bei akzeptiertem Detailverlust ist).
Antwort von WoWu:
@Frank
Es ist die Fage, ob man das überhaupt als CODEC bezeichnen kann oder nicht wesentlich treffender als Bild-Enhancement.
NETFLIX macht das seit 2016 und setzt AI Algorithmen zur QoE aktiv seit Feb.2017 in seinen Feeds ein.
Auch Harmonic hat auf der 2016 sein EyeQ vorgestellt.
Insofern ist das auch nichts wirklich Neues und auch Bildparameter können nicht durch Scalierung verbessert werden, was für einen Codec zutrifft. Lediglich überlagernde Bildartefakte werden durch solche Algorithmen im Wiedergabeweg überdeckt (und nicht beseitigt, weil sie Teil des ursprünglichen (zuliefer) Codecs sind).
Antwort von patshi:
Die Details der Federn (unterer "Kamm" am Flügel) sind wegoptimiert, für mich ist das keine Verbesserung, sondern eher eine verschlimmbesserung. Da muss die KI noch um einiges intelligenter werden damit auch Details vernünftig gut abgebildet werden. Ein weiches Bild ohne Details sieht für das Menschliche Auge nicht scharf aus, es braucht Details und Mikrostrukturen, nicht nur scharfe Kanten und gesoftete Flächen.
Antwort von Frank Glencairn:
Wie viele neue "gamechanger codecs" haben wir hier in den letzten 5 Jahren in den News gesehen. und wie viele davon sind wieder in der Versenkung verschwunden? Die meisten - so wirds dem hier auch gehen, zumal die Vorteile bestenfalls minimal sind.
Wahrscheinlich gabs Fördergelder, wenn man was macht, wo man irgendwie KI drauf schreiben kann.
KI ist nach Quantensprung, Gamechanger (auf Wunsch von Rick) und Feinripp, mittlerweile das am meisten missbrauchte Wort. :-)
Antwort von CameraRick:
"Frank Glencairn" hat geschrieben:
KI ist nach Quantensprung und Feinripp, mittlerweile das am meisten missbrauchte Wort. :-)
Nimm doch bitte noch "gamechanger" in die Liste mit auf.
Antwort von -paleface-:
Skeptiker hat geschrieben:
Fazit:
Im bin vorläufig skeptisch.