[09:22 So,22.April 2018 [e] von Rudi Schmidts] |
Von der ETH Zürich kommt ein hochinteressantes Paper über "extrem gelernte Bildkomprimierung" mit neuronalen Netzen. Das wirklich spannende kann man dabei auf der verlinkten Projektseite mit der eigenen Maus am Bildschirm ausprobieren.
![]() Dies passiert, weil das Bild synthetisch aus gelernten Bildern erzeugt wird. Und weil das Original bei der Kompression nur mehr oder weniger als Objektreferenz-Beschreibung genutzt wird. Schaut man sich jedoch den Bus oder die Fassaden näher an, so stellt man fest, dass bis auf die korrekte Positionierung im Bild die Objekte vom Original deutlich abweichen. Was ist bei niedriger Datenrate also besser? Keine Details oder erfundene Details? Wir denken das kommt auf den Anwendungsfall an. Auf jeden Fall riecht es schon jetzt danach, dass ein digitales Bild mit einem derart phantasievollen Decoder wohl bei Nutzung irgendwie gekennzeichnet werden sollte. Ach ja, für flüssige Bewegtbild-Kompression dürfte sich dieses Verfahren bis auf weiteres nicht nutzen lassen, weil die Entscheidung, welche Details bei welchem Objekt genutzt werden schon durch einen minimalen Perspektivenwechsel "kippen" kann. So könnte sich dann schon mal der Modelltyp eines Autos zwischen zwei Frames sprunghaft ändern... ![]() |
![]() |