slashCAM
Administrator
Administrator
Beiträge: 11279

Neuronale Kompression zum Ausprobieren HiFiC- High-Fidelity Generative Image Compression

Beitrag von slashCAM »


Forscher der ETH Zürich und von Google haben einen sehr interessantes Modell zur neuronalen Kompression veröffentlicht. Unter dem Projekttitel "High-Fidelity Generative I...
Bild
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neuronale Kompression zum Ausprobieren HiFiC- High-Fidelity Generative Image Compression



dosaris
Beiträge: 1701

Re: Neuronale Kompression zum Ausprobieren HiFiC- High-Fidelity Generative Image Compression

Beitrag von dosaris »

beeindruckend ?

nur anscheinend.

Wenn die Methode auf genau die genutzten Bilder trainiert wurde werden die Resultate
fast zwangsläufig gut sein. Im extremsten Falle beinhaltet die Bilddatei nur den Eintrag:
Bild #5
uns sofort wird das Photo in Spitzenqualität dargestellt bei wahnsinnigem "Kompressionsfaktor".

Jedes verallgemeinerte Prinzip muss dagegen (stark) abfallen.

was lehrt uns das?

Eigentlich nix,
außer dass es so ist wie dargestellt.
Interessant wären Darstellungen von Photos, die mit den Trainingsdaten völlig unkorreliert sind.



-paleface-
Beiträge: 4653

Re: Neuronale Kompression zum Ausprobieren HiFiC- High-Fidelity Generative Image Compression

Beitrag von -paleface- »

Interessant für Instagram und Co.
Wie viele tausend Fotos gibt es von 1 und dem selben Gebäude nur mit nem anderen Touristen davor.
Die können sich damit ordentlich Datenrate sparen.
www.mse-film.de | Kurzfilme & Videoclips

www.daszeichen.de | Filmproduktion & Postproduktion



tom
Administrator
Administrator
Beiträge: 1543

Re: Neuronale Kompression zum Ausprobieren HiFiC- High-Fidelity Generative Image Compression

Beitrag von tom »

dosaris hat geschrieben: So 20 Sep, 2020 11:39 beeindruckend ?

nur anscheinend.

Wenn die Methode auf genau die genutzten Bilder trainiert wurde werden die Resultate
fast zwangsläufig gut sein. Im extremsten Falle beinhaltet die Bilddatei nur den Eintrag:
Bild #5
uns sofort wird das Photo in Spitzenqualität dargestellt bei wahnsinnigem "Kompressionsfaktor".

Jedes verallgemeinerte Prinzip muss dagegen (stark) abfallen.

was lehrt uns das?

Eigentlich nix,
außer dass es so ist wie dargestellt.
Interessant wären Darstellungen von Photos, die mit den Trainingsdaten völlig unkorreliert sind.
Wenn das neuronale Netzwerk mit den Beispielbildern trainiert worden wäre, wären die Demos natürlich total sinnlos - wir gehen allerdings bei einer Arbeit der ETH Zürich davon aus, daß das nicht der Fall ist, sonst würden sich die Forscher im wissenschaftlichen Kontext lächerlich machen.

Das das nicht der Fall ist kann man allerdings daran erkennen, daß die Strukturen des HiFiC Bildes eben nicht exakt dem Original entsprechen, sondern eher logische Ergänzungen sind.

Und natürlich muss der Algorithmus mit Photos trainiert sein, die irgendwie Ähnlichkeiten aufweisen mit dem Demomaterial, sonst würde er ja nicht funktionieren, aber mit einem genügend großen Korpus als Trainingsphotos sollte es ja tatsächlich der Fall sein, daß er alles schon einmal so ähnlich gesehen hat.

Wie gut HiFic mit den unterschiedlichsten Bildern funktioniert werden wir ja bald sehen, wenn der Code online ist.
slashCAM



 Aktuelle Beiträge [alle Foren]
 
» James Cameron will Schauspieler nicht durch Prompts ersetzen
von philr - Fr 23:30
» Monitore unter oder über Monitoren? :)
von pillepalle - Fr 23:03
» ARD Produzentenbericht 2024
von freezer - Fr 22:27
» ZILR ZIPR - Kamerawagen mit Elektroantrieb vorgestellt
von Jott - Fr 21:43
» BildundTonFabrik in Köln!
von Nigma1313 - Fr 19:39
» Netflix kauft Warner/HBO
von cantsin - Fr 19:08
» Sony Alpha 7 V ist da: 33MP Partially Stacked Sensor, 4K 60p ohne Crop und 16 Stops
von cantsin - Fr 16:33
» ARRI soll (Teil)Verkauf erwägen
von dienstag_01 - Fr 16:03
» Ist Videojournalist/Videoproducer/Kameramann ein aussterbender Beruf?
von Mantas - Fr 14:32
» Sehr Leichte Doku Kamera?
von cantsin - Fr 13:46
» Antigravity A1 - die erste 360° Drohne ist da
von tom - Fr 13:39
» Kling Video O1 - Multimodales Modell für generative und editierende Video-KI
von Xergon - Fr 4:31
» Was schaust Du gerade?
von pillepalle - Fr 2:38
» Bye Bye Crucial - Micron stellt Speichergeschäft für Privatkunden ein
von Drushba - Do 19:26
» Nikon ZR Lesertest - kleine Kamera, riesiges Interesse
von cantsin - Do 17:56
» Automatische Umschaltung auf Single‑ Viewer bei Widescreen- Monitor deaktivieren
von AndySeeon - Do 17:38
» Antigravity A1 - erste 360°-Kameradrohne ist offiziell
von Clemens Schiesko - Do 17:09
» Nikon ZR - Cinematische Anmutung durch halbiertes Debayering mit RED RAW NE
von Magnetic - Do 17:07
» Sony und slashCam verlosen eine FX2 Cinema Line Kamera
von Magnetic - Do 14:19
» Zeitrafferaufnahme in Hannover?
von Pianist - Do 13:09
» Biete Sony FX2
von dnalor - Do 10:20
» Externe Stromversorgung für Nikon ZR
von Clemens Schiesko - Do 0:30
» Was hörst Du gerade?
von Nigma1313 - Do 0:27
» Suche DZOFilm Catta Zoom 18-35mm, Kauf oder Tausch
von FocusPIT - Mi 20:56
» Fell für DeadCat - evtl. Meterware gesucht
von Jörg - Mi 9:21
» Zlog2 und V-Log Vergleich
von Darth Schneider - Di 19:10
» PITCH DEIN DREHBUCH!
von Nigma1313 - Di 14:08
» Blackmagic DaVinci Resolve 20.3 bringt Support für 32K-Workflows und mehr
von Jott - Di 11:59
» Runway Gen-4.5 ist da - wieder auf Augenhöhe mit Veo und Sora?
von slashCAM - Di 10:45
» !!BIETE!! DJI AIR 3 Fly More Combo RC2
von klusterdegenerierung - Di 9:22
» Dedo Weigert gestorben
von pillepalle - Di 2:43
» Mini DV auf PC übertragen - verlustfrei
von blueplanet - Mo 21:26
» Audio zu dünn und leise – bitte um Unterstützung
von Chiara - Mo 20:48
» ZUNOW WCZ-280 4K Weitwinkelvorsatz
von kasar - Mo 17:22
» ByteDance Vidi2 produziert selbstständig fertige Videos aus Rohmaterial
von slashCAM - Mo 15:57