Und noch ein interessanter Algorithmus aus der Menge der wissenschaftlichen Veröffentlichungen zur Siggraph 2017: dieser hier von Forschern des MIT Computer Science and Artificial Intelligence Laboratory und Google verschönert Bilder noch bevor sie überhaupt geschossen sind, d.h. hochauflösende Photos werden auf mobilen Geräten in Echtzeit nach den Beispielen professioneller Photographen verbessert.
Dadurch soll (in den meisten Fällen) eine manuelle Nachbearbeitung entfallen - der Photograph sieht die verschönerte Version des Bildes schon in der Sucher-Vorschau auf dem Smartphone-Display.

Trainiert wurde der Algorithmus mithilfe Deep Learning anhand von einem Set von 5000 Photographien des MIT und Adobe welche von jeweils fünf Profi-Photographen per manueller Nachbearbeitung visuell optimiert wurden - sei es per Aufhellung, Änderungen am Kontrast oder Feintuning von Farben.
Die Essenz dieses Lernvorgangs ist durch die Abstraktionsleistung des neuronalen Netzwerks nicht sehr groß und kann in Form eines Algorithmus nahezu in Echtzeit auf Photos angewendet werden, um ihnen verschiedenen Stile zu verpassen bzw sie zu verschönern. Hier das detaillierte Forschungspaper.