Logo
/// News

Die Lichtsetzung von Porträtphotos nachträglich ändern // Siggraph 2019

[09:36 Fr,14.Juni 2019 [e]  von ]    

Auch dieses Mal wurden auf der Siggraph 2019 wieder eine Vielzahl extrem interessanter Projekte vorgestellt - viele davon bieten praktische neue Lösungen im Bereich digitaler Videobearbeitung sowie Animation/Simulation, wie etwa die virtuelle Neubeleuchtung von Portätphotos und Bauwerken oder das Entzerren von Weitwinkelportraits.

Die überwiegende Anzahl aller Projekte nutzt neuronale Netze, welche erst mit entsprechenden Daten (Bildern) trainiert werden, um dann anhand dieser Erfahrungen relativ gute Annahmen zu treffen über noch unbekannte Objekte, die sich aber ähnlich verhalten wie die bereits gelernten. Wir werden in den nächsten Tagen mehrere der relevantesten Projekte vorstellen. Wie immer gilt für Siggraph-Projekte, daß es sich um Forschungsarbeiten handelt, welche neue Wege aufzeigen - zur täglichen Anwendung in Zukunft müssen sie aber erst in die Form von Programmen/Plugins o.ä. gegossen werden.


Portrait-Relighting
Links Original - rechts das neu beleuchtete Portrait


Eines der interessantesten diesjährigen Siggraph Projekte ist wohl die nachträgliche Änderung der Beleuchtung von Porträtphotos aka "Single Image Portrait Relighting". Die exakte Ausleuchtung eines Gesichts mittels totaler Kontrolle der Belichtungssituation ist normalerweise semi-/professionellen Photographen vorbehalten - dieser Algorithmus ermöglicht jetzt die nachträgliche Änderung der Lichtsetzung samt deren Effekte wie glänzender Stellen und Schattenwurf auf ein Gesicht bei ganz normales Portraitphotos.

Der Algorithmus kann ein 640x640 großes Bild mit neuer Beleuchtung in nur 160 Millisekunden berechnen, es wären also in Zukunft mittels eines interaktiven Tools auch eine Vorschau in Echtzeit möglich, in der das Licht zum Beispiel eines Selfies virtuell neu gesetzt wird. Es reicht im Gegensatz zu früheren Ansätzen ein einziges Bild aus, zudem wird keine spezialisierte Hardware genutzt - es reicht das Bild einer normalen Handykamera.



Die Methode basiert auf einem neuronalen Netz das anhand eines kleinen Datensatz von 18 Personen, die unter verschiedenen gerichteten Lichtquellen in einem kontrollierten Lichtstufenaufbau erfaßt wurden, trainiert wurde. Anhand dieser gelernten Bilder überträgt das neuronale Netz dann die gewünschte Lichtsituation auf ein neues Gesicht. Wir überzeugend das Ergebnis ist, könnt ihr anhand des Demovideos selbst beurteilen.

Link mehr Informationen bei arxiv.org



Zur Übersicht aller unserer News zur Siggraph 2019

  
[noch keine Leserkommentare] [Kommentar schreiben]   

  Vorige News lesen Nächste News lesen 
bildYouTube: einige wenige Videos bekommen die überwiegenden Views bildLenovo mit neuen leistungsstarken mobilen ThinkPad P Workstations


verwandte Newsmeldungen:
Compositing:

Blackmagic DaVinci Resolve 17 Public Beta 3 bringt Verbesserungen 1.Dezember 2020
Updates: Magic Bullet Looks und Colorista sowie Trapcode Particular bekommen neue Funktionen 23.November 2020
Neuer Nvidia Studio Treiber optimiert GPU Leistung in DaVinci Resolve 17 und weiteren Apps 21.November 2020
Blackmagic DaVinci Resolve 17.1 Beta 2 ist da 20.November 2020
Mainconcept Codec Plugin für DaVinci Resolve bringt Support für HEVC, Sony XAVC/XDCAM und P2 AVC Ultra 17.November 2020
Blackmagic DaVinci Resolve 17 - neue Farb-Tools, schnelleres Editing, massives Audio-Update 9.November 2020
Blackmagic DaVinci Resolve 17 kommt am 9. November 6.November 2020
alle Newsmeldungen zum Thema Compositing


[nach oben]

















passende Forenbeiträge zur News:

Archive

2020

Dezember - November - Oktober - September - August - Juli - Juni - Mai - April - März - Februar - Januar

2019
Dezember - November - Oktober - September - August - Juli - Juni - Mai - April - März - Februar - Januar

2018

2017

2016

2015

2014

2013

2012

2011

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

2000






































update am 3.Dezember 2020 - 18:02
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*