Normalerweise können Gegenstände auf Photos nur zweidimensional bearbeitet werden - denn darüber, welche räumliche Form ein Objekt hat, und wie es folglich von einer anderen Perspektive aus betrachtet aussieht, fehlen einfach die Informationen. Dieses Hindernis umgeht der demnächst auf der Siggraph 2014 vorgestellte Algorithmus eines Teams der Carnegie Mellon und der University of Berkley, indem aus einer Datenbank von 3D Modellen ein passendes ermittelt wird, um die fehlenden Informationen über ein Objekt zu erhalten.

Damit wird es dann möglich, die Orientierung des Gegenstands auf dem Photo beliebig zu ändern, ihn woanders zu platzieren oder ihn auch zu animieren. Der Algorithmus sorgt auch für die korrekte Textur, Farbe, Schattenwurf und Beleuchtung des Objekts - inklusive einer stimmigen Extrapolation von eventuell nicht mehr verdecktem Hintergrund und einer halbautomatischen Anpassung des 3D-Modells an das Objekt, falls es etwas vom Modell abweichen sollte. Die Technik kann auch auf gemalte Bilder oder Zeichnungen angewendet werden. Auf der Webseite des Projekts kann auch der Programmcode (für OS X) runtergeladen werden.
// Top-News auf einen Blick:
- DJI Mini 5 Pro soll so viel wie die Mini 4 Pro kosten
- Nikon Z6III bekommt u.a. Auto-Capture, USB-Streaming, Vogelmodus
- Blackmagic senkt Preise für URSA Cine 12K und 17k Kits radikal
- Google Gemini 2.5 Flash Image Nano Banana bringt Charakterkonsistenz und Multi-Imag
- Neue Sony FX3 und FX30 Firmware bringt BIG6-Startbildschirm, RAW-Video per HDMI und ...
- Google Pixel 10 Pro (XL) kommt mit Generativer KI direkt in der Kamera