Dieses Projekt ("Handheld Multi-frame Super-resolution"), das aktuell schon als Funktion genutzt wird im Google Pixel 3, nutzt das natürliche minimale Zittern von aus der Hand geschossenen Bildern dazu aus, um aus einer Reihe schnell geschossener, verwackelter RAW Bilder eines Motivs ein Bild mit höherer Auflösung ("Superresolution") als die der Einzelbilder und einem geringeren Signal/Rauschabstand zu extrapolieren. Der Schritt des sonst üblichen Demosaicings wird durch die Kombination von R, G und B Pixeln ersetzt.
Das natürliche Zittern der Hand sorgt für einen Versatz von einigen Pixeln zwischen jedem Bild - ideal, um Superresolutionbilder daraus zu errechnen. Bei guter Beleuchtung reicht eine Serie von ca. 7 RAW-Photos aus, bei schlechterer Beleuchtung führen noch mehr Bilder zu besseren Ergebnissen mit deutlich reduziertem Bildrauschen.
Der Algorithmus läuft mit 100 Millisekunden pro 12-Megapixel RAW-Burst-Frame auf handelsüblichen Smartphones und bildet die Grundlage für die Super-Res Zoom-Funktion sowie den Night Sight Modus von Googles aktuellem Top-Smartphone, dem Google Pixel 3.
// Top-News auf einen Blick:
- DJI Mini 5 Pro soll so viel wie die Mini 4 Pro kosten
- Nikon Z6III bekommt u.a. Auto-Capture, USB-Streaming, Vogelmodus
- Blackmagic senkt Preise für URSA Cine 12K und 17k Kits radikal
- Google Gemini 2.5 Flash Image Nano Banana bringt Charakterkonsistenz und Multi-Imag
- Neue Sony FX3 und FX30 Firmware bringt BIG6-Startbildschirm, RAW-Video per HDMI und ...
- Google Pixel 10 Pro (XL) kommt mit Generativer KI direkt in der Kamera
