Dieses Projekt ("Handheld Multi-frame Super-resolution"), das aktuell schon als Funktion genutzt wird im Google Pixel 3, nutzt das natürliche minimale Zittern von aus der Hand geschossenen Bildern dazu aus, um aus einer Reihe schnell geschossener, verwackelter RAW Bilder eines Motivs ein Bild mit höherer Auflösung ("Superresolution") als die der Einzelbilder und einem geringeren Signal/Rauschabstand zu extrapolieren. Der Schritt des sonst üblichen Demosaicings wird durch die Kombination von R, G und B Pixeln ersetzt.
Das natürliche Zittern der Hand sorgt für einen Versatz von einigen Pixeln zwischen jedem Bild - ideal, um Superresolutionbilder daraus zu errechnen. Bei guter Beleuchtung reicht eine Serie von ca. 7 RAW-Photos aus, bei schlechterer Beleuchtung führen noch mehr Bilder zu besseren Ergebnissen mit deutlich reduziertem Bildrauschen.
Der Algorithmus läuft mit 100 Millisekunden pro 12-Megapixel RAW-Burst-Frame auf handelsüblichen Smartphones und bildet die Grundlage für die Super-Res Zoom-Funktion sowie den Night Sight Modus von Googles aktuellem Top-Smartphone, dem Google Pixel 3.
// Top-News auf einen Blick:
- Blackmagic DaVinci Resolve 20 Beta 2 bringt neue Funktionen und Bugfixes
- Blackmagic Camera for Android 2.1 bringt neue Features
- Neuer superschneller PoX Flash-Speicher könnte DRAM und SSDs ersetzen
- Achtung: Verpixelte Videos können wieder kenntlich gemacht werden
- KI-generierte Fake-Trailer: Wie Hollywood an der Irreführung der Zuschauer ...
- Beleuchtung für Foto und Video lernen mit kostenlosem Tool von Google
