Wissenschaftler der ATR Computational Neuroscience Laboratories und der Kyoto University haben einen Deep Learning basierten Algorithmus entwickelt, welcher in der Lage ist, mittels Messung der Gehirnaktivität eines Menschen grob schemenhafte Bilder dessen zu produzieren, was dieser gerade sieht.
Die Gehirnaktivität wurde mittels eines fMRI (funktionelle Magnetresonanztomographie) ermittelt, welches basierend auf dem Grad der Sauerstoffsättigung im Blut mit hoher räumlicher Auflösung die Aktivität bestimmter Hirnareale messen kann.

Die Besonderheit: das so trainierte neuronale Netzwerk (DNN - Deep Neural Network) kann nicht nur Bilder, welche ein Mensch gerade sieht, halbwegs rekonstruieren, sondern auch Formen, die er sich nur vorstellt. Das DNN bildet durch seine verschiedenen Schichten eine strukturelle Ähnlichkeit mit den hierarchischen Verarbeitungsprozessen der (in diesem Fall visuellen) Sinnesreize im menschlichen Gehirn ab, welche dazu genutzt wird, das rekostruierte Bild dem vorgestellten anzugleichen.
Zur Berechnung des DNN wurde eine Nvidia GTX 1080Ti sowie eine auf machine-learning spezialisierte Tesla K80 GPU genutzt. Trainiert wurde das neuronale Netzwerk anhand von 1000 Photos, welche drei Versuchsteilnehmern, die in einem Magnetresonanztomographen lagen, über einen Zeitraum von 10 Monaten gezeigt wurden.

// Top-News auf einen Blick:
- Apple AirPods als Kamera-Fernbedienung und für Audioaufnahme in Studioqualität
- Sony WH-1000XM6 bringt noch besseren Klang und Noise Cancelling
- Seagate liefert 40 TB Festplatten aus - aber noch nicht für jedermann
- Neue LTO-10 Generation mit 30 TB - eine Alternative zum Festplattenarchiv?
- Acer ProCreator PE320QXT - 6K Monitor für nur 1.199 Euro!