[10:14 Sa,10.Februar 2018 [e] von Thomas Richter] |
Wissenschaftler der ATR Computational Neuroscience Laboratories und der Kyoto University haben einen Deep Learning basierten Algorithmus entwickelt, welcher in der Lage ist, mittels Messung der Gehirnaktivität eines Menschen grob schemenhafte Bilder dessen zu produzieren, was dieser gerade sieht. ![]() Besispielbilder
Die Besonderheit: das so trainierte neuronale Netzwerk (DNN - Deep Neural Network) kann nicht nur Bilder, welche ein Mensch gerade sieht, halbwegs rekonstruieren, sondern auch Formen, die er sich nur vorstellt. Das DNN bildet durch seine verschiedenen Schichten eine strukturelle Ähnlichkeit mit den hierarchischen Verarbeitungsprozessen der (in diesem Fall visuellen) Sinnesreize im menschlichen Gehirn ab, welche dazu genutzt wird, das rekostruierte Bild dem vorgestellten anzugleichen. Zur Berechnung des DNN wurde eine Nvidia GTX 1080Ti sowie eine auf machine-learning spezialisierte Tesla K80 GPU genutzt. Trainiert wurde das neuronale Netzwerk anhand von 1000 Photos, welche drei Versuchsteilnehmern, die in einem Magnetresonanztomographen lagen, über einen Zeitraum von 10 Monaten gezeigt wurden. ![]() Funktionsweise Die noch sehr unscharfen Resultate können in Zukunft verbessert werden durch den Einsatz höher auflösender, bildgebender Verfahren, noch mehr Training und Änderungen des Algorithmus. Sollte die Bildqualität nochmals deutlich besser werden, wäre das eine Technologie, die wahrhaft einem Science Fiction Film entsprungen schiene: nur per Vorstellungskraft könnten dann Bilder gestaltet, Modelle entworfen oder bildliche Erinnerungen anderen Menschen gezeigt werden können. Voraussetzung wäre natürlich auch ein etwas weniger hinderlicheres Format des erforderlichen Magnetresonanztomographen bzw. eine andere Technologie zum exakten Messen der Gehirnaktivität. ![]() |
![]() |