slashCAM
Administrator
Administrator
Beiträge: 11279

Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von slashCAM »


Mit Hilfe der Magnetoenzephalographie MEG lassen sich ohne Eingriff in den menschlichen Kopf Hirnaktivitäts-Messungen durchführen. Hierbei werden mit tausenden Messungen ...
Bild
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität



SixFo
Beiträge: 194

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von SixFo »

"Und zeigt, dass uns KI auch helfen wird, in Zukunft noch mehr Geheimnisse über uns selbst zu lüften."
Wohl eher hilft es Großkonzernen, Nachrichtendiensten und Regierungen uns noch gläserner zu machen. Danke nein.



Drushba
Beiträge: 2613

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von Drushba »

Irgendwann reicht es vielleicht aus, einen Film nur noch zu träumen bzw. sich vorzustellen. Wobei dies ganz schöne Disziplin und Konzentration erfordern kann - Yoga-Filmschulen werden wie Pilze aus dem Boden spriessen...))



dienstag_01
Beiträge: 14690

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von dienstag_01 »

Ich glaube, hier geht es einfach nur um Raubkopien. Den Stream einfach aus dem Gehirn aufzeichnen und abspeichern.
Ist eigentlich wie immer.



cantsin
Beiträge: 17012

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von cantsin »

Naja, erinnert doch ein bisschen an einen Schaustellertrick (wenn ich das ganze nicht falsch verstanden habe).

Man zeichnet Gehirnströme auf und weiss, woran die Testperson gerade denkt bzw. was sie in der Imagination sieht (weil sie es während der Aufzeichnung mitteilt). Jetzt verschlagwortet man die aufgezeichneten Gehirnstrommuster entsprechend, bzw. ordnet EKG-Kurven die entsprechenden Tags (wie "Zug", "Blumenwiese" etc.) zu.

Und wenn man danach erneut das EKG der Testpersonen aufzeichnet und sich die o.g. Muster wiederholen - also z.B. die EKG-Grafik, die zuvor mit einer Blumenwiese verschlagwortet wurde - sagt man einer generativen KI (wie Dall-E, Midjourney oder Stable Diffusion), dass sie das Bild einer Blumenwiese generieren soll.

Vorerst sehe ich sowas noch eher auf Jahrmärkten.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



dienstag_01
Beiträge: 14690

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von dienstag_01 »

cantsin hat geschrieben: Fr 20 Okt, 2023 17:23 Naja, erinnert doch ein bisschen an einen Schaustellertrick (wenn ich das ganze nicht falsch verstanden habe).

Man zeichnet Gehirnströme auf und weiss, woran die Testperson gerade denkt bzw. was sie in der Imagination sieht (weil sie es während der Aufzeichnung mitteilt). Jetzt verschlagwortet man die aufgezeichneten Gehirnstrommuster entsprechend, bzw. ordnet EKG-Kurven die entsprechenden Tags (wie "Zug", "Blumenwiese" etc.) zu.

Und wenn man danach erneut das EKG der Testpersonen aufzeichnet und sich die o.g. Muster wiederholen - also z.B. die EKG-Grafik, die zuvor mit einer Blumenwiese verschlagwortet wurde - sagt man einer generativen KI (wie Dall-E, Midjourney oder Stable Diffusion), dass sie das Bild einer Blumenwiese generieren soll.

Vorerst sehe ich sowas noch eher auf Jahrmärkten.
Wie sollte man denn deiner Meinung nach Muster erkennen?



cantsin
Beiträge: 17012

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von cantsin »

dienstag_01 hat geschrieben: Fr 20 Okt, 2023 17:31 Wie sollte man denn deiner Meinung nach Muster erkennen?
Aus den aufgezeichneten Daten. Machine learning-KI macht nichts anderes (bzw. ist nichts anderes als Mustererkennung in beliebigen Datensätzen).
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



dienstag_01
Beiträge: 14690

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von dienstag_01 »

cantsin hat geschrieben: Fr 20 Okt, 2023 18:08
dienstag_01 hat geschrieben: Fr 20 Okt, 2023 17:31 Wie sollte man denn deiner Meinung nach Muster erkennen?
Aus den aufgezeichneten Daten. Machine learning-KI macht nichts anderes (bzw. ist nichts anderes als Mustererkennung in beliebigen Datensätzen).
Das würde bedeuten, dass unser Gehirn das komplette Bild abspeichert und in diesen Daten dann gesucht werden kann. Glaube ich nicht, dass Sehen so funktioniert. Ich denke, dass es kein Sehen ohne Sprache gibt.



cantsin
Beiträge: 17012

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von cantsin »

dienstag_01 hat geschrieben: Fr 20 Okt, 2023 18:33
cantsin hat geschrieben: Fr 20 Okt, 2023 18:08

Aus den aufgezeichneten Daten. Machine learning-KI macht nichts anderes (bzw. ist nichts anderes als Mustererkennung in beliebigen Datensätzen).
Das würde bedeuten, dass unser Gehirn das komplette Bild abspeichert und in diesen Daten dann gesucht werden kann. Glaube ich nicht, dass Sehen so funktioniert. Ich denke, dass es kein Sehen ohne Sprache gibt.

Nee, soviel ist nicht nötig für die hier vorgestellte KI-Lösung. Da reicht es, wenn bestimmte Bildvorstellungen bestimmte Reize im Gehirn auslösen, die man per EKG aufzeichnet und einer Mustererkennungs-KI zum Fraß vorlegt. Und man dann heuristisch davon ausgeht, dass ähnliche, später aufgezeichnete Reize mit ausreichender Wahrscheinlichkeit mit denselben oder ähnlichen Bildvorstellungen korrespondieren.

Natürlich ist das völlig spekulativ und Kaffeesatzleserei, aber solange es wenigstens ein paar mal funktioniert, wird man das System behalten. So funktioniert ja die gesamte heutige KI....
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



 Aktuelle Beiträge [alle Foren]
 
» Videorelevante Firmware-Updates für LUMIX S1II(E) und S1RII
von slashCAM - Mi 11:18
» Sehr Leichte Doku Kamera?
von elephantastic - Mi 8:33
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von Darth Schneider - Mi 8:07
» Was schaust Du gerade?
von 7River - Mi 7:02
» Panasonic V-Log Rauschen
von cantsin - Di 23:18
» Blackmagic bietet bis zu 30% Rabatt auf seine 6K Kameras
von slashCAM - Di 20:51
» Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
von cantsin - Di 20:46
» Nexus G1 - Blackmagic Pocket Cinema Camera 6K im Carbon Cine-Gehäuse
von Jott - Di 18:47
» iPhone 17 Pro Max im Praxistest: ProRes RAW, Apple Log 2 - inkl. DJI Osmo Pocket Vergleich
von Axel - Di 16:53
» Blackmagic PYXIS 12K - Sensor-Test - Rolling Shutter und Dynamik
von freezer - Di 15:29
» Schnittrechner
von Bluboy - Di 15:18
» NETFLIX & CO AM ENDE? Über den deutschen Streamingmarkt mit FRANK JASTFELDER (Ex-Developmentchef von SKY)
von 7River - Di 13:42
» ARRIs Color KnowHow könnte Millionen Wert sein - als Workflow Lizenz für Dritte
von Bildlauf - Di 13:18
» Ich biete Soundtrackmusik
von MikeBreeze - Di 13:07
» TTARtisan Cine-Objektive 50mm T2.1 und 85mm T2.1 mit Dual Bokeh vorgestellt
von slashCAM - Di 12:54
» Teltec Black Deals sind online - und noch günstiger mit Gutscheincodes
von rush - Di 12:22
» Klatschen Entfernen
von Jacek - Mo 20:57
» Neues zur DJI Avata 360 - FPV- und 360°-Drohne per Dual Mode
von slashCAM - Mo 18:54
» Black Friday Deals für Kameras, Optiken und Licht von SmallRig, Obsbot, Tilta, ...
von ONV - Mo 16:16
» Mini 5 Pro - 500 m Grenze
von ice - Mo 6:26
» Zehn 3D-LUTs zum Grading von F-Log2 / F-Log2 C verfügbar
von CineMika - Mo 4:05
» Laptops von Dell und HP ohne H.265/HEVC-Unterstützung in Hardware?
von cantsin - So 22:21
» Verkaufe je einen Blackmagic Video Assist 7“ 12G und einen Video Assist 5“ 12G
von v-empire - So 20:44
» Unser Kinofilm "The Trail" nun auf Amazon Prime
von rob - So 19:40
» !!BIETE!! DJI AIR 3 Fly More Combo RC2
von klusterdegenerierung - So 15:55
» Verabschiedet sich Apple endgültig vom Mac Pro zugunsten des Mac Studio?
von TheBubble - So 12:32
» Wie arbeiten Schauspielagenten? Mit Andrea Lambsdorff
von Nigma1313 - Sa 22:52
» DJI Osmo Action 6 - erste Actioncam mit variabler Blende und quadratischem Sensor
von Jott - Sa 11:06
» Black Friday Angebot - Adobe Creative Cloud Pro über die Hälfte günstiger
von rush - Fr 19:54
» Coca-Cola gibt KI als Kreativität aus und lässt Weihnachts-Werbespot generieren
von roki100 - Fr 18:52
» Adobe Premiere 25.6 jetzt mit Firefly-, Frame.io V4- und Premiere App-Integration
von slashCAM - Fr 15:02
» Künftige Xbox Next: Vollwertiger Windows-PC mit Potenzial für Videobearbeitung
von Totao - Fr 13:21
» Kameradiebstahl
von Darth Schneider - Fr 10:42
» Blender 5.0 ist da: Meilenstein mit vielen Neuerungen für 3D, Animation und Postpro
von MaxSchreck - Fr 9:42
» Neue Actioncam DJI Osmo Action 6 soll größeren Sensor und variable Blende bekommen - und ProRes?
von Videopower - Do 23:11