slashCAM
Administrator
Administrator
Beiträge: 11279

Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von slashCAM »


Mit Hilfe der Magnetoenzephalographie MEG lassen sich ohne Eingriff in den menschlichen Kopf Hirnaktivitäts-Messungen durchführen. Hierbei werden mit tausenden Messungen ...
Bild
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität



SixFo
Beiträge: 194

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von SixFo »

"Und zeigt, dass uns KI auch helfen wird, in Zukunft noch mehr Geheimnisse über uns selbst zu lüften."
Wohl eher hilft es Großkonzernen, Nachrichtendiensten und Regierungen uns noch gläserner zu machen. Danke nein.



Drushba
Beiträge: 2671

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von Drushba »

Irgendwann reicht es vielleicht aus, einen Film nur noch zu träumen bzw. sich vorzustellen. Wobei dies ganz schöne Disziplin und Konzentration erfordern kann - Yoga-Filmschulen werden wie Pilze aus dem Boden spriessen...))



dienstag_01
Beiträge: 14915

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von dienstag_01 »

Ich glaube, hier geht es einfach nur um Raubkopien. Den Stream einfach aus dem Gehirn aufzeichnen und abspeichern.
Ist eigentlich wie immer.



cantsin
Beiträge: 17580

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von cantsin »

Naja, erinnert doch ein bisschen an einen Schaustellertrick (wenn ich das ganze nicht falsch verstanden habe).

Man zeichnet Gehirnströme auf und weiss, woran die Testperson gerade denkt bzw. was sie in der Imagination sieht (weil sie es während der Aufzeichnung mitteilt). Jetzt verschlagwortet man die aufgezeichneten Gehirnstrommuster entsprechend, bzw. ordnet EKG-Kurven die entsprechenden Tags (wie "Zug", "Blumenwiese" etc.) zu.

Und wenn man danach erneut das EKG der Testpersonen aufzeichnet und sich die o.g. Muster wiederholen - also z.B. die EKG-Grafik, die zuvor mit einer Blumenwiese verschlagwortet wurde - sagt man einer generativen KI (wie Dall-E, Midjourney oder Stable Diffusion), dass sie das Bild einer Blumenwiese generieren soll.

Vorerst sehe ich sowas noch eher auf Jahrmärkten.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



dienstag_01
Beiträge: 14915

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von dienstag_01 »

cantsin hat geschrieben: Fr 20 Okt, 2023 17:23 Naja, erinnert doch ein bisschen an einen Schaustellertrick (wenn ich das ganze nicht falsch verstanden habe).

Man zeichnet Gehirnströme auf und weiss, woran die Testperson gerade denkt bzw. was sie in der Imagination sieht (weil sie es während der Aufzeichnung mitteilt). Jetzt verschlagwortet man die aufgezeichneten Gehirnstrommuster entsprechend, bzw. ordnet EKG-Kurven die entsprechenden Tags (wie "Zug", "Blumenwiese" etc.) zu.

Und wenn man danach erneut das EKG der Testpersonen aufzeichnet und sich die o.g. Muster wiederholen - also z.B. die EKG-Grafik, die zuvor mit einer Blumenwiese verschlagwortet wurde - sagt man einer generativen KI (wie Dall-E, Midjourney oder Stable Diffusion), dass sie das Bild einer Blumenwiese generieren soll.

Vorerst sehe ich sowas noch eher auf Jahrmärkten.
Wie sollte man denn deiner Meinung nach Muster erkennen?



cantsin
Beiträge: 17580

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von cantsin »

dienstag_01 hat geschrieben: Fr 20 Okt, 2023 17:31 Wie sollte man denn deiner Meinung nach Muster erkennen?
Aus den aufgezeichneten Daten. Machine learning-KI macht nichts anderes (bzw. ist nichts anderes als Mustererkennung in beliebigen Datensätzen).
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



dienstag_01
Beiträge: 14915

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von dienstag_01 »

cantsin hat geschrieben: Fr 20 Okt, 2023 18:08
dienstag_01 hat geschrieben: Fr 20 Okt, 2023 17:31 Wie sollte man denn deiner Meinung nach Muster erkennen?
Aus den aufgezeichneten Daten. Machine learning-KI macht nichts anderes (bzw. ist nichts anderes als Mustererkennung in beliebigen Datensätzen).
Das würde bedeuten, dass unser Gehirn das komplette Bild abspeichert und in diesen Daten dann gesucht werden kann. Glaube ich nicht, dass Sehen so funktioniert. Ich denke, dass es kein Sehen ohne Sprache gibt.



cantsin
Beiträge: 17580

Re: Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität

Beitrag von cantsin »

dienstag_01 hat geschrieben: Fr 20 Okt, 2023 18:33
cantsin hat geschrieben: Fr 20 Okt, 2023 18:08

Aus den aufgezeichneten Daten. Machine learning-KI macht nichts anderes (bzw. ist nichts anderes als Mustererkennung in beliebigen Datensätzen).
Das würde bedeuten, dass unser Gehirn das komplette Bild abspeichert und in diesen Daten dann gesucht werden kann. Glaube ich nicht, dass Sehen so funktioniert. Ich denke, dass es kein Sehen ohne Sprache gibt.

Nee, soviel ist nicht nötig für die hier vorgestellte KI-Lösung. Da reicht es, wenn bestimmte Bildvorstellungen bestimmte Reize im Gehirn auslösen, die man per EKG aufzeichnet und einer Mustererkennungs-KI zum Fraß vorlegt. Und man dann heuristisch davon ausgeht, dass ähnliche, später aufgezeichnete Reize mit ausreichender Wahrscheinlichkeit mit denselben oder ähnlichen Bildvorstellungen korrespondieren.

Natürlich ist das völlig spekulativ und Kaffeesatzleserei, aber solange es wenigstens ein paar mal funktioniert, wird man das System behalten. So funktioniert ja die gesamte heutige KI....
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



 Aktuelle Beiträge [alle Foren]
 
» Speicherkrise x2 - Nach dem RAM werden jetzt auch Festplatten knapp und teuer
von Blackbox - Mo 22:38
» Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
von Bildlauf - Mo 21:51
» Netflix auf dem Weg zur KI-Synchronisierung?
von Jott - Mo 21:26
» Neumann BCM 104 Mikrofon (Podcast, Gesang)
von KaremAlbash - Mo 17:29
» Sigma18-35 mm 1.8 - Studiolinse, Canon-Mount
von KaremAlbash - Mo 16:55
» Flusskreuzfahrt, Teil 2: Bremen
von 7River - Mo 16:23
» NETZWERKEN für Schauspieler/Filmemacher mit ANDREA LAMBSDORFF
von Nigma1313 - Mo 15:09
» Christopher Nolans "The Odyssey" - offizieller Trailer
von iasi - Mo 14:53
» Atomos USB4 CFexpress Typ B Kartenleser mit 40 Gbit/s für schnellen Ingest
von cantsin - Mo 11:19
» bmCAM PrepMeister - Das Schweizer Taschenmesser für die BMD Kamera-Vorbereitung
von freezer - Mo 2:24
» TTARTISAN AF 17mm F1.8 Air - kompakte APS-C/Super35-Objektiv kostet 179 Euro
von slashCAM - So 9:45
» Was hast Du zuletzt gekauft?
von ruessel - Sa 17:34
» Nikon will sich als Cinema-Kamera-Marke etablieren
von iasi - Sa 15:56
» Nikon entwickelt NIKKOR Z 120-300mm f/2.8 TC VR S mit integriertem 1.4x Telekonverter
von Bildlauf - Sa 12:52
» Video Assist App verwandelt iPad in Profi-Vorschau-Monitor
von slashCAM - Sa 10:15
» DIY Regenschutz für die DJI Pocket 4
von ruessel - Sa 10:10
» DJI Osmo Pocket 4 kommt noch im April - interner Speicher und neue Pro-Version
von rush - Sa 8:21
» Dulens Apo Mini Prime Set // 31mm, 43mm, 58mm
von Sevenz - Fr 14:40
» Sony A7V, MacBook Air, BM Cloud, SmallRig Cages, iPhone 17: Solo-Shooter und Remote Edit Setup
von rush - Fr 13:34
» Neue Umfrage: Welche Kameraauflösung ist für Dich aktuell der Sweet Spot?
von medienonkel - Fr 10:07
» Blackmagic PYXIS 12K für Netflix 4k Originals zugelassen
von slashCAM - Fr 9:45
» Graustufen-LUT für Pocket 4K
von cantsin - Do 21:33
» DJI Osmo Mobile 8P - Neuer Smartphone-Gimbal mit Fernbedienung und besserem Tracking
von slashCAM - Do 14:36
» Kaufberatung für Motorsport Videografie
von FlorianH - Do 9:59
» ARRI Omnibar - modulare LED-Leiste mit Wechselvorsätzen und Magnethalterung ab 730 Euro
von soulbrother - Mi 22:43
» Verkaufe Nikon ZR Body
von Godspeed77 - Mi 18:23
» Verkaufe: Mac Studio M1 Max 32 Cores mit 8TB SSD!
von Godspeed77 - Mi 18:17
» Zeiss CinCraft LensCore - Cine-Objektivlooks für 2D-Compositing
von slashCAM - Mi 15:24
» Academy stellt klar - Nur menschliche Leistungen sind Oscar-würdig
von TOBIUNDTRON - Mi 13:24
» Von Canon soll demnächst eine EOS R6 V mit aktiver Kühlung kommen
von slashCAM - Mi 12:33
» Blackmagic veröffentlicht Fairlight Live 1 Beta 2 mit neuen Funktionen
von slashCAM - Mi 11:21
» WARNER BROTHERS: Killt Netflix das Kino?
von 7River - Mi 10:03
» Blackmagic URSA Mini Pro PL Mount
von Jost - Mi 7:56
» ViperPod - kleines Hybridstativ mit Haken
von Jörg - Di 17:22
» TelTec zu empfehlen (Insolvenz)
von medienonkel - Di 10:15