Es war lange Zeit Science-Fiction, aber jetzt können Gedankenlesemaschinen tatsächlich hier sein und sie sind möglicherweise nicht invasiv. Forscher der Das russische Unternehmen Neurobotics und das Moskauer Institut für Physik und Technologie haben einen Weg gefunden um die Gehirnaktivität einer Person als tatsächliche Bilder ohne die Verwendung von invasiven Gehirnimplantaten zu visualisieren.
VERBUNDEN: KI-BETRIEBENE GEdankENLESUNGSTECHNOLOGIE KÖNNTE BALD IHRE GEDENKE LESEN
Das Gehirn in Echtzeit studieren
Die Arbeit hat das Potenzial, neue nicht-invasive Rehabilitationsgeräte nach einem Schlaganfall zu ermöglichen, die durch Gehirnsignale gesteuert werden, sowie neuartige Behandlungen von kognitiven StörungenUm solche Anwendungen zu erreichen, müssen Neurobiologen verstehen, wie das Gehirn Informationen kodiert, indem sie sie in Echtzeit studieren, z. B. wenn eine Person ein Video ansieht.
Hier kommt die von den Forschern entwickelte neue Gehirn-Computer-Schnittstelle ins Spiel.Verwendenkünstliche neuronale Netze und Elektroenzephalographie oder EEG, eine Technik zur Aufzeichnung von Gehirnwellen über nichtinvasiv auf der Kopfhaut platzierte Elektroden, das Team konnte in Echtzeit visualisieren, was Testpersonen in Videos sehen.
"Wir arbeiten an dem Assistive Technologies-Projekt von Neuronet der National Technology Initiative, das sich auf die Gehirn-Computer-Schnittstelle konzentriert, die es Patienten nach einem Schlaganfall ermöglicht, ein Arm-Exoskelett zu Zwecken der Neurorehabilitation zu steuern oder gelähmten Patienten das Fahren zu ermöglichenB. einen Elektrorollstuhl. Das ultimative Ziel ist es, die Genauigkeit der neuronalen Steuerung auch für gesunde Personen zu erhöhen“, sagte Vladimir Konyshev, Leiter des Neurorobotics Lab am MIPT.
Ein zweistufiges Experiment
In dem Experiment baten Neurobiologen die Probanden zuerst, YouTube-Videofragmente aus fünf beliebigen Videokategorien anzusehen, während EEG-Daten gesammelt wurden. Die EEG-Daten zeigten, dass die Gehirnwellenmuster für jede Kategorie von Videos unterschiedlich waren, was dem Team ermöglichte, die Gehirnfunktionen zu analysierenReaktion auf Videos in Echtzeit.
In der zweiten Phase des Experiments entwickelten die Forscher zwei neuronale Netze. Das erste war, um zufällige kategoriespezifische Bilder aus „Rauschen“ zu erzeugen. Das zweite war, ähnliches „Rauschen“ aus dem EEG zu erzeugen. Die Netze wurden dann so kombiniert combineddass EEG-Signale in tatsächliche Bilder umgewandelt werden könnten.
Um das neue System zu testen, wurden den Probanden zuvor nicht gesehene Videos gezeigt, während EEGs aufgezeichnet und in die neuronalen Netze eingespeist wurden. Das System produzierte Bilder, die sich leicht in kategorisieren ließen.90% der Fälle.
"Das Elektroenzephalogramm ist eine Sammlung von Gehirnsignalen, die von der Kopfhaut aufgezeichnet wurden. Forscher dachten früher, dass die Untersuchung von Gehirnprozessen über EEG so ist, als würde man die innere Struktur einer Dampfmaschine durch die Analyse des von einem Dampfzug zurückgelassenen Rauchs herausfinden", erklärte das PapierMitverfasser Grigory Rashkov, Nachwuchsforscher am MIPT und Programmierer bei Neurobotics. „Wir haben nicht erwartet, dass es genügend Informationen enthält, um ein von einer Person beobachtetes Bild auch nur teilweise zu rekonstruieren. Aber es stellte sich als durchaus möglich heraus.“
"Darüber hinaus können wir dies als Grundlage für eine Gehirn-Computer-Schnittstelle verwenden, die in Echtzeit arbeitet. Es ist ziemlich beruhigend. Mit der heutigen Technologie stellen sich die von Elon Musk vorgestellten invasiven neuronalen Schnittstellen den Herausforderungen komplexer und schneller Operationen.Verschlechterung durch natürliche Prozesse – sie oxidieren und versagen innerhalb weniger Monate. Wir hoffen, dass wir irgendwann erschwinglichere neuronale Schnittstellen entwickeln können, die keine Implantation erfordern “, fügte der Forscher hinzu.
Die Studie wurde veröffentlicht als Vordruck auf bioRxiv und es gibt eine Video Online zeigt das System bei der Arbeit.