Mit nur Ihre Brains, Monkeys 'Move and feel' Virtuelle Objekte
In einer ersten Demonstration eines Zwei-Wege- Interaktion zwischen einem Primatengehirn und einem virtuellen Körper , zwei Affen an der Duke University Center for Neuroengineering geschult gelernt, Hirnaktivität allein verwenden, um einen Avatar Hand zu bewegen und Identifizierung der Struktur von virtuellen Objekten .
"Irgendwann in naher Zukunft , Tetraplegiker Patienten Vorteile dieser Technologie zu nutzen , nicht nur ihre Arme und Hände bewegen und wieder gehen , aber auch um die Textur von Objekten in der Hand gelegt zu spüren, oder erleben Sie die Nuancen des Geländes , auf dem sie mit Hilfe eines tragbaren Roboter Exoskelett spazieren ", sagte Miguel Nicolelis , MD, Ph.D., Professor für Neurobiologie an der Duke University Medical Center und Co-Direktor des Duke Center for Neuroengineering , der leitende Autor der Studie war .
Ohne sich zu bewegen einen Teil ihres realen Körpern , verwendet die Affen ihre elektrische Aktivität des Gehirns , um die virtuellen Hände eines Avatars auf die Oberfläche des virtuellen Objekten direkt und bei Kontakt , konnten ihre Strukturen zu unterscheiden.
Obwohl die virtuellen Objekte in dieser Studie eingesetzten optisch identisch waren , sie wurden entwickelt , um verschiedene künstliche Texturen, die nur nachgewiesen werden , wenn die Tiere untersucht sie mit virtuellen Hände direkt durch elektrische Aktivität ihres Gehirns gesteuert haben .
Die Textur der virtuellen Objekte wurde als ein Muster aus winzigen elektrischen Signale an der Affen Gehirn übertragen ausgedrückt. Drei unterschiedliche elektrische Muster entsprach jeweils drei verschiedene Objekt Texturen.
Weil kein Teil des realen Körper des Tieres wurde in den Betrieb dieses Gehirn - Maschine - Gehirn-Schnittstelle ( BMBI ) beteiligt sind, deuten diese Experimente , dass in Zukunft die Patienten aufgrund einer Querschnittlähmung schwer gelähmt können die Vorteile dieser Technologie nicht nur nehmen , die Mobilität wieder zu erlangen, sondern auch ihren Tastsinn wieder hergestellt haben, sagte Nicolelis , der leitende Autor der Studie veröffentlicht in der Zeitschrift war Natur.
" Dies ist die erste Demonstration eines Brain-Machine - Gehirn-Schnittstelle , die eine direkte , bidirektionale Verbindung zwischen einem Gehirn und einem virtuellen Körper baut ", sagte Nicolelis . " In diesem BMBI die virtuelle Stelle direkt von Gehirnaktivität des Tieres gesteuert wird, während die virtuelle Hand erzeugte taktile Rückkopplungsinformation , die über eine direkte elektrische Mikro von einem anderen Bereich des Tieres cortex signalisiert wird. "
" Wir hoffen, dass in den nächsten Jahren diese Technologie dazu beitragen, ein selbstbestimmtes Leben zu viele Patienten, die derzeit in der Lage , ohne sich zu bewegen oder feststellen, dass taktile Empfindung der umgebenden Welt sind gesperrt wiederherzustellen ", sagte Nicolelis .
"Dies ist auch das erste Mal, dass wir ein Gehirn Steuerung eines virtuellen Arm , die Objekte untersucht , während das Gehirn gleichzeitig elektrische Rückmeldungen , die die Feinstruktur von Objekten " berührt " von des Affen neu erworbene virtuelle Hand beschreiben beobachtet ", sagte Nicolelis . " Solch eine Interaktion zwischen dem Gehirn und einem virtuellen Avatar war völlig unabhängig von realen Körper des Tieres , da die Tiere nicht ihre wirklichen Arme und Hände bewegen , noch haben sie ihre echte Haut zu verwenden , um die Objekte berühren und identifizieren ihre Textur. Es ist fast, wie die Schaffung eines neuen Sinneskanal , durch den das Gehirn die Verarbeitung von Informationen , die nicht erreichen können, es nicht mehr durch den realen Körper und der peripheren Nerven wieder aufzunehmen. "
Die kombinierte elektrische Aktivität der Bevölkerung von 50 bis 200 Neuronen des Affen motorischen Kortex kontrolliert die Lenkung des Avatars Arm , während Tausende von Neuronen in der primären taktile Kortex wurden gleichzeitig empfangen kontinuierliche elektrische Rückmeldungen von der Handfläche des virtuellen Hand , die der Affe diskriminieren lassen Objekte auf der Grundlage ihrer Textur allein.
" Die bemerkenswerten Erfolg mit nicht-menschlichen Primaten macht uns glauben, dass die Menschen könnten die gleiche Aufgabe viel leichter in der nahen Zukunft zu erreichen ", sagte Nicolelis .
Es dauerte ein Affe nur vier Versuche und weitere neun Versuche , bevor sie gelernt, wie man das richtige Objekt bei jedem Versuch zu wählen. Mehrere Tests zeigten, dass die Affen tatsächlich Erfassen des Objekts und sie zufällig nicht die Auswahl .
Die Ergebnisse liefern weitere Beweise dafür , dass es möglich ist, eine robotische Exoskelett, das schwerstgelähmte Patienten könnte , um zu erkunden und erhalten Feedback von der Außenwelt tragen zu schaffen , sagte Nicolelis . Solch ein Exoskelett würde direkt durch freiwillige Aktivität des Gehirns des Patienten , damit der Patient selbstständig bewegen gesteuert werden. Gleichzeitig würde Sensoren über den Exoskelett verteilt die Art der Druckpunkt für das Gehirn des Patienten , um die Textur , Form und Temperatur von Objekten zu identifizieren , sowie viele Features der Oberfläche, auf der sie zu Fuß benötigt generieren .
Diese Gesamttherapieansatzist die von dem Walk Wieder Project, einer internationalen Non-Profit- Konsortium , von einem Team des brasilianischen , amerikanische , schweizerische und deutsche Wissenschaftler , die zur Wiederherstellung der Ganzkörper- Mobilität für die Patienten Tetraplegiker durch ein Gehirn soll festgelegt worden -Maschine - Gehirn-Schnittstelle in Verbindung mit einer GanzkörperroboterExoskelett implementiert.
Die internationale wissenschaftliche Team vor kurzem vorgeschlagen, während des Eröffnungsspiel der 2014 FIFA Fußball-Weltmeisterschaft , die in Brasilien stattfinden wird, die Erfüllung seiner erste öffentliche Demonstration eines solchen autonomen Exoskelett .