Chirurgie für Epilepsie deckt auf, wie Selective Hearing Werken im Gehirn
Die langjährige Geheimnis, wie selektive Gehör funktioniert - wie Menschen tune in, um einen einzelnen Lautsprecher während Abstimmung ihrer überfüllt, laut Umgebung - wird in dieser Woche in der Zeitschrift gelöst Naturvon zwei Wissenschaftlern der University of California, San Francisco ( UCSF ) .
Psychologen haben seit Jahrzehnten über die so genannte " Cocktail-Party -Effekt", einem Namen, der Mad Men -Ära , in der sie geprägt wurde erinnert bekannt. Es ist die bemerkenswerte menschliche Fähigkeit, sich auf einen einzelnen Lautsprecher in nahezu jeder Umgebung zu konzentrieren - ein Klassenzimmer , Sportveranstaltung oder Kaffee-Bar - wenn auch Stimme der Person wird scheinbar von einem jabbering Masse ertrunken.
Zu verstehen, wie selektive Gehör funktioniert im Gehirn , UCSF Neurochirurg Edward Chang , MD, ein Mitglied der Fakultät in der UCSF Abteilung für Neurochirurgie und dem Keck -Center für Integrative Neurowissenschaften , und UCSF Postdoc Nima Mesgarani , PhD, arbeitete mit drei Patienten, die waren Gehirnoperation unterzogen wird für schwere Epilepsie .
Ein Teil dieser Operation beinhaltet die Ermittlung der Teile der für die Deaktivierung Anfälle Gehirns . Die UCSF Epilepsie -Team findet diese locales durch Abbilden Aktivität des Gehirns mehr als einer Woche , mit einer dünnen Folie von bis zu 256 Elektroden unter dem Totenkopf auf das Gehirn die Außenfläche oder Cortex platziert . Diese Elektroden Rekord Aktivität im Temporallappen - die Heimat des auditorischen Kortex .
UCSF ist einer der wenigen führenden akademischen Epilepsie -Zentren , in denen diese erweiterte intrakraniellen Aufnahmen fertig sind, und , Chang sagte , die Fähigkeit, sicher aus dem Gehirn selbst bietet einzigartige Möglichkeiten , um unsere grundlegende Kenntnisse der Funktionsweise des Gehirns voran aufzeichnen.
"Die Kombination von hochauflösenden Aufnahmen des Gehirns und leistungsfähige Decodieralgorithmen öffnet ein Fenster, in das subjektive Erleben des Geistes , die wir noch nie gesehen habe ", sagte Chang.
In den Experimenten , hörte die Patienten zwei gleichzeitig vorgespielt Sprachproben in dem verschiedene Sätze wurden von unterschiedlichen Sprechern gesprochen. Sie wurden gebeten, die Worte, die sie hörte von einem der beiden Lautsprecher gesprochen zu identifizieren.
Die Autoren angewendet dann neue Decodierungsverfahren zu " rekonstruieren " , was die Themen aus der Analyse ihrer Gehirnaktivitätsmustergehört. Auffallend ist, fanden die Autoren , dass neuronale Reaktionen im auditorischen Kortex reflektiert nur die der gezielten Lautsprecher. Sie fanden heraus, dass ihre Decodieralgorithmus konnte die Lautsprecher und auch das, was bestimmte Wörter Gegenstand wurde auf der Grundlage dieser neuronalen Mustern hören vorherzusagen. Mit anderen Worten , könnten sie sagen, wenn die Aufmerksamkeit des Hörers verirrt zu einem anderen Lautsprecher.
" Der Algorithmus funktionierte so gut , dass wir nicht nur die richtigen Antworten vorhersagen konnte , aber auch , selbst wenn sie auf das falsche Wort geachtet ", sagte Chang.
Spracherkennung durch das menschliche Gehirn und Maschinen
Die neuen Ergebnisse zeigen, dass die Darstellung der Rede in der Hirnrinde nicht nur spiegeln die gesamte externe akustische Umgebung , sondern genau das, was wir wirklich wollen oder brauchen, um zu hören.
Sie stellen einen großen Fortschritt im Verständnis, wie das menschliche Gehirn verarbeitet die Sprache , mit sofortiger Implikationen für das Studium der Wertminderung während der Alterung , Aufmerksamkeitsdefizitstörung , Autismus und Sprachlernstörungen.
Darüber hinaus Chang , der auch Co-Direktor des Center for Neural Engineering and Prothesen an der UC Berkeley und UCSF , sagte, dass wir eines Tages in der Lage, diese Technologie für Neuroprothesen zur Decodierung der Absichten und Gedanken von gelähmten Patienten zu verwenden , die nicht können zu kommunizieren.
Enthüllt , wie unser Gehirn verdrahtet sind , einige auditorischen Cues gegenüber anderen bevorzugen sogar neue Ansätze zu automatisieren und zu verbessern , wie sprachgesteuerte elektronische Schnittstellen Filter klingt , um verbale Befehle richtig erkennen zu begeistern.
Wie das Gehirn kann so effektiv auf einer einzigen Stimme zu konzentrieren ist ein Problem von großem Interesse für die Unternehmen, die Consumer-Technologien wegen der enormen Zukunftsmarkt für alle Arten von elektronischen Geräten mit Voice- aktive Schnittstellen zu machen. Während die Spracherkennungs- Technologien, die solche Schnittstellen wie Apples Siri ermöglichen haben einen langen Weg in den letzten Jahren kommen , sind sie bei weitem nicht so anspruchsvoll wie die menschliche Sprache System .
Eine durchschnittliche Person kann in einem lauten Raum zu gehen und haben ein privates Gespräch mit relativer Leichtigkeit - als ob alle anderen Stimmen im Zimmer waren stumm geschaltet. In der Tat, sagte Mesgarani , ein Ingenieur mit einem Hintergrund in der automatischen Spracherkennung Forschung, die erforderlich sind, um eine einzige verständliche Stimme aus einer Kakophonie von Lautsprechern und Hintergrundrauschen zu trennen Engineering ist ein überraschend schwieriges Problem.
Spracherkennung, sagte er, ist " etwas, das Menschen sind bemerkenswert gut an , aber es stellt sich heraus , dass Maschine Emulation dieser menschliche Fähigkeit ist extrem schwierig. "