Als blinde Menschen bezeugen können , können wir den Menschen mehr , als man denkt hören. Der Blinde lernen zu navigieren, als Führer die Echos von Klängen, die sie sich selbst machen . Dies ermöglicht ihnen, die Standorte von Wänden und Ecken zu erfassen, zum Beispiel : durch Tippen auf den Boden mit einem Stock oder macht Klickgeräusche mit der Zunge , und Analysieren der Echos aus dem nahe gelegenen Oberflächen reflektiert , eine blinde Person kann die relativen Positionen der Objekte in der Karte anzeigen die Umgebung . LMU Biologen um Professor Lutz Wiegrebe der Abteilung für Neurobiologie ( Fakultät für Biologie ) haben nun gezeigt, dass sehende Menschen können lernen, Objekte im Raum Echoortungssystem , wie sie in der Biologie Zeitschrift Proceedings der Royal Society B. berichten
Wiegrebe und sein Team haben ein Verfahren zur Ausbildung von Menschen in der Kunst der Echoortung entwickelt. Mit Hilfe eines Kopfhörers , aus einem Mikrofon und einem Paar von Kopfhörern können Versuchspersonen Muster der Echos, die Schallreflexionen in einem virtuellen Raum zu simulieren : die Teilnehmer aussenden Stimm Klicks , die durch das Mikrophon an einen Prozessor gerichtet sind, und übergeben dass berechnet die Echos einer virtuellen Raum innerhalb von Millisekunden . Die entstehenden Echos werden dann zurück durch die Kopfhörer gespielt. Der Trick dabei ist , dass die Transformation an den Eingang angelegt ist abhängig von Position der Person im virtuellen Raum. So kann das Subjekt lernen, die künstliche " Echos " mit der Verteilung der schallreflektierenden Flächen im simulierten Raum zuzuordnen.
Eine schlafende Fähigkeiten
" Nach einigen Wochen der Ausbildung waren die Teilnehmer an dem Experiment in der Lage, die Quellen des Echos recht gut zu lokalisieren. Dies zeigt, dass jeder kann lernen, die Echos von akustischen Signalen zu analysieren, um Informationen über den Raum um ihn zu erhalten. Sehende Menschen haben diese Fähigkeit auch , sie einfach nicht brauchen , um es im Alltag zu verwenden ", sagt Lutz Wiegrebe . "Stattdessen das Gehör aktiv unterdrückt die Wahrnehmung von Echos , so dass wir auf der primären akustischen Signals zu konzentrieren, unabhängig davon, wie der Raum verändert die Signale auf ihrem Weg zu den Ohren. " Dies macht es einfacher , zwischen verschiedenen Klangquellen zu unterscheiden , so dass wir auf das, was jemand zu uns sagt , zum Beispiel zu konzentrieren. Die neue Studie zeigt jedoch, dass es möglich ist, funktionell invertieren Unterdrückung von Echos , und lernen, die Informationen, die sie für die Echoortung stattdessen enthalten.
In Abwesenheit von visuellen Informationen , finden wir, und die meisten anderen Säugetiere Navigation schwierig. So ist es nicht verwunderlich , dass die Evolution hat viele Säugetierarten mit der Fähigkeit zu "lesen", dotiert reflektierten Schallwellen . Fledermäuse und Zahnwale , die sich im Raum zu orientieren vor allem durch akustische Signale , die bekanntesten sind .
Wiegrebe und seine Kollegen nun untersuchen, wie die Koordination der Eigenbewegung und Echoortung ermöglicht Sonar - geführte Orientierung und Navigation in den Menschen.