„Habe nun ach! Philosophie, Juristerei und Medizin, und leider auch Theologie! durchaus studiert mit heißem Bemühn. Da steh ich nun, ich armer Tor! und bin so klug als wie zuvor; heiße Magister, heiße Doktor gar, und ziehe schon an die zehen Jahr herauf, herab und quer und krumm meine Schüler an der Nase herum – und sehe, dass wir nichts wissen können!

Das will mir schier das Herz verbrennen!“ 

- Faust I, S. 354–365

Neue Sinnesorgane für Menschen

Im Dunkel des Schädels schwimmt unser Gehirn in einer warmen Salzlösung und bekommt nichts von der Welt mit, als einen ständigen Strom elektrischer Signale. Sehnerv, Hörnerv, Gleichgewichtsnerv, Spinalnerven, die dem Gehirn die Gelenkstellung oder taktile Reize übermitteln - sprechen alle dieselbe Sprache: elektrische Signale. Aus dem Chaos einströmender elektrischer Impulse sucht das Gehirn sinnvolle (überlebensrelevante) Muster heraus und erstellt daraus ein kognitives Modell der Umwelt. "Rot", "salzig", "weich" - das sind verschiedene Auswertungen elektrischer Muster aus unseren "Peripheriegeräten", aus dem Auge, der Zunge oder den Tastkörperchen der Haut. Die gesamte wahrgenommene Realität ist nichts weiter als das Rechenergebnis des Supercomputers in unsererem Kopf.

 

Dieser körpereigene Supercomputer kann beliebige Daten erfolgreich verarbeiten. Gehörlose Menschen können lernen, die Haut ihres Rückens als Ohr zu benutzen. Schallwellen werden elektronisch in Vibration übersetzt und als komplexe, flächige Vibrationsmuster an die Haut übermittelt. Das Gehirn macht, was es am besten kann: Aus dem Chaos einströmender Daten relevante Muster entnehmen. Nach wenigen Tagen kann der gehörlose Patient Wörter verstehen.

Sehen mit der Zunge

Blinde Patienten sehen mit der Zunge: Eine Kamera nimmt die Umgebung auf, ein Rechner entnimmt dem Pixelbild die Kanten und übermittelt sie an eine Silikonscheibe, die korrespondierende elektrische Signale an die Zunge des Patienten abgibt. Nach wenigen Tagen kann der Proband sehen. Der somatosensible Kortex lernt, den Datenstrom an den visuellen Kortex zu senden: der blinde Patient hat übliche Seheindrücke, die er über mechanische Reize an der Zunge wahrnimmt.

 

David Eagleman fügt der Hardwareausstattung unseres Zentralrechners neue "Peripheriegeräte" hinzu. Er baut eine taktile Weste, die Vibrationen an den Oberkörper überträgt. Der Proband soll drei Knöpfe bedienen. Ein direktes Feedback teilt ihm mit, welche Reaktion auf welches Muster korrekt war - und welche falsch. Was der Proband nicht weiß: Die Daten, die er taktil empfängt, sind Börsenkurse. Seine Reaktion sind Aktien-Käufe und -verkäufe. Nach wenigen Tagen hat das Gehirn (ohne zu wissen, was es da tut) die taktilen Muster in feedback-verstärkte, zielführende Reaktionen übersetzt. Der Proband wird, ohne es zu wissen, zum erfolgreichen Börsenmakler.

Aktienhandel, Patientenüberwachung in Echtzeit, Überwachung der Flugparameter für Piloten - all das lässt sich in ein sinnlich wahrnehmbare Muster codieren und dem "Gehirn-Zentralrechner" zur selbständigen Auswertung vorlegen. Das Gehirn macht stupide das, wofür es evolutionär selektiert wurde: Aus dem einströmenden Chaos elektrischer Impulse selbständig relevante Muster erkennen und feedbackgesteuert geeignete Reaktionen darauf berechnen. Wow!

Gastbeitrag von: Jori Wehner

zum vorherigen Blogeintrag                                                                         zum nächsten Blogeintrag 

 

Liste aller bisherigen Blogeinträge

Kommentare: 0

Impressum | Datenschutz | Sitemap
Es darf kein Inhalt dieser Seite weiterverbreitet werden, sofern nicht mein Einverständnis dafür vorliegt.