„Das menschliche Gehirn gehört noch immer zu den effektivsten Datenverarbeitungssystemen überhaupt. Vor allem bei der Auswertung von Sinneseindrücken arbeiten natürliche Nervensysteme hocheffektiv und sind vielen technischen Systemen überlegen", erklärt Professor Heiko Neumann. Der stellvertretende Leiter des Instituts für Neuroinformatik gehört wie Professor Marc Ernst, Leiter der Abteilung für Angewandte Kognitionspsychologie, zu den erfolgreichen Antragstellern.
Mit ihrem VA-MORPH Projekt möchten die Wissenschaftler neurobiologische Funktionen des Gehirns auf robotische und informationstechnische Systeme übertragen. Im Mittelpunkt steht dabei die Entwicklung sogenannter neuro-morpher Algorithmen, die sich in ihrer Struktur und Arbeitsweise am menschlichen Gehirn und seinen elementaren Bestandteilen, den Neuronen, orientieren. Ausgangspunkt ist dabei die Frage, wie visuelle und auditive Sensorströme verarbeitet, fusioniert und technisch genutzt werden können, beispielsweise für die räumliche Orientierung und Navigation.
„Die menschliche Wahrnehmung ist nicht wie bei technischen Systemen getaktet, sondern arbeitet ereignisbasiert. Das heißt, relevant ist vor allem das, was sich über einen bestimmten Zeitraum hinweg verändert. Aus all den Informationen, die auf uns einströmen, wählt das Gehirn nur diejenigen aus, die „überlebensrelevant" sind und in der jeweiligen Situation einen Sinn ergeben", erklärt der Kognitionspsychologe Ernst.
Meisterleistung des Gehirns
Das laufe eben nicht wie bei einer herkömmlichen Kamera ab, wo die räumliche Umgebung über Einzelbilder erfasst wird. Der biologische Hörvorgang ist ebenso komplex und dabei nicht weniger „Daten-ökonomisch". Hierfür kombiniert das Gehirn sensorische Signale mit Erwartungen aus unterschiedlichen Erfahrungskontexten und verrechnet die Informationen zu einem multisensorischen Gesamteindruck.
„Die Integration dieser sensorischen Datenströme ist eine Meisterleistung des Gehirns. Wenn wir verstanden haben, wie das genau funktioniert, können wir versuchen, diese Funktionsweisen auf technische Systeme zur Sensordatenverarbeitung zu übertragen", fassen die Ulmer Forscher ihren wissenschaftlichen Auftrag zusammen. Gehirninspirierte Hard- und Software sind heute aus dem Cognitive Computing, der Neurorobotik und der Künstlichen Intelligenz nicht mehr wegzudenken.
Zur Generierung der neuro-morphen Algorithmen haben die Ulmer Wissenschaftler biologisch plausible Lernverfahren entwickelt, mit deren Hilfe die „relevanten" Informationen aus der Gesamtheit der sensorischen Daten herausgefiltert werden können. Jetzt wollen Neumann und Ernst mit ihren Doktoranden Christian Jarvers, Maximilian Löhr und Timo Oess herausfinden, wie praxistauglich und leistungsfähig die nach menschlichem Vorbild geschaffenen Algorithmen sind.
Zum Einsatz kommen Rechner mit gehirninspirierter Hardware
Dafür werden sie auf der Roboterplattform implementiert und zunächst an einfachen Orientierungsaufgaben getestet. „Diesen Job hat nun der kleine Ninjabot: Ohne sich durch Nebengeräusche und Sichthindernisse irritieren oder ablenken zu lassen, soll er bestimmte visuelle und akustische `Landmarken´ aufsuchen und einsammeln", erläutern die wissenschaftlichen Mitarbeiter Löhr und Oess.
Um die Algorithmen zu realisieren, kommen ganz besondere Rechnerarchitekturen zum Einsatz. Bei dieser sogenannten gehirninspirierten Hardware sind Prozessor und Speicher nicht getrennt, wie dies bei herkömmlichen Rechnern der Fall ist. Vielmehr arbeiten diese vereint wie Neuronen und ihre synaptischen Verbindungen im Gehirn. Damit lassen sich die Daten wesentlich schneller und effizienter verarbeiten.
„Dank unserer Kooperationspartner haben wir Zugriff auf eine wissenschaftliche Ausstattung, die für Universitäten wohl einzigartig ist", freut sich das Ulmer Projektteam. Über den Technologiekonzern IBM Research Almaden (USA) stehen neuro-morphe Chip-Architekturen aus dem Bereich Brain-Inspired Computing zur Verfügung.
Außerdem können die Wissenschaftler auf eine Hardware-Plattform aus dem EU-geförderten Human Brain Projekt zurückgreifen und über die Firma IniLabs zudem auf spezielle neuro-morphe Sensoren.
Wenn alles gut geht, wird sich der kleine Roboter NinjaTurtle unbehelligt von Störgeräuschen auch bei schwierigen Sichtverhältnissen seinen Weg zielstrebig durch das Labor bahnen, und dabei nur einen Bruchteil an Rechenkapazitäten und Speicherplatz verbrauchen wie herkömmliche Rechnerarchitekturen. Denn vom Gehirn lernen lohnt sich, glauben die Ulmer!
Quelle: Universität Ulm