Nach dem Vorbild der Natur: Tiere sind Prototypen für die Robotik

Die Selbstverständlichkeit, mit der sich Lebewesen in ihrer Umgebung orientieren und bewegen, Hindernissen ausweichen, und wieder nach Hause finden, ohne dass ihr Gehirn für diese komplexen Leistungen viel Energie verbraucht – das ist das Vorbild jener Wissenschaftlerinnen und Wissenschaftler, die auch Roboter mit solchen Fähigkeiten ausstatten wollen. Denn auf diesem Gebiet liegen noch immer Welten zwischen Hirn und Elektronik. Der für beide Seiten nützliche Austausch zwischen Verhaltensneurologen und Wissenschaftlern aus der Robotik steht heute (10. Juli) im Mittelpunkt eines Symposiums auf dem FENS Forum 2018 in Berlin. Mit dabei sind Dr. Oliver Bertrand und Prof. Dr. Elisabetta Chicca vom Exzellenzcluster CITEC der Universität Bielefeld.

Orientierung in einer komplexen Umgebung: Hummeln haben zwar ein kleines Gehirn, doch damit kommen sie bei der Futtersuche weit herum. Foto: Richard / Fotolia Hummeln haben zwar ein kleines Gehirn, doch damit kommen sie bei der Futtersuche ziemlich weit herum. Je nach Spezies beträgt ihr Radius bis zu drei Kilometer. Auf der Flugroute wimmelt es nicht nur von Feinden, sondern auch von Hindernissen. Wechselnde Windstärken und Windrichtungen kommen hinzu. Die Insekten müssen ihren Flug durch eine wechselhafte Umgebung steuern, großflächig navigieren und lernen, wie sie eine gute Futterquelle wiederfinden und heim ins Nest kommen.

„Wenn Hummeln erstmals ihr Nest verlassen, unternehmen sie zunächst Lernflüge, um sich die Umgebung einzuprägen, damit sie wieder zurückfinden“, sagt Dr. Olivier Bertrand von der Abteilung für Neurobiologie der Universität Bielefeld. „Diese Flüge haben ein loop-artiges Muster, wobei das Muster von Tier zu Tier variiert, wie unsere Studien zeigen. Wir vermuten, dass die Hummeln dabei Momentaufnahmen von ihrer Umgebung im Gehirn abspeichern, deren Nützlichkeit bei nachfolgenden Flügen überprüft wird.“

Beim Fliegen in einer komplexen Umgebung müssen Bienen ständig die Umwelteigenschaften bewerten und Entscheidungen treffen, die den Flugverlauf beeinflussen. Dr. Shridar Ravi von der RMTI University in Melbourne, Australien, nutzte Hummeln, um zu verstehen, wie Bienen Lücken erkennen und beurteilen, wenn sie mit einem Hindernis in ihrer Flugbahn konfrontiert werden. Wie Dr. Ravi zeigen konnte, verbringen Bienen viel Zeit in der Nähe der Lücke, während der sie schnelle seitliche Flugmanöver durchführen und die Lücke betrachten, als ob sie diese scannen würden, um Informationen zu sammeln. Dabei kann die Biene die Ränder des Spaltes erkennen, indem sie den Unterschied zwischen den relativen Bewegungen der Ränder des Spaltes und jenen anderer Objekte im Vorder- oder Hintergrund ausnutzt: Je näher das Objekt ist, desto schneller wird seine relative Bewegung wahrgenommen. 

Hybridroboter

So lange die Fähigkeiten der Roboter begrenzt sind, kann es eine Lösung sein, die Fähigkeiten von Tieren mit jenen der Roboter zu verknüpfen. Diesen Weg hat das Team um Prof. Dr. Noriyasu Ando vom Research Center for Advanced Science and Technology in Tokyo beschritten: es hat einen insektengetriebenen mobilen Roboter entwickelt. „Ein männlicher Seidenspinner sitzt wie ein Pilot in einem Cockpit. Sein Gehverhalten steuert den Roboter zu einer weiblichen Motte, sobald er deren Sexualpheromon wahrnimmt und darauf reagiert“, beschreibt Professor Ando das Prinzip. „Aus technischer Sicht zeigt dieser Hybridroboter die gleiche Leistung wie unser Ziel, der zukünftige insektenmimetische Roboter, der das Modell des Insektenhirns haben soll.“

Der Hybridroboter liefert den Wissenschaftlern darüber hinaus auch Erkenntnisse über das Verhalten von Insekten. Durch Veränderungen des sensorischen Inputs und/oder des motorischen Outputs des Roboters konnte das Team die sensorisch-motorische Kontrolle der Reaktionen von Seidenmotten auf Gerüche aufdecken.

„Mit dem Hybridroboter können wir darüber hinaus ein Insektenhirn mit einem elektronischen Modell besser vergleichen“, sagt Professor Ando. „Jetzt wird der Roboter direkt von einem echten Seidenspinner gesteuert. Wenn der Seidenspinner durch ein Hirnmodell dieses Insekts ersetzt wird, können wir die Leistungsfähigkeit des Insektenhirns mit jener des Hirnmodell auf dieser Roboterplattform direkt vergleichen. Das ist zwar immer noch eine konzeptionelle Idee, aber wir arbeiten daran.“

Bewegungsdetektor

Prof. Dr. Elisabetta Chicca hat ein neuromorphes Modell entwickelt, das autonomen mobilen Systemen die Fähigkeit geben soll, in komplexen Umgebungen besser zu navigieren und Hindernissen auszuweichen. Neuromorphe Systeme ähneln den neuronalen Netzwerken des Gehirns. Ihre Hardware ist hochspezialisiert und hochgradig vernetzt. Ein Team um Prof. Dr. Elisabetta Chicca von der Universität Bielefeld hat ein neuromorphes Modell entwickelt, das autonomen mobilen Systemen die Fähigkeit geben soll, in komplexen Umgebungen besser zu navigieren und Hindernissen auszuweichen. Die „Laseraugen“ (Laser-Distanzsensoren) selbstfahrender Autos erkennen zwar Hindernisse, sind jedoch trotz langjähriger Entwicklung sehr teuer. Sie verbrauchen viel Energie und – wie aktuelle Vorfälle gezeigt haben – kommt es zu Fehlinterpretationen in bestimmten Situationen. Hier könnte das System der Bielefelder Wissenschaftler Fortschritte bringen.

„Wir haben einen neuen elektronischen Bewegungsdetektor entwickelt, den „Spiking Elementary Motion Detector“, der die relative Bewegung von Objekten erfassen kann“, sagt Professor Chicca. Was eine „relative Bewegung“ ist, kennt jeder Auto- oder Zugfahrer: Der Kirchturm in der Ferne gleitet langsam vorbei, während der Baum am Straßenrand sehr schnell vorbei rauscht. Insekten nutzten solche Informationen bei der Navigation im Gelände, um Kollisionen zu vermeiden.

Der neue Bewegungsdetektor, kurz sEMD genannt, ist eine technische Nervenzelle mit einer künstlichen Synapse. Er kann Signale aufnehmen und Signale produzieren, wenn zwei Impulse innerhalb einer bestimmten Zeit eintreffen– darum der Namenszusatz „spiking“. Ein Chip kann tausende dieser Detektoren tragen, je nach Experiment.

Ihren Input erhalten die Detektoren von innovativen neuromoprhen Kameras, produziert von einem Unternehmen in der Schweiz. Im Unterschied zu normalen Kameras produzieren die einzelnen Pixel der Sensoren in diesen Kameras eigenständig nur dann ein Signal, wenn sich etwas in ihrem „Blickfeld“ verändert. Diese Signale werden von rezeptiven Feldern des Bewegungsdetektors aufgefangen. Jeder Detektor besitzt zwei Rezeptive Felder, bei denen jeweils die Signale von neun Pixeln einlaufen. Wird mehr als die Hälfte der Pixel eines rezeptiven Feldes aktiviert, produziert das rezeptive Feld ein Signal, das vom Detektor weiterverarbeitet wird. Aus den zeitlichen Abständen zwischen den Signalen von zwei benachbarten Rezeptiven Feldern kann der Detektor die relative Geschwindigkeit berechnen, mit dem sich ein Gegenstand vor der Kamera bewegt. „Unsere Experimente zeigen, dass es möglich ist, Informationen für die Navigation von Robotern zu generieren, die Kollisionen vermeiden“, erklärt Professor Chicca. „Unsere Ergebnisse ebnen den Weg zum Bau von Low-Power-Kompaktsystemen für die autonome Navigation. Zusätzlich ist der sEMD ein universell einsetzbares Element zur Berechnung von Zeitdifferenzen und kann darum auch für die Verarbeitung andere Sinnesreize genutzt werden, beispielsweise für die Ortung einer Schallquelle.

Über FENS

Das 11. FENS Forum für Neurowissenschaften ist der größte Kongress für Grundlagenforschung auf dem Gebiet der Neurowissenschaften in Europa. Organisiert wird er von der Föderation der Europäischen Neurowissenschaftlichen Gesellschaften (FENS). Gastgeberin ist die deutsche Neurowissenschaftliche Gesellschaft. Mehr als 7000 Wissenschaftlerinnen und Wissenschaftler aus 77 Ländern nehmen daran teil. Föderation der Europäischen Neurowissenschaftlichen Gesellschaften wurde 1998 gegründet und hat 43 Mitgliedsgesellschaften in 33 europäischen Ländern. Als Organisation repräsentiert FENS 24,000 europäische Neurowissenschaftler. https://forum2018.fens.org/

Weitere Informationen:
https://forum2018.fens.org/