Direkt zum Seiteninhalt springen

Das besondere Objekt: Roboter RHINO

RHINO ist ein Stück Wissenschaftsgeschichte, das eng mit dem Deutschen Museum Bonn verbunden ist. Im Mai 1997 führte der tonnenförmige Roboter Besucherinnen und Besucher zu elf ausgewählten Ausstellungsstücken der damaligen Dauerausstellung und erläuterte sie. Damit er dabei auch freundlich aussah, erhielt er ein »Gesicht«.

Der Clou dabei war, dass RHINO sich selbständig im Museum bewegen konnte. Mit einer Vielzahl von Sensoren erstellte er ständig eine aktuelle Navigationskarte seiner    Umgebung. So konnte er auch plötzlich auftauchenden Hindernissen wie hin- und herlaufenden Besucherinnen und Besuchern rasch und zuverlässig ausweichen.

Ein wichtiger Baustein für den Erfolg von RHINO war der Einsatz von Techniken der Künstlichen Intelligenz (KI) wie maschinellem Lernen oder auch künstlicher neuronaler Netze und deren Zusammenspiel mit den Sensoren.

RHINO basiert auf einem Roboter der amerikanischen Firma »Real World Interface«. Ein Team von Informatikern und KI-Forscher der Universität Bonn entwickelte die gesamten Steuerungsprogramme. 

Mit den mit RHINO gemachten Erfahrungen konnten einige Mitglieder der Bonner Forschergruppe 2005 die »DARPA Grand Challenge« des amerikanischen Verteidigungsministeriums, einen Wettbewerb für autonom navigierende Fahrzeuge, mit einem unbemannten VW Touareg gewinnen: ein Meilenstein auf dem Weg zum autonomem Fahren. 

Inv. Nr. 2018-0446

RHINO im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts den RHINO.

Autonomes Fahren mit Hindernissen

Selbstfahrende Kraftfahrzeuge sind schon lange keine Zukunftsvision mehr. Seit fast 30 Jahren wird zu autonomen Fahrzeugen geforscht. Doch obwohl wir bereits heutzutage zahllose Assistenzsysteme, wie Spurhalte-Assistent, Tempomat oder Abstandshaltesystem in den meisten Straßenfahrzeugen implementiert haben, scheint das Autonome Fahren weiterhin in (nicht allzu) ferner Zukunft zu liegen.

Im Deutschen Museum Bonn haben Sie schon jetzt die Chance an einem interessanten Experiment zum selbstfahrenden Auto teilzunehmen. Mit Hilfe von »Virtual Reality« (VR-Headsets), Lenkrad und Pedale, können Sie das Autonome Fahren in verschiedenen Fahrer- und Beifahrersituationen testen und erleben.

Das Forschungsprojekt »West Drive« ist Teil der Forschung zu Warn- und Assistenzsystemen von autonom und semi-autonomen Fahrzeugen. Dieses Experiment ist insofern besonders, als das mit den modernen VR-Headsets die Augenbewegung (Eye-tracking) der Teilnehmer verfolgt und ausgewertet werden kann. Hierdurch können im besten Fall Erkenntnisse darüber getroffen werden, welchen äußeren Faktoren den Fahrer bzw. Fahrerin optisch beeinflussen und wie dadurch die visuelle Aufmerksamkeit beeinträchtigt wird. Anschließend soll auf dieser Grundlage herausgefunden werden, welche Systeme das Fahrerlebnis sicherer und angenehmer gestalten können.

Exponat: Institut für Kognitionswissenschaften Universität Osnabrück

Unterwegs in Future City

KI begegnet uns oft, ohne dass wir davon wissen. In Paketzentren etwa sortieren intelligente Roboter Pakete mit unterschiedlicher Größe und Bestimmungsort. Online-Suchmaschinen schalten personalisierte Werbung. Und in Banken durchforstet KI riesige Datenmengen auf der Suche nach Hackerangriffen.
An vielen Stellen erleichtert uns KI das Leben. Sie fordert von den Programmiererinnen und Programmierern Kreativität und neue Ideen. Viele Berufe werden sich in der Zukunft mit KI beschäftigen, und wir alle müssen ganz neue Fähigkeiten und Kompetenzen erwerben.
Nahezu alle gesellschaftlichen Bereiche werden von Digitalisierung und der Nutzung von KI verändert. Ob Schule oder Verwaltung, Politik oder Wirtschaft – ihre Strukturen und Abläufe müssen an diese neuen Möglichkeiten und Herausforderungen angepasst werden.

Exponat: Fraunhofer Academy, Fraunhofer-Gesellschaft

Kann künstliche Intelligenz kreativ sein?

Die Band »Nirvana« begründete das Genre des Grunge. Dieser basiert auf sehr simplen Elementen: aggressive Gitarren, einfache Strukturen und ein leicht zu identifizierender Sound irgendwo zwischen Punk und Heavy Metal. Der Sänger Kurt Cobain wurde zu einer Ikone seiner Generation.

Das Team um den Wissenschaftler Ivan Yamshchikov vom Max-Planck-Institut für Mathematik in den Naturwissenschaften in Leipzig hat versucht, die Band mittels einer mit Nirvana –Texten trainierten KI »auferstehen« zu lassen. Das Exponat »Smells like Cobain’s Spirit« zeigt die Ergebnisse der KI, die die Songtexte geschrieben hat. Die Musik komponierten die Wissenschaftler selbst und eingesungen hat das Ergebnis der Musiker Rob Carrol, dessen Stimme der von Cobain recht ähnlich ist.

Wie kreativ ist künstlich? War das Ergebnis vorhersehbar?

Das Exponat im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts das Exponat »Kann künstliche Intelligenz kreativ sein?«.

Der (in-)kompetente Helfer

Die Stärke des Sprachassistenten Alexa liegt im Bereich der Sprach-Fernbedienung. Sie ist prima dafür geeignet, Musik abspielen oder sich das Wetter ansagen zu lassen. Dennoch zeigt sich an ihrem Beispiel, dass Menschen sich bei solchen Anwendungen immer noch stark an die Systeme anpassen müssen – obwohl es doch genau umgekehrt sein sollte.
Das Quiz mit Alexa hilft herauszufinden, welche Strategien Alexa beim Lösen von Aufgaben verfolgt und ob sie sich auf die Nutzerinnen und Nutzer individuell einstellen kann. Zugleich verrät das Quiz den Forscherinnen und Forschern, wie die fragenden Personen Verständigungsprobleme mit Alexa lösen.
KI-Systeme werden umso besser angenommen, je besser sie sich an die Nutzerinnen und Nutzer anpassen. Sie müssen merken, ob der Vater, die Oma oder du selbst mit ihm sprichst, und individuell auf die jeweilige Person reagieren. Die Herausforderung für die KI-Forschung ist es, einen möglichst natürlichen Dialog zu ermöglichen, obwohl das System in seinen Fähigkeiten begrenzt ist.

Exponat: Institut für Informations- und Kommunikationstechnik Otto-von-Guericke-Universität Magdeburg

Das Exponat im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts das Exponat »Der (in-)kompetente Helfer«.

Der Körper denkt mit

Damit ein Roboter sich im Raum bewegen kann, könnte man ihm viele Formeln über die anderen Objekte in diesem Raum und ihre physikalischen Eigenschaften einprogrammieren. Man könnte aber auch den Körper des Roboters selbst »entscheiden« lassen, wie er sich bewegt.
Sensoren und einfache Schaltungen an den Gelenken ermöglichen dem Sechsbeiner alle erforderlichen Bewegungen, ohne dafür das Gehirn benutzen zu müssen. Das Gehirn übernimmt nur noch die allernötigsten Rechenoperationen.
Die optimale Größe eines Roboter-Gehirns für die jeweiligen Tätigkeiten lässt sich sogar berechnen. Nach herkömmlicher Bauart bräuchte ein Roboter Millionen von Neuronen, um seine verschiedensten Tätigkeiten optimal zu steuern. Diesem Roboter gelingt es jedoch mit lediglich 65 Neuronen, sich flüssig und sicher im Raum zu bewegen. Beim Zusammenspiel von Körper und Gehirn entscheidet also nicht unbedingt die Zahl der Neuronen darüber, wie intelligent ein System ist.

Exponat: Max-Planck-Institut für Mathematik in den Naturwissenschaft Leipzig

Hey KI, wie siehst du denn aus?

In virtuellen Umgebungen bekommt künstliche Intelligenz oft einen Körper und ein Gesicht, die ihr Aussehen prägen. Wie auf Menschen auch, reagieren wir auf dieses Gegenüber, fühlen uns ermutigt oder eingeschüchtert, empfinden Sympathie oder Misstrauen.
Darum wird erforscht, wie Menschen in einer virtuellen Umgebung mit der KI umgehen und wie sie ihre Fähigkeiten einschätzen. In diesem Spiel hast du die Aufgabe, gegen einen KI-Torhüter zu spielen, der versucht, den Ball mit seiner Hand oder seinem Bein aufzuhalten. In jeder Runde sieht der Torhüter anders aus. Wie beeinflusst sein Aussehen deine Trefferquote?
Solche Spiele zeigen, wie sich äußerliche Merkmale der KI auf unser Empfinden und unser Handeln auswirken. So lässt sich erforschen, wie visualisierte KI-Anwendungen aussehen sollten. Das ist schwieriger als es scheint, denn viele weitere Faktoren beeinflussen ebenfalls unser Verhalten in einer virtuellen Realität. 

Exponat: MIREVI Lab - Mixed Reality and Visualization, Fachbereich Medien, Hochschule Düsseldorf

Das Exponat im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts das Exponat »Hey KI, wie siehst du denn aus?«.

Greifen leicht gemacht

Selbst kleine Kinder können Gegenstände besser greifen als die meisten Roboter heute. Damit Roboter uns zukünftig im Alltag helfen können, müssen sie sicher mit Dingen hantieren, sie hochheben und wieder hinstellen. Dabei kann ein weiches und biegsames Design helfen.
Die weiche RBO Hand 2 kann Gegenstände mit den unterschiedlichsten Formen greifen. Ihre mit Luft gefüllten Finger passen sich automatisch an das Objekt an. Somit sind keine komplizierten Berechnungen über Größe und Form des Objekts nötig.
Um im Alltag einsetzbar zu sein, müssen Roboter umfangreiche Bewegungsmuster erlernen. Der Roboter lernt zu entscheiden, ob es reicht mit der Hand zuzugreifen, oder ob er den Gegenstand beispielsweise zuerst an eine Wand schieben sollte, um ihn dann hochzuheben. Dadurch, dass die Roboterhände so weich sind, ist der Umgang für den Menschen ungefährlich.

Exponat: Robotics and Biology Laboratory TU Berlin, Max-Planck-Institut für Mathematik in den Naturwissenschaften Leipzig

Vorsicht, Fußgänger von links

In Echtzeit menschliche Posen zu erkennen, ist für viele KI-Anwendungen eine wichtige Fähigkeit, etwa bei selbstfahrenden Autos: Sie müssen die Körperhaltung von Fußgängern richtig deuten, um sich sicher im Straßenverkehr zu bewegen und Unfälle zu vermeiden.
Das System filtert das Bild einer Fußgängerin und zieht Informationen heraus, um das Skelett und die Gelenke zu identifizieren. Diese sind die Drehpunkte, von denen aus sich die aktuelle Bewegung mathematisch beschreiben lässt. Davon ausgehend kann die KI berechnen, ob die Fußgängerin in sicherem Abstand bleibt oder gleich die Straße betreten wird.
Die Auswertung von Posen in Echtzeit ist aber nicht nur bei selbstfahrenden Autos von Interesse. So lassen sich beispielsweise mit Gesten Maschinen steuern. In Geschäften wiederum kann ein solches Verfahren dabei helfen, anhand besonderer Körperhaltungen und Bewegungen Ladendiebe auf frischer Tat zu ertappen.

Exponat: Computer Vision Gruppe, Institut für Informatik, Universität Bonn

Woher stammt das Bild?

Um den Aufnahmeort eines Fotos zu bestimmen, nutzt dieses KI-basierte System nur den Bildinhalt und keine Daten, die die Kamera zusätzlich gespeichert hat. Zunächst erkennt es, ob das Bild in einem städtischen oder ländlichen Umfeld aufgenommen wurde oder in einem Innenraum. Fünf Millionen Trainingsfotos helfen der KI, den Aufnahmeort weiter einzugrenzen.
Städte lassen sich an Gebäuden und Straßenzügen besonders gut erkennen. Schwieriger ist es mit Aufnahmen in der Natur: Dafür braucht die KI Erfahrungen über die jeweilige Tier- und Pflanzenwelt. Innenräume sind am schwersten zu schätzen, z. B. ob das Foto im Sushi-Lokal nebenan gemacht wurde oder doch in Paris oder Tokyo.
Ein System wie dieses könnte künftig dabei helfen, Falschnachrichten als solche zu identifizieren. Schon jetzt lässt sich damit überprüfen, wie glaubwürdig Fotos als Informationsquelle sind und wie wahrscheinlich es ist, dass ein Bild genau in der angegebenen Region aufgenommen wurde.

Exponat: Technische Informationsbibliothek, Forschungszentrum L3S Leibniz Universität Hannover