Direkt zum Seiteninhalt springen

Das besondere Objekt: Roboter RHINO

RHINO ist ein Stück Wissenschaftsgeschichte, das eng mit dem Deutschen Museum Bonn verbunden ist. Im Mai 1997 führte der tonnenförmige Roboter Besucherinnen und Besucher zu elf ausgewählten Ausstellungsstücken der damaligen Dauerausstellung und erläuterte sie. Damit er dabei auch freundlich aussah, erhielt er ein »Gesicht«.

Der Clou dabei war, dass RHINO sich selbständig im Museum bewegen konnte. Mit einer Vielzahl von Sensoren erstellte er ständig eine aktuelle Navigationskarte seiner    Umgebung. So konnte er auch plötzlich auftauchenden Hindernissen wie hin- und herlaufenden Besucherinnen und Besuchern rasch und zuverlässig ausweichen.

Ein wichtiger Baustein für den Erfolg von RHINO war der Einsatz von Techniken der Künstlichen Intelligenz (KI) wie maschinellem Lernen oder auch künstlicher neuronaler Netze und deren Zusammenspiel mit den Sensoren.

RHINO basiert auf einem Roboter der amerikanischen Firma »Real World Interface«. Ein Team von Informatikern und KI-Forscher der Universität Bonn entwickelte die gesamten Steuerungsprogramme. 

Mit den mit RHINO gemachten Erfahrungen konnten einige Mitglieder der Bonner Forschergruppe 2005 die »DARPA Grand Challenge« des amerikanischen Verteidigungsministeriums, einen Wettbewerb für autonom navigierende Fahrzeuge, mit einem unbemannten VW Touareg gewinnen: ein Meilenstein auf dem Weg zum autonomem Fahren. 

Inv. Nr. 2018-0446

RHINO im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts den RHINO.

Deep Fake

Deep Fakes sind realistisch wirkende Medieninhalte, die durch Techniken der Künstlichen Intelligenz abgeändert und verfälscht worden sind. Für ein Deep Fake lernt ein Programm dank KI, wie eine Person aussieht und welche Mimik sie hat. Anschließend lässt sich das Gesicht auf jede beliebige Person übertragen. So lassen sich Videos erzeugen, in denen Menschen scheinbar Dinge sagen oder tun, die sie nie gesagt oder getan haben. Die Möglichkeiten der Manipulation erreichen eine neue Dimension.

Nehmen Sie Platz im Erlebnisraum KI und erleben Sie, wie Ihr Gesicht manipuliert wird und das Aussehen der bekannten Fernsehmoderatoren Harald Lesch, Dirk Steffens oder einer unserer Museotainerinnen annimmt.

Das Exponat wurde durch die TNG Technology Consulting GmbH entwickelt und zur Verfügung gestellt.

Kann künstliche Intelligenz kreativ sein?

Die Band »Nirvana« begründete das Genre des Grunge. Dieser basiert auf sehr simplen Elementen: aggressive Gitarren, einfache Strukturen und ein leicht zu identifizierender Sound irgendwo zwischen Punk und Heavy Metal. Der Sänger Kurt Cobain wurde zu einer Ikone seiner Generation.

Das Team um den Wissenschaftler Ivan Yamshchikov vom Max-Planck-Institut für Mathematik in den Naturwissenschaften in Leipzig hat versucht, die Band mittels einer mit Nirvana –Texten trainierten KI »auferstehen« zu lassen. Das Exponat »Smells like Cobain’s Spirit« zeigt die Ergebnisse der KI, die die Songtexte geschrieben hat. Die Musik komponierten die Wissenschaftler selbst und eingesungen hat das Ergebnis der Musiker Rob Carrol, dessen Stimme der von Cobain recht ähnlich ist.

Wie kreativ ist künstlich? War das Ergebnis vorhersehbar?

Das Exponat im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts das Exponat »Kann künstliche Intelligenz kreativ sein?«.

Das Exponat im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts das Exponat »Der (in-)kompetente Helfer«.

Style Transfer

Tauchen Sie ein in eine virtuelle Bilderwelt. Beim Style Transfer wird der Stil eines Bildes mit dem Kamerabild der Umgebung verschmolzen. Ob ein Bild van Gogh oder Kandinsky, ob Bleistiftzeichnung oder Aquarell, ob Fotos mit Spaghetti Bolognese oder Bohnen. Style Transfer schafft aus jedem Bild eine eigene Erlebniswelt.

Der Style Transfer benutzt ein auf Bilderkennung trainiertes neuronales Netz. Solche Netze erkennen auf den Ebenen des Vorlagebildes zunächst kleine Strukturen wie Kanten und Ecken. Auf tieferen Ebenen werden die erkannten Muster immer abstrakter und größer.

So werden charakteristische Stilelemente des Bildes »eingefangen«, neu zusammengesetzt und live auf den Museumsraum übertragen. Verschiedene Künstler und Kunstrichtungen sind neben profanen Fotos zu sehen.

Das Exponat wurde durch die TNG Technology Consulting GmbH entwickelt und zur Verfügung gestellt.

TIMA: »The Intelligent Museum Assistant«

Der Sprachassistent TIMA empfängt Sie in einer geschmackvollen Telefonzelle. Er bietet sich als individueller KI-basierter Gesprächspartner an, der sich geduldig Ihren Fragen stellt. Die interaktive sprachgesteuerte Anwendung kann individuelle Fragen zu KI verstehen und hoffentlich passende Antworten geben. Die menschlichen Gesprächspartner sind somit aktiv eingebunden in die Wissensvermittlung, was nicht nur die Aufmerksamkeit erhöht, sondern auch noch jede Menge Erkenntnis verspricht.

Wie jede lernende Maschine wird TIMA immer besser darin, passgenaue Antworten zu geben, je mehr mit ihm gesprochen wird. TIMA läuft übrigens auch auf allen handelsüblichen Smartphones/ Tablets (Android/iOS) und könnte in Zukunft die Wissensvermittlung im Museum verbessern.

Probieren Sie es direkt hier aus oder treffen Sie TIMA bei Ihrem Besuch im Deutschen Museum Bonn.

Der Einsatz von TIMA erfolgt als Kooperationsprojekt des Deutschen Museums Bonn mit TamerinTECH.

Vorsicht, Fußgänger von links

In Echtzeit menschliche Bewegungen zu analysieren, ist für viele KI-Anwendungen eine wichtige Fähigkeit, etwa bei selbstfahrenden Autos: Sie müssen die Körperhaltung von Fußgängern richtig deuten, um Unfälle zu vermeiden. Das KI-System filtert aus den Bildern der Fußgänger die relevanten Informationen zu den Gelenkposition des Skelett heraus. Diese sind die Drehpunkte, von denen aus sich die aktuellen Bewegungen mathematisch beschreiben lassen. So kann die KI voraussehen, ob die Fußgänger in sicherem Abstand bleiben oder gleich die Straße betreten werden. Die Auswertung von Bewegungen in Echtzeit ist aber nicht nur bei selbstfahrenden Autos von Interesse. So lassen sich mit Gesten etwa auch Maschinen steuern.

Exponat: Computer Vision Gruppe, Institut für Informatik, Universität Bonn

Woher stammt das Bild?

Um den Aufnahmeort eines Fotos zu bestimmen, nutzt dieses KI-basierte System nur den Bildinhalt und keine Daten, die die Kamera zusätzlich gespeichert hat. Zunächst erkennt es, ob das Bild in einem städtischen oder ländlichen Umfeld aufgenommen wurde oder in einem Innenraum. Fünf Millionen Trainingsfotos helfen der KI, den Aufnahmeort weiter einzugrenzen.
Städte lassen sich an Gebäuden und Straßenzügen besonders gut erkennen. Schwieriger ist es mit Aufnahmen in der Natur: Dafür braucht die KI Erfahrungen über die jeweilige Tier- und Pflanzenwelt. Innenräume sind am schwersten zu schätzen, z. B. ob das Foto im Sushi-Lokal nebenan gemacht wurde oder doch in Paris oder Tokyo.
Ein System wie dieses könnte künftig dabei helfen, Falschnachrichten als solche zu identifizieren. Schon jetzt lässt sich damit überprüfen, wie glaubwürdig Fotos als Informationsquelle sind und wie wahrscheinlich es ist, dass ein Bild genau in der angegebenen Region aufgenommen wurde.

Exponat: Technische Informationsbibliothek, Forschungszentrum L3S Leibniz Universität Hannover