Direkt zum Seiteninhalt springen

Deep Fake

Deep Fakes sind realistisch wirkende Medieninhalte, die durch Techniken der Künstlichen Intelligenz abgeändert und verfälscht worden sind. Für ein Deep Fake lernt ein Programm dank KI, wie eine Person aussieht und welche Mimik sie hat. Anschließend lässt sich das Gesicht auf jede beliebige Person übertragen. So lassen sich Videos erzeugen, in denen Menschen scheinbar Dinge sagen oder tun, die sie nie gesagt oder getan haben. Die Möglichkeiten der Manipulation erreichen eine neue Dimension.

Nehmen Sie Platz im Erlebnisraum KI und erleben Sie, wie Ihr Gesicht manipuliert wird und das Aussehen der bekannten Fernsehmoderatoren Harald Lesch, Dirk Steffens oder einer unserer Museotainerinnen annimmt.

Das Exponat wurde durch die TNG Technology Consulting GmbH entwickelt und zur Verfügung gestellt.

Kann künstliche Intelligenz kreativ sein?

Die Band »Nirvana« begründete das Genre des Grunge. Dieser basiert auf sehr simplen Elementen: aggressive Gitarren, einfache Strukturen und ein leicht zu identifizierender Sound irgendwo zwischen Punk und Heavy Metal. Der Sänger Kurt Cobain wurde zu einer Ikone seiner Generation.

Das Team um den Wissenschaftler Ivan Yamshchikov vom Max-Planck-Institut für Mathematik in den Naturwissenschaften in Leipzig hat versucht, die Band mittels einer mit Nirvana –Texten trainierten KI »auferstehen« zu lassen. Das Exponat »Smells like Cobain’s Spirit« zeigt die Ergebnisse der KI, die die Songtexte geschrieben hat. Die Musik komponierten die Wissenschaftler selbst und eingesungen hat das Ergebnis der Musiker Rob Carrol, dessen Stimme der von Cobain recht ähnlich ist.

Wie kreativ ist künstlich? War das Ergebnis vorhersehbar?

Das Exponat im Film

Unser Museotainer erklärt im Rahmen eines KI:ckstarts das Exponat »Kann künstliche Intelligenz kreativ sein?«.

Style Transfer

Tauchen Sie ein in eine virtuelle Bilderwelt. Beim Style Transfer wird der Stil eines Bildes mit dem Kamerabild der Umgebung verschmolzen. Ob ein Bild van Gogh oder Kandinsky, ob Bleistiftzeichnung oder Aquarell, ob Fotos mit Spaghetti Bolognese oder Bohnen. Style Transfer schafft aus jedem Bild eine eigene Erlebniswelt.

Der Style Transfer benutzt ein auf Bilderkennung trainiertes neuronales Netz. Solche Netze erkennen auf den Ebenen des Vorlagebildes zunächst kleine Strukturen wie Kanten und Ecken. Auf tieferen Ebenen werden die erkannten Muster immer abstrakter und größer.

So werden charakteristische Stilelemente des Bildes »eingefangen«, neu zusammengesetzt und live auf den Museumsraum übertragen. Verschiedene Künstler und Kunstrichtungen sind neben profanen Fotos zu sehen.

Das Exponat wurde durch die TNG Technology Consulting GmbH entwickelt und zur Verfügung gestellt.

Woher stammt das Bild?

Um den Aufnahmeort eines Fotos zu bestimmen, nutzt dieses KI-basierte System nur den Bildinhalt und keine Daten, die die Kamera zusätzlich gespeichert hat. Zunächst erkennt es, ob das Bild in einem städtischen oder ländlichen Umfeld aufgenommen wurde oder in einem Innenraum. Fünf Millionen Trainingsfotos helfen der KI, den Aufnahmeort weiter einzugrenzen.
Städte lassen sich an Gebäuden und Straßenzügen besonders gut erkennen. Schwieriger ist es mit Aufnahmen in der Natur: Dafür braucht die KI Erfahrungen über die jeweilige Tier- und Pflanzenwelt. Innenräume sind am schwersten zu schätzen, z. B. ob das Foto im Sushi-Lokal nebenan gemacht wurde oder doch in Paris oder Tokyo.
Ein System wie dieses könnte künftig dabei helfen, Falschnachrichten als solche zu identifizieren. Schon jetzt lässt sich damit überprüfen, wie glaubwürdig Fotos als Informationsquelle sind und wie wahrscheinlich es ist, dass ein Bild genau in der angegebenen Region aufgenommen wurde.

Exponat: Technische Informationsbibliothek, Forschungszentrum L3S Leibniz Universität Hannover

Stable Diffusion

5 Milliarden Bild-Text-Paare wurden für diesen KI-Bildgenerator zerlegt. So kann »Stable Diffusion« entlang der eingegebenen Texte und Begriffe, neue Bilder erstellen. Dies erfolgt durch den Einsatz eines speziellen neuronalen Netzes, das aus Texten und Stil-Filtern neue Bilder erstellt.

Die Besucher und Besucherinnen können hier mit ihren eingefügten Texten und Begriffen eigene neue Bilder erschaffen.

Idee und Herstellung: CD Werbeagentur GmbH

Quick, Draw!

Im Spiel »Quick, Draw!« lädt die KI zum Wettstreit zwischen Mensch und Maschine ein. Die Aufgabe der Besucher und Besucherinnen ist es, sechs verschiedene Objekte in wenigen Sekunden mit dem Finger auf den Bildschirm zu zeichnen, während die KI versucht, die Objekte zu erkennen. Das klappt schon erstaunlich gut. Kein Wunder, denn »Quick, Draw!« ist ein riesiges Netzwerk, dass mit jeder Zeichnung dazulernt und immer besser wird. Kann die KI ausgetrickst werden?

in Kooperation mit »Google Arts &Culture«

KI erkennt Krebs

Bei der Krebsbehandlung gilt: je eher die Tumorzellen erkannt werden, desto besser sind die Heilungschancen. Um diese wertvolle Zeit zu gewinnen wird KI in der Krebsdiagnostik eingesetzt. Dazu werden Gewebeproben mit hoher Auflösung gescannt und dann sucht die trainierte KI nach den typischen Tumorstrukturen. Das geht extrem schnell und ist schon sehr zuverlässig. So arbeitet die KI den Ärzten zu, die ohne Zeitverschwendung sofort das verdächtige Gewebe untersuchen können.

in Kooperation mit »MERCK Healthcare KGaA«

PowerPoint-Karaoke mit KI?

GPT-3, DALL-E 2, Stable Diffusion, Aleph Alpha und andere Künstliche Intelligenzen, die auf Kommando Bilder und Texte erzeugen, sorgen zurzeit für Schlagzeilen. Doch was kommt dabei heraus, wenn man sie alle – und noch ein paar andere Technologien des maschinellen Lernens – kombiniert? Zum Beispiel: lustige, inhaltlich schlüssige und trotz der absurden Inhalte souverän vorgetragene PowerPoint-Präsentationen.

Idee und Herstellung: TNG Technology Consulting, München

KI Zeichenzauber

Beim KI Zeichenzauber werden Ihre eigenen Zeichnungen und Texte mithilfe von KI in ein Bild kombiniert. Sie können logisch, fantastisch oder auch unsinning sein. ChatGPT und Stable Diffusion versuchen dann ihre Texte und Zeichnung in ein Bild zu fusionieren.

Idee und Herstellung: Vistroem GmbH

Polarstern

Vor zwei Großbildschirmen des vorbeifließenden Polarmeers steht im Maßstab 1:50 das Modell des Forschungsschiffs »Polarstern«, eine Dauerleihgabe des Alfred-Wegener-Instituts für Polar- und Meeresforschung (AWI) in Bremerhaven.
Über ein Jahr lang ließ sich die echte Polarstern mit ihrer Besatzung in der Arktis einfrieren und erhob riesige Datenmengen zum Klimawandel. Die MOSAiC-Expedition (Multidisciplinary drifting Observatory for the Study of Arctic Climate) war die größte Arktis-Forschungsreise der Geschichte. Vom September 2019 bis Oktober 2020 wurde das arktische Klimasystem umfassend zu untersuchen. Die »Polarstern« war das Herzstück der Expedition. Sie ließ sich im arktischen Eis einfrieren und driftete mit dem Eis über das Nordpolarmeer.

Die MOSAiC-Expedition setzte verstärkt auf Künstliche Intelligenz, um ihre Forschungsziele zu erreichen. KI-Technologien ermöglichen die effiziente Analyse der riesigen Datensätze, die während der Expedition gesammelt wurden, und helfen dabei, komplexe Muster zu identifizieren. Zusammen mit dem Alfred-Wegener-Institut machen wir für unsere Museumsgäste nachvollziehbar, wie diese Daten mit KI wissenschaftlich nutzbar gemacht werden.

Klimaton

Ende 2020 kehrte die Polarstern mit den Forscherinnen und Forschern von der MOSAIC Expedition zurück. Mehr als ein Jahr hatten sie Daten von einem kilometerlangen Netz aus Messstationen gesammelt. Das Ergebnis ist die größte wissenschaftliche Daten­sammlung einer einzigen Region.

Ist ein spielerischer Umgang mit solchen Daten möglich? Das Künstlerduo Adnan und Nina Softić hat sie mit ihrem Team vertont. Ein Klanginstrument, das KLIMATON, wurde entwor­fen, das den Museumsgästen die Mischung unterschiedlicher aus Daten geschaffener Klanggruppen ermöglicht. Diese sogenannte Sonifikation stellt eine akustische Form der Anschauung dar.

In Zusammenarbeit mit einer Gruppe von Wissenschaftler*innen des MOSAiC-Projekts, dem Datenspezialisten Dr. Sebastian Mieruch-Schnülle, dem Komponisten Thies Mynther und einem erfahrenen technischen Team hat das Künstlerduo das KLIMATON entwickelt, das die Daten aus der Arktis in Klänge übersetzt – ein sonifiziertes Porträt einer schwindenden Landschaft.

BeHERZtes Eingreifen im Notfall!

Stellen Sie sich vor, wie jemand vor Ihnen zu Boden sackt. Die Person reagiert nicht auf Ansprache und zeigt keine Atmung. Jetzt sind Erste Hilfe Maßnahmen gefordert! Doch im Ernstfall tun dies nicht alle Menschen.

Die Demonstation versetzt die Besucherinnen und Besucher »spielerisch« in fiktive Notfallsituationen und ermöglicht es, Reanimation zu üben. Die Forschungsdaten zu den Hemmungen in Notfallsituationen werden erhoben und an das IMBEI-Team (Institut für Medizinische Biometrie, Epidemiologie und Informatik) der Universitätsmedizin Mainz übermittelt. Aus diesen Daten lernt das System mit der Zeit ein regelhaftes Wissen, warum welche Hemmungen in Notfallsituationen auftreten.