Direkt zum Seiteninhalt springen

Inhalt

IGGI - Ingenieur-Geist und Geistes-Ingenieure: Eine Geschichte der Künstlichen Intelligenz in der Bundesrepublik Deutschland.

Gefördert von

Das Projekt (Förderkennzeichen 01IS19029) wird im Rahmen der Förderrichtlinie „Intelligente Systeme“ gefördert vom BMBF.

Bearbeitet von

  • PD Dr. Rudolf Seising

    Leitung BMBF Forschungsprojekt "Eine Geschichte der KI in der BRD"Teilprojekt "Automatisches Beweisen"

  • Dr. Helen Piel

    BMBF Forschungsprojekt "Eine Geschichte der KI in der BRD"Teilprojekt "Künstliche Intelligenz und Kognitionswissenschaft"

  • Florian Müller

    BMBF Forschungsprojekt "Eine Geschichte der KI in der BRD"Teilprojekt "Sprachverarbeitung"

  • Dinah Pfau

    BMBF Forschungsprojekt "Eine Geschichte der KI in der BRD“Teilprojekt: "Verarbeitung von Bildern"

  • Jakob Tschandl

    BMBF Forschungsprojekt "Eine Geschichte der KI in der BRD"Teilprojekt "Expertensysteme"

Projektbeschreibung

Das Projekt untersucht, wie sich die KI-Forschung im Umfeld des deutschen Wissenschafts- und Innovationssystems entwickelte und schließlich zu einem auch international überaus erfolgreichen Teilgebiet der bundesdeutschen Informatik wurde. Neben der Auswertung des reichhaltigen Quellenmaterials nutzen wir Interviews mit ZeitzeugInnen, um die deutsche KI-Entwicklung in der Wissenschafts- und Technikgeschichte einzuordnen.

„Künstliche Intelligenz“ (KI) dominiert zurzeit die Debatten

„Künstliche Intelligenz“ (KI) dominiert zurzeit die Debatten in Wissenschaft und Technik, Politik, Wirtschaft, Kunst und medialer Öffentlichkeit. KI, das sind nicht nur autonome Fahrzeuge, Schachcomputer oder sprechende Roboter: KI ist auch eine wissenschaftliche Disziplin, in der mit Hilfe des Computers menschliche Intelligenz nachgeahmt und sogar Maschinen mit eigener ‚Intelligenz‘ konstruiert werden sollen. Das Schlagwort KI steht für Forschungen über Entwurf, Verarbeitung und Kommunikation von Information in und durch Maschinen. Das alles sind Fähigkeiten, die die Intelligenzforschung gemeinhin dem Menschen zuschreibt.

Ingenieur-Geist und Geistes-Ingenieure

In dem Projekt IGGI arbeiten wir die Geschichte der KI in der Bundesrepublik Deutschland auf, um das Verständnis der ‚KI‘ genannten Technologien zu fördern. „IGGI“ weist darauf hin, dass einige frühe InformatikerInnen der Ansicht waren, das Programmieren sei eine Tätigkeit, die kein materielles Produkt hervorbringe, sondern abstrakte Konstrukte zur Problemlösung. Nachdem sich etwa Mitte der 1970er Jahre eine westdeutsche KI-Community formierte, warfen auch deren VertreterInnen die Frage auf, ob auch Computer denken können. Dann bestünde zwischen der Problemlösung durch Computerprogramme und jener durch den menschlichen Geist kein Unterschied. Das besagt die Computermetapher des Geistes, auf der die Kognitionswissenschaften beruhen.

In den 1980er Jahren differenzierten sich Teilgebiete aus, darunter das automatische Beweisen mathematischer Theoreme, die Bild- und Sprachverarbeitung oder Expertensysteme. Mit der Kognitionswissenschaft sind damit die fünf Teilgebiete genannt, die im Rahmen dieses Forschungsprojektes untersucht werden.

Zentrales methodisches Element ist die Sicherung und Auswertung von Materialien in Vor- und Nachlässen sowie in breit angelegten Erinnerungen der noch lebenden Pioniere. Diese werden als Video-Aufnahmen archiviert und mit der Oral-History-Methode ausgewertet.

Teilprojekte

PD Dr. Rudolf Seising, Forschungsgruppenleiter

Automatisches Beweisen

Eine der ältesten Anwendungen der KI ist das Beweisen mathematischer Sätze durch ein Computerprogramm. Das führte zu logischem Programmieren, Termersetzungssystemen und Unifikationssystemen, aber auch zu nicht-monotonen Logiken. Neben der Gruppe von Wolfgang Bibel in München widmete man sich in Kaiserslautern und Karlsruhe diesem Gebiet sowie auch in Hamburg, Kiel und Stuttgart. Insbesondere die VertreterInnen dieser KI-Thematik mussten sich anfangs gegenüber den „Standard-Informatikern“ behaupten. Gleichwohl wurde dem Automatischen Beweisen selbst von KritikerInnen der KI schon bald eine Berechtigung als wissenschaftliches Betätigungsfeld zuerkannt.

Um sicher zu sein, dass ein mathematischer Satz richtig ist, muss er bewiesen werden. Dazu wird er durch logische Schlussfolgerungen auf bereits als richtig geltende Sätze zurückgeführt. MathematikerInnen helfen hier oftmals Erfahrung und Intuition, dennoch werden sie ihre Beweisansätze häufig auch probieren und sukzessive korrigieren müssen, bevor sie erfolgreich sind. Können Computer mathematische Beweise führen? Ein erstes KI-Programm dafür war der „Logic Theorist“.

In diesem Teilprojekt sollen die Hintergründe der institutionellen und wissenschaftlichen Entwicklungen des Automatischen Beweisens in der Bundesrepublik Deutschland untersucht werden.

Florian Müller, M.A., Doktorand

Sprachverarbeitung

Sprechen ist eng mit Denken verbunden. Deshalb ist es nicht verwunderlich, dass sich die ersten KI-ForscherInnen mit der Frage beschäftigten, wie Computer natürliche Sprache erkennen und ausgeben könnten. Forschungen in diesem Bereich begannen in den USA in den 1950er Jahren. Wichtigste Anwendungen waren und sind maschinelle Übersetzer, Systeme zur Erschließung und Zusammenfassung von Texten und Dialogsysteme, die auch auf eine verbesserte Mensch-Maschine-Kommunikation zielen sollten. Die Forschungen führten früh zu einer engen Zusammenarbeit von ComputerexpertInnen und SprachwissenschaftlerInnen. 

Das setzte sich auch in der Bundesrepublik fort, allerdings mit einer anderen Ausgangssituation: Während in den USA KI-ForscherInnen die Forschung zur Sprachverarbeitung auf den Weg brachten und später LinguistenInnen dazukamen, begann in Westdeutschland die Arbeit zur maschinellen Sprachverarbeitung in den 1960er Jahren im Feld der gerade entstehenden Computerlinguistik. Erst Mitte der 1970er konnte sich hier eine eigene KI-Forschung etablieren, die sich bald ebenfalls mit der Verarbeitung natürlicher Sprache befasste. 

Das Teilprojekt untersucht, wie westdeutsche ForscherInnen aus verschiedenen Disziplinen in diesem Kontext zusammenarbeiteten und sich gegenseitig beeinflussten und welche Stellung dabei der KI zukam.

Dinah Pfau, M.A., Doktorandin

Bildverstehen

Mit neuen Medientechnologien veränderte und verändert sich auch unser Verständnis von visueller Wahrnehmung. Fotografie und Kinematografie erlaubten z.B. neue Experimente und Fragestellungen: Wie können Menschen eine Folge von statischen Bildern als bewegt wahrnehmen? Wie passiert das Sehen und welchen Regeln unterliegt es?

Informationstechnik, insbesondere die Digitaltechnologien des 20. Jahrhunderts, rückten über eine theoretische Formalisierung hinaus die technische Nachahmung des Sehens zunehmend in den Bereich des Möglichen. Die Verarbeitung visueller Informationen wurde so nicht nur für Disziplinen wie Physik, Physiologie und Psychologie, sondern auch für die in der Bunderepublik aufkommende (Bio)Kybernetik und Künstliche Intelligenz interessant. Mit der breiten Förderung und den ersten Lehrstühlen für Informatik ab den 1970er Jahren nahm die Forschung an der Verarbeitung von Bildern und Bildfolgen durch Computer in der Bundesrepublik zusätzlich an Fahrt auf. Durch neue Problemstellungen und Ansätze des „Bildverstehens“ ergaben sich Schnittstellen zur KI-Forschung. Insbesondere die Frage, wie sich komplexe Information aus einer dreidimensionalen „Umwelt“ mit zeitlichen Abläufen – Bewegungen – analysieren und interpretieren lassen, ließ sich mit Methoden der Wissensverarbeitung angehen.

Die maschinelle Bildverarbeitung und -interpretation ist jedoch nicht nur auf die Informatik begrenzt, sie ist Gegenstand und Methode vieler Forschungs- und Anwendungsbereiche, prominent darunter die Medizin, Robotik und die Forschung an autonomen Fahrzeugen. Sie beruht auf verschiedenen Ansätzen und Technologien, für deren (Miss)Erfolge nicht zwingend ihr Funktionieren, sondern auch kulturelle, ökonomische und politische Faktoren ausschlaggebend waren.

Jakob Tschandl, M.A., Doktorand

Expertensysteme

Expertensysteme (XPS) standen im Mittelpunkt einer Forschungsrichtung zur Erstellung von Programmsystemen, die Aufgaben erfüllen sollten, wie sie bisher menschlichen SpezialistInnen (Experten) vorbehalten waren.

Die Grundidee der XPS ist es, die „Datenbasis“ von ihrer Verarbeitung zu trennen. In der „Datenbasis“ sollte Wissen von FachexpertInnen, wie ÄrztInnen oder BetriebswirtInnen, in Form von „Wenn-dann“-Beziehungen, Fakten und Regeln für Maschinen verarbeitbar gemacht werden. SoftwarespezialistInnen erstellten dann ein ‚Problemlösungsprogramm‘, das die Fakten und Regeln der Datenbasis verwendete, um unter anderem Fragen zu beantworten oder Prozesse zu überwachen. Dabei gab dieses nicht nur Wissen wieder, sondern sollte auch neues Wissen erzeugen können. Diese Trennung von Wissen und dessen Verarbeitung ermöglichte Anwendungen über die klassischen Disziplingrenzen hinweg. Zum Beispiel konnte das Problemlösungsprogramm des ursprünglich für den medizinischen Bereich entwickelten MYCIN mit anderen Wissensbasen zur Diagnose technischer Systeme eingesetzt werden.

Der Entwicklungsstrang „Expertensysteme“ lässt sich auf das US-amerikanische System DENDRAL zurückführen, das ab 1965 in Stanford entwickelt wurde. Nach zwei Jahrzehnten relativen Erfolgs, stieg das Interesse an Expertensystemen sprunghaft an, als 1982 das japanische Ministerium für Internationalen Handel und Industrie begann, ihr „Fünfte Generation Computer“-Projekt umzusetzen. Binnen kurzer Zeit vervielfachten sich die Publikationen zum Thema, und Expertensysteme wurden zum Inbegriff für Künstliche Intelligenz Ende der 1980er, Anfang der 1990er Jahre. Nach dem Überschreiten des Höhepunkts in den USA 1988 endete auch der „Hype“ um XPS wieder. 1992 lief das „Fünfte Generation Computer“-Projekt aus, ohne die meisten seiner Ziele erreicht zu haben. In der heutigen öffentlichen Debatte ist dieser „KI-Hype“ der 1980er in Vergessenheit geraten.

Gegenstand dieses Teilprojekts ist die Untersuchung, welchen Einfluss die Expertensysteme auf die bundesdeutsche KI-Entwicklung hatten.

Dr. Helen Piel, wissenschaftliche Mitarbeiterin

Künstliche Intelligenz und Kognitionswissenschaft

Der Begriff der „Kognition“ steht für diejenigen Vermögen, die es Menschen erlauben, sich intelligent zu verhalten: Problemlösen, Lernen, Gedächtnis usw. Die Frage danach, was genau Intelligenz ist, ist nicht neu, genauso wenig wie der Versuch, sie unter Heranziehung mechanischer Vergleiche zu beantworten. In der jüngeren Geschichte hat sich dabei der Computer als besonders eindringliche Analogie erwiesen: Kognition (und damit auch Intelligenz), das sei ein informationsverarbeitender Prozess, der ähnlich wie die Informationsverarbeitung in einem Computer ablaufe, so die These.

Mit dieser Computeranalogie versuchen also KognitionswissenschaftlerInnen, intelligente Systeme und die Natur der Kognition zu verstehen. Dabei kombiniert die Kognitionswissenschaft Ansätze und Ergebnisse verschiedener Disziplinen, von der Psychologie über die Linguistik und mehr bis hin zur Künstlichen Intelligenz.

Kognitionswissenschaft und KI-Forschung haben damit ein gemeinsames Thema: Intelligenzforschung beim Menschen und bei der Maschine. Ihnen ist auch gemein, dass sie interdisziplinär orientiert sind und die Frage nach der Intelligenz durch fächerübergreifendes Arbeiten beantworten wollen. Anders als in den USA wurden allerdings in Deutschland die Kognitionswissenschaften – und mit ihr auch vermehrt philosophische Fragen –  erst mit einigem zeitlichen Abstand als ein Teilgebiet der KI angesehen. Wie genau sich die Beziehungen der beiden Forschungsgebiete im bundesdeutschen Kontext entwickelten, gilt es zu untersuchen.

Wissenschaftliche Beiräte

Literatur

  • Ahrweiler, Petra: Künstliche Intelligenz-Forschung in Deutschland. Die Etablierung eines Hochtechnologie-Fachs (Münster/New York 1995).

  • Barthelmeß, Ulrike; Furbach, Ulrich: Künstliche Intelligenz aus ungewohnten Perspektiven. Ein Rundgang mit Bergson, Proust und Nabokov (Wiesbaden 2019).

  • Coy, Wolfgang; Bonsiepen, Lena: Erfahrung und Berechnung. Kritik der Expertensystemtechnik (Berlin; Heidelberg 1989).

  • Heintz, Bettina: Die Herrschaft der Regel. Zur Grundlagengeschichte des Computers (Frankfurt/Main; New York 1993).

  • Lenzen, Manuela: Künstliche Intelligenz. Was sie kann und was uns erwartet (München 2018).

  • Malsch, Thomas; Bachmann, Reinhard; Jonas, Michael; Mill, Ulrich; Ziegler, Susanne: Expertensysteme in der Abseitsfalle? Fallstudien aus der industriellen Praxis (Berlin 1993).

  • Puppe, Frank: Einführung in Expertensysteme. (Berlin; Heidelberg 1988).

  • Rammert, Werner (Hg.): Soziologie und künstliche Intelligenz. Produkte und Probleme einer Hochtechnologie (Frankfurt/Main; New York 1995).

  • Seising, Rudolf; Dittmann, Frank: Eine historisch-kritische Einführung. In: Deutsches Museum (Hg.): Bibel, Wolfgang; Furbach, Ulrich: Formierung eines Forschungsgebiets – Künstliche Intelligenz und Intellektik an der Technischen Universität München, Preprint 15, Deutsches Museum (München 2018).

  • Seising, Rudolf: Es denkt nicht! (Frankfurt am Main, Wien und Zürich 2021).

Weitere Forschungsprojekte