Der Computer hat dem Menschen voraus, dass er unbegrenzt Informationen speichern kann. Aber anders als der Mensch kann er aus neuen Informationen keine eigenen Schlüsse ziehen oder Widersprüche auflösen. Wie man die Technik mit dieser Art von flexiblen Intelligenz ausstatten könnte, war jetzt das Thema einer wissenschaftlichen Tagung auf Schloss Dagstuhl im Saarland. Die rund 30 Teilnehmer - Informatiker, Philosophen und andere Wissenschaftler aus zwölf Ländern - beschäftigten sich fünf Tage lang mit "Formal Models of Belief Change in Rational Agents".
"Die Mechanismen für die Revision von Meinungen werden immer wichtiger", sagt der Regensburger Philosophie-Professor Hans Rott. Um sinnvoll auf neue Informationen und andere Inputs zu reagieren, müssten Präferenzen und zum Teil auch Überzeugungen geändert werden. Dies gelte für den Menschen, werde aber auch zunehmend von technischen Lösungen verlangt. "In unserem Seminar wurde deutlich, dass es höchste Zeit wird, die bisher sehr theoretische Forschung auch in praktische Anwendungen einzubringen." Das könnten etwa intelligente autonome Roboter für den Einsatz in Katastrophen sein, erklärt die Dortmunder Informatik-Professorin Gabriele Kern-Isberner.
Keine Gefahr eines logischen Kurzschlusses
Mit Hilfe von Erkenntnissen aus der Belief-Change-Forschung könnten sich Maschinen in einem eingestürzten Gebäude anhand eines Grundrisses orientieren, aber auch mit der neuen Situation zurechtkommen. Starr programmierte Systeme stehen immer vor der Gefahr eines logischen Kurzschlusses, wenn sie mit widersprüchlichen Informationen konfrontiert sind. "Und es gibt unvorstellbar viele Dinge, die nicht vorhersehbar sind", gibt Kern-Isberner zu bedenken. "Im günstigsten Fall führt das zu einem Absturz, im schlimmsten Fall ist die Maschine nicht mehr zu kontrollieren. Sie macht dann Dinge, die nicht mehr gewollt sind." Anstatt nun den Menschen dazu zu zwingen, die rigiden Denkweisen von Maschinen anzunehmen, sollten diese autonomen Systeme wie beispielsweise führerlose Züge mit der Fähigkeit zum "Belief Change" ausgestattet werden.
Der Computer ist ziemlich gut darin, mit Nullen und Einsen umzugehen und in diesem System die kompliziertesten Berechnungen anzustellen. "Aber die klassische Logik kann mit Widersprüchen nicht umgehen", sagt Rott. Diese müsse daher durch zusätzliche Informationsstrukturen erweitert und ergänzt werden. Dabei greifen die Forscher auch auf Modelle aus den Wirtschaftswissenschaften zurück. Allerdings gibt es bislang nur wenige Anwendungen, bei denen die "Belief-Change"-Konzepte sinnvoll zum Einsatz kommen.
Ferrari im Konzept, Fiat 500 in der Anwendung
"Konzeptionell haben wir einen Ferrari, aber bei den Anwendungen sitzen wir noch in einem Fiat 500", räumt Informatikerin Kern-Isberner ein. "Es gibt zwar einige Basis-Algorithmen, die man verwenden kann, aber das steckt noch alles in den Kinderschuhen." Als Beispiel für lernfähige Software nennt Kern-Isberner eine Technik des von Google übernommenen Online-Vermarkters DoubleClick zur Erstellung von Kundenprofilen. Diese ändert ihre Meinung über eine bestimmte Person, wenn auf einmal Bestellungen getätigt werden, die den bisher registrierten Neigungen widersprechen.
Andere denkbare Verwendungsgebiete sind die Authentifizierung bei Transaktionen im Internet oder die Anpassung von Software, die in bestimmten Situationen nicht so funktioniert, wie es sein soll. Es muss allerdings nicht in jedem Fall sinnvoll sein, bisherige Überzeugungen über Bord zu werfen. Realistische Modelle müssten auch die Möglichkeit einschließen, sagt Rott, bestimmte Meinungen nur zu deaktivieren, um sie in einer neuen Situation vielleicht wieder hervorzuholen. "Auch eine gewisse Borniertheit ist in vielen Fällen vernünftig", räumt der Philosoph ein. In dieser Hinsicht zumindest kann der Computer schon gut mithalten.