HOME

Informatik: Motor der Informationsgesellschaft

Sie hat milliardenschwere Industrien hervorgebracht und neue Kommunikationswege geschaffen. Kaum eine Disziplin hat sich so rasant entwickelt wie die Informatik. Eine Zeitreise.

Das siebte deutsche Wissenschaftsjahr, ausgerufen vom Bundesministerium für Bildung und Forschung, widmet sich in diesem Jahr der jungen Informationstechnik. "Ziel ist es, den Menschen die Bedeutung der Informatik näher zu bringen und auch Berührungsängste abzubauen", sagt Matthias Jarke, Präsident der Gesellschaft für Informatik (GI) und Mitinitiator des Informatikjahrs. Bundesforschungsministerin Annette Schavan eröffnete jüngst das Jahr der Informatik offiziell in Berlin.

Allgegenwärtige Technik

Informatik bestimmt heute weite Teile unseres Alltags, von der computergesteuerten Waschmaschine bis zum Geldautomaten. Und als Wirtschaftsfaktor hat sie in Deutschland inzwischen etwa den Automobilbau überholt. Im Gegensatz zu vielen anderen Branchen ist die Informations- und Kommunikationstechnik im vergangenen Jahr gewachsen, wie Jarke betont. Und die Visionen kennen kaum Grenzen: So sollen künftig "intelligente" Roboter die Menschen unterstützen - nicht nur in gefährlichen Umgebungen wie etwa der Tiefsee, sondern auch im Haushalt. Ein erster Service-Roboter ist in Japan bereits auf dem Markt.

Der Begriff Informatik selbst tauchte zum ersten Mal 1957 beim Deutschen Karl Steinbuch auf, einem Pionier der Disziplin. Die Kombination der Wörter Information und Automatik deutet auf die Grundzüge dieser Wissenschaft. Die Geschichte der Informatik ist wie ein großes Mosaik. Verschiedene Einflüsse machen sie zu dem, was sie heute ist - eine selbstständige Wissenschaft und, wie es Wilfried Brauer, erster ordentlicher Professor für Informatik an der Universität Hamburg formuliert, eine "Kooperationspartnerin für jede Wissenschaft - nicht nur als Werkzeug in Ergänzung der Mathematik, sondern auch als Methode zur intellektuellen Analyse und Modellbildung".

Drei Disziplinen prägten die Entwicklung der Informatik besonders: die Mathematik, die Mechanik und später die Elektronik. Große Bedeutung kommt dem deutschen Universalgelehrten Gottfried Wilhelm Leibniz (1646-1716) zu. "Er entdeckte die Bedeutung des Dualsystems und das Rechnen in diesem", erklärt Brauer. Dadurch entstand die Idee, ein binäres Zahlensystem als Basis einer Rechenmaschine zu nutzen - lange vor dem Bau des ersten Computers.

Erstes Computer-Konzept

Ein Mathematiker erwies sich mehr als 150 Jahre nach Leibniz als Computerpionier. Der Engländer Charles Babbage entwarf das Konzept des ersten Computers. Seine "Analytical Engine" (Analytische Maschine) enthielt bereits alle fundamentalen Elemente eines heutigen Computers: eine zentrale Recheneinheit, einen Speicher und die Möglichkeit, Variablen und Zahlen einzugeben. Babbage schaffte es allerdings nicht, seine Maschine zu bauen.

Den ersten programmierbaren Computer konstruierte der Deutsche Konrad Zuse und nannte ihn Z3. Er entwarf die so genannte Schaltalgebra, deren Grundlage das Binärsystem ist. Um sie elektrisch umzusetzen, braucht es zwei Zustände - eins und null, Strom an und Strom aus. Zuse stellte den Rechner im Jahr 1941 fertig. Telefonrelais erledigten die Schaltarbeit.

Schrankgroße Rechensysteme

Es folgten Computer so groß wie Einbauküchen. In Forschung und Industrie fanden sie zunehmend Anklang. Damals entstand auch der Begriff des "Bug" (engl. Käfer) für eine Fehlfunktion des Rechners. In den großen Anlagen passierte es schon mal, dass ein Käfer das System lahm legte, weil er einen Kurzschluss verursachte. Den Sprung in die Haushalte schafften Computer erst Anfang der 1980er Jahre.

Doch ohne Software ist jede Hardware nutzlos. "Für die Entwicklung der Informationstechnik waren die Software und die damit zusammenhängenden Konzepte und Verfahren genau so wichtig wie die Hardware", sagt Brauer. Jeder Computer verrichtet seine Arbeit scheinbar automatisch, doch ohne Programm könnten Roboter nicht laufen, Geldautomaten nichts auszahlen und der PC-Bildschirm bliebe schwarz.

"Die Digitalsierung, also die Darstellung der Welt auf Basis von Nullen und Einsen, hat völlig neue Möglichkeiten zur Informationsverarbeitung geschaffen", sagt GI-Präsident Jarke. In der Informatik genauso wie im alltäglichen Leben.

Alexandra Sorge/DPA / DPA