HOME

40 Jahre Mikroprozessor: Die unbemerkte Digitalrevolution

Mit Intels 4004-Prozessor, der vor 40 Jahren sein Debüt gab, begann die Ära der PCs – ohne dass es jemand bemerkte.

Von Karsten Lemm, San Francisco

Federico Faggin erinnert sich noch gut an jenen Abend im Januar 1971, als die heiß erwartete Lieferung aus der Halbleiterfabrik bei ihm im Büro eintraf. Sorgsam prüfte der gebürtige Italiener, den es als Ingenieur für die noch junge Digitaltechnik nach Kalifornien verschlagen hatte, seine eigene Erfindung: einen Chip, der auf einem fingernagelgroßen Stück Elektronik vereinte, was bis dahin ganze Räume füllte. Rund 2300 Transistoren, winzige digitale Ein-Aus-Schalter, erlaubten es diesem sogenannten "Mikroprozessor", bis zu 90.000 Befehle pro Sekunde auszuführen. Stundenlang testete Faggin jeden Schaltkreis, bis er gegen 3 Uhr morgens wusste: Alles funktioniert. "Das war der große Moment der Erleichterung, des überwältigenden Glücks", erzählt Faggin. "Der Augenblick, in dem der Chip geboren wurde."

Rechenchip nur ein notwendiges Übel

Zwischen dem ersten Aufflackern von Leben in den Leiterbahnen des Intel 4004-Prozessors und seiner Markteinführung im November 1971 vergingen noch zehn Monate - und ursprünglich war es nicht einmal im Sinne der Erfinder, dass der Chip in den Handel gelangte. Intel, heute der Inbegriff für digitale Rechenhirne, war 1968 als Hersteller von Speicherbausteinen gegründet worden, und der 4004-Chip fiel in die Kategorie notwendiges Übel: Er war nur eine Auftragsarbeit für den japanischen Taschenrechner-Hersteller Busicom, der etwas Geld in die Kasse spülen sollte.

Als Busicom in finanzielle Schwierigkeiten geriet, handelten die Partner neue Bedingungen aus: Busicom bekam die Bausteine für seinen Taschenrechner billiger, und im Gegenzug durfte Intel die Chips selbst vermarkten. Als bahnbrechend erwies sich vor allem der Prozessor, der als Allround-Künstler konzipiert war. "Der 4004 war ein gigantischer Schritt nach vorn", urteilt Halbleiter-Experte Nathan Brockwood, Gründer der Unternehmensberatung Insight64.

Riesiger Geschwindigkeitszuwachs

Auch andere Firmen arbeiteten an dem Konzept, programmierbare Schaltkreise auf einem winzigen Stück Silizium unterzubringen, und bald rangelte Intel mit Konkurrenten wie Texas Instruments und Rockwell um Aufmerksamkeit in einem noch überschaubaren Markt. Das Silicon Valley war gerade erst dabei, sich vom "Tal der Herzensfreude", in dem das Auge meilenweit zwischen Natur und Obstplantagen herumwandern konnte, in ein Tal der Technik zu verwandeln. Und das Jungunternehmen Intel zählte 1971 gerade 460 Mitarbeiter bei nicht einmal zehn Millionen Dollar Jahresumsatz.

Am Ende profitierten die Chiphersteller von "Moore's Law"": Etwa alle zwölf Monate, besagt das Gesetz des Intel-Mitgründers, werde sich die Zahl der Komponenten auf einem Halbleiter-Chip verdoppeln lassen, ohne dass die Kosten steigen.

Zwar zeigte sich, dass die tatsächliche Zeitspanne für viele Bauteile eher bei 18 bis 24 Monaten lag, doch im Kern behielt Moore Recht. Entsprechend explodierte die Leistungsfähigkeit der digitalen Rechenhirne: Intels aktuelle Prozessorgeneration ist 5000 Mal schneller als der Urvater 4004. Hätten Autos sich ähnlich entwickelt, würde es heute nur noch eine einzige Sekunde dauern, um von Moskau nach Lissabon zu kommen.

Und weil es den Entwicklern gelungen ist, auf gleichem Raum immer mehr Schaltungen unterzubringen, drängeln sich mittlerweile 995 Millionen Transistoren auf 2,2 Quadratzentimetern Fläche. Die Leiterbahnen messen nur noch winzige 32 Nanometer - wären sie weiterhin zehn Mikrometer groß, wie 1971, würde der Chip sieben Meter Länge und drei Meter Breite messen.

"Mikrochips haben unser Leben verändert"

Dank des jahrzehntelangen Fortschritts hilft intelligente Elektronik heutzutage in allen Lebenslagen - von der Zimmerlampe, die automatisch erlischt, sobald der Raum leer ist, bis zur Waschmaschine, die von sich aus das beste Schonprogramm vorschlägt. "Mikrochips haben unser Leben verändert", sagt 4004-Entwickler Federico Faggin. Wie weitreichend die Digitalrevolution einmal sein würde, habe er allerdings nicht ahnen können. "Die Vielzahl an Anwendungsmöglichkeiten und die Auswirkung von Computern auf unseren Alltag sind mir nie in den Sinn gekommen", erklärt der 69-Jährige. Zunächst sei es ihm lediglich darum gegangen, die Möglichkeiten von Mikroprozessoren weiter auszuloten.

Doch viele rätselten, wozu all die Rechenpower gut sein sollte. Erst der Erfolg des Apple II mit Anwendungen wie der Tabellenkalkulation "VisiCalc" zeigte, dass billige Chips einen Massenmarkt für "persönliche Computer" möglich machten.

Mehr als ein Dutzend Nachfahren

Als der Großrechner-König IBM 1980 erschrocken aufwachte, um auf den Trend zu reagieren, suchten die Entwickler in aller Eile Bauteile für ihren PC. Als zentrale Recheneinheit, die CPU, wählten sie Intels 8088 - den Ururenkel des 4004. Wie es sich für seine Familie gehört, hatte er schnell dazu gelernt: Der 8088 verarbeitete Befehle in Datenhäppchen von 16 Bit statt nur vieren, sein Puls schlug mit 5 Megahertz, und er besaß 29.000 Transistoren - gut zwölf Mal so viele wie der 4004.

Seitdem haben mehr als ein Dutzend Chip-Generationen Computer immer schneller und schlauer gemacht. Das ging nur durch neue Tricks, die Moore’s Law am Leben gehalten haben: So haben sich die Entwickler Prozessoren mit zwei Hirnen einfallen lassen, die parallel rechnen (sogenannte "Dual Core"-Chips), und neuerdings wachsen die Schaltungen im Innern nicht nur in die Breite, sondern auch in die Höhe. Die neue 3D-Bauweise soll helfen, weiterhin auf engstem Raum immer mehr Rechenpower unterzubringen.

"Diese Art von Einfallsreichtum wird uns auch künftig Geräte bescheren, die immer kleiner und leistungsfähiger werden", sagt Analyst Brockwood. "Zumindest in den nächsten zehn Jahren wird sich daran nichts ändern." Intels 4004 darf sich noch auf zahlreiche Urenkel freuen.

Themen in diesem Artikel