VG-Wort Pixel

Glaskugel für das Schlachtfeld Projekt GIDE: Das Pentagon will in die Zukunft schauen und Angriffe mehrere Tage vorhersehen können

Raketenstart an Bord der USS Dewey DDG 105.
Die neue Informationsverarbeitung soll Tage vorher vor Angriffen warnen können
© US Navy / Hersteller
Informationen über den Feind sind schon lange eine der wichtigsten Ressourcen im Krieg. Die US-Streitkräfte wollen das nun auf die Spitze treiben: Mit einem neuen System wollen sie die nächsten Bewegungen des Feindes schon Tage vorher kennen.

Wann schlägt der Feind wo zu und mit welchen Mitteln? Fragen wie diese beantworten zu können, kann die strategische Überhand in militärischen Konflikten schnell wenden. Die US-Streitkräfte wollen nun schon mit mehreren Tagen Vorlauf den nächsten Zug des Gegners vorhersagen. Und setzen dabei auf künstliche Intelligenz (KI) als militärische Glaskugel.

Die Global Information Dominance Experiments (etwa: Experimente für die weltweite Informationsdominanz), kurz GIDE, genannte Testserie schloss Mitte Juli den dritten Durchlauf ab, meldete das Pentagon. Das Ziel: Mit Hilfe von Cloud-Rechenzentren, einer darauf laufenden KI und einem weltweiten Sensoren-Netzwerk will das US-Militär die "Informations-Überhand" gewinnen und damit "die Überlegenheit beim Treffen von Entscheidungen" erreichen. Im Klartext: Man will einen Blick in die Zukunft ermöglichen.

Wahrgewordene Science-Fiction

Das ist weniger abgehoben, als es zunächst klingt. Statt Science-Fiction-Technologien einzusetzen, müsste man dafür nur vorhandene Technologien auf höchstem Niveau zusammenbringen, erklärte General Glen VanHerck, der Leiter des für den nordamerikanischen Raum zuständigen Kommandos Northcom, in einer Pressekonferenz. Man experimentiere nun seit einem Jahr damit, so der General. "Was wir sehen, ist die Fähigkeit, immer weiter aus der Reaktion auf Ereignisse auszubrechen und proaktiv werden zu können. Und wir sprechen hier nicht von Minuten oder Stunden. Wir sprechen von Tagen", antwortete er auf die verblüfften Nachfragen der Journalisten.

Im Test habe die Informationsverarbeitung sehr gut funktioniert, erklärte Northcom, ähnliche Experimente der Airforce oder der Armee seien ähnlich erfolgreich gewesen, berichtet "The Drive". Es gehe bei den aktuellen Experimenten aber weniger darum, die Machbarkeit zu prüfen, sondern die bestehenden Systeme ideal miteinander arbeiten zu lassen. Dabei spiele etwa auch die durch den ehemaligen Präsidenten Donald Trump beschlossene und eher belächelte Space Force eine entscheidende Rolle. "Wir verlassen uns auf ihre Sensoren, ihre Fähigkeiten zur Gefahrenerkennung und zur Analyse von Angriffen", so VanHerck.

Parkplätze als Gefahrensignal

In einem Beispiel zeigte er, was genau hinter der Technologie steckt. "Wir nehmen Daten von Sensoren rund um die Welt, nicht nur militärische, sondern auch zivil verfügbare. Und wir nutzen sie zur Aufklärung in bestimmten Bereichen", erläutert er. "Die Maschinen können dann im Auge behalten, wie viele Autos geparkt sind, wie viele Flugzeuge auf einer Rampe warten und ob ein U-Boot sich zum Ablegen bereit macht oder gar eine Rakete gestartet wird. Während es früher Tage oder zumindest Stunden dauerte, bis jemand die Daten ausgewertet hatte, geht es nun in Sekunden."

Das führe letztlich dazu, dass Situationen viel früher als potenziell gefährlich erkannt werden könnten. Selbst von eigentlich harmlos wirkenden Momentaufnahmen. "Wir werten die Daten mit künstlicher Intelligenz aus. Zum Beispiel, wie viele Autos in einem Parkplatz in einem bestimmten Ort mit Bezug zu einem Kontrahenten geparkt sind", erklärt VanHerck. "Entdeckt die künstliche Intelligenz eine Veränderung, kann das einen Alarm auslösen, der dann mit anderen Sensoren wie dem Satellitensystem geprüft wird."

Pentagon bestätigt: US-Navy sichtet Unterwasser-Ufos auf ihren Radaren

Auf diese Weise würde man Veränderungen im Verhalten der Kontrahenten schneller erkennen. "Dadurch gewinnen wir Tage im Voraus, um strategische Entscheidungen zu treffen. Das gibt Raum für nötige Truppenbewegungen, zum Aufbau von Abwehrmaßnahmen, die dann dem Verteidigungsminister oder dem Präsident als Option angeboten werden können", so der General.

Keine Entscheidung durch KI

Gerade der letzte Punkt scheint den US-Streitkräften sehr wichtig zu sein: Es gehe darum, die Entscheidungsträger zu unterstützen und nicht zu ersetzen, betonte VanHerck gleich mehrfach. Es sei wichtig, dies der Bevölkerung und dem Kongress klar zu machen: "Die Maschinen treffen keine Entscheidungen. Wir verlassen uns nicht auf Computer, um für uns abzuwägen, wie wir Angreifer abschrecken oder besiegen können."

Diese Sorgen sind nicht unbegründet. Im letzten Jahrzehnt haben die USA immer öfter auf den Einsatz von Drohnen statt auf bemannte Angriffe gesetzt. Gemeinsam mit einer KI, die den Angriff beschließen würde, würden die Fragen der moralischen Verantwortung für fehlgeschlagene Angriffe oder zivile Opfer noch einmal verschärft.

Hinzu kommt, dass die Entwicklung autonomer Kampfsysteme immer weiter fortschreitet. Anfang des Jahres testete etwa Russland den Einsatz seiner Marker-Plattform, einem autonom agierenden Kampfroboter, in einer Schneeregion getestet. Der Roboter legte dort eigenständig 30 Kilometer zurück. Auch die USA denken mittlerweile über den Einsatz solcher Systeme nach. Das Argument: Wenn man es selbst nicht tue, überlasse man Konkurrenten wie China das Feld, hieß es in einem Bericht der Sicherheitskommission an Präsident Biden.

Quellen:Pressekonferenz Northcom, The Drive, TASSBericht der Sicherheitskommission 


Mehr zum Thema


Wissenscommunity


Newsticker