Logo mybusinessculture.com

Der KI-Chef Des Pentagons Bereitet Sich Auf Den Kampf Vor

Der KI-Chef Des Pentagons Bereitet Sich Auf Den Kampf Vor
Der KI-Chef Des Pentagons Bereitet Sich Auf Den Kampf Vor

Video: Der KI-Chef Des Pentagons Bereitet Sich Auf Den Kampf Vor

Video: Der KI-Chef Des Pentagons Bereitet Sich Auf Den Kampf Vor
Video: 2021-06-07 Döbeln, Die Elite probt den Aufstand (Beschreibung lesen) 2023, Dezember
Anonim

Nahezu täglich fordern amerikanische Streitkräfte in Kriegsgebieten auf der ganzen Welt Feuerunterstützung an. Indem Infanteristen Koordinaten auf eine Haubitze aus der Ferne funken, können sie den schrecklichen Untergang einer 155-mm-Artillerie-Granate auf die gegnerischen Streitkräfte abfeuern. Wenn die Verteidigungsbeamten in Washington ihren Willen haben, wird künstliche Intelligenz diesen Prozess erheblich beschleunigen.

Der Versuch, die Feuerunterstützung zu beschleunigen, ist eine von wenigen Initiativen, die Generalleutnant Jack Shanahan als "Missionen mit geringeren Konsequenzen" bezeichnet, mit denen das Pentagon demonstriert, wie es künstliche Intelligenz in seine Waffensysteme integrieren kann. Als Leiter des Joint Artificial Intelligence Centers, einer 140-köpfigen Clearingstelle im Verteidigungsministerium, die sich auf die Beschleunigung der Einführung von KI konzentriert, entwickeln Shanahan und sein Team Anwendungen in etablierten KI-Domänen - Tools für die vorbeugende Wartung und die Analyse von Krankenakten -. aber auch die exotischeren KI-Fähigkeiten ausprobieren, die die Technologie zu einem Kernstück der amerikanischen Kriegsführung machen würden.

Shanahan stellt sich ein amerikanisches Militär vor, das KI verwendet, um sich viel schneller zu bewegen. Wo einst Analysten der menschlichen Intelligenz auf einen Bildschirm starrten, um ein Ziel zu identifizieren und zu verfolgen, übernahm ein Computer diese Aufgabe. Heutzutage könnte ein menschlicher Offizier Optionen für den Einsatz von Waffen gegen einen Feind vorstellen. Innerhalb von etwa 20 Jahren könnte ein Computer einem Menschen "so schnell wie möglich Empfehlungen für den Einsatz von Waffen geben", sagte Shanahan WIRED in einem Interview in diesem Monat. Mehrere Befehls- und Kontrollsysteme, die die Bedingungen auf dem Schlachtfeld verfolgen, sollen zu einem System zusammengefasst werden.

Es ist keine Vision für Killerroboter, die entscheiden, wer lebt und stirbt. Es ist eher wie Waze, aber für den Krieg. Oder wie Shanahan es ausdrückte: "So viel Maschine-zu-Maschine-Interaktion wie möglich, damit den Menschen verschiedene Handlungsoptionen für Entscheidungen präsentiert werden können."

Die Hürden für die Umsetzung dieses Plans sind zahlreich. Die umfangreichen Datenmengen, die für die Erstellung dieser Algorithmen für die Bildverarbeitung und die Entscheidungsfindung benötigt werden, weisen selten die erforderliche Qualität auf. Und Algorithmen sind nur so gut wie die Datensätze, auf denen sie aufbauen.

Die militärische Integration intelligenter Computersysteme wirft möglicherweise tiefgreifender die Frage auf, ob bestimmte Bereiche des menschlichen Lebens, wie beispielsweise die gewaltsame Übernahme, computergestützt sein sollten. "Dieser Verlust der menschlichen Kontrolle versetzt uns in Fragen der Autorisierung und Rechenschaftspflicht, die wir noch nicht geklärt haben", sagt Peter Singer, Verteidigungsanalyst und Mitautor des bevorstehenden Technothrillers Burn-In.

"In zwanzig Jahren werden wir uns Algorithmen gegen Algorithmen anschauen."

Jack Shanahan, JAIC

Diese ethischen Fragen haben eine Kluft innerhalb des Silicon Valley über die Zusammenarbeit mit dem Pentagon bei Initiativen zur künstlichen Intelligenz aufgedeckt. Bevor er die JAIC leitete, leitete Shanahan Project Maven, ein Computer-Vision-Projekt, das darauf abzielte, Unmengen von Luftüberwachungsmaterial aufzunehmen und die Erkennung feindlicher Streitkräfte zu automatisieren. Angesichts eines Mitarbeiteraufruhrs zog sich Google 2018 aus diesem Projekt zurück, was die Initiative jedoch nicht daran hinderte, voranzukommen. Erst letzte Woche berichtete Business Insider, dass Palantir, das Datenanalyseunternehmen von Peter Thiel, den Vertrag übernommen hat.

Die schiere Größe der Pentagon-Ausgaben für KI - schwer genau zu bestimmen, aber auf 4 Milliarden US-Dollar für das Geschäftsjahr 2020 geschätzt - macht es unwahrscheinlich, dass einer der Technologiegiganten lange wegbleibt. Trotz des Rückzugs aus Maven behaupten die Google-Führungskräfte, dass ihr Unternehmen sehr gerne mit dem Pentagon zusammenarbeiten würde. "Wir sind bestrebt, mehr zu tun", sagte Kent Walker, Senior Vice President von Google, vor einer Konferenz der Nationalen Sicherheitskommission für künstliche Intelligenz im vergangenen Monat. Unterdessen nutzt Amazon-Chef Jeff Bezos das Thema, um sein Unternehmen als ein Unternehmen zu kennzeichnen, das die Kontroverse über die Übernahme militärischer Aufgaben nicht scheut. "Wenn Big Tech dem Verteidigungsministerium den Rücken kehren will, steckt dieses Land in Schwierigkeiten", sagte er Anfang des Monats während einer Rede im Reagan National Defense Forum.

Bezos 'öffentliche Zustimmung zum Pentagon kommt daher, dass Amazon die Vergabe eines Cloud-Computing-Auftrags im Wert von 10 Milliarden US-Dollar mit dem Namen JEDI (Joint Enterprise Defense Infrastructure) an Microsoft in Frage stellt. Dieses System wird der Schlüssel zu Shanahans KI-Ambitionen sein und ihm die Rechenleistung und die gemeinsame Infrastruktur geben, um riesige Datenmengen zu zerkleinern und unterschiedliche Systeme zu vereinheitlichen.

Es war das Fehlen eines solchen Cloud-Systems, das Shanahan von seiner Bedeutung überzeugte. Als er Maven leitete, konnte er nicht digital auf das benötigte Überwachungsmaterial zugreifen, sondern musste seine Untergebenen entsenden, um es abzurufen. "Wir hatten Fälle, in denen wir mit Lastwagen unterwegs waren und Videokassetten mit voller Bewegung aufnahmen", sagt Shanahan. "Das wäre um einiges einfacher gewesen, wenn es eine Cloud-Lösung für Unternehmen gegeben hätte."

Um Aktualisierungen des Systems voranzutreiben, musste das Shanahan-Team in ähnlicher Weise reisen, um neuere Versionen bei militärischen Installationen physisch zu installieren. Heute bekommt Maven jeden Monat Software-Updates - schnell für die Regierungsarbeit, aber immer noch nicht schnell genug, fügt er hinzu.

JEDI wird jedoch nicht alle Probleme Shanahans lösen, insbesondere die schlechte Datenqualität. Nehmen Sie nur ein JAIC-Projekt, ein vorausschauendes Wartungstool für den allgegenwärtigen UH-60 Black Hawk-Hubschrauber des Militärs, das herauszufinden versucht, wann wichtige Komponenten brechen werden. Als das Team von Shanahan begann, Daten aus den verschiedenen Niederlassungen zu sammeln, stellte es fest, dass der Black Hawk der Armee geringfügig anders instrumentiert war als eine Version, die von Special Operations Command verwendet wurde, und unterschiedliche Daten für Maschinen generierte, die im Wesentlichen identisch sind.

"In jedem einzelnen Fall haben die Daten nie die Qualität, die Sie suchen", sagt er. "Wenn es existiert, habe ich noch keinen makellosen Datensatz gesehen."

Die Datenqualität ist eines der Hauptprobleme bei der Anwendung künstlicher Intelligenz auf militärische Systeme. Ein Computer wird nie wissen, was er nicht weiß. "Es besteht das Risiko, dass Algorithmen, die auf historischen Daten trainiert wurden, anderen Bedingungen auf dem Schlachtfeld ausgesetzt sind als denen, auf denen sie trainiert wurden", sagt Michael Horowitz, Professor an der University of Pennsylvania.

Shanahan geht davon aus, dass ein strenges Test- und Evaluierungsprogramm dieses Risiko mindern wird, und es könnte sehr gut beherrschbar sein, wenn man vorhersagen will, in welchem Moment ein Motorblatt reißt. In einem Schießkrieg, dessen Ausmaß und Geschwindigkeit die KI noch nie gesehen hat, stellt sich eine ganz andere Frage.

Die manchmal unvorhersehbare Natur des Denkens mit Computern stellt ein heikles Problem dar, wenn es mit dem Verstand eines Menschen gepaart wird. Ein Computer kann zu einem verwirrenden Ergebnis kommen, bei dem der Mensch, der mit ihm zusammenarbeitet, entscheiden muss, ob er vertraut. Als Googles AlphaGo 2016 Lee Sedol, den weltbesten Go-Spieler, besiegte, gab es einen Moment im Spiel, in dem Lee einfach von seinem Stuhl aufstand und den Raum verließ. Sein Computergegner hatte einen so genialen und unerwarteten Schritt gemacht (aus menschlicher Sicht), dass Lee verblüfft war. "Ich habe noch nie einen Menschen gesehen, der diesen Zug gespielt hat", sagte ein Beobachter über den Zug. "So schön."

Stellen Sie sich ein Waffensystem vor, das einem menschlichen Befehlshaber eine ebenso unverständliche Vorgehensweise in der Hitze eines Konflikts mit hohen Einsätzen bietet. Es ist ein Problem, an dem das US-Militär aktiv arbeitet, für das es jedoch keine fertige Lösung gibt. Die Defense Advanced Research Projects Agency arbeitet an einem Programm zur Entwicklung einer „erklärbaren KI“, die darauf abzielt, die Black Box eines maschinellen Lernsystems in eine solche zu verwandeln, die die Gründe für die getroffenen Entscheidungen liefert.

Um dieses Vertrauen aufzubauen, müssen die Kommandeure von Shanahan frühzeitig in der Technologie geschult werden. Projekte, die Computer Vision und Satellitenbilder verwenden, um das Hochwasser- und Waldbrandrisiko zu verstehen, ermöglichen es seinem Team, zu lernen und Fachwissen aufzubauen. "Man muss die Kunst des Möglichen verstehen, sonst ist alles Science-Fiction", sagt er.

Weiter lesen

Illustration eines Kopfes
Illustration eines Kopfes

Das Neueste über künstliche Intelligenz, vom maschinellen Lernen bis zur Bildverarbeitung und mehr

Aber auch wichtige bürokratische Hürden stehen Shanahan im Weg. Ein vom Kongress in Auftrag gegebener Bericht über die KI-Initiativen des Pentagons, der diese Woche von der RAND Corporation veröffentlicht wurde, stellt fest, dass dem Verteidigungsministerium „Baselines und Metriken“fehlen, um den Fortschritt zu bewerten, dass die Rolle der JAIC im DoD-Ökosystem unklar bleibt und dass der JAIC die Befugnis fehlt, dies zu tun auf seine Ziele. Es bietet auch eine bedrückende Einschätzung des Test- und Verifizierungsregimes des Pentagon als „weit entfernt von der Gewährleistung der Leistung und Sicherheit von KI-Anwendungen, insbesondere bei sicherheitskritischen Systemen“.

In einer Erklärung begrüßte das Pentagon den Bericht, der auf die enormen Herausforderungen des US-Militärs bei der Einführung einer Technologie hinweist, die es als integralen Bestandteil eines möglichen Konflikts mit Russland oder China ansieht. "Die Geschwindigkeit, das Tempo dieses Konflikts wird so schnell sein", sagt Shanahan. "In zwanzig Jahren werden wir uns Algorithmen gegenüber Algorithmen ansehen."

Die Reaktion der USA auf Peking beruht zum Teil auf Automatisierung. Die Armee testet einen automatisierten Geschützturm. Die Luftwaffe entwickelt einen Drohnenflügelmann. Das Konzept der „Geisterflotte“der Marine untersucht unbemannte Überwasserschiffe. Um schneller zu werden, wendet sich das Pentagon wieder Computern zu.

"Die letzte Frage, die wir uns stellen müssen, ist, welche Genauigkeit für Software akzeptabel ist", sagt Martijn Rasser, ehemaliger CIA-Analyst und Mitarbeiter am Center for a New American Security. „Nehmen wir an, ein Mensch hat in 99, 99 Prozent der Fälle Recht. Ist es in Ordnung, dass die Software dieselbe ist, oder muss sie eine Größenordnung besser sein? “

Empfohlen:

Tipp Der Redaktion