Scout AI sichert sich 100 Millionen US-Dollar, um „Frontier“-Informationen auf das Schlachtfeld zu bringen

4

Ein neuer Akteur betritt die Arena der Verteidigungstechnologie mit einer klaren, wenn auch kontroversen Mission: Künstlicher Intelligenz beizubringen, wie man sich im Chaos des Krieges zurechtfindet und kämpft. Scout AI, ein 2024 von Colby Adcock und Collin Otis gegründetes Startup, hat eine 100-Millionen-Dollar-Finanzierungsrunde der Serie A unter der Leitung von Align Ventures und Draper Associates angekündigt.

Das Unternehmen, das sich selbst als „Grenzlabor für Verteidigung“ bezeichnet, baut keine Hardware wie Panzer oder Lastwagen. Stattdessen baut es das „Gehirn“ auf – eine hochentwickelte Softwareschicht, die darauf ausgelegt ist, vorhandene Militärressourcen in autonome Agenten umzuwandeln, die zu komplexen Entscheidungen fähig sind.

Von der Logistik zur Tödlichkeit: Das „Fury“-Modell

Das Herzstück der Strategie von Scout AI ist „Fury“, ein KI-Modell, das für die Führung militärischer Mittel entwickelt wurde. Das Unternehmen verfolgt eine schrittweise Bereitstellungsstrategie:
1. Phase eins: Logistik. Einsatz autonomer Fahrzeuge zur Bewältigung „langweiliger, schmutziger oder gefährlicher“ Aufgaben, wie zum Beispiel dem Transport von Wasser und Munition zu abgelegenen Außenposten.
2. Phase Zwei: Kampf. Übergang zu autonomen Waffensystemen und Aufklärungsdrohnen.

Um dies zu erreichen, nutzt Scout Vision Language Action (VLA)-Modelle. Im Gegensatz zu standardmäßigen Large Language Models (LLMs), die hauptsächlich Text verarbeiten, kombinieren VLAs visuelle Wahrnehmung mit der Fähigkeit, physische Aktionen auszuführen. CTO Collin Otis vergleicht diesen Prozess mit der Ausbildung eines Soldaten: Anstatt bei Null anzufangen, nehmen sie ein „weitgehend intelligentes“ Modell und verfeinern es durch Erfahrungen in der realen Welt zu einer spezialisierten „militärischen AGI“ (Künstliche Allgemeine Intelligenz).

Der „Bootcamp“-Ansatz: Training im Dreck

Im Gegensatz zu vielen KI-Unternehmen, die ihre Modelle in sterilen Rechenzentren trainieren, setzt Scout AI auf physisches Verstärkungslernen. Auf einem hochintensiven Trainingsgelände in Zentralkalifornien setzt das Unternehmen Geländefahrzeuge (ATVs) ein, um die Lücke zwischen digitaler Logik und rauer Realität zu schließen.

  • Komplexität in der realen Welt: Während selbstfahrende Autos in Städten auf kartierten, vorhersehbaren Straßen fahren, müssen die Modelle von Scout unmarkierte Wege, losen Sand und steile Hügel bewältigen.
  • Die Rückkopplungsschleife: Menschliche Fahrer bedienen die Fahrzeuge in Acht-Stunden-Schichten. Wenn die KI Probleme hat, übernimmt der Mensch; Diese „Eingriffe“ werden protokolliert und zum erneuten Trainieren des Modells verwendet, um ihm beizubringen, besser mit Unsicherheiten umzugehen.
  • Das Ziel von Scale: Scout glaubt, dass wahre Intelligenz durch die Interaktion mit der physischen Welt entsteht und nicht nur durch das Lesen des Internets. Durch die Nutzung der riesigen Fahrzeugflotte des US-Militärs als Testgelände wollen sie ihre Intelligenz schneller skalieren als Labore, die sich ausschließlich auf digitale AGI konzentrieren.

Überbrückung der Lücke in der modernen Kriegsführung

Der Schritt in Richtung Autonomie wird durch einen Wandel in der modernen Kampfkunst vorangetrieben, der durch die jüngsten Konflikte in der Ukraine deutlich wurde. Militärexperten weisen darauf hin, dass Menschen zwar einzelne Drohnen steuern können, diese jedoch nicht effektiv skalieren können, um „Schwärmen“ kostengünstiger, unbemannter Systeme entgegenzuwirken.

Zu Scouts Vision gehört eine „Quarterback“-Plattform : eine Hochleistungsdrohne, die eine Gruppe kleinerer, spezialisierter Munitionsdrohnen steuert. Dieser Schwarm könnte autonom nach Zielen – etwa feindlichen Panzern – suchen und diese angreifen und dabei ein Maß an Präzision bieten, mit dem herkömmliche Artillerie nicht mithalten kann.

„Die KI-Leute wollen nicht mit dem Militär zusammenarbeiten“, bemerkte Otis und verwies auf die wachsende Kluft zwischen den „ethischen“ KI-Beschränkungen des Silicon Valley und den operativen Anforderungen des Pentagons.

Die ethische und strategische Grenze

Während die Aussicht auf autonome Waffen oft heftige politische Debatten auslöst, legt die Führung von Scout Wert auf menschenzentrierte Schutzmaßnahmen. Sie argumentieren, dass ihre Systeme mit strengen Parametern programmiert werden können, etwa so, dass sie Ziele nur innerhalb bestimmter Zonen angreifen oder eine menschliche Bestätigung vor dem Abfeuern erfordern.

Darüber hinaus behaupten sie, dass autonome Systeme einen taktischen Vorteil bieten, indem sie die Angst und das Zögern des Menschen aus der Gleichung nehmen und möglicherweise Fehler reduzieren, die durch Stress in Umgebungen mit hohem Druck verursacht werden.


Fazit: Scout AI positioniert sich als wesentliche Geheimdienstebene für die Zukunft der Verteidigung und geht davon aus, dass die Fähigkeit, fortschrittliches Denken mit robuster, realer Autonomie zu verbinden, sie für das US-Militär unverzichtbar machen wird.