Eine taktische Kommandozentrale. Der Finger eines Menschen schwebt über einem Knopf, um "confirm weapon use" zu bestätigen

OpenAI hat eine Stellungnahme veröffentlicht, in der die Vereinbarung mit dem Department of Defence, Verzeihung, Department of War zur Nutzung fortgeschrittener KI-Systeme im Verteidigungsbereich erklärt wird: https://openai.com/index/our-agreement-with-the-department-of-war/

Die Stellungnahme ist kommunikativ so aufgebaut, dass sie Sicherheit, Kontrolle und Rechtsbindung signalisiert und das Gesamtbild als verantwortungsvoll und ausgewogen erscheinen lässt.

Klare rote Linien

Im Zentrum stehen drei explizite Ausschlüsse:

  • Keine massenhafte Inlandsüberwachung von US-Personen

  • Keine eigenständige Steuerung autonomer Waffensysteme

  • Keine eigenständigen Hochrisiko-Entscheidungen wie etwa „Social Credit“-Mechanismen

Diese klar benannten Grenzen schaffen eine leicht verständliche normative Struktur.

Einbettung in bestehendes Recht

Die Vereinbarung verweist ausdrücklich auf bestehende verfassungs- und sicherheitsrechtliche Rahmenbedingungen. Damit wird signalisiert: Die Nutzung erfolgt nicht in einem rechtsfreien Raum, sondern innerhalb etablierter demokratischer Kontrollmechanismen.

Menschliche Kontrolle als Prinzip

Bei sicherheitskritischen Anwendungen bleibt ein Mensch formell „im Loop“. Hochrisiko-Entscheidungen dürfen nicht vollständig automatisiert getroffen werden. Diese Betonung menschlicher Letztverantwortung wirkt beruhigend und anschlussfähig an bestehende ethische Leitlinien.

Zwischen den Zeilen lesen: Was nicht ausgeschlossen wurde

  1. Überwachung von Nicht-US-Personen
    Die Vereinbarung verbietet ausdrücklich nur die intentionale inländische Überwachung von U.S. persons (also US-Bürgern und dauerhaft Aufenthaltsberechtigten). Nicht ausgeschlossen ist die Überwachung von Nicht-US-Personen, insbesondere im Ausland. Durch die Verweise auf Foreign Intelligence Surveillance Act und Executive Order 12333 bleibt der gesamte Rahmen der Auslandsaufklärung unberührt. Entscheidend sind die Begriffe „intentional“ und „domestic“ – systemische Analysen, Bulk-Datenauswertungen oder transnationale Datensätze mit US-Bezug sind nicht ausdrücklich ausgeschlossen, solange keine gezielte Inlandsüberwachung erfolgt.
  2. Nutzung kommerziell erworbener Daten
    Die Nutzung kommerziell erworbener personenbezogener Daten ist nur im Hinblick auf die Überwachung von U.S. persons eingeschränkt. Für Nicht-US-Personen bestehen keine vergleichbaren Beschränkungen.
  3. Zusammenarbeit mit Geheimdiensten
    Die Nutzung durch „Department of War intelligence agencies like the NSA“ wird für diesen Vertrag ausgeschlossen. Die National Security Agency ist dem Verteidigungsministerium unterstellt und fällt darunter. Andere Akteure der Intelligence Community – etwa die Central Intelligence Agency – sind nicht automatisch erfasst, sofern sie nicht Vertragspartei sind. Zudem könnte eine neue Vereinbarung die Nutzung durch DoD-Nachrichtendienste ermöglichen.
  4. Autonome Waffensysteme mit menschlicher Kontrolle
    Verboten ist nur das „independent directing“ autonomer Waffen. Die Vereinbarung referenziert DoD Directive 3000.09, die formale Verifikations- und Validierungsprozesse verlangt. Nicht ausgeschlossen sind jedoch halbautonome Systeme, Zielidentifikation, Priorisierung, ISR-Fusion oder Missionsplanung, solange formale menschliche Kontrolle besteht. Der Mensch kann faktisch stark vorstrukturierte Entscheidungen bestätigen (Automation Bias).
  5. High-stakes-Entscheidungen mit menschlicher Genehmigung
    Untersagt sind eigenständig getroffene Hochrisikoentscheidungen, sofern Recht oder Policy explizit menschliche Entscheidung verlangen. Wo solche Normen fehlen (z. B. bei Risiko-Scores oder Priorisierungsmodellen im militärischen Kontext), bleibt der Einsatz möglich, solange ein Mensch formell freigibt.
  6. Ausländische Geheimdienstzwecke
    Der Einsatz zu „foreign intelligence purposes“ ist zulässig, sofern er mit geltendem Recht vereinbar ist. Damit bleibt ein breiter Raum für Auslandsaufklärung, Cyber-Operationen und strategische Analytik offen.
  7. Rechtsänderungen und Norminterpretationen
    Der Vertrag referenziert Gesetze „as they exist today“, um spätere Normabsenkungen nicht automatisch zu übernehmen. Nicht ausgeschlossen sind jedoch neue Programme neben diesen Normen oder administrative Neubewertungen innerhalb bestehender Rechtsrahmen.
  8. Classified Deployment als begrenzter Anwendungsfall
    Die Vereinbarung betrifft eine konkrete „classified“ Cloud-Architektur. Nicht ausgeschlossen sind separate Verträge in nicht-klassifizierten oder hybriden Umgebungen oder Dual-Use-Anwendungen außerhalb dieses Rahmens.
  9. Nutzung durch Dritte oder Partner
    Die Vereinbarung regelt primär die Nutzung durch das Department of War. Nicht explizit adressiert sind Contractors im Auftrag des DoD oder Einbindungen in Koalitionsstrukturen, sofern formal das DoD Vertragspartei bleibt.
  10. Technische und architektonische Umgehung
    Durch Cloud-only-Deployment und kontrollierte Safety-Stack-Architektur ist klassisches Reverse Engineering erschwert. Nicht ausgeschlossen sind jedoch funktionale Erweiterungen über API-Workflows oder Systemarchitekturen, die faktisch über die intendierten Schutzmechanismen hinausgehen.
  11. Psychologische Operationen und Information Warfare
    Es gibt keine explizite Einschränkung hinsichtlich psychologischer Operationen, Einflusskampagnen oder strategischer Kommunikationsmaßnahmen. Solche Aktivitäten fallen weder unter „autonomous weapons“ noch unter „domestic surveillance“.
  12. Innere Sicherheit in Drittstaaten
    Während die Nutzung für inländische Strafverfolgung in den USA beschränkt ist, bestehen keine vergleichbaren Einschränkungen für sicherheitsbezogene Anwendungen in anderen Staaten im Rahmen militärischer Kooperationen.
  13. Generalklausel „lawful purposes“
    Zentral ist die Formulierung, dass das System „for all lawful purposes“ genutzt werden darf. Die Red Lines wirken als punktuelle Negativabgrenzung (kein mass domestic surveillance, keine eigenständig autonomen Waffen, keine eigenständigen High-stakes-Entscheidungen). Darüber hinaus bleibt der gesamte rechtlich zulässige nationale Sicherheitsraum grundsätzlich offen.
  14. Governance-Struktur ohne externe Kontrolle
    Die geplante Working Group besteht aus AI-Labs, Cloud-Providern und DoD-Vertretern. Unabhängige zivilgesellschaftliche oder internationale Kontrollmechanismen sind nicht vorgesehen.

Fazit

Die Vereinbarung definiert drei klare rote Linien, kombiniert diese jedoch mit einer sehr weit gefassten Generalklausel („lawful purposes“) und dem bestehenden nationalen Sicherheitsrecht. Nicht ausgeschlossen bleiben insbesondere: umfassende Auslandsaufklärung, operative Entscheidungsunterstützung in militärischen Systemen mit formaler Human-Kontrolle, Cloud-basierte Integration in Waffensystem-Workflows sowie informations- und cyberbezogene Operationen.

Powered By MemberPress WooCommerce Plus Integration