OpenAI hat eine Stellungnahme veröffentlicht, in der die Vereinbarung mit dem Department of Defence, Verzeihung, Department of War zur Nutzung fortgeschrittener KI-Systeme im Verteidigungsbereich erklärt wird: https://openai.com/index/our-agreement-with-the-department-of-war/
Die Stellungnahme ist kommunikativ so aufgebaut, dass sie Sicherheit, Kontrolle und Rechtsbindung signalisiert und das Gesamtbild als verantwortungsvoll und ausgewogen erscheinen lässt.
Klare rote Linien
Im Zentrum stehen drei explizite Ausschlüsse:
-
Keine massenhafte Inlandsüberwachung von US-Personen
-
Keine eigenständige Steuerung autonomer Waffensysteme
-
Keine eigenständigen Hochrisiko-Entscheidungen wie etwa „Social Credit“-Mechanismen
Diese klar benannten Grenzen schaffen eine leicht verständliche normative Struktur.
Einbettung in bestehendes Recht
Die Vereinbarung verweist ausdrücklich auf bestehende verfassungs- und sicherheitsrechtliche Rahmenbedingungen. Damit wird signalisiert: Die Nutzung erfolgt nicht in einem rechtsfreien Raum, sondern innerhalb etablierter demokratischer Kontrollmechanismen.
Menschliche Kontrolle als Prinzip
Bei sicherheitskritischen Anwendungen bleibt ein Mensch formell „im Loop“. Hochrisiko-Entscheidungen dürfen nicht vollständig automatisiert getroffen werden. Diese Betonung menschlicher Letztverantwortung wirkt beruhigend und anschlussfähig an bestehende ethische Leitlinien.
Zwischen den Zeilen lesen: Was nicht ausgeschlossen wurde
- Überwachung von Nicht-US-Personen
Die Vereinbarung verbietet ausdrücklich nur die intentionale inländische Überwachung von U.S. persons (also US-Bürgern und dauerhaft Aufenthaltsberechtigten). Nicht ausgeschlossen ist die Überwachung von Nicht-US-Personen, insbesondere im Ausland. Durch die Verweise auf Foreign Intelligence Surveillance Act und Executive Order 12333 bleibt der gesamte Rahmen der Auslandsaufklärung unberührt. Entscheidend sind die Begriffe „intentional“ und „domestic“ – systemische Analysen, Bulk-Datenauswertungen oder transnationale Datensätze mit US-Bezug sind nicht ausdrücklich ausgeschlossen, solange keine gezielte Inlandsüberwachung erfolgt. - Nutzung kommerziell erworbener Daten
Die Nutzung kommerziell erworbener personenbezogener Daten ist nur im Hinblick auf die Überwachung von U.S. persons eingeschränkt. Für Nicht-US-Personen bestehen keine vergleichbaren Beschränkungen. - Zusammenarbeit mit Geheimdiensten
Die Nutzung durch „Department of War intelligence agencies like the NSA“ wird für diesen Vertrag ausgeschlossen. Die National Security Agency ist dem Verteidigungsministerium unterstellt und fällt darunter. Andere Akteure der Intelligence Community – etwa die Central Intelligence Agency – sind nicht automatisch erfasst, sofern sie nicht Vertragspartei sind. Zudem könnte eine neue Vereinbarung die Nutzung durch DoD-Nachrichtendienste ermöglichen. - Autonome Waffensysteme mit menschlicher Kontrolle
Verboten ist nur das „independent directing“ autonomer Waffen. Die Vereinbarung referenziert DoD Directive 3000.09, die formale Verifikations- und Validierungsprozesse verlangt. Nicht ausgeschlossen sind jedoch halbautonome Systeme, Zielidentifikation, Priorisierung, ISR-Fusion oder Missionsplanung, solange formale menschliche Kontrolle besteht. Der Mensch kann faktisch stark vorstrukturierte Entscheidungen bestätigen (Automation Bias). - High-stakes-Entscheidungen mit menschlicher Genehmigung
Untersagt sind eigenständig getroffene Hochrisikoentscheidungen, sofern Recht oder Policy explizit menschliche Entscheidung verlangen. Wo solche Normen fehlen (z. B. bei Risiko-Scores oder Priorisierungsmodellen im militärischen Kontext), bleibt der Einsatz möglich, solange ein Mensch formell freigibt. - Ausländische Geheimdienstzwecke
Der Einsatz zu „foreign intelligence purposes“ ist zulässig, sofern er mit geltendem Recht vereinbar ist. Damit bleibt ein breiter Raum für Auslandsaufklärung, Cyber-Operationen und strategische Analytik offen. - Rechtsänderungen und Norminterpretationen
Der Vertrag referenziert Gesetze „as they exist today“, um spätere Normabsenkungen nicht automatisch zu übernehmen. Nicht ausgeschlossen sind jedoch neue Programme neben diesen Normen oder administrative Neubewertungen innerhalb bestehender Rechtsrahmen. - Classified Deployment als begrenzter Anwendungsfall
Die Vereinbarung betrifft eine konkrete „classified“ Cloud-Architektur. Nicht ausgeschlossen sind separate Verträge in nicht-klassifizierten oder hybriden Umgebungen oder Dual-Use-Anwendungen außerhalb dieses Rahmens. - Nutzung durch Dritte oder Partner
Die Vereinbarung regelt primär die Nutzung durch das Department of War. Nicht explizit adressiert sind Contractors im Auftrag des DoD oder Einbindungen in Koalitionsstrukturen, sofern formal das DoD Vertragspartei bleibt. - Technische und architektonische Umgehung
Durch Cloud-only-Deployment und kontrollierte Safety-Stack-Architektur ist klassisches Reverse Engineering erschwert. Nicht ausgeschlossen sind jedoch funktionale Erweiterungen über API-Workflows oder Systemarchitekturen, die faktisch über die intendierten Schutzmechanismen hinausgehen. - Psychologische Operationen und Information Warfare
Es gibt keine explizite Einschränkung hinsichtlich psychologischer Operationen, Einflusskampagnen oder strategischer Kommunikationsmaßnahmen. Solche Aktivitäten fallen weder unter „autonomous weapons“ noch unter „domestic surveillance“. - Innere Sicherheit in Drittstaaten
Während die Nutzung für inländische Strafverfolgung in den USA beschränkt ist, bestehen keine vergleichbaren Einschränkungen für sicherheitsbezogene Anwendungen in anderen Staaten im Rahmen militärischer Kooperationen. - Generalklausel „lawful purposes“
Zentral ist die Formulierung, dass das System „for all lawful purposes“ genutzt werden darf. Die Red Lines wirken als punktuelle Negativabgrenzung (kein mass domestic surveillance, keine eigenständig autonomen Waffen, keine eigenständigen High-stakes-Entscheidungen). Darüber hinaus bleibt der gesamte rechtlich zulässige nationale Sicherheitsraum grundsätzlich offen. - Governance-Struktur ohne externe Kontrolle
Die geplante Working Group besteht aus AI-Labs, Cloud-Providern und DoD-Vertretern. Unabhängige zivilgesellschaftliche oder internationale Kontrollmechanismen sind nicht vorgesehen.
Fazit
Die Vereinbarung definiert drei klare rote Linien, kombiniert diese jedoch mit einer sehr weit gefassten Generalklausel („lawful purposes“) und dem bestehenden nationalen Sicherheitsrecht. Nicht ausgeschlossen bleiben insbesondere: umfassende Auslandsaufklärung, operative Entscheidungsunterstützung in militärischen Systemen mit formaler Human-Kontrolle, Cloud-basierte Integration in Waffensystem-Workflows sowie informations- und cyberbezogene Operationen.
- Über den Autor
- Artikel
Vizepräsident der Digital Society. Fan der direkten Demokratie. Professionelle i-Tüpfelreiterei und Besserwisserei. Sicherheitsexpertisen. Open-Source-Entwicklung. Physik. Jus-Studium. Home-Office-Worker. he/him
Neueste Kommentare