Velký konflikt mezi AI firmami a Pentagonem

Americké firmy vyvíjející umělou inteligenci se ocitají uprostřed historického sporu s vládou. Konflikt mezi Anthropic a Pentagonem ukazuje, jak tenká je hranice mezi etickou autonomií firem a národní bezpečností – a jaké důsledky může mít označení „supply chain risk“ pro celou technologickou branži.
Kdo jsou hlavní aktéři?
• Anthropic
• OpenAI
• Pentagon
• Sam Altman – CEO OpenAI, který veřejně komentoval dohodu s Pentagonem.
• Dario Amodei – CEO Anthropic, který stojí v čele sporu s Pentagonem.
Jak konflikt začal
V únoru 2026 došlo k zásadnímu konfliktu mezi Pentagonem a Anthropic kvůli tomu, jak může americká armáda využívat pokročilé AI modely.
Podle Pentagonu musí být AI technologie nasazena pro všechny zákonné vojenské účely bez omezení. Anthropic ale trvá na tom, že některé způsoby využití jsou mimo etické i technologické hranice, a proto je nemůže bezpodmínečně povolit.
Co požaduje Pentagon:
Aby AI modely mohly být používány pro jakoukoli zákonnou vojenskou operaci bez ohledu na to, co si firma nastavila předem v ochranách.
Pentagon např. veřejně uvedl, že nechce masový dohled nad Američany a nevyvíjí autonomní zabíjecí systémy, ale přesto žádá větší kontrolu nad používáním modelů.
Proč to Anthropic odmítá
Anthropic se postavil proti tomu, aby jeho model Claude byl použit pro:
- Masovou domácí (domestic) surveilanci občanů – což považuje za porušení občanských práv.
- Plně autonomní zbraně, které by rozhodovaly o životě bez lidského dohledu – modely současné AI podle firmy technicky ani eticky nejsou spolehlivé pro takové použití.
CEO Amodei ve veřejném prohlášení zdůraznil, že tyto limity neznamenají, že by firma odmítala spolupracovat na bezpečnosti, ale důsledkem přesvědčení, že AI nemá být zneužita v životu a smrti a že současná technologie na to prostě nestačí.
Eskalační moment – „supply chain risk“
Když se Pentagon a Anthropic nedokázali dohodnout, Pentagon oznámil, že chce označit Anthropic jako „supply chain risk“ – tedy riziko pro dodavatelský řetězec národní bezpečnosti. To je termín, který se historicky používal pouze vůči cizím státům a nepřátelům, nikdy ne americké firmě.
To automaticky znamená:
- Žádný dodavatel Pentagonu nesmí s Anthropicem spolupracovat.
- Kontrakty by měly být zrušeny.
- Firma by musela během šestiměsíčního období přestat sloužit obranným projektům.
Anthropic označil tento krok za právně nevhodný, nevídaný a nebezpečný precedens, který má zastrašit technologické firmy před tím, aby odmítly vládě vyhovět v určitých otázkách.
Důsledky pro technologický sektor
Tento konflikt se netýká jen jedné firmy nebo jedné smlouvy, ale má mnohem širší význam:
Další AI firmy jako OpenAI a Google jsou pod tlakem, aby buď akceptovaly stejné podmínky jako Pentagon požaduje, anebo riskují, že budou vytlačeny z obranných kontraktů.
Velké technologie (např. Nvidia, Amazon, Alphabet) by se mohly kvůli tomu dostat do finančních i reputačních problémů, pokud budou spojovány s firmami, které Pentagon označí za riziko.
Kritici varují, že toto může podkopat inovace v AI, pokud budou firmy nuceny akceptovat aplikace, které nepovažují za bezpečné či etické.
OpenAI a jiná strategie vůči Pentagonu
Zatímco Anthropic zvolil veřejnou konfrontaci, OpenAI zvolila výrazně pragmatičtější přístup.
Podle veřejných vyjádření OpenAI uzavřela s Pentagonem dohodu, která obsahuje vícevrstvé ochrany a omezení použití modelů. Generální ředitel Sam Altman na síti X zdůraznil, že spolupráce s vládou neznamená automatické schválení autonomních zbraňových systémů ani masového sledování. Firma tvrdí, že:
- modely nemohou být použity k vývoji zbraní hromadného ničení,
- nejsou určeny pro autonomní zabíjení bez lidského rozhodnutí,
- obsahují ochrany proti zneužití pro domácí dohled nad obyvatelstvem.
Rozdíl je ale v tónu i taktice. OpenAI neodmítla spolupráci jako takovou, ale snaží se vyjednat podmínky zevnitř systému. To je zásadní rozdíl oproti veřejnému postoji generálního ředitele Dario Amodei, který otevřeně řekl, že některé požadavky Pentagonu jsou nepřijatelné bez ohledu na obchodní důsledky.
Tím vzniká zajímavá dynamika: dvě největší umělé inteligence v USA volí zcela odlišnou strategii vůči stejné instituci.
Politický kontext: tvrdší kurz vůči technologickým firmám
Konflikt se odehrává v době, kdy administrativa prezidenta Donald Trump zaujímá výrazně tvrdší postoj vůči technologickým firmám.
Argument vlády je relativně přímočarý, a to pokud jsou pokročilé jazykové modely strategickou technologií s dopadem na obranu, musí být dostupné pro všechny zákonné účely národní bezpečnosti.
Z tohoto pohledu je odmítání určitých aplikací chápáno jako podkopávání obranných schopností státu.
Označení firmy jako „supply chain risk“ je přitom extrémní nástroj. Historicky byl používán vůči zahraničním subjektům, zejména v kontextu geopolitické rivality s Čínou. Použití tohoto mechanismu proti americké AI společnosti představuje nový precedens.
Právní experti upozorňují, že pokud se tento nástroj stane běžným politickým tlakem, může to výrazně změnit vztah mezi federální vládou a technologickým sektorem.
Zásadní otázka: Kdo rozhoduje o limitech AI?
Konflikt mezi Anthropicem a Pentagonem otevírá mnohem hlubší otázku:
Mají o limitech použití AI rozhodovat technologické firmy, nebo stát?
Existují tři možné modely:
1. Vládní primát
Stát rozhoduje, jak mohou být modely použity, pokud je použití legální. Firmy jsou pouze dodavatelé infrastruktury.
2. Firemní autonomie
Soukromé společnosti mají právo odmítnout určité aplikace, pokud je považují za neetické nebo technologicky nebezpečné.
3. Hybridní model
Společné regulační rámce, transparentní dohled a jasně definované zákazy (například explicitní zákaz plně autonomních zbraňových systémů bez lidského rozhodování).
Právě třetí možnost je často zmiňována akademiky a bezpečnostní komunitou jako realistický kompromis. Problém je, že současná situace eskalovala dříve, než se podařilo takový rámec vytvořit.
Dopad na investory a trh
Tento konflikt má také ekonomický rozměr.
Obranné kontrakty jsou pro AI firmy strategicky důležité nejen kvůli financím, ale i kvůli přístupu k výpočetní infrastruktuře a vládním datům. Pokud by se označení „supply chain risk“ rozšířil, investoři by museli zohlednit nové politické riziko.
To by mohlo mít několik důsledků:
- opatrnější veřejná komunikace technologických lídrů,
- přesun části výzkumu mimo přímou spolupráci s armádou,
- vznik nových startupů specializovaných čistě na obranné AI bez veřejného etického brandingu.
Bezpečnostní argument: Je současná AI vůbec připravena?
Současné velké jazykové modely:
- halucinují informace,
- mohou být manipulovány (prompt injection),
- nejsou deterministické,
- nemají skutečné porozumění kontextu.
Použití těchto systémů v přímém rozhodování o životě a smrti proto vyvolává vážné otázky. I zastánci vojenského využití AI většinou připouštějí, že člověk musí zůstat „v rozhodovací smyčce“.
Anthropic tvrdí, že současná generace modelů není dostatečně robustní pro autonomní bojové nasazení. Pentagon naopak argumentuje, že bez experimentování a reálného nasazení se technologie nikdy nezlepší.
Globální rozměr
Je důležité si uvědomit, že tento spor není izolovaný.
Čína, Rusko i další mocnosti investují masivně do vojenské AI. Pokud by americké firmy omezily spolupráci s armádou, vzniká otázka, zda tím Spojené státy neztratí technologickou výhodu.
Z pohledu Pentagonu je to existenční otázka.
Z pohledu některých výzkumníků AI je to otázka civilizační odpovědnosti.
Co bude dál?
Možné scénáře dalšího vývoje:
- Právní spor – Anthropic napadne označení jako „supply chain risk“ soudně.
- Kompromisní dohoda – obě strany upraví podmínky tak, aby si zachovaly tvář.
- Zpřísnění regulace AI – Kongres může vstoupit do hry a definovat jasné limity vojenského využití.
- Rozdělení trhu – vznikne jasná hranice mezi „civilními AI firmami“ a „obrannými AI dodavateli“.
Bez ohledu na výsledek je jasné, že se nacházíme v historickém okamžiku.
Poprvé v moderní historii stojí vývojáři obecné umělé inteligence v přímém konfliktu s vlastním státem ohledně toho, jak může být jejich technologie použita ve válce.