Americké ministerstvo obrany (DoD) hodlá omezit přední americkou společnost AI Anthropic v účasti na vojenských zakázkách kvůli neshodám ohledně využívání dat. Bezprecedentní krok, obvykle vyhrazený zahraničním protivníkům, jako je Huawei, podtrhuje rostoucí napětí mezi vládními požadavky a hranicemi soukromého sektoru v rychle se rozvíjející oblasti umělé inteligence.
Konflikt: Sledování vs. omezení
V centru sporu je snaha MO používat AI pro všudypřítomné sledování pomocí komerčně dostupných dat, což je praxe, které se společnost Anthropic zpočátku bránila. Zatímco systém Claude AI společnosti Anthropic již byl použit v citlivých vojenských operacích, včetně údajné účasti na náletech, jako byl ten proti Nicolási Madurovi, společnost omezila jeho nasazení. Zejména Anthropic odmítl povolit hromadné sledování občanů USA, což je podmínka, kterou se ministerstvo obrany nyní snaží obejít.
Ministr zahraničí pro válku Pete Hegseth pohrozil klasifikací Anthropic jako riziko dodavatelského řetězce a fakticky zakáže všem dodavatelům obrany používat jeho služby. Tento krok by byl pro Anthropic zničující, ačkoli jeho právní platnost je kontroverzní. Hlavním problémem nejsou schopnosti umělé inteligence jako takové, ale kdo řídí její aplikaci. Ministerstvo obrany tvrdí, že soukromé společnosti by neměly diktovat priority národní bezpečnosti, zatímco Anthropic hájí etické hranice.
Proč na tom záleží: Posun v dynamice výkonu
Tento konflikt není omezen pouze na jednu společnost; představuje zásadní boj o moc. Americká armáda stále více spoléhá na AI pro analýzu zpravodajských informací, kybernetické války a možná smrtící autonomní systémy. Administrativa Bidena a Trumpa souhlasila s počátečními omezeními používání, ale současné vedení ministerstva obrany se zdá být rozhodnuto je zvrátit.
Problém není v tom, že vláda nemůže získat data; jde o to, že dříve nebyl schopen je zpracovávat v měřítku. Umělá inteligence to mění tím, že poskytuje možnost analyzovat obrovské soubory dat a prosazovat zákony s nebývalou přesností. Tato možnost vyvolává vážné obavy o soukromí, protože právní definice „sledování“ nemusí držet krok s technologickým pokrokem.
Širší důsledky: Stav závislý na technologiích
Konflikt s Anthropic poukazuje na hlubší trend: křehkost institucí závislých na konkrétních technologiích. Moderní národní stát, který je již závislý na tiskařských strojích, telekomunikacích a digitální infrastruktuře, čelí s příchodem umělé inteligence změně paradigmatu. Stávající právní rámce nejsou dostatečně připraveny na rozsah a rychlost sledování založeného na umělé inteligenci.
Skutečným rizikem je nejen ztráta důvěrnosti, ale také zničení institucionálních struktur. Vzhledem k tomu, že umělá inteligence zásadně mění technologické prostředí, celý politický a právní systém se bude muset přizpůsobit, možná nepředvídatelným způsobem. Otázkou není, zda AI změní vládnutí, ale jak radikálně a zda stávající ochranná opatření přechod přežijí.
Na závěr, akce DoD proti Anthropic jsou varovným signálem. Signalizuje ochotu upřednostňovat národní bezpečnostní cíle před etickými hranicemi, což může potenciálně narušovat soukromí a destabilizovat základy moderního státu.






























