додому Різне Trump nakazuje federalnym zaprzestanie używania antropicznej sztucznej inteligencji z powodu konfliktu w...

Trump nakazuje federalnym zaprzestanie używania antropicznej sztucznej inteligencji z powodu konfliktu w zakresie nadzoru

Prezydent Donald Trump nakazał natychmiastowe zaprzestanie stosowania sztucznej inteligencji Claude firmy Anthropic we wszystkich amerykańskich agencjach federalnych, co zaostrza konflikt w związku z wykorzystaniem tej technologii do masowego nadzoru i autonomicznych systemów uzbrojenia. Zostało to ogłoszone za pośrednictwem platformy Truth Social Trumpa, gdzie zażądał on, aby departamenty, w tym Departament Obrony, zaprzestały działalności w ciągu sześciu miesięcy, nazywając Anthropic „RADYKALNIE LEWICZĄ FIRMĄ PROTRENDOWĄ”.

Istota konfliktu: bezpieczeństwo sztucznej inteligencji a wymagania rządowe

Kontrowersje wynikały z odmowy Anthropic przyznania Pentagonowi nieograniczonego dostępu do Claude’a. Departament Obrony zamierzał wykorzystywać sztuczną inteligencję do „dowolnych celów zgodnych z prawem”, co jest niejasną definicją, którą Anthropic określiła jako potencjalnie umożliwiającą masową inwigilację w kraju lub tworzenie w pełni autonomicznej broni bez nadzoru człowieka. Firma Anthropic, założona z myślą o bezpieczeństwie sztucznej inteligencji, zachowała warunki umowne wyraźnie zabraniające takiego wykorzystania.

Sekretarz obrony Pete Hegseth próbował wymusić przestrzeganie przepisów, grożąc, że zaklasyfikuje Anthropic jako zagrożenie dla łańcucha dostaw, co skutecznie będzie kosztować firmę kontrakty rządowe. Dyrektor generalny Anthropic, Dario Amodei, zajął zdecydowane stanowisko, stwierdzając, że firma „nie może z czystym sumieniem zgodzić się” na żądania Pentagonu.

Dlaczego to ma znaczenie: brak równowagi sił między technologią a rządem

Konflikt ten uwydatnia rosnące napięcie: brak jasnych ram prawnych regulujących wykorzystanie sztucznej inteligencji. Rządy mogą już uzyskać ogromne ilości danych osobowych bez nakazów, ale sztuczna inteligencja zwiększa tę możliwość. Jak wyjaśnił Amodei, sztuczna inteligencja może zautomatyzować gromadzenie odmiennych danych w kompletne profile, co budzi poważne obawy dotyczące prywatności.

Co najważniejsze, regulacje nie nadążają za postępem technologicznym. Sztuczna inteligencja zwiększa istniejące szkody wynikające z inwigilacji, czyniąc ją tańszą i łatwiejszą. Firmy takie jak Anthropic są obecnie zmuszone poruszać się po szarej strefie między obawami dotyczącymi bezpieczeństwa narodowego a zobowiązaniami etycznymi.

Solidarność w branży i możliwe konsekwencje

Dyrektor generalny OpenAI Sam Altman podobno powiedział pracownikom, że jego firma podziela podstawowe ograniczenia Anthropic dotyczące inwigilacji i śmiercionośnej broni autonomicznej. Pracownicy Google i OpenAI rozesłali petycję popierającą Anthropic, ostrzegając przed taktyką „dziel i rządź” stosowaną przez Pentagon.

Wynik tego sporu będzie precedensem dla przyszłych negocjacji między firmami technologicznymi a rządami. Jeśli Anthropic ustąpi, może otworzyć drzwi do bardziej powszechnego i niekontrolowanego nadzoru AI. Stanowisko firmy niesie jasny komunikat: granice etyczne w rozwoju sztucznej inteligencji nie podlegają negocjacjom.

Spór między administracją Trumpa a Anthropic uwydatnia pilną potrzebę solidnego zarządzania sztuczną inteligencją w celu ochrony swobód obywatelskich w erze szybko rozwijającej się technologii.

Exit mobile version