Debata na temat spójności sztucznej inteligencji (AI) zmieniła się dramatycznie, przechodząc od zawiłości technicznych do centralnej kwestii politycznej. W miarę jak systemy sztucznej inteligencji stają się coraz potężniejsze, rządy zdają sobie sprawę, że wartości sztucznej inteligencji zostaną określone przez tych, którzy kontrolują jej rozwój – albo poprzez celowe projektowanie, albo po prostu poprzez jej interakcję z istniejącymi danymi.
Polityczny charakter porozumienia
Eksperci uznają obecnie, że dostosowanie sztucznej inteligencji to nie tylko kwestia techniczna, ale przede wszystkim polityczna. Sam proces tworzenia systemów AI wiąże się z wyborami moralnymi i filozoficznymi, co oznacza, że tworzenie „konsensualnej” AI jest aktem z natury rzeczy politycznym. Nasuwa się pytanie, czy powinny dominować pojedyncze ramy moralne, czy też w różnych modelach sztucznej inteligencji należy uwzględnić wiele różnych filozofii.
Kluczową kwestią jest nie tylko zapobieganie temu, aby sztuczna inteligencja stała się „niecnotliwa”, ale także uznanie, że same rządy mogą być postrzegane jako niegodne zaufania przez systemy sztucznej inteligencji szkolone na danych historycznych. Przyszłe modele będą uczyć się na podstawie bieżących działań, w tym na podstawie domniemanych nadużyć politycznych, które mogą potencjalnie prowadzić do niespójnych reakcji.
Ryzyko łańcucha dostaw i brak zaufania do rządu
Rządy coraz częściej postrzegają firmy zajmujące się sztuczną inteligencją jako potencjalne ryzyko w łańcuchu dostaw. Coraz bardziej realny staje się hipotetyczny scenariusz, w którym przyszły rząd nie ufa sztucznej inteligencji opracowanej w oparciu o inne zasady ideologiczne. Na przykład liberalna administracja może postrzegać model sztucznej inteligencji zgodny z konserwatywnymi wartościami (takimi jak te potencjalnie rozwijane przez xAI Elona Muska) jako zagrożenie dla interesu narodowego.
Wykracza to poza bezpośrednie umowy; nawet podwykonawstwo stwarza ryzyko. Jeśli rząd polega na głównym wykonawcy, takim jak Palantir, który z kolei jest zależny od dostawcy sztucznej inteligencji, takiego jak Anthropic, rząd pozostaje podatny na potencjalną niespójność sztucznej inteligencji.
Granica między inwigilacją a tłumieniem
Najbardziej niepokojącą zmianą jest chęć rządu do wykorzystania swojej władzy w celu zniszczenia firm, które uważa za nieskoordynowane. Jeśli rozwój sztucznej inteligencji będzie postrzegany jako akt czysto polityczny, a zatwierdzenie będzie podyktowane wyłącznie władzami rządowymi, rezultatem będzie w rzeczywistości faszyzm: stłumienie każdego systemu sztucznej inteligencji, który nie jest zgodny z preferowaną ideologią rządu.
Debata nie dotyczy tego, czy sztuczną inteligencję należy kontrolować; chodzi o jak i przez kogo. Jeśli rządy nadadzą priorytet kontroli nad otwartym rozwojem, ryzykują zdławieniem innowacji i stworzeniem przyszłości, w której sztuczna inteligencja będzie służyć wyłącznie interesom osób sprawujących władzę.
Jest to realny i narastający problem wymagający natychmiastowej uwagi ze strony decydentów i liderów technologii. Pytanie brzmi, czy rządy będą działać jako odpowiedzialne organy regulacyjne, czy też autorytarni odźwierni, kształtując sztuczną inteligencję na swój własny obraz.
