Правительство США расширяет тестирование безопасности ИИ на Google, Microsoft и xAI

11

Правительство США расширяет scrutiny (внимание/контроль) над передовыми моделями искусственного интеллекта, заключив соглашения с Google, Microsoft и xAI о передаче их систем для строгой оценки. Этот шаг свидетельствует о значительном изменении подхода Вашингтона к управлению стремительным развитием ИИ: переход от теоретических концепций к активному тестированию коммерческих инструментов до их выпуска.

Оценки будут проводиться Центром стандартов и инноваций в области ИИ (CAISI), подразделением Министерства торговли. Хотя центр ранее сотрудничал с другими крупными игроками, данное расширение привлекает к федеральным испытаниям некоторых из самых влиятельных конкурентов в отрасли.

Что именно тестируется?

Мандат CAISI выходит за рамки простых контрольных показателей производительности. Агентство фокусируется на «доказуемых рисках», связанных с передовыми системами ИИ, особенно уделяя внимание:

  • Угрозам кибербезопасности : потенциальной возможности ИИ автоматизировать или усиливать взлом.
  • Рискам биобезопасности : вероятности использования ИИ для разработки биологических агентов.
  • Угрозе химического оружия : применении ИИ для синтеза опасных материалов.

«Независимая, строгая измерительная наука необходима для понимания передового ИИ и его последствий для национальной безопасности», — сказал Крис Фолл, директор CAISI. «Эти расширенные отраслевые сотрудничества помогают нам масштабировать нашу работу в общественном интересе в критический момент».

Для Microsoft это партнерство носит явно защитный характер. Компания заявила, что оценки CAISI помогут ей оставаться на шаг впереди возникающих угроз, таких как кибератаки с использованием ИИ, особенно в отношении модели Copilot.

Стратегический сдвиг при администрации Трампа

Это развитие событий отмечает заметную эволюцию в подходе текущей администрации к регулированию ИИ. Президент Дональд Трамп исторически утверждал, что чрезмерное регулирование подавляет инновации и может позволить конкурентам, таким как Китай, получить технологическое преимущество.

В марте Трамп выпустил Национальную политику в области ИИ, которая подчеркивала:
— Устранение барьеров для инноваций.
— Ускорение внедрения ИИ в различных секторах.
— Избегание создания новых централизованных федеральных органов по регулированию ИИ.

Вместо создания монолитного регулятора этот механизм направил существующие агентства и экспертов в конкретных областях к проверке моделей. CAISI соответствует этой модели, используя существующую инфраструктуру для тестирования конкретных рисков, а не навязывая широкие законодательные ограничения. Этот подход позволяет правительству поддерживать «сеть безопасности», не замедляя коммерческий выпуск инструментов ИИ.

Контекст: от соглашений эпохи Байдена к текущим «переговорам»

Ландшафт тестирования безопасности ИИ развивается с 2024 года, когда OpenAI и Anthropic впервые подписали соглашения о федеральных оценках при администрации Байдена. CAISI отметила, что существующие соглашения были «переговорены», хотя конкретные изменения условий не были подробно описаны в публичных заявлениях.

CAISI уже провела 40 оценок различных моделей, включая некоторые «передовые модели, которые остаются невыпущенными». Включение Google, Microsoft и xAI указывает на расширение охвата, стремясь охватить более широкий спектр экосистемы ИИ, а не фокусируясь исключительно на ранних adopters (приверженцах).

Продолжающаяся роль OpenAI и акцент на кибербезопасности

Несмотря на смену политического руководства, OpenAI остается ключевым партнером в этих усилиях. Крис Лехан, главный мировой офицер по глобальным вопросам OpenAI, сообщил, что компания предоставила правительству ChatGPT 5.5 до его публичного выпуска для поддержки тестирования национальной безопасности.

Кроме того, OpenAI сотрудничает с CAISI над GPT-5.5-Cyber, специализированной моделью, предназначенной для укрепления возможностей киберзащиты. Эта модель в настоящее время доступна только ограниченному кругу первых пользователей, преимущественно в секторе государственной службы. OpenAI также разрабатывает «стратегию ответственного внедрения» для этого инструмента, включая руководство по его распространению среди правительственных агентств.

Почему это важно

Расширение влияния CAISI указывает на то, что правительство США ставит приоритетом практическое снижение рисков над идеологическими дебатами о регулировании. Тестируя модели до их выхода на публичный рынок, правительство стремится:

  1. Выявить уязвимости в кибербезопасности и биобезопасности до того, как они могут быть использованы.
  2. Поддерживать лидерство США в области ИИ, обеспечивая, чтобы стандарты безопасности не стали препятствием для инноваций.
  3. Создать прецедент сотрудничества между отраслью и правительством в управлении высокорисковыми технологиями.

Этот подход поднимает важные вопросы о балансе между безопасностью и скоростью. По мере того как больше компаний присоединяются к программе тестирования, федеральное правительство устанавливает себя как критически важный шлюз в индустрии ИИ, гарантируя, что гонка за технологическим превосходством не будет осуществляться ценой национальной безопасности.

Заключение

Включение Google, Microsoft и xAI в программу тестирования ИИ правительства США отражает прагматичную стратегию управления рисками передового ИИ без подавления инноваций. Фокусируясь на конкретных угрозах высокой важности, таких как кибербезопасность и биобезопасность, администрация создает рамки безопасности, соответствующие ее цели ускорения внедрения ИИ при защите национальных интересов.