Администрация Трампа в США рассматривает возможность принятия пакета административных мер по ужесточению контроля над передовыми моделями искусственного интеллекта для борьбы с растущими рисками национальной безопасности. По словам семи представителей технологической отрасли и политических советников, которым была предоставлена ​​анонимность, дискуссии в Белом доме по поводу новых правил, которые будут включать в себя создание официального механизма проверки и выпуска передовых моделей искусственного интеллекта, продолжаются уже некоторое время.

Многие люди, знакомые с этим вопросом, рассказали, что в недавнем закрытом общении с представителями отрасли одной из идей, предложенных Белым домом, было создание системы проверки в форме указа для оценки потенциального воздействия так называемых «передовых моделей искусственного интеллекта». Эксперт по политике в области искусственного интеллекта и источник в отрасли заявили, что в соответствии с этой схемой компаниям, возможно, потребуется получить «зеленый свет» от федерального правительства, прежде чем выпускать модели с высокими возможностями. Газета New York Times ранее сообщала, что Белый дом рассматривает возможность создания аналогичной структуры проверки.

Представитель Белого дома заявил, что любая официальная политика будет объявлена ​​лично президентом Дональдом Трампом, и что текущие дискуссии вокруг возможных указов президента все еще являются «спекуляциями». В то же время все больше и больше технологических компаний добровольно сотрудничают с правительством и активно представляют новые модели на рассмотрение, прежде чем они появятся в сети. Буквально во вторник администрация Трампа достигла соглашения с Microsoft, xAI и Google DeepMind, позволяющего правительству проводить оценку рисков национальной безопасности для моделей нового поколения, прежде чем они будут обнародованы.

Эта серия действий происходит на фоне растущего общественного беспокойства по поводу ИИ, включая опасения по поводу безопасности самой технологии и вопросы по поводу огромных инвестиций отрасли в политические кампании. Опрос POLITICO, опубликованный ранее в этом месяце, показал, что избиратели США в целом скептически относятся к искусственному интеллекту. В этом контексте формальный механизм проверки ИИ перед развертыванием является лишь одной из серии административных мер, которые в настоящее время рассматриваются Белым домом. Другие идеи включают в себя более жесткий подход к угрозам безопасности, создаваемым ИИ, и ограничение возможностей технологической отрасли противостоять государственным требованиям безопасности и политики.

Правительство готовит 16-страничный проект указа, который запретит частному сектору «вмешиваться» в использование правительством моделей искусственного интеллекта, по словам четырех человек, знакомых с этим вопросом. В проекте также планируется ужесточить федеральные стандарты закупок и заключения контрактов и предоставить правительству больше свободы действий в работе с поставщиками ИИ. Эти положения широко рассматриваются как прямой ответ на недавнее противостояние между Белым домом и компанией Anthropic, занимающейся искусственным интеллектом, которая отказалась разрешить военным использовать свою модель Claude для наблюдения за гражданами США или автономного оружия, что вызвало протест со стороны Министерства обороны.

В ответ министр обороны Пит Хегсет в марте классифицировал Anthropic как «риск безопасности цепочки поставок», редкий шаг, который немедленно ограничил возможности федеральных агентств использовать продукцию компании. Многие наблюдатели отметили, что нынешний раунд политики вокруг ИИ знаменует собой важный сдвиг в нормативном мышлении администрации Трампа. До этого, под лоббированием венчурных капиталистов, придерживающихся принципа невмешательства, таких как Дэвид Сакс и Марк Андриссен, Белый дом всегда придерживался относительно свободной и «легкой» позиции в отношении регулирования и надзора за индустрией искусственного интеллекта.

Теперь этот, казалось бы, «крутой поворот» вызывает настороженность в технологических кругах. Некоторые представители отрасли обеспокоены тем, что ужесточение государственного контроля замедлит темпы инноваций. Дэниел Кастро, председатель аналитического центра «Фонд информационных технологий и инноваций», заявил, что никто не хочет войти в мир, где «каждая новая версия модели должна быть сначала представлена ​​правительству на утверждение». Он предупредил, что «скорость Кремниевой долины» сильно отличается от «скорости Вашингтона» и что Соединенным Штатам необходимо продолжать быстро продвигаться вперед, если они хотят конкурировать с Китаем в области искусственного интеллекта.

Предлагаемый указ также нацелен на новые угрозы, создаваемые передовым искусственным интеллектом в сфере кибербезопасности, в частности, новой моделью Mythos от Anthropic. Хотя модель еще не обнародована, первые результаты испытаний, проведенных правительствами и крупными организациями, показывают, что Mythos способен находить и использовать уязвимости программного обеспечения способами, выходящими далеко за рамки возможностей людей-хакеров. Два человека, знакомые с ходом обсуждений, рассказали, что проект рассматривает возможность формулирования технических рекомендаций и передового опыта для «моделей с открытым весом» для усиления защиты безопасности. Такие модели будут раскрывать параметры обучения и позволят пользователям переобучаться и модифицировать их для различных задач. Белый дом также рассматривает возможность мобилизации разведывательного сообщества для помощи в защите от угроз критически важным системам, исходящих от новейшего искусственного интеллекта, добавили три человека, знакомых с этим вопросом.

Потенциальные риски, исходящие от Mythos, вызвали повышенную тревогу среди высокопоставленных чиновников администрации Трампа. Многие чиновники обеспокоены тем, что на фоне противостояния с Anthropic федеральным агентствам будет трудно получить Mythos для использования в «стресс-тестировании» критически важных систем. В последние недели Белый дом начал «охлаждать» напряженность в отношениях с ИИ-компанией. По словам двух источников, администрация собирается создать наблюдательный совет для повторной оценки рисков в цепочке поставок, сделанных в отношении Anthropic, но неясно, будет ли это соглашение включено в текст окончательного указа об искусственном интеллекте.

Внешне появление Mythos меняет структуру дискуссий об искусственном интеллекте и национальной безопасности в Белом доме. Саиф Хан, который работал новым советником по технологиям в администрации Байдена, а сейчас является исследователем в аналитическом центре «Институт прогресса», сказал, что раньше в правительстве существовала определенная степень презрения к связанным с этим рискам, «но теперь многие люди начинают относиться к этому вопросу чрезвычайно серьезно». По его мнению, эра политики ИИ, руководствующейся исключительно логикой венчурного капитала Кремниевой долины, возможно, подходит к концу в администрации Трампа.