В июле этого года представители семи технологических гигантов: Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI встретились с администрацией Байдена-Харриса, чтобы обсудить ответственное развитие искусственного интеллекта. Сегодня Белый дом объявил, что еще восемь технологических компаний добровольно приняли участие в усилиях по управлению рисками ИИ.
Adobe, IBM, NVIDIA, Palantir, Stability, Salesforce, Scale и Cohere присоединяются к тем, кто уже подписал предложенные президентом Байденом принципы. Обязательства требуют, чтобы подписавшие их компании предприняли такие шаги, как нанесение водяных знаков или маркировка носителей, созданных искусственным интеллектом, чтобы люди знали, что они не были созданы людьми.
Компании, занимающиеся искусственным интеллектом, также обязуются обеспечивать справедливость, недискриминацию, прозрачность, конфиденциальность и безопасность при работе с искусственным интеллектом.
Руководитель аппарата Белого дома Джефф Зиентс похвалил еще больше компаний за присоединение к этим усилиям и сказал, что Байден сделал использование преимуществ искусственного интеллекта при одновременном управлении рисками своим главным приоритетом.
Сегодня эти восемь ведущих компаний в области искусственного интеллекта обещают:
Компании обязуются проводить внутреннее и внешнее тестирование безопасности систем искусственного интеллекта перед их выпуском.
Компании обязались делиться информацией об управлении рисками ИИ в отрасли, а также с правительством, гражданским обществом и научными кругами.
Компании взяли на себя обязательство инвестировать в кибербезопасность и защиту от инсайдерских угроз для защиты проприетарных и невыпущенных моделей.
Компании обязуются облегчить третьим лицам обнаружение и сообщение об уязвимостях в их системах искусственного интеллекта.
Обе компании обязались разработать мощные технические механизмы, позволяющие пользователям знать, что контент создается с помощью искусственного интеллекта, например систем водяных знаков.
Компании обязались публично сообщать о возможностях, ограничениях и областях уместного и неуместного использования своих систем искусственного интеллекта.
Компании обязались уделять первоочередное внимание исследованиям социальных рисков, которые могут представлять системы ИИ, в том числе избегать вредных предвзятостей и дискриминации, а также защищать конфиденциальность.
Эти компании обещают разработать и внедрить передовые системы искусственного интеллекта, которые помогут решить самые большие проблемы общества.
Однако многие люди обеспокоены ростом услуг искусственного интеллекта. Добровольный характер этих обязательств рассматривается как временное решение.
В конце августа председатель и исполнительный вице-президент Microsoft Брэд Смит выразил поддержку этому, призвав разработать «план регулирования», гарантирующий, что искусственный интеллект останется под контролем человека. Кроме того, компания опубликовала план того, как, по ее мнению, следует управлять искусственным интеллектом.