Правительство Великобритании требует от таких компаний, как OpenAI, Anthropic и Google, объяснить внутреннюю работу их больших языковых моделей (LLM). Хотя код некоторых моделей является общедоступным, такие модели, как GPT-3.5 и GPT-4, — нет, и OpenAI очень неохотно делится многими подробностями.

Великобритания готовится провести новый глобальный саммит по искусственному интеллекту, на котором соберутся правительства, компании и исследователи для изучения рисков, создаваемых искусственным интеллектом, и обсуждения способов их снижения.

Одна из причин, по которой компании неохотно делятся своими внутренними данными, заключается в том, что такое поведение может раскрыть конфиденциальную информацию об их продуктах. Если злоумышленники будут знать больше внутренней информации, это также может сделать модели искусственного интеллекта уязвимыми для кибератак.

По данным Financial Times, одна из вещей, которую правительство хочет проверить, — это веса модели, которые определяют силу связей между нейронами на разных уровнях модели. В настоящее время компании, занимающиеся искусственным интеллектом, не обязаны делиться этими подробностями, но звучат призывы к большей прозрачности в этом отношении.

Великобритания проведет свой первый саммит в Блетчли-парке в ноябре. Блетчли-Парк занимает важное место в истории компьютеров, поскольку именно здесь были расшифрованы нацистские сообщения. Тест Тьюринга, связанный с искусственным интеллектом, назван в честь Алана Тьюринга, который также взломал там коды.

Газета Financial Times отметила, что компании Google DeepMind, OpenAI и Anthropic в июне согласились открыть свои модели британскому правительству для целей исследований и безопасности. К сожалению, стороны тогда не согласовали масштабы и технические детали открытия. Сейчас уровень открытости, требуемый правительством, достаточно высок.

В конечном счете, чтобы саммит был успешным, участники должны полностью понять, как работают модели, чтобы они могли лучше понять их опасности. Другой вопрос, есть ли у них адекватный доступ к моделям.