27 ноября PANews сообщил, что США, Великобритания, Австралия и 15 других стран выпустили глобальные руководящие принципы, призванные помочь защитить модели искусственного интеллекта от несанкционированного доступа, призвав компании обеспечить «безопасность дизайна» своих моделей. Руководство в основном включает в себя общие рекомендации, такие как поддержание строгого контроля над инфраструктурой моделей ИИ, мониторинг моделей на предмет несанкционированного доступа до и после выпуска моделей, а также обучение сотрудников рискам кибербезопасности. В руководстве рекомендуются методы кибербезопасности, которые компании, занимающиеся ИИ, должны внедрять при проектировании, разработке, запуске и мониторинге моделей ИИ.
В число других стран, подписавших новые руководящие принципы, входят Канада, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Южная Корея и Сингапур. Компании, занимающиеся искусственным интеллектом, такие как OpenAI, Microsoft, Google, Anthropic и Scale AI, также внесли свой вклад в разработку руководства.