Американский журнал TIME обнародовал ключевые моменты отчета о безопасности искусственного интеллекта (ИИ), подготовленного компанией Gladstone AI по заказу Министерства иностранных дел США. В ходе исследования, начатого в ноябре 2022 года, авторы отчета провели более 200 интервью с представителями правительства, экспертами и сотрудниками ведущих ИИ-лабораторий, включая OpenAI, Google DeepMind, Anthropic и Meta, выявив обеспокоенность безопасностью ИИ в отрасли.
Отчет под названием «План действий по увеличению безопасности ИИ» содержит 247 страниц и был создан за $250 000. В нем предложены меры по снижению рисков ИИ, в том числе создание Федерального агентства по вопросам ИИ, запрет на публичное раскрытие деталей мощных ИИ-моделей, усиление контроля за производством ИИ-чипов и направление финансирования на исследования безопасности ИИ.
Прямая речь из отчета: «При худшем сценарии ИИ может представлять для человечества угрозу уровня вымирания. Текущее развитие ИИ представляет неотложные и все большие угрозы для национальной безопасности. Прогресс продвинутого ИИ и всеобщего искусственного интеллекта имеет потенциал к дестабилизации мировой безопасности, как это в свое время сделало появление ядерного оружия».
Отчет подчеркивает риски вепонизации ИИ и потери контроля над ИИ-системами, указывая на опасность беспрецедентного применения и возможность их враждебного поведения. В документе также выражается беспокойство по поводу «динамики соревнования» в ИИ-индустрии, где скорость разработки ставится выше безопасности.
Исследователи выразили опасение, что их предложения, особенно в части уголовного наказания за нарушения, могут показаться слишком строгими. Но отметили необходимость «быстрых и решительных» действий правительства США для предотвращения рисков национальной безопасности, связанных с ИИ.