Искусственный интеллект (ИИ) развивается настолько быстро, что многие из тех, кто принимал участие в его разработке, сейчас активно заявляют о необходимости регулирования этой отрасли. Хотя ИИ несет множество преимуществ, он также потенциально опасен.
Об угрозе ИИ уже давно открыто говорят не только западные аналитики, но и политики. Казалось, дело осталось за малым: собраться и принять необходимые нормативы, чтобы установить общие правила регулирования этой сферы. Но на деле все оказывается не так просто. И главная причина в том, что в гонке искусственного интеллекта все ключевые игроки на Западе хотят победить.
Нависающие угрозы
Угрозы, исходящие от искусственного интеллекта, регулярно оказывались в центре внимания аналитиков и СМИ за последнее время. Скептики утверждают, что ИИ можно использовать для создания кибер- или биологического оружия. При этом, если какая-то из моделей ИИ хотя бы раз будет украдена или попадет в открытый доступ, предотвратить распространение технологии по всему миру будет невозможно. Алармисты вообще утверждают, что искусственный интеллект способен выйти из-под контроля и поработить мир.
Все эти страшные предупреждения не лишены оснований, но в большинстве случаев речь идет лишь о гипотетической возможности в будущем. При этом в одной сфере угроза реализуется уже сейчас. Речь о том, что ИИ помогает проводить кампании дезинформации, которые могут стать по-настоящему массовыми.
Фейки в социальных сетях распространялись еще до повсеместного применения ИИ. Одним из «хедлайнеров» этого процесса стал бывший президент США Дональд Трамп. Он и сейчас промышляет подобным: в мае 2023 года политик разместил фейковую видеозапись эфира CNN, где ведущий якобы утверждает, что Джо Байден «ожидаемо продолжает врать, врать и врать». Проблема в том, что ИИ придал новых импульс индустрии дезинформации, сделав это процесс генерации таких фейков в разы проще. Теперь любой может в одночасье стать создателем политического контента за счет новых генеративных инструментов искусственного интеллекта, таких как DALL-E, Reface, FaceMagic.
Американцы уже не на шутку обеспокоены этими технологиями в связи с выборами президента в 2024 году. Так, бывший директор Google Эрик Шмидт предупредил, что в ходе избирательной компании «нельзя будет доверять ничему, что вы видите или слышите».
Западные разногласия
На словах проблемой ИИ обеспокоены и сами компании-разработчики. Более того, четыре наиболее влиятельных игрока в области искусственного интеллекта OpenAI, Anthropic, Microsoft and Google объявили о создании форума Frontier Model - отраслевого органа для надзора за безопасной разработкой самых передовых моделей ИИ.
В числе прочего разработчики искусственного интеллекта объявили, что обязуются наносить водяные знаки на контент. Эта мера должна облегчить обнаружение вводящих в заблуждение материалов, которые создаются при помощи соответствующих технологий.
Однако наблюдатели скептически настроены по поводу подобных заявлений. Дело в том, что технологическая отрасль уже давно не выполняет собственные обещания по саморегулированию. Каждая компания, прежде всего, стремится обогнать конкурентов и заботится о своей выгоде, а не о безопасности жителей планеты. Поэтому единственный способ ограничить разработку ИИ — вмешательство государства.
Казалось бы, усилий на этом направлении делается немало. Чиновники из ЕС, США и других крупных экономик мира активно выдвигают предложения по регулированию разработок ИИ. В апреле состоялась встреча технологических ведомств G7, где были озвучены общие идеи регулирования. Контакты по этому вопросу не прекращаются, и новые форму представителей назначены на грядущую осень.
В то же время эти контакты выявляют растущие противоречия, поскольку каждый агрессивно продвигает свою модель решения. Брюссель хочет, чтобы законодательство ЕС в области ИИ, которое, как ожидается, будет принято к декабрю, легло в основу коллективных мер со стороны Запада. Евросоюз настаивает на строгих ограничениях на использование ИИ, которые должны быть приняты мировыми государствами.
Однако США и Япония выступают за более мягкий подход. Речь о том, чтобы ведущие компании взяли на себя добровольные обязательства. Среди прочего предлагается, чтобы они позволяли внешним наблюдателям проверять их системы искусственного интеллекта на наличие предвзятости или иных нарушений.
«Любое соглашение на международном уровне должно быть на уровне очень расплывчатых принципов, — прямо заявил Суреш Венкатасубраманян, ученый-компьютерщик из Университета Брауна, который был соавтором руководящих указаний Белого дома о том, как агентства США должны контролировать ИИ. — Поскольку каждый хочет заниматься своим делом».
Кроме того, на свою особую роль в разработке механизмов регулирования претендует Великобритания и планирует провести свой собственный саммит по ИИ в ноябре в Лондоне. Британский премьер-министр Риши Сунак рассматривает это событие как шанс повысить роль страны как глобального игрока.
Как бы то ни было, шансов на то, что осенью этого года западные страны смогут достигнуть внятного консенсуса по ИИ интеллекту, немного. Противоречия слишком сильны, и каждая сторона готова бороться за свой проект как прерогативный. В лучшем случае государства достигнут очень расплывчатого соглашения, без четких шагов и механизмов, ограничившись общими словами.