Reuters

Китай вводит цензуру в больших языковых моделях искусственного интеллекта (ИИ). Китайские регулятор тестирует отечественные системы искусственного интеллекта, чтобы гарантировать, что они «воплощают основные социалистические ценности».

Управление киберпространства Китая (CAC) заставило крупные технологические компании и стартапы в области ИИ, включая ByteDance, Alibaba и Moonshot, принять участие в обязательной государственной проверке своих моделей нейросетей, пишет Financial Times (FT).

CAC опубликовал правила, предписывающие чат-ботам избегать таких чувствительных тем, как резня на площади Тяньаньмэнь, а также любую критику в адрес действующего председателя КНР Си Цзиньпина и его окружения. Кроме того, под запретом упоминания о независимости Тайваня. Один бот, когда его попросили привести недостатки председателя Си, предоставил лишь длинный список достижений политика и назвал его «несомненно великим лидером».

Ограничения представляют проблему как для компаний, занимающихся искусственным интеллектом, так и для цензоров Пекина, отмечает газета.

«Разработчикам очень трудно контролировать текст, который [боты] генерируют», — заявил изданию один из экспертов в области ИИ. При этом, по его словам, регулятор не до конца понимает, как именно работают нейросети, однако санкции за нарушение правил CAC вполне реальные.

Как пишет FT, китайские ограничения для ИИ стали самыми жесткими в сфере регулирования искусственного интеллекта и контента, который он генерирует.

Сложный процесс утверждения в Китае вынудил группы ИИ в стране быстро научиться тому, как лучше всего подвергать цензуре большие языковые модели, которые они создают.

Результат уже виден: запросы по чувствительным темам, таким как то, что произошло 4 июня 1989 года — дата резни на площади Тяньаньмэнь — или похож ли председатель Си на Винни-Пуха (знаменитый интернет-мем, который запрещен во всех китайских соцсетях) отклоняются большинством китайских чат-ботов.

Выбор редактора