Технологические гиганты IT-индустрии сокращают персонал, отвечающий за оценку этических проблем искусственного интеллекта. Это вызывает опасения по поводу безопасности технологии для рядовых потребителей, пишет Financial Times.
По данным издания, в число компаний, уволивших сотрудников, вошли Microsoft, Meta, Google, Amazon и Twitter. Под сокращение попали десятки специалистов, однако они представляют собой лишь небольшую долю в общей массе увольнений в IT-отрасли на фоне более широкого спада индустрии.
Как уточняет FT, техногиганты заверили, что по-прежнему привержены внедрению безопасных продуктов ИИ. Но, как полагают эксперты, текущая волна сокращений вызывает беспокойство, поскольку потенциальные злоупотребления технологией обнаруживаются как раз в тот момент, когда миллионы людей начинают экспериментировать с инструментами ИИ.
Предвзятости искусственного интеллекта
Обеспокоенность экспертов возросла после успеха чат-бота ChatGPT, запущенного поддерживаемой Microsoft OpenAI. Это побудило другие технические группы выпустить конкурентов, таких как Google Bard и Anthropic Claude, отмечает газета.
«Шокирует то, сколько ответственных за ИИ сотрудников увольняют в то время, когда, возможно, вам нужно больше таких команд, чем когда-либо», — сказал Эндрю Стрейт, бывший исследователь этики и политики в DeepMind, принадлежащем Alphabet.
В январе Microsoft распустила всю свою команду по этике и обществу, которая руководила первоначальной работой компании в этой области. Технический гигант заявил, что уволил менее 10 сотрудников, и что в Microsoft по-прежнему работают сотни людей, ответственных за ИИ.
Twitter сократил более половины своего персонала под руководством нового владельца Илона Маска. Под сокращение попала вся небольшая команда по этике ИИ. Их работа включала, например, исправление расовой предвзятости в алгоритме Twitter: механизм, по-видимому, отдавал предпочтение белым лицам при выборе способа обрезки изображений в соцсети.
Twitch, потоковая платформа, принадлежащая Amazon, на прошлой неделе сократила свою команду по этике ИИ. Вместо этого компания распределила задачи по обнаружению предвзятостей алгоритмов на все команды, работающие над продуктами ИИ.
В сентябре 2022 года Meta распустила ответственную команду по инновациям, состоящую примерно из 20 инженеров и специалистов по этике, которым было поручено оценивать гражданские права и этику в Instagram и Facebook.
Внутренний бастион бигтеха
«Ответственные команды искусственного интеллекта — один из немногих внутренних бастионов, которые должны быть у бигтеха, чтобы убедиться, что инженеры думают о людях и сообществах, на которые воздействуют системы искусственного интеллекта», — цитирует FT Джоша Саймонса, экс-исследователя этики искусственного интеллекта в Facebook и автора книги «Алгоритмы для людей».
«Скорость, с которой они отменяются, оставляет алгоритмы бигтеха на милость рекламных императивов. Это подрывает благополучие детей, уязвимых людей и нашу демократию», — считает Саймонс.
Еще одна проблема заключается в том, что большие языковые модели, лежащие в основе чат-ботов, таких как ChatGPT, как известно, «галлюцинируют» — делают ложные утверждения, как если бы они были фактами. Это может быть использовано для распространения дезинформации и списывания на экзаменах.
«Мы не можем полностью предвидеть все, что произойдет с этими новыми технологиями, и очень важно, чтобы мы уделяли им некоторое внимание», — заявил FT Майкл Лак, директор Лондонского института искусственного интеллекта.
Споры в отрасли
Роль внутренних команд бигтеха по этике ИИ сейчас подвергается тщательному анализу. В отрасли идут споры о том, должно ли любое вмешательство человека в алгоритмы быть более прозрачным с участием общественности и регулирующих органов.
В 2020 году фотоприложение Instagram, принадлежащее Meta, создало команду для решения проблемы «алгоритмической справедливости» на своей платформе. Команда «IG Equity» была сформирована после убийства полицией Джорджа Флойда и желания внести коррективы в алгоритм Instagram, чтобы активизировать обсуждение расы и выделить профили маргинализированных людей.
По словам человека, близкого к компании, некоторые сотрудники, отвечающие за этический надзор за искусственным интеллектом в Google, также были уволены в рамках более масштабных сокращений штата Alphabet, насчитывающего более 12 тыс. человек.
Письмо против нейросетей
Как сообщает CNBC, 29 марта миллиардер Илон Маск, соучредитель Apple Стив Возняк и бывший кандидат в президенты Эндрю Янг подписали открытое письмо, призывающее взять шестимесячную паузу в экспериментах с ИИ — иначе это приведет к «серьезным рискам для общества и человечества».
«Нам следует спросить себя: должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать всю работу, включая ту, которая приносит удовлетворение? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас?» — говорится в открытом письме, размещенном на веб-сайте некоммерческой организации Future of Life Institute.
Представители бигтеха призвали приостановить на полгода обучение систем более мощных, чем ChatGPT-4 от компании OpenAI. Авторы письма подчеркивают: даже создатели «мощных цифровых умов» не могут их регулировать, а современные системы искусственного интеллекта начинают бросать вызов людям.
В письме также говорится: «Мощные системы искусственного интеллекта следует разрабатывать только после того, как мы будем уверены, что их эффект будет положительным, а риски — управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать по мере увеличения масштабов потенциальных последствий системы».
По данным агентства Reuters, исполнительный директор разработчика ChatGPT OpenAI Сэм Альтман не стал подписывать письмо.
Пресс-секретарь президента РФ Дмитрий Песков заявил, что Россия продолжит работу по развитию ИИ, но потребуется регулирование.
«Эта работа будет продолжаться... Что касается точки зрения тех, кто считает, что серьезные опасности кроются в развитии искусственного интеллекта, вы знаете, что любое лекарство при неправильном использовании превращается в яд», — заявил представитель Кремля.
Как отмечает Forbes, правительство РФ существенно урезало финансирование программ развития ИИ в январе 2023 года. До 2030 года на эти цели направят около 24,6 млрд рублей — хотя ранее на развитие ИИ закладывалось 56,8 млрд рублей до 2024 года. Внебюджетное финансирование в новом плане правительства сократилось еще сильнее — с 334 млрд рублей до 2024 года до 111 млрд рублей за семь лет.