Многие годы философы и математики стремились создать искусственный интеллект (ИИ), который произведет революцию в развитии человеческой цивилизации: сумеет прогнозировать финансовые риски и экологические катаклизмы. Расследование журналистов +972 Magazine и Local Call показало, что Израиль далеко продвинулся в области ИИ, только служит он не во благо прогресса, а цели массовых убийств.
Расследование журналистов выявило, что Израиль использовал ранее неизвестную базу данных на основе искусственного интеллекта «Лаванда», которая на одном из этапов определила 37 000 потенциальных целей на основе их предполагаемых связей с ХАМАС, и что израильским военным было дано разрешение убивать мирных жителей.
Показания шести офицеров разведки, которые были вовлечены в использование систем ИИ для идентификации палестинцев во время войны, были обнародованы израильским журналистом Ювалем Абрахамом. Источники в разведке утверждают, что израильское военное руководство санкционировало убийство большого количества палестинских мирных жителей, особенно в первые недели и месяцы конфликта.
Все шестеро заявили, что «Лаванда» играла центральную роль в войне, обрабатывая огромные массивы данных, чтобы быстро идентифицировать «потенциальных» палестинских военных.
Сообщается, что многие удары были нанесены с заранее санкционированным числом гражданских лиц, которые могут быть убиты: два источника подтвердили, что время авиаударов по палестинским военным «низкого ранга», им было разрешено убивать по 15-20 мирных жителей.
«Мы обычно совершали атаки с помощью неуправляемых бомб, что означало, что мы буквально хоронили под обломками целые дома вместе с их обитателями. Но даже если атака сорвана, вам все равно – вы сразу же перейдете к следующей цели. Из-за системы цели никогда не заканчиваются. У вас есть еще 36 000 человек, которые ждут», — говорит офицер израильской разведки. «На нас постоянно оказывали давление: «Давайте нам больше целей». Они действительно кричали на нас. Нам сказали: теперь мы должны уничтожить ХАМАС, чего бы это нам ни стоило. Бомбите все, что только можете».
«Нам не было интересно убивать оперативников [ХАМАС] только тогда, когда они находились в военном здании или были вовлечены в военную деятельность, — сказал А., офицер разведки, в беседе с +972 и Local Call. - Наоборот, ЦАХАЛ (ВС Израиля – ред.) без колебаний бомбили их дома в первую очередь. Гораздо проще бомбить дом семьи. Система создана для того, чтобы искать их в таких ситуациях».
Старший офицер, который использовал «Лаванду», повторил Ювалю Абрахаму, что в нынешней войне от израильских офицеров не требуется самостоятельно проверять оценки системы ИИ, чтобы снизить вероятность ошибки. Он отметил, что такое отсутствие надзора было допущено, несмотря на данные израильской армии, согласно которым в 10% случаев система ошибается. Также известно, что иногда она берет на прицел людей, у которых лишь слабая связь с палестинскими группами или такая связь вообще отсутствует.
Другими словами, было заранее известно, что 10% убитых «предполагаемых» членов ХАМАС, не были никак связаны с палестинской организацией сопротивления. Источники пояснили, что «Лаванда» иногда ошибочно отмечала людей со схожими именами и прозвищами: «Протокол заключается в том, что даже если вы не знаете наверняка, что система права, вы знаете, что статистически все в порядке. Так что дерзайте».
«Однажды, по собственной воле, я решил добавить около 1200 новых целей в систему, потому что количество атак уменьшилось», — сказал другой источник.
Специальный докладчик ООН по правам человека и борьбе с терроризмом заявил, что сообщения о том, что израильская армия решила, что допустимо убивать 15 или 20 палестинцев за каждого рядового члена ХАМАС, могут представлять собой военные преступления: «Если это правда, то многие израильские удары в Газе будут представлять собой военные преступления, заключающиеся в непропорциональных атаках».