Американская газета The New York Times опубликовала 25 апреля подробный материал о том, как израильская армия — и в особенности спецподразделение 8200 — использует технологии искусственного интеллекта (ИИ) в ходе войны. Согласно публикации, ИИ используется для выбора целей атаки, для ликвидации высокопоставленных лиц, для фильтрации информации и для обнаружения заложников.
В качестве примера NYT приводит ликвидацию Ибрагима Биари, командира центрального батальона ХАМАСа в Джабалии и одного из организаторов резни 7 октября. В конце октября 2023 года Израиль пытался ликвидировать Биари, зная, что он скрывается в туннелях в Газе, однако разведке не удалось его обнаружить. Три израильских и американских источника рассказали The New York Times, что после этого в Израиле решили прибегнуть к использованию новой военной технологии, интегрированной с искусственным интеллектом. Эта технология была разработана еще 10 лет назад, но до того момента ни разу не использовалась на поле боя. Попытка обнаружить Биари стала стимулом для улучшения инструмента, и инженеры из подразделения 8200 внедрили в него ИИ.
Вскоре после этого Израиль начал прослушивать переговоры Биари и использовал ИИ-инструмент на основе аудио-технологии, который предоставил оценку его примерного местонахождения на основе источника звонков. С помощью этой информации Израиль нанес 31 октября 2023 года воздушный удар по указанному месту и ликвидировал Биари.
Отмечается, что Биари возглавлял все военное командование на севере сектора Газы с момента захода ЦАХАЛа в сектор в вплоть до своей ликвидации несколько дней спустя. Он также был причастен к отправке террористов на теракт в порту Ашдода в 2004 году, в результате которого были убиты 10 израильтян, а также — к координации ракетных обстрелов по Израилю на протяжении двух десятилетий. Помимо этого, он организовывал другие многочисленные теракты и диверсии.
В The New York Times утверждают, что сделали интервью с девятью высокопоставленными представителями служб безопасности в Израиле и США. Из их слов следует, что ликвидация Биари с использованием того самого аудио-инструмента — лишь один из примеров того, как Израиль использует войну в Газе для стремительного внедрения технологий искусственного интеллекта в военное дело не беспрецедентном уровне.
►Сотрудничество между 8200 и резервистами из технологических гигантов
В последние 18 месяцев Израиль интегрировал ИИ в программное обеспечение для распознавания лиц, чтобы сравнивать размытые изображения с реальными личностями, использовал ИИ для составления списка потенциальных целей для авиаударов, а также разработал арабоязычную модель ИИ, которая может сканировать и анализировать текстовые сообщения, публикации в социальных сетях и другие данные на арабском языке.
Многие из этих инициатив возникли благодаря сотрудничеству между бойцами подразделения 8200 и резервистами, работающими в таких технологических гигантах, как Google, Microsoft и Meta. В 8200 был создан инновационный центр под названием "Студио", где объединяют экспертов и проекты в области ИИ. Однако иногда новейшие технологии приводили к ошибочной идентификации и гибели гражданских лиц в результате атак.
Один из разработанных "Студио" инструментов — это арабоязычная языковая модель искусственного интеллекта, получившая название "большая языковая модель". В The New York Times отметили, что поначалу разработчики сталкивались с трудностями в создании такой модели из-за нехватки арабоязычных баз данных, необходимых для обучения технологии. А те данные, которые имелись в наличии, в основном были на литературном арабском языке, который сильно отличается от разговорного.
Однако у Армии обороны Израиля такой проблемы не было, благодаря десятилетиям расшифровки текстовых сообщений, транскрипций телефонных разговоров и публикаций в социальных сетях на разговорном арабском. Таким образом, "большая языковая модель" была разработана уже в первые месяцы войны. Вдобавок к ней в 8200 разработали и чат-бот на арабском языке. Этот инструмент был интегрирован с мультимедийными базами данных, что позволило аналитикам выполнять сложные поисковые запросы с использованием изображений и видеозаписей.
►Ошибки чат-бота
После ликвидации генерального секретаря Хизбаллы Хасана Насраллы в сентябре 2024 года, чат-бот анализировал реакции в арабоязычных странах. В некоторых случаях бот не смог распознать современные сленговые выражения и слова, заимствованные из английского языка. Это потребовало от израильских офицеров-разведчиков, специализирующихся на различных диалектах, доработки системы.
Иногда чат-бот также выдавал ошибочные результаты — например, показывал изображения труб вместо оружия. Несмотря на эти недочеты, инструменты искусственного интеллекта значительно ускорили аналитическую работу и проведение различных разведывательных исследований.
На временных переходах между севером и югом сектора Газы, Израиль установил камеры, способные сканировать и передавать изображения палестинцев в высоком разрешении в систему распознавания лиц, основанную на искусственном интеллекте. Однако система иногда испытывала трудности в распознавании людей с закрытыми лицами, что приводило к арестам и допросам палестинцев, ошибочно опознанных как подозреваемых.
Другой способ использования ИИ заключался в фильтрации разведданных о членах ХАМАСа. До начала войны Израиль разработал систему на базе искусственного интеллекта под названием "Лавандер", предназначенную для быстрой классификации данных и нанесения ударов по боевикам низкого ранга. Она содержала верифицированную базу данных членов ХАМАСа и была способна прогнозировать, кто еще может принадлежать к этой террористической организации. Хотя оценки "Лавандера" не всегда были точными, Израиль применял эту систему в начале войны для помощи в выборе целей.
►Этические вопросы
Однако подобные технологии поднимают серьезные этические вопросы, заявила газете The New York Times Хадас Лурбер из технологического института в Холоне (HIT). Она подчеркнула необходимость системы сдержек и противовесов при использовании ИИ и добавила, что окончательные решения должны принимать люди.
Представитель Армии обороны Израиля заявил изданию, что не может комментировать конкретные технологии из-за секретного характера информации, но заверил, что Израиль привержен законному и ответственному использованию технологических инструментов. По его словам, армия проводит расследование авиаудара по Биари, и до его завершения не может предоставить дополнительные детали. Компании Meta и Microsoft отказались от комментариев, а Google заявила, что работа ее сотрудников в резерве армии не связана с самой компанией.
С 7 октября одной из важнейших целей Израиля стало устранение высшего руководства ХАМАСа. В начале войны одним из приоритетов был Ибрагим Биари, которого в Израиле считали одним из главных организаторов бойни. После того, как было установлено его примерное местоположение, офицеров предупредили, что район — комплекс нескольких офисных зданий — густонаселен. Для ликвидации Биари потребовалась воздушная атака по нескольким зданиям, и операция была одобрена. По версии правозащитников, при атаке погибли и гражданские лица.
С тех пор израильская разведка использовала тот же аудиоинструмент в сочетании с картами и изображениями подземной системы туннелей по всему сектору для обнаружения заложников. Кроме того, по словам двух израильских чиновников, со временем инструмент был усовершенствован — чтобы точнее выявлять отдельных лиц.