«Лаванда»: как ИИ стал дирижёром бомбардировок в Газе

Израильская армия использует ИИ-систему «Лаванда» для автоматического выбора целей, что вызывает этические и технические вопросы.
В 2024 году стало известно, что израильская армия активно применяет ИИ-систему под кодовым названием «Лаванда» для автоматического формирования списков целей для авиаударов в секторе Газа. Система обрабатывает огромные массивы данных, чтобы идентифицировать подозреваемых в связях с ХАМАС, и делает это с пугающей скоростью — до 100 целей в минуту.
Как это работает? «Лаванда» использует алгоритмы машинного обучения, обученные на данных разведки, включая перехваченные сообщения, данные о передвижении и социальных связях. Система присваивает каждому потенциальному объекту «рейтинг» вероятности принадлежности к боевикам. Если рейтинг превышает порог, цель автоматически добавляется в список для удара. При этом, по данным расследования, человеческий контроль часто оказывается формальным: операторы тратят на каждую цель менее 20 секунд.
Этическая дилемма Главная проблема — высокий уровень ошибок. Источники внутри разведки утверждают, что точность системы составляет лишь около 90%, а в условиях войны это означает тысячи ложных срабатываний. Кроме того, алгоритм не учитывает гражданских лиц, находящихся рядом с целью, что приводит к массовым жертвам. Разработчики «Лаванды» признают, что система — это инструмент, а не судья, но на практике именно ИИ принимает ключевые решения.
Уроки для разработчиков Эта история — мрачный пример того, как ИИ может масштабировать насилие, если не встроить в него защитные механизмы. Для IT-специалистов это напоминание: любой алгоритм должен проходить аудит на предвзятость, а автоматизация критических решений требует человеческого оверсайта. «Лаванда» показывает, что даже самая продвинутая ML-модель не заменит этическую оценку.
Комментарий студии METABYTE: В нашей практике мы всегда подчеркиваем: ИИ — это мощный инструмент, но его применение в высокорисковых сценариях должно сопровождаться прозрачностью и контролем. При разработке систем для бизнеса мы используем best practices по fairness и accountability, чтобы избежать подобных «побочных эффектов».