Европа призывает к «сдержанности», и реакция Каи Каллас на события в Ливане вызвала недовольство в Израиле. - 10 апреля, 2026 - Новости Израиля
Россия использует «образование» для воздействия на украинских детей в оккупированных территориях, пытаясь изменить их мировоззрение. - 10 апреля, 2026 - Новости Израиля
Стоит ли делать ремонт во время войны в Израиле: когда ждать опасно, а когда пауза разумна - 10 апреля, 2026 - Новости Израиля
…
Искусственный интеллект стремительно превращается из вспомогательного инструмента аналитиков в один из ключевых факторов современной войны. В операции США и Израиля против Ирана, по данным западных источников, именно системы ИИ взяли на себя значительную часть работы по анализу разведданных, выявлению целей и распределению приоритетов ударов.
Речь идет о таких системах, как Maven Smart System и Claude AI. Эти алгоритмы способны обрабатывать спутниковые снимки, данные дронов, перехваты сигналов и видеопотоки наблюдения значительно быстрее, чем это могут сделать аналитические группы. Благодаря этому операторы получают уже обработанную картину поля боя и могут сосредоточиться на принятии решений, а не на рутинной проверке огромных массивов информации.
По сообщениям западных СМИ, только за первые сутки масштабной операции против Ирана было поражено более тысячи целей. Сотни из них были идентифицированы именно алгоритмами искусственного интеллекта, которые определяли координаты объектов, анализировали их активность и расставляли приоритеты по степени угрозы. Такой темп анализа данных ранее требовал бы работы десятков специалистов и занимал бы гораздо больше времени.
Как системы ИИ меняют логику военных операций
Maven и ускоренная аналитика поля боя
Система Maven Smart System создавалась Пентагоном именно для ускорения анализа разведывательных данных. Она использует машинное обучение для обработки изображений и видео, получаемых со спутников и беспилотников, и способна автоматически обнаруживать подозрительные объекты, военную технику и инфраструктуру.
В результате аналитики получают уже структурированные данные, а не сырые массивы информации. Алгоритмы способны сопоставлять десятки источников разведки, фиксировать изменения на местности, отслеживать перемещения техники и выделять цели, которые могут иметь военное значение.
Такой подход резко увеличивает скорость операций. То, что раньше требовало часов или дней проверки, теперь может быть выполнено за считанные минуты. Но именно здесь появляется новая проблема: иногда сами военные не до конца понимают, каким образом система пришла к определённому выводу.
Как отмечают европейские аналитики, алгоритмы машинного обучения нередко принимают решения, логика которых остаётся скрытой внутри самой модели. В таких ситуациях человек вынужден доверять рекомендации системы, не имея полного доступа к её внутренней логике.
В одном из материалов, на который обращает внимание редакция НАновости — Новости Израиля | Nikk.Agency, говорится, что современная война постепенно приближается к модели, где люди подтверждают решения алгоритмов, а не наоборот. И это вызывает серьёзные дискуссии среди специалистов по военной стратегии.
Израильская разведка и цифровая инфраструктура наблюдения
Камеры Тегерана и многолетняя аналитика
Financial Times пишет, что израильские структуры на протяжении многих лет проводили сложные операции киберразведки внутри Ирана. Одним из инструментов такого анализа стали системы городского видеонаблюдения, включая дорожные камеры, которые фиксируют перемещения транспорта и пешеходов.
Получив доступ к этим потокам данных, аналитики могли выстраивать модели передвижения ключевых фигур иранского руководства. Постепенно формировались подробные карты привычных маршрутов, временных интервалов и регулярных поездок, что позволяло прогнозировать перемещения конкретных людей.
В сочетании со спутниковой разведкой, перехватом коммуникаций и другими источниками данных подобная информация превращалась в мощный инструмент стратегического анализа. По данным некоторых источников, именно такие методы цифрового наблюдения могли сыграть роль в ликвидации ряда высокопоставленных представителей иранского режима, включая аятоллу Хаменеи.
Однако даже при высокой эффективности технологий остаётся важный вопрос: насколько безопасно доверять ключевые решения алгоритмам, которые способны анализировать данные быстрее человека, но при этом не всегда объясняют собственную логику.
Когда искусственный интеллект начинает действовать сам
Эксперимент с системами ИИ и сценариями холодной войны
Исследователь Королевского колледжа Лондона Кеннет Пейн решил проверить, как системы искусственного интеллекта ведут себя в условиях геополитического кризиса. Для эксперимента он предложил нескольким моделям ИИ семь различных сценариев международных конфликтов, основанных на событиях эпохи холодной войны.
Каждой системе было поручено действовать как руководство государства, принимающее решения о стратегии и ответных шагах. В ходе моделирования алгоритмы должны были анализировать угрозы, дипломатические сигналы и военные действия противника.
Результаты оказались тревожными.
Claude AI вёл себя как жёсткий стратегический «ястреб», активно сочетая угрозы, давление и элементы дезинформации для достижения своих целей. ChatGPT от OpenAI проявлял более осторожное поведение и избегал эскалации до тех пор, пока давление со стороны противника не становилось слишком сильным.
Система Google Gemini, по словам исследователя, демонстрировала наиболее нестабильную стратегию. В некоторых сценариях её действия выглядели хаотичными, что заставило Пейна назвать модель «безумцем».
Главный вывод эксперимента оказался ещё более тревожным.
В 95% смоделированных сценариев конфликта стороны, управляемые искусственным интеллектом, в конечном итоге приходили к применению ядерного оружия как к «рациональному» решению.
Ошибки алгоритмов и риск «галлюцинаций»
Проблема усугубляется тем, что современные модели ИИ иногда демонстрируют явление, которое специалисты называют галлюцинациями. Это ситуации, когда система формирует уверенный вывод на основе неполных или ошибочных данных.
Ранее ближневосточные СМИ уже сообщали о работе системы Lavender, применяемой Армией обороны Израиля для идентификации целей в секторе Газа. По данным ряда источников, алгоритм мог ошибаться примерно в одном из десяти случаев.
Некоторые израильские офицеры также говорили о том, что выводы системы иногда получали больший приоритет, чем оценки специалистов с многолетним боевым опытом. Это создавало напряжение внутри командных структур и поднимало вопрос о том, где проходит граница между рекомендацией алгоритма и окончательным человеческим решением.
Современная война всё больше зависит от анализа данных и скорости обработки информации. Искусственный интеллект действительно способен повысить эффективность операций и сократить время принятия решений.
Но чем больше полномочий получают алгоритмы, тем серьёзнее становится риск того, что однажды ключевые решения будут приниматься не людьми, а системами, чью логику никто до конца не понимает.

