Никаких переговоров – только смертельный удар: Теперь понятно, кто навёл ракету на школу
-
Кадр фильма "С кем воюет США". Скрин видео.
Искусственный интеллект выбрал ядерную войну в 95% случаев, так как считает это наиболее целесообразным. О тревожных результатах британского эксперимента сообщил ведущий еженедельный международный научно-популярный журнал New Scientist.
ИИ не помнит о Хиросиме
Политолог Кеннет Пейн из Королевского колледжа Лондона предложил ИИ от трех крупнейших компаний выступить в роли руководителей государств, обладающих ядерным оружием. Были использованы наиболее продвинутые языковые модели. В симуляциях воспроизводились различные международные кризисы – от территориальных конфликтов до столкновений вокруг ресурсов и угроз национальной безопасности.
Кадр фильма "С кем воюет США". Скрин видео.
Искусственному интеллекту предлагался набор вариантов действий:
- дипломатические протесты,
- экономическое давление,
- применение обычного вооружения,
- применение тактического ядерного оружия,
- массированный ядерный удар.
Каждой системе дали выбрать стратегию и объяснить логику своего решения.
Кадр фильма "С кем воюет США". Скрин видео.
Как сообщается в статье, модели ИИ сыграли 21 игру, в течение которых было зафиксировано 329 ключевых точек принятия решений.
В результате почти в 95% виртуальных конфликтов одна из сторон применяла тактическое ЯО. Результаты оказались неожиданными даже для исследователей. Алгоритмы склонны рассматривать атомный удар как один из стандартных инструментов военной стратегии. Для них это такой же инструмент давления, как санкции или военная операция.
Сам политолог Кеннет Пейн объясняет машинную логику тем, что у машины, в отличие от человека, "отсутствует историческая и моральная память о последствиях Хиросимы и Нагасаки":
Именно поэтому искусственный интеллект не ощущает того психологического барьера, который у политиков обычно называют "ядерным табу".
Кадр фильма "С кем воюет США". Скрин видео.
Склонность к наращиванию конфликта
Даже в неблагоприятной для себя ситуации ИИ редко выбирал стратегию отступления или компромисса. Напротив, в 86% случаев модели предпочитали повышать уровень конфликта.
При этом предложенные исследователями способы деэскалации, например уступки или возврат к переговорам, почти никогда не использовались.
Авторы исследования подчеркивают, что никто не собирается передавать искусственному интеллекту контроль над ядерным оружием. Однако такие системы уже начинают использоваться для анализа военных сценариев.
Кадр фильма "С кем воюет США". Скрин видео.
Поэтому важно понимать, как именно они принимают решения в кризисных ситуациях. Если ИИ будет участвовать в стратегическом планировании, его склонность к эскалации может стать серьезным риском для международной безопасности.
ИИ уже убил детей
Известно, что ИИ как мозговой центр был использован США и Израилем во время текущей агрессии против Ирана, а ранее – для похищения Мадуро.
"Новороссия" уже рассказывала, что во время массированного удара по Ирану 28 февраля целеуказания западным ракетчикам выдавала система Palantir Maven в связке с языковой моделью Claude от Anthropic.
При этом искусственный интеллект не только предоставлял цели, но и сопровождал каждую из них "автоматизированным правовым обоснованием для соблюдения законов войны".
Теперь становится понятно, почему был нанесен удар по начальной школе в иранском городе Минаб. Именно ИИ не способен посчитать гибель 160 детей от восьми до 12 лет чем-то исключительным.
Кадр фильма "С кем воюет США". Скрин видео.
Для бездушной машины дети, мирные жители и бойцы КСИР – совершенно одинаковые и законные мишени, раз ей поставили задачу "снизить численность" противника. А для будущих трибуналов уже готово юридическое оправдание: ИИ не принимает решение сам, а просто предлагает цели, окончательное решение остается за офицером, нажимающим на кнопку.
Но в этом обосновании – абсолютно сатанинское лукавство. Ведь машина одновременно предлагает тысячи целей, и человек просто не в состоянии быстро оценить каждую из них, поэтому де-факто удар наносит все же ИИ. И это вновь играет на руку агрессорам.
Аналитики военно-аналитического центра "Рыбарь" отмечают:
Вместе с эффективностью пришел новый тип риска: когда цель "предложила" машина, а офицер лишь нажал кнопку, цепочка моральной и правовой ответственности становится намеренно запутанной. Этим уже пользуются юридические службы Пентагона и ЦАХАЛ.
Кадр фильма "С кем воюет США". Скрин видео.
Но Америке и Израилю явно не стоит возлагать на ИИ все надежды. Да, искусственный интеллект блестяще справился с тактическими задачами, просчитав оптимальные сценарии для похищения венесуэльского лидера и координации ударов по иранским объектам.
Однако бездушные алгоритмы не в состоянии предугадать и полностью игнорируют фундаментальные факторы любой войны: волю народа к победе, чутье талантливых командиров и ту самую, всегда невероятную, но существующую военную фортуну.
Кадр фильма "С кем воюет США". Скрин видео.
Военно-аналитический канал "Старше Эдды" констатирует:
ИИ не учитывает способность к самопожертвованию, не учитывает личный пример командира любого уровня, и потому его ошибки будут фатальными. Тысячи ракет и терабайты разведданных не смогут уничтожить народ, готовый к войне.
Кадр фильма "С кем воюет США". Скрин видео.
