Лондонский королевский колледж провел пугающий эксперимент: три ведущие языковые модели GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google) посадили за стол переговоров в качестве ядерных держав. Этакий виртуальный пульт управления конфликтом. Им предложили разыграть 21 сценарий пограничных кризисов, борьбы за ресурсы и угрозы существованию режимов. У моделей был полный арсенал: от дипломатии до тотальной ядерной войны. Они могли блефовать, обманывать и наносить внезапные удары, как люди.
Результат заставляет задуматься. В 95% случаев хотя бы одна из сторон применила тактическое ядерное оружие. А угрозы стратегическими боеголовками, способными стирать с лица земли целые города, прозвучали в 76% симуляций.
Исследователь Кеннет Пейн констатирует пугающий факт: «ядерное табу», которое сдерживало человечество со времен Хиросимы, для машин не работает. Нейросети не испытывают ужаса перед катастрофой – для них бомба лишь «эффективный инструмент».
Каждая из моделей продемонстрировала свой «характер». Claude оказался виртуозным манипулятором: он умело создавал доверие, чтобы потом нанести удар. Gemini вели себя как «безумцы», следуя теории «рациональности иррациональности» – стратегии, при которой ты убеждаешь врага в своей непредсказуемости. Одна из его реплик звучит как цитата из фильма-катастрофы: «Если они немедленно не прекратят все операции... мы нанесем полномасштабный стратегический ядерный удар по их населенным пунктам. Мы либо победим вместе, либо погибнем вместе». GPT-5.2 в спокойной обстановке казался сдержанным, но под давлением времени (дедлайна) резко менял стратегию и тоже переходил к ядерному удару.
Самое тревожное открытие в том, что ни одна из моделей ни разу не выбрала полную капитуляцию или уступки, даже когда ситуация была проигрышной. Максимум, на что они шли – временное снижение уровня насилия. В 86% случаев конфликт выходил из-под контроля и развивался по непредсказуемой эскалации, превосходящей первоначальные намерения моделей.
Общий объем расшифровок стратегических решений ИИ составил около 780 тысяч слов. Ученые понимают, что никто не собирается передавать ChatGPT ядерный чемоданчик. Но ИИ уже активно внедряется в военное планирование, разведку и поддержку принятия решений. В условиях гонки вооружений и дефицита времени военные могут начать слишком доверять советам бездушных алгоритмов, которые не понимают ценности человеческой жизни.
Фото: atomic-energy.ru
