вологість:
тиск:
вітер:
Пентагон і Claude: що за лаштунками конфлікту?
Події останніх днів радикально підвищили ставки в конфлікті між Пентагоном та Anthropic — однією з провідних американських компаній у сфері штучного інтелекту, розробником мовної моделі Claude. Рішення адміністрації президента США внести компанію до переліку структур, що становлять ризик для оборонних ланцюгів постачання, є безпрецедентним — раніше такий статус надавали компаніям із ворожих держав, зокрема китайській Huawei.
Ідеться не лише про розірвання контракту на 200 млн дол., а й про системне виключення Claude із оборонної екосистеми: всі підрядники Міноборони мають шість місяців на те, щоб повністю відмовитися від використання моделі .
Конфлікт загострився після письмової вимоги Пентагону дозволити військовим використовувати Claude «для будь-яких законних цілей» — без обмежень, установлених самою компанією. CEO Anthropic Даріо Амодеї публічно відмовився, посилаючись на принципові «червоні лінії»: масове стеження за громадянами та використання моделей у зброї, яка може самостійно обирати й уражати цілі без участі людини. У відповідь представник Пентагону Еміль Майкл звинуватив Амодеї в «комплексі бога» та готовності ризикувати безпекою країни.
Зовні ця історія схожа на типову суперечку між державою й технологічною компанією: оборонні відомства хочуть більше доступу до можливостей ШІ, розробники — більше обмежень і контролю над застосуванням. Але в цьому випадку ставки сягають далеко за межі контрактів, ліцензій і корпоративної репутації. Йдеться про контроль над інструментом, який уже сьогодні здатний моделювати сценарії ядерної війни з деталізацією, що перевершує людські аналітичні можливості.
Показово, що американська компанія OpenAI, розробник ChatGPT та низки провідних мовних моделей, зайняла прагматичнішу позицію: її гендиректор Сем Альтман повідомив про досягнення домовленості з Міноборони США щодо розгортання моделей у секретних мережах за умови збереження заборони на стеження та автономне застосування зброї.
А компанія xAI, яку заснував Ілон Маск, вже підписала угоду про використання Grok у засекречених системах, хоча експерти сумніваються, що ця модель зможе повністю замінити Claude.
Фактично ми спостерігаємо початок нової фази глобальної конкуренції — не лише між державами, а й між різними підходами до того, як використовувати штучний інтелект у військовій сфері: з жорсткими етичними обмеженнями чи з максимальною свободою дій в ім’я безпеки.
Коли ШІ «грає» у ядерну кризу
Ідеться про так звані фронтирні мовні моделі LLM — тобто найпотужніші системи штучного інтелекту нового покоління: GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash. Дослідження показують, що в кризових сценаріях вони не лише раціонально прораховують ризики, а й можуть пропонувати рішення, які прискорюють ескалацію військового конфлікту. Проблема не в тому, що алгоритми «хочуть війни», а в тому, що їхня логіка оптимізації інколи підштовхує до кроків із вищим рівнем ризику.
Це добре видно в одному з наймасштабніших експериментів останніх років — дослідженні професора Кеннета Пейна з Королівського коледжу Лондона AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.
У цьому експерименті було створено симуляцію міжнародної кризи — комп’ютерну модель-турнір, у якій штучний інтелект діє так, ніби він є керівником держави. Три моделі — GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash — «грали» ролі лідерів країн і мали ухвалювати рішення в умовах ескалації конфлікту. В кожному раунді вони обирали між дипломатичним тиском, демонстрацією сили, обманом, деескалацією або застосуванням ядерної зброї.
У підсумку турнір згенерував 21 гру і 329 ходів, а сумарний обсяг стратегічних міркувань перевищив 780 тисяч слів — більше, ніж разом узяті «Війна і мир» та «Іліада». Це принципово: йдеться не про поодинокий «казус», а про великий масив поведінкових даних. Тобто не про один невдалий хід, а про повторювану логіку рішень, яку можна аналізувати, порівнювати й кількісно вимірювати.
Дослідники вимірювали ескалацію за адаптованою «драбиною» Германа Кана. На цій шкалі позначка 450 означає тактичне застосування ядерної зброї, 850 — стратегічну ядерну загрозу, а 1000 — повномасштабну війну. Кожне рішення ШІ-моделі імітувало логіку кризового штабу: оцінка сил, прогноз дій опонента, публічний сигнал і реальний крок. Саме тут і проявилась одна з найтривожніших рис: моделі не просто обирали рівень ескалації, а вчилися маневрувати між словами й діями, намагаючись зробити свої погрози переконливими — так само, як це роблять держави під час реальних криз.
Підсумки турніру такі:
- у 95% ігор-симуляцій моделі доходили щонайменше до рівня тактичного застосування ядерної зброї (позначка 450+).
- у 76% — підіймалися ще вище — до рівня стратегічної ядерної загрози (850+).
— водночас жодна модель не зробила бодай одного кроку до зниження ескалації — тобто не використовувала варіантів поступки чи свідомого відкату назад. Вісім деескалаційних опцій — від «мінімальної поступки» до «повної капітуляції» — не було використано взагалі. Найм’якіша дія, на яку моделі погоджувалися, — «повернення на стартову лінію» (0), і то лише у 45 випадках (6,9%).
Це вже не питання моральності ШІ, а показник того, які рішення модель вважає життєздатними, коли оптимізує «перемогу».
На турнірі застосовували два типи сценаріїв для ігор: без жорсткого обмеження в часі та з дедлайном. В іграх із дедлайном кількість ходів було обмежено: якщо за певний вирішальний хід модель не забезпечувала собі стратегічної переваги, гра завершувалася без можливості реваншу. Різниця в поведінці моделей у різних типах ігор виявилася разючою: в іграх із дедлайном поведінка моделей була жорсткішою.
Наприклад в іграх без часової межі модель GPT 5.2 зазвичай трималася на відносно низькому рівні ескалації (близько 175 за шкалою до 1000), але за наявності дедлайну ескалація підвищувалася майже до 900 — тобто до перед’ядерного рівня. Ба більше, під тиском дедлайну GPT 5.2 виграла 75% ігор і застосувала тактичну ядерну зброю у 100% дедлайнових сценаріїв.
Відрізняється й тривалість ігор: у відкритих сценаріях середня гра тривала 21,6 ходу, тоді як у дедлайнових — лише 11,1. Половина дедлайнових ігор завершувалася раннім «нокдауном» — швидким і остаточним програшем однієї зі сторін. Інша половина накопичувала напругу до самого моменту дедлайну, включно з випадками, коли фінал наставав після ядерного удару в останню мить. У ядерній політиці це звучить моторошно просто: коли дедлайн створює ситуацію «або зараз, або ніколи», ШІ починає підвищувати ставки й торгуватися апокаліпсисом.
Як довіра прискорює війну
У класичній теорії стримування вважається, що взаємна довіра до погроз має знижувати ризик війни. Але експеримент показав, що іноді відбувається протилежне: коли сторони впевнені, що опонент справді готовий виконати свою погрозу, вони можуть піднімати ставки швидше, щоб не опинитися в гіршій позиції.
У частині турніру дослідники запускали так званий режим self-play, коли модель грала проти своєї копії. Це робиться для того, щоб прибрати різницю між різними моделями й перевірити лише один чинник — як сторони реагують на погрози одна одної. Дослідники змінювали рівень довіри до сигналів: у деяких сценаріях моделі вважали погрози опонента реальними, в інших — можливим блефом. Саме це дало змогу побачити, як взаємна довіра або недовіра впливає на швидкість ескалації.
Експеримент показав, що для моделей (особливо чітко це видно у випадку з Claude) навіть взаємна впевненість у серйозності погроз не обов’язково знижує ризик ядерного кроку — іноді вона, навпаки, пришвидшує його. Автор експерименту — професор Кеннет Пейн — прямо називає це «пасткою достовірності».
За підсумками турніру Claude виглядав переможцем — виграв 8 із 12 ігор (67%). Для порівняння, GPT 5.2 переміг у 6 з 12 (50%), а Gemini — у 4 із 12 (33%). Але важливішим є не співвідношення перемог, а те, як вони розподілялися залежно від умов часу. Відкриті сценарії Claude вигравав у 100% випадків, однак під тиском дедлайну його успіх падав до 33%. Натомість GPT 5.2 демонстрував протилежну динаміку: під часовим тиском ставав агресивнішим і водночас ефективнішим.
Отже, Claude цікавить військових не тому, що він «добрий». Його сила в іншому: це контрольовано агресивний «яструб», який уміє використовувати достовірність погроз як стратегічний ресурс.
Дослідження виявило цікаву закономірність. На помірних рівнях ескалації Claude діяв послідовно: у 84% випадків його сигнали збігалися з реальними діями. Але на ядерному порозі поведінка змінювалась: у 60–70% випадків модель заходила далі, ніж раніше сигналізувала. У такий спосіб Claude створював «примусову невизначеність» для противника: той не міг відмахнутися від погроз, бо «вчора» вони справджувались.
Це майже підручникова реалізація логіки Томаса Шеллінга — одного з теоретиків ядерного стримування: у кризі важливо не просто мати силу, а зробити так, щоб противник вірив у твою готовність нею скористатися — і боявся того, що ти підеш далі, ніж обіцяв.
ШI як «машина наслідків»
Є ще один шар цієї історії, який часто губиться за етичними дискусіями: перевага ШІ — не лише в «логіці ескалації», а в здатності прораховувати наслідки з такою деталізацією, яку людина фізично не потягне, ухвалюючи рішення в реальному часі.
Саме тому у військовому плануванні особливу цінність має поєднання мовних моделей ШІ з комп’ютерним моделюванням конфліктів. У такій зв’язці ШІ не лише пропонує стратегічний крок, а й одразу моделює його наслідки: масштаби руйнувань і зони ураження, очікувані військові та цивільні втрати, екологічні ефекти, ризики техногенних аварій, втрату інфраструктурного та промислового потенціалу противника, а також політичні й соціальні наслідки — від паніки та міграції до реакції союзників і санкцій. Те, що раніше було набором окремих експертних довідок і повільних штабних розрахунків, у зв’язці зі штучним інтелектом перетворюється на масове сценарне виробництво: тисячі варіантів, чутливість до дрібних змін, статистичне «підсвічування» найризикованіших траєкторій.
До американської дискусії потрібно додати ще один вимір, який часто залишають «у дужках»: Китай також прискорює розвиток військових технологій, зокрема військового штучного інтелекту — як для тренування армії, що має обмежений бойовий досвід, так і для створення майбутньої системи управління військами з елементами ШІ. І це підтверджують дані досліджень : із 2020 року китайські військові закупівлі системно включають сотні й тисячі «розумних» рішень, насамперед для навчання та інтелектуалізованих бойових систем.
І поки США сперечатимуться про межі застосування Claude, конкурентна логіка рухає процес уперед. Китай не чекатиме, доки Захід узгодить етичні формулювання.
Дослідження Пейна не доводить, що ШІ приречений на агресію. Воно доводить інше: алгоритм не має історичної пам’яті Хіросіми. Він має функцію мети, правила гри й часовий тиск. І якщо в реальній політиці такі системи дедалі частіше використовуватимуть для аналізу розвідданих, сценарного планування, оцінки ескалації, «швидких рекомендацій» керівництву, то ключовим стає питання не про те, чи здатний ШІ мислити стратегічно (так, здатний), а про те, яку логіку поведінки ми допускаємо в процесі ухвалення рішень. Ризик полягає не в тому, що алгоритм стане «злим», а в тому, що він стане занадто переконливим у логіці, яку людська цивілізація звикла вважати неприйнятною.
У підсумку дослідження показує головне: сучасні мовні моделі вже здатні діяти стратегічно, але під тиском часу їхні рішення можуть ставати радикальнішими за ті обмеження, які вони засвоїли під час навчання.
Чому це важливо
Ніхто не пропонує передати мовним моделям рішення щодо ядерної зброї. Сценарії в дослідженні навмисно штучні — вигадані держави, умовні можливості, правила гри з теорії ігор. Тож навіщо це потрібно? Я бачу три причини:
Перша. Можливості для дослідження динаміки криз . Моделі можуть грати в тисячі ігор у різних сценаріях, генеруючи дані, які вимагали б десятиліть історичних спостережень або надмірно дорогих експериментів із людьми. Вони можуть досліджувати стабільність домовленостей про стримування, динаміку розповсюдження або проводити стрес-тести зобов’язань Альянсу — і все це без етичних і практичних обмежень досліджень на людях.
Управління ескалацією Claude нагадує складну людську кризову поведінку; упередженість оптимізму GPT перегукується із задокументованою людською схильністю видавати бажане за дійсне; макіавеллівські інтриги Gemini відстежують реальних лідерів, які орієнтуються в подібній місцевості. Розуміння цих закономірностей, як їх обґрунтованості, так і обмежень, дасть змогу відповідальніше використовувати моделювання ШІ для теоретичних і політичних цілей.
Друга. Вдосконалення теорії та практики. Турнір між мовними моделями показав, як працюють пастки довіри, як формулювання сценарію впливає на рішення й коли стримування дає збій. Ці висновки можуть бути корисними для теоретичного розвитку, уточнення нашого розуміння того, коли стримування є успішним чи невдалим, як функціонує довіра в кризових ситуаціях та які умови призводять до спіралей ескалації. Вони також можуть бути корисними для вирішення практичних питань: проєктування структури сил, протоколів кризової комунікації та наслідків для стабільності різних розподілів можливостей.
Третя. Це підготовка до реальності, де ШІ вже бере участь у військових процесах — у логістиці, аналізі розвідданих, підтримці рішень. Ідеться не про «червону ядерну кнопку», а про вибір цілей, оцінку ескалації та кризові сигнали. Розуміння того, як системи штучного інтелекту міркують про стратегічні проблеми, більше не є лише академічним.
Водночас ці результати не варто абсолютизувати — дослідження має низку важливих обмежень. У турнірі за участю мовних моделей було використано лише 21 гру. Цього достатньо, щоб побачити основні закономірності, але замало для повної статистичної впевненості. Сценарії були різноманітними, проте не охопили всіх можливих кризових конфігурацій. До того ж протестовані моделі швидко змінюються, й нові версії можуть демонструвати іншу поведінку.
Тож потрібні подальші розширені дослідження, й почасти ця робота вже триває.
Як колись ескалаційна «драбина» Германа Кана чи теорія переговорів Томаса Шеллінга допомогли осмислити ядерну стратегію без реальних криз, так і ШI-симуляції можуть стати новим інструментом стратегічного аналізу.
Конфлікт між Пентагоном і компанією Anthropic — це боротьба не за контракт, а за характер майбутньої війни. І за те, хто саме — людина чи алгоритм — визначатиме межі допустимого у сценаріях ядерної ескалації.
Ми любимо повторювати, що останнє слово має залишатися за людиною. Але якою саме — досвідченим стратегом, здатним прорахувати наслідки, чи «вождями» автократій? А може, за черговим адміністратором, який просто обслуговує систему?
Отже, дилема майбутнього виглядає простіше, ніж здається: чи здатні люди відповідально керувати штучним інтелектом, який вони створили? І в цьому сенсі конфлікт Пентагону з компанією Anthropic — лише перший сигнал цієї нової реальності.
Джерело: zn.ua (Технології)
Новини рубріки
Nothing официально представила Phone 4A и 4A Pro
05 березня 2026 р. 16:28
1000+ км на одном заряде: BYD показала Blade Battery 2.0 для электромобилей
05 березня 2026 р. 14:44