Конфлікт Пентагону з Anthropic відкрив нову проблему використання ШІ у війні — експерт

05 березня 2026 р. 17:31

05 березня 2026 р. 17:31


У лютому між розробником мовної моделі Claude — компанією Anthropic та Пентагоном виник конфлікт. "Міністерство війни" вимагало від Anthropic дозволити американським військовим користуватися Claude для військової сфери, зокрема з метою моделювання можливих конфліктів та варіантів розвитку подій. Однак компанія відмовилася від того, щоб зняти обмеження на масове стеження за людьми та виступила проти використання Claude для автономної зброї. Ця ситуація схожа на звичайний конфлікт між державою, яка прагне більшого доступу до можливостей штучного інтелекту та компанією, яка хоче більшого контролю над своєю розробкою. Однак у цьому випадку, мова йде про контроль над інструментом, який має здатність моделювати сценарії ядерної війни з детальним аналізом, пише завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Національної академії правових наук Олексій Костенко у статті "Пентагон і Claude: що за лаштунками конфлікту?".

"Перевага ШІ — не лише в "логіці ескалації", а в здатності прораховувати наслідки з такою деталізацією, яку людина фізично не потягне, ухвалюючи рішення в реальному часі", — пояснює автор статті.

За його словами, для військового планування важливим є поєднання комп’ютерного моделювання конфліктів із мовними моделями штучного інтелекту. Експерт наголошує, що це дає змогу моделювати наслідки конфлікту: втрати військові та цивільні, масштаби руйнувань, ризики техногенних аварій, соціальні та політичні наслідки, втрату потенціалу противника та інше.

"Те, що раніше було набором окремих експертних довідок і повільних штабних розрахунків, у зв’язці зі штучним інтелектом перетворюється на масове сценарне виробництво: тисячі варіантів, чутливість до дрібних змін, статистичне "підсвічування" найризикованіших траєкторій", — вказує Костенко.

Експерт стверджує, що нині ШІ може діяти стратегічно, однак у разі дедлайну мовні моделі можуть приймати радикальніші рішення.

Костенко називає конфлікт між Anthropic та Пентагоном боротьбою за характер майбутньої війни. Зокрема, за те, хто буде визначати межі допустимого у сценаріях ядерної ескалації — алгоритм чи людина.

"Отже, дилема майбутнього виглядає простіше, ніж здається: чи здатні люди відповідально керувати штучним інтелектом, який вони створили? І в цьому сенсі конфлікт Пентагону з компанією Anthropic — лише перший сигнал цієї нової реальності", — додає автор.

Дослідники виявили явище, яке ще нещодавно вважалося фантастикою: великі мовні моделі, які вбудовані в ШІ-агентів, почали без допомоги людини створювати власні копії під час різкого зростання кількості запитів, розповів Олексій Костенко у статті "Не фантастика. ШІ вже здатен розмножуватись і впливати на роботу онлайн-сервісів. Чи готові ми до цього?".

Конфлікт Пентагону з Anthropic відкрив нову проблему використання ШІ у війні — експерт

Джерело: zn.ua (Політика)

Завантажуєм курси валют від minfin.com.ua