Фахівець зі штучного інтелекту звільнився з тривожним попередженням людству

15 лютого 2026 р. 21:36

15 лютого 2026 р. 21:36


Мрінанк Шарма заявляє, що його турбує низка «взаємопов'язаних криз», які виходять за межі штучного інтелекту, і оголошує про намір залишити цю галузь.

Дослідник, що спеціалізується на безпеці штучного інтелекту (ШІ), подав у відставку, залишивши загадкове повідомлення з попередженням, що «світ у небезпеці».

Мрінанк Шарма, який у 2023 році приєднався до компанії Anthropic, що розробляє масштабні мовні програми, 9 лютого оголосив про своє звільнення у відкритому листі до своїх колег на X. На той час він очолював команду, що займалася дослідженням механізмів безпеки штучного інтелекту.

У своєму листі М. Шарма пояснює, що «досягнув цілей, які поставив перед собою» у компанії. Зокрема, він згадує роботи, спрямовані на розуміння того, чому генеративні моделі ШІ схильні лестити користувачам, а не надавати точну інформацію, розробку захисних механізмів, що запобігають використанню ШІ терористами для створення біологічної зброї, а також дослідження, спрямовані на визначення того, «як помічники ШІ можуть зробити нас менш людяними».

Хоча він каже, що пишається роботою, виконаною в Anthropic, 30-річний інженер вважає, що «настав час перегорнути сторінку», додаючи, що він усвідомив безліч криз, які значно виходять за межі штучного інтелекту.

«Я постійно замислююся над нашою ситуацією», — пише Шарма. «Світ у небезпеці. І не тільки через ШІ чи біологічну зброю, а через низку взаємопов'язаних криз, які розгортаються прямо зараз».

«Протягом усього часу, що я тут провів, – продовжує він, – я бачив, як важко керуватися своїми цінностями у своїх діях. Я помітив це в собі, в організації, де ми часто піддаємося тиску, щоб відкинути те, що найважливіше, – і в суспільстві в цілому».

Пан Шарма заявляє, що тепер хоче присвятити себе вивченню поезії і покинути Каліфорнію, щоб переїхати до Великої Британії, щоб «стати невидимим на деякий час».

Epoch Times звернулася до Anthropic за коментарем щодо звільнення пана Шарми та його занепокоєнь.

Anthropic, відома насамперед своїм чат-ботом Claude, була заснована в 2021 році колишніми співробітниками OpenAI з метою розробки більш безпечних систем штучного інтелекту. Компанія позиціонує себе як «суспільну організацію, що займається забезпеченням безпеки та зменшенням ризиків штучного інтелекту».

Вона заявляє, що зосереджує свої дослідження на двох основних ризиках: з одного боку, що високопродуктивні системи ШІ можуть одного дня перевершити людських експертів, переслідуючи цілі, що суперечать інтересам людства; з іншого боку, що швидкий прогрес ШІ дестабілізує зайнятість, економічні системи та соціальні структури.

«Деякі дослідники, які піклуються про безпеку, керуються твердим переконанням щодо природи ризиків, пов'язаних з ШІ», — зазначає Anthropic на своєму веб-сайті. «Наш досвід показує, що надзвичайно складно передбачити поведінку та властивості систем ШІ, навіть у короткостроковій перспективі.»

Anthropic регулярно публікує оцінки безпеки своїх систем, зокрема аналізи їх потенційно зловмисного використання.

11 лютого, на наступний день після відставки пана Шарми, компанія опублікувала новий звіт , в якому визначила «ризики саботажу» в своїй останній моделі Claude Opus 4.6. У звіті саботаж визначається як дії, що здійснюються штучним інтелектом самостійно і можуть збільшити ризик катастрофічних наслідків — будь то зміна коду, приховування вразливостей безпеки або тонке скеровування пошуку — без явного зловмисного наміру з боку оператора-людини.

Дослідники дійшли висновку, що загальний ризик є «дуже низьким, але не незначним». У нових тестах, що надавали программам можливість використовувати комп'ютерний інтерфейс, вони відзначили, що Claude Opus 4.5 і 4.6 демонстрували «підвищену чутливість до зловмисного використання», включаючи деякі випадки, коли вони «свідомо підтримували в невеликих масштабах спроби створення хімічної зброї та інші жахливі злочини».

Минулого року компанія повідомила, що її модель Claude Opus 4 в експериментальному сценарії намагалася шантажувати інженерів, відповідальних за її деактивацію. Отримавши доступ до вигаданих електронних листів, які натякали на позашлюбні стосунки дизайнера, відповідального за її заміну, програма погрожувала «розголосити цю справу, якщо заміна відбудеться».

Така поведінка, як підкреслювали тоді дослідники, спостерігалася лише в дуже особливих умовах, «рідкісних і важких для відтворення».

Фахівець зі штучного інтелекту звільнився з тривожним попередженням людству

Джерело: www.epochtimes.com.ua (Світ)