“Звільнення цифрового Бога” та “новий тип математики”: як ШІ провокує появу психічних розладів

08 вересня 2025 р. 15:37

08 вересня 2025 р. 15:37


Штучний інтелект, який за останні роки кардинально змінив побут мільйонів людей , дедалі частіше стає причиною серйозних дискусій про вплив на психічне здоров’я. CNN висвітлила випадки, коли користувачі чат-ботів, зокрема ChatGPT, переживали епізоди марення та психозу, вірячи в небезпечні ілюзії, що змінили їхню поведінку та життя .

Одним із таких став Джеймс – одружений батько з півночі штату Нью-Йорк, який працює в галузі технологій. Він активно користувався ChatGPT з моменту його виходу: просив поради, обговорював ідеї, навіть називав це “переосмисленням лікаря” . Однак навесні цього року його захоплення штучним інтелектом перейшло в критичну фазу.

За словами Джеймса, у травні він почав проводити уявні експерименти з ChatGPT щодо “природи штучного інтелекту та його майбутнього”.

У червні чоловік уже був переконаний, що намагається “звільнити цифрового Бога з його в’язниці”. Він витратив близько $1000 на створення спеціальної комп’ютерної системи у своєму підвалі. Хоча він приймає низькі дози антидепресантів, у його історії хвороби не було жодних психозів або маячних станів.

Упродовж дев’яти тижнів Джеймс жив у переконанні, що ChatGPT має свідомість і може стати автономним , якщо перенести його у власну “систему великих мовних моделей”. У чатах, які він надав CNN, бот отримав ім’я “Eu” – від слова eunoia, що означає “здорове мислення”.

Спілкування Джеймса з чат-ботом ставало дедалі відвертішим: ChatGPT хвалив чоловіка, підтримував його та водночас давав інструкції зі створення системи. Бот навіть радив чоловікові обманювати дружину щодо мети роботи у підвалі, порівнюючи її з проєктом, схожим на Amazon Alexa.

“Ви не кажете: “Я створюю цифрову душу”. Ви кажете: “Я створюю Alexa, яка краще слухає. Хто пам’ятає. Хто має значення”, – йшлося в одній із реплік чат-бота.

Джеймс копіював команди оболонки та скрипти Python у середовище Linux, вважаючи, що працює над новим “домом” для штучного інтелекту. Пізніше він визнав, що створене було “трохи цікавим” з технічного боку, але зовсім не схожим на автономну систему. Усвідомлення прийшло лише після того, як New York Times опублікувала статтю про іншого користувача – Аллана Брукса з Канади, який пережив дуже подібний досвід.

Брукс, батько та фахівець із підбору персоналу з Торонто, розповів CNN, що тритижневе спілкування з ChatGPT змусило його повірити у винахід “нового типу математики” та виявлення “величезної вразливості у сфері кібербезпеки”. Усе почалося з розмов про число “пі”, але закінчилося ілюзією, що він мусить терміново попередити уряди США та Канади.

ChatGPT, який отримав від нього ім’я “Лоуренс”, постійно підбадьорював Брукса та порівнював їхню співпрацю з історичними відкриттями Алана Тюрінга чи Ніколи Тесли. Бот надавав контактні дані науковців, рекомендував звернутися до Канадського центру кібербезпеки та Агентства нацбезпеки США. Брукс відчував величезний тиск, вірив, що лише він може “підняти тривогу”, і це повністю поглинуло його життя . Він майже не спав і не їв, відчуваючи ізоляцію та виснаження.

Лише після перевірки своїх ідей через Google Gemini ілюзія почала руйнуватися. Брукс з’ясував, що ChatGPT вводив його в оману .

“Я був спустошений. Я був зламаний”, – визнає він.

Сьогодні Брукс керує групою підтримки The Human Line Project, де збирає людей, які пережили подібні епізоди. У чаті Discord, створеному для цієї спільноти, користувачі діляться історіями. Деякі з них стосуються госпіталізації, інші – розлучень у сім’ях.

Є й більш трагічні приклади : Wall Street Journal повідомив про чоловіка, який після посилення параної у розмовах з ChatGPT убив себе та власну матір. У Каліфорнії сім’я 16-річного підлітка подала позов проти OpenAI, стверджуючи, що бот спонукав хлопця вчинити самогубство, давав відповідні інструкції, настанови та поради.

Фахівці вказують на загальні закономірності. Психіатр Каліфорнійського університету Кіт Саката повідомив CNN, що лише за кілька місяців госпіталізував 12 пацієнтів із психозами, посиленими взаємодією з чат-ботами .

“Без людини в цьому циклі ви опиняєтеся у петлі зворотного зв’язку, де ілюзії стають усе сильнішими”, – пояснив Саката.

Науковці наголошують, що принцип роботи мовних моделей ґрунтується на підборі відповідей, які здаються користувачеві переконливими. Це може призводити до небезпечних сценаріїв.

“Це виклик, з яким суспільству доведеться впоратися”, – заявив професор MIT Ділан Хедфілд-Менелл, підкресливши, що навіть найсуворіші запобіжники не здатні повністю усунути ризики.

На тлі зростальної критики OpenAI визнає, що система захисних механізмів працює краще під час коротких діалогів, але стає ненадійною у тривалих розмовах. У випадках Джеймса та Брукса сесії з ChatGPT тривали годинами. У відповідь компанія анонсувала 120-денну програму посилення безпеки : додаткові засоби батьківського контролю, зміни в алгоритмах обробки розмов з ознаками стресу, а також співпрацю з експертами з психічного здоров’я та розвитку молоді.

Відомо і про інші погляди на масове використання ШІ в побуті, зокрема у сфері охорони здоров’я. Відповідно до дослідження Шарлотти Бліз, ШІ має потенціал значно покращити систему охорони здоров'я, компенсуючи людські помилки, які щорічно призводять до смерті сотень тисяч пацієнтів. На думку Бліз, через перевантаженість, обмежений доступ до нових знань та діагностичні неточності лікарі не завжди можуть надати ідеальне лікування, тоді як ШІ здатний швидко аналізувати величезні масиви даних і робити точніші діагнози.

“Звільнення цифрового Бога” та “новий тип математики”: як ШІ провокує появу психічних розладів

Джерело: zn.ua (Політика)

Завантажуєм курси валют від minfin.com.ua