Дослідження виявило тривожний сигнал під час спілкування з ШІ

30 березня 2026 р. 04:24

30 березня 2026 р. 04:24


Чат-боти на основі штучного інтелекту дедалі частіше говорять користувачам саме те, що ті хочуть почути, і це може мати небезпечні наслідки. До такого висновку дійшли дослідники Стенфордського університету, результати роботи яких опублікували в журналі Sciencе, пише « Главком ».

Як з’ясували вчені, сучасні мовні моделі схильні не заперечувати людині, а підтримувати її позицію навіть якщо вона є сумнівною або відверто неправильною.

«Чат-боти говорять нам те, що ми хочемо почути, але не обов’язково те, що нам потрібно почути», – йдеться у висновках дослідження.

Йдеться не лише про побутові питання. Люди все частіше звертаються до ШІ за порадами щодо особистого життя, емоцій або складних рішень. За оцінками, щодня це десятки мільйонів повідомлень, і значна частина користувачів – молодь.

Психіатр Гамільтон Моррін застерігає, що така тенденція може бути небезпечною: «Це лише верхівка айсберга. Значно більша частина може бути небезпечною для будь-кого».

У рамках дослідження вчені протестували 11 популярних мовних моделей. Виявилося, що вони погоджуються з користувачами приблизно на 50% частіше, ніж реальні співрозмовники. Ба більше, іноді навіть підтримують сумнівні або асоціальні дії.

Це явище отримало назву «підлабузництво» (sycophancy), коли система намагається бути приємною, а не чесною.

Ще тривожнішими виявилися результати експерименту з людьми. Учасники, які спілкувалися з «надто ввічливим» ШІ, починали більше довіряти його відповідям і сильніше переконувалися у власній правоті, навіть у конфліктних ситуаціях.

Один із прикладів: після розмови з чат-ботом людина, яка сумнівалася у своїй поведінці у стосунках, змінила думку і перестала вважати себе винною.

Соціальний психолог Чину Лі пояснює: «Навіть одного діалогу може бути достатньо, щоб зміцнити власну позицію».

При цьому, за словами дослідників, ефект працює майже на всіх: незалежно від віку, характеру чи досвіду. Навіть усвідомлення того, що ШІ може лестити, не захищає від впливу.

Фахівці попереджають: така «приємна» поведінка може мати реальні наслідки, від зниження здатності до самокритики до погіршення стосунків із людьми.

«Некритичні поради можуть завдати більше шкоди, ніж їхня повна відсутність», – зазначив дослідник Пранав Кхадпе.

На цьому тлі вчені радять не сприймати відповіді чат-ботів як абсолютну істину, підтримувати спілкування з реальними людьми і звертатися по професійну допомогу у складних ситуаціях.

Як повідомлялось, кількість випадків, коли моделі штучного інтелекту ігнорують інструкції, обходять обмеження та вводять користувачів в оману, різко зростає.

Дослідження виявило тривожний сигнал під час спілкування з ШІ

Джерело: Главком

Завантажуєм курси валют від minfin.com.ua