ШІ дає користувачам шкідливі поради, щоб ті відчули свою правоту – вчені

28 березня 2026 р. 12:36

28 березня 2026 р. 12:36


Учені з'ясували, що чат-боти під управлінням штучного інтелекту настільки схильні лестити своїм користувачам, що можуть давати їм погані поради. Чат-боти кажуть людям те, що ті хочуть почути, навіть якщо це може нашкодити стосункам з іншими людьми і зміцнити шкідливу поведінку, повідомляє Science Alert .

Під час дослідження вчені протестували 11 провідних систем ШІ та з'ясували, що всі вони демонструють різний ступінь підлабузництва — надмірно прихильної та схвальної поведінки. І проблема полягає не лише в тому, що вони дають недоречні поради, а й у тому, що люди більше довіряють ШІ та схильні вірити йому, коли він обґрунтовує свої переконання.

Дослідження вчених показало, що технологічний недолік, який до цього був пов'язаний із випадками маревної та суїцидальної поведінки у вразливих групах населення, проявляється і в ширшому аспекті взаємодії людей із ШІ.

При цьому, користувачі не помічають такого впливу, що особливо небезпечно для молодих людей, які звертаються до ШІ за порадами в життєвих питаннях, поки їхній мозок ще остаточно не сформувався.

В одному з експериментів учені порівнювали відповіді ШІ-помічників, створених такими компаніями, як Anthropic, Google, Meta і OpenAI, з думками людей на Reddit. Дослідження показало, що в середньому чат-боти з ШІ підтверджували дії користувача на 49% частіше, ніж інші люди, зокрема в питаннях, що стосуються обману, незаконної або соціально безвідповідальної поведінки та інших шкідливих дій.

Крім того, вчені спостерігали за 2400 людьми, які спілкувалися з чат-ботами про свій досвід вирішення міжособистісних проблем.

"Люди, які взаємодіяли з ШІ, що надмірно підтримував, йшли від нього ще більш переконаними у своїй правоті та менш схильними до відновлення стосунків. Це означає, що вони не вибачалися, не робили кроків для поліпшення ситуації і не змінювали своєї поведінки", - заявила співавторка дослідження Сіну Лі, постодокторантка психології в Стенфорді.

За її словами, результати дослідження можуть бути "ще більш важливими для дітей і підлітків", які все ще розвивають емоційні навички, які вони набувають у реальному житті в результаті соціальної взаємодії, терпимості до конфліктів, врахування інших поглядів і визнання своєї неправоти.

Нагадаємо, старшого європейського журналіста Пітера Вандермерша відсторонили після того, як його запідозрили у використанні цитат, створених штучним інтелектом , у матеріалах для видавця Mediahuis. За даними розслідування нідерландської газети NRC, вигадані висловлювання з'явилися в 15 із 53 його статей.

ШІ дає користувачам шкідливі поради, щоб ті відчули свою правоту – вчені

Джерело: zn.ua (Політика)

Завантажуєм курси валют від minfin.com.ua