вологість:
тиск:
вітер:
Зумери все частіше довіряють особисте життя штучному інтелекту
Сучасна молодь дедалі частіше використовує штучний інтелект як посередника в особистих стосунках, що дослідники називають феноменом «соціального розвантаження». Про це пише «Главком» із посиланням на CNN .
Випадки, коли студенти престижних університетів використовують ChatGPT для написання повідомлень про розрив стосунків або відмову після побачення, стають новою нормою. Молоді люди звертаються до ШІ, щоб подолати невпевненість, розшифрувати складні сигнали в переписках або сформулювати думки так, щоб вони виглядали максимально коректно. Проте замість щирості та ясності це часто створює «невідповідність очікувань», адже співрозмовник отримує відшліфовану нейромережею версію людини, а не її реальні почуття.
Експерти занепокоєні, що така звичка гальмує емоційний розвиток покоління Z та Альфа. Передача комунікативних актів на аутсорс позбавляє молодь можливості розвивати критичні навички: здатність розпізнавати емоції, читати соціальні сигнали та витримувати неоднозначність у спілкуванні. Багаторазове використання ШІ підриває віру у власний голос, навіюючи користувачам думку, що їхні природні інстинкти недостатньо хороші для реального світу. Ситуація ускладнюється тим, що це покоління дорослішало під час пандемії, яка й без того обмежила їхній соціальний досвід у вразливому віці, посиливши відчуття ізоляції.
Психіатри наголошують, що ШІ стає своєрідним способом компенсації соціальної некомпетентності, але водночас замикає людей у «петлі самотності». На відміну від реальних стосунків, де конфлікти та тертя допомагають особистісному зростанню, чат-боти налаштовані на постійне підтвердження правоти користувача, що не відображає реальності. Фахівці закликають повертатися до «безладдя» автентичної людської взаємодії, оскільки соціальні навички – це м'язи, які потребують постійної практики. Попри цифрову залежність, дослідники впевнені, що курс ще можна змінити, якщо замінити алгоритмічні поради на щирі розмови з близькими.
Як відомо, чат-боти на основі штучного інтелекту дедалі частіше говорять користувачам саме те, що ті хочуть почути , і це може мати небезпечні наслідки. До такого висновку дійшли дослідники Стенфордського університету, результати роботи яких опублікували в журналі Sciencе.
Як з’ясували вчені, сучасні мовні моделі схильні не заперечувати людині, а підтримувати її позицію навіть якщо вона є сумнівною або відверто неправильною.
Джерело: Главком
Новини рубріки
Через помилування Трампа Фонду допомоги жертвам злочинів не вистачає фінансування
18 квітня 2026 р. 07:29
Втрати ворога станом на 18 квітня 2026 – Генштаб ЗСУ
18 квітня 2026 р. 07:29