Чому ChatGPT вигадує відповіді і як це можна виправити: поради експерта

18 жовтня 2025 р. 12:14

18 жовтня 2025 р. 12:14


Поширене уявлення про те, що штучний інтелект "галюцинує", коли видає хибні відповіді, є помилковим. ШІ насправді не вистачає інформації, яку б ви хотіли від нього отримати, пояснив завідувач лабораторії імерсивних технологій і права НАН України, доктор юридичних наук Олексій Костенко в інтерв’ю редакторці відділу освіти й науки ZN.UA Оксані Онищенко.

За його словами, так звані " галюцинації ШІ" є результатом інформаційного голоду щодо певного питання. Костенко наголосив, що кожен запит користувача — це новий досвід, на якому модель навчається. Він радить користувачам, які хочуть отримувати точні відповіді, навчити штучний інтелект правильно працювати.

Експерт розповів, що за пів року "піднатаскав" (вказав як треба та не треба робити) власного ChatGPT до рівня "магістра". Костенко вказав, що ШІ навчився якісно відповідати на запити щодо техніко-юридичної та загальної тематики.

"А також створити вашу власну базу даних — я під свої запити завантажував статті з відомих наукових ресурсів. У підсумку якщо я в своїй сфері ставлю питання ChatGPT, він оперує передусім тією базою знань, яку я йому зібрав. А потім іде в інтернет і за аналогією вже більш спрямовано знаходить необхідні токени — розширену інформацію, яка буде професійнішою, ніж та, яку він видавав мені на початку навчання", — пояснив науковець.

Костенко заявив, що поточне покоління ШІ не має емпатії чи здатності відрізняти "погане" від "хорошого", однак можливо навчити його працювати лише з перевіреними джерелами.

Чому ChatGPT вигадує відповіді і як це можна виправити: поради експерта

Джерело: zn.ua (Технології)