ChatGPT може помилятися частіше, ніж здається — нове дослідження

20 березня 2026 р. 19:16

20 березня 2026 р. 19:16


Чат-бот ChatGPT часто виглядає впевненим, але його відповіді не завжди точні. Дослідження Університету штату Вашингтон показало, що система може давати різні відповіді на однакові запити. Це свідчить про нестабільність роботи алгоритмів і залежність від формулювання питання.

Дослідник Месут Чічек перевірив це, повторюючи ті самі наукові запитання до десяти разів. У результаті ChatGPT іноді змінював відповідь із «правда» на «хиба» без змін у запиті. Лише близько 73% відповідей залишалися стабільно правильними, що вказує на проблеми з послідовністю.

Хоча загальна точність моделі у 2025 році оцінювалась у 80%, після врахування випадкових вгадувань вона знижувалася до приблизно 60%. Особливо слабко система працює з непідтвердженими гіпотезами — у таких випадках вона рідко визначає помилки й часто погоджується з користувачем. Це пояснюється тим, що ШІ прогнозує слова, а не перевіряє факти, через що можуть виникати так звані «галюцинації».

Науковці наголошують: станом на 2026 рік штучний інтелект варто використовувати лише як допоміжний інструмент. Для точних висновків рекомендується перевіряти інформацію в надійних джерелах і порівнювати кілька відповідей. Остаточне рішення має залишатися за людиною, адже ШІ не гарантує повної достовірності.

Також за темою

Кешбек без компромісів: топ-5 цікавих кредитних карток 2026 року

Де у світі запустять найпотужніший ШІ-суперкомп'ютер

Еквайринг для ФОП: коли POS-термінал вигідніший за перекази на рахунок

Чи зможуть смартфони замінити POS-термінали

Банки почали масово вводити плату за неактивні рахунки

ChatGPT може помилятися частіше, ніж здається — нове дослідження

Джерело: finance.ua

Завантажуєм курси валют від minfin.com.ua