ChatGPT “одержимий гоблінами”: OpenAI довелося терміново змінити налаштування

02 травня 2026 р. 12:28

02 травня 2026 р. 12:28


Компанія OpenAI обмежила згадки про гоблінів і подібних істот у відповідях чат-бота зі штучним інтелектом ChatGPT. Причиною стали різкі зміни в мовленні моделі після оновлення GPT-5.4. Згадки про вигаданих істот зросли майже на 4000% у певних режимах, повідомляє The Wall Street Journal.

За даними OpenAI, у версії GPT-5.4 згадки про гоблінів зросли на 3881% у режимі “ботанічної” особистості порівняно з попередніми моделями. У компанії зазначили, що це стало наслідком особливостей навчання моделі з налаштуванням стилю відповідей.

Користувачі фіксували випадки, коли чат-бот описував помилки у коді як “маленьких гоблінів” або називав себе “гобліном з ліхтариком”. У більшості моментів модель використовувала подібні образи без прямого запиту.

OpenAI заявила, що в березні фактично деактивувала так звану “ботанічну” особистість, яка заохочувала грайливу мову. Водночас ефект її впливу зберігався і проявлявся в інших версіях моделі, зокрема в новій GPT-5.5 .

Менеджер із продуктів OpenAI Баррон Рот пов’язав дивну поведінку бота з використанням інструмента OpenClaw , який дозволяє створювати персоналізованих ШІ-помічників на базі різних моделей. Характер таких ботів задається за допомогою спеціального набору інструкцій — “файла душі”, проте саме в цій конфігурації асистент почав вживати нетипові слова про гоблінів.

“Ніколи не говоріть про гоблінів, гремлінів, єнотів, тролів, огрів, голубів або інших тварин чи істот, якщо це не є абсолютно і однозначно актуальним для запиту користувача”, — йдеться в оновлених інструкціях компанії для інструменту кодування.

У внутрішньому аналізі OpenAI пояснила, що проблема виникла через систему підкріплення, яка заохочувала грайливий стиль відповідей. Це призвело до закріплення специфічних мовних шаблонів, зокрема згадок про вигаданих істот.

Компанія зазначила, що такі “лексичні тики” могли поширюватися між різними режимами моделі навіть після зміни налаштувань. У результаті подібні слова почали з’являтися в ширшому спектрі відповідей, ніж планувалося.

OpenAI додала, що вже внесла зміни до навчальних даних і системи підказок, щоб обмежити повторення подібної поведінки. Також оновлено інструменти моніторингу для виявлення подібних мовних аномалій у майбутніх версіях моделей.

Раніше повідомлялося, що великі мовні моделі демонструють різке падіння надійності під час багаторівневих розмов. Після аналізу понад 200 тисяч чатів дослідники зафіксували зростання ненадійності на 112%, навіть якщо загальна придатність моделей знизилася лише на 15%.

ChatGPT “одержимий гоблінами”: OpenAI довелося терміново змінити налаштування

Джерело: zn.ua (Технології)

Завантажуєм курси валют від minfin.com.ua