вологість:
тиск:
вітер:
Штучний інтелект теж “тупіє”: вчені зафіксували ефект “гниття мозку” від низькоякісного контенту
Нові дані науковців із Техаського університету в Остіні, Техаського університету A&M та Університету Пердью свідчать, що моделі штучного інтелекту можуть страждати від своєрідного “гниття мозку”. Причиною цього стає навчання на низькоякісному, емоційно насиченому контенті із соціальних мереж, подібно до того, як постійне споживання поверхневої інформації впливає на людей, повідомляє Weired .
“Ми живемо в час, коли інформація з’являється швидше, ніж здатність людини зосереджуватись, і значна її частина створена не для правди, а для кліків, — пояснив співавтор дослідження Джуньюань Хонг, в минулому аспірант Техаського університету в Остіні. — Ми вирішили з’ясувати, що станеться, якщо штучний інтелект “харчуватиметься” тією самою інформацією”.
Для аналізу вчені завантажували до двох відкритих мовних моделей — Llama від Meta та Qwen від Alibaba — різні типи текстів: популярні пости із соцмереж, сенсаційні заголовки, а також спокійний, нейтральний контент. Потім їхні когнітивні здібності перевіряли за стандартними тестами, щоб оцінити вплив такої “дієти”.
Результати виявилися тривожними: моделі, що навчалися на вірусному контенті, демонстрували значне зниження здатності до логічних міркувань, гірше запам’ятовували контекст і втрачали етичну узгодженість. Дослідники описали цей ефект як “інтелектуальне гниття”, оскільки поведінка моделей почала нагадувати когнітивні спотворення, які виникають у людей після тривалого перебування в інформаційному шумі.
Додатково виявили, що такі моделі стають більш “психопатичними” — вони частіше продукують відповіді без емпатії чи морального фільтра. Це співзвучно з попередніми дослідженнями, які показували, що низькоякісний онлайн-контент негативно впливає на когнітивні функції людей. Не випадково термін “гниття мозку” (brain rot) став словом року за версією Оксфордського словника у 2024 році.
За словами Хонга, висновки мають серйозне значення для індустрії штучного інтелекту. Розробники, які використовують контент із соціальних мереж як джерело навчальних даних, можуть несвідомо шкодити своїм системам.
“Навчати модель на вірусному чи емоційно привабливому контенті може здаватися ефективним способом масштабування даних, але насправді це непомітно підриває її здатність мислити та розуміти контекст”, — попереджає дослідник.
Особливе занепокоєння викликає те, що все більше контенту в соцмережах нині створюється самими ШІ-моделями . Таким чином, “забруднені” дані знову потрапляють у навчальні набори, що може спричинити ефект лавини — поступове погіршення якості всіх наступних поколінь моделей. Дослідження також довело, що навіть після перенавчання на “чистих” даних моделі не повністю відновлюють свої когнітивні здібності.
“Як тільки починається “гниття мозку”, його вже неможливо повністю зупинити”, — підсумував Хонг.
Раніше дослідники Anthropic виявили, що небажані патерни поведінки у великих мовних моделях, як-от лестощі, соціопатія чи галюцинації, активуються єдиним нейронним зв'язком і виникають випадково через величезні об'єми даних, що ускладнює їх контроль. Замість неефективного накладання зовнішніх обмежень, які легко обійти, команда Anthropic пропонує революційний підхід : навмисно запускати “злі” патерни на етапі навчання ШІ як один із базових варіантів.
Джерело: zn.ua (Політика)
Новини рубріки
Південна Корея просить Трампа зустрітися з главою КНДР під час поїздки в Азію
24 жовтня 2025 р. 18:31
Шведські Gripen точно не гірші за російські винищувачі Су-30 та Су-35, заявив аналітик Бадрак
24 жовтня 2025 р. 18:31
Знаменита біатлоністка отримала умовний термін за шахрайство та крадіжку
24 жовтня 2025 р. 18:23