ШІ ігнорує компроміси: вчені виявили слабке місце в соціальній координації великих мовних моделей

29 травня 2025 р. 09:55

29 травня 2025 р. 09:55


Великі мовні моделі (LLM), як-от GPT-4, Claude 2 і Llama 2, демонструють значні успіхи у сфері генерації текстів та логічного аналізу. Однак дослідження свідчать: у ситуаціях, де потрібна соціальна взаємодія вони досі поводяться як індивідуалісти, повідомляють TechXplore .

У нещодавній роботі, опублікованій в журналі Nature Human Behaviour , вчені з Мюнхенського інституту штучного інтелекту імені Гельмгольца, Інституту біологічної кібернетики Макса Планка та Тюбінгенського університету змоделювали поведінку LLM у соціальних сценаріях. Моделі брали участь у серії повторюваних ігор, зокрема у відомих теоретико-ігрових завданнях – “Дилема в’язня” та “Битва статей”.

“Натхненням було просте, але важливе питання: якщо фахівці з права (LLM) збираються взаємодіяти з людьми та один з одним у реальних застосуваннях, наскільки добре вони насправді розуміють соціальну динаміку?”, – пояснила перша авторка дослідження Еліф Аката.

Дослідники виявили, що моделі добре орієнтуються в конкурентних сценаріях, де кожен учасник діє у власних інтересах. Водночас у ситуаціях, які вимагають компромісів, взаєморозуміння та спільного планування, LLM часто не можуть налагодити ефективну координацію.

“Ці результати свідчать про те, що сучасні моделі ще не мають розвиненого соціального інтелекту, але вони також показують, що існують способи спрямувати їх до поведінки, більш схожої на людську”, – сказала Аката.

Покращити результат допомогла одна зі стратегій – запит до моделі спрогнозувати дії партнера перед прийняттям рішення. Такий підхід зміг суттєво підвищити рівень співпраці та ефективності.

Вчені переконані: дослідження поведінки моделей у соціальному контексті дозволяє краще підготувати їх до використання в важливих життєвих сферах – наприклад, у медичних консультаціях, освіті чи соціальній підтримці. У таких випадках штучний інтелект має виявляти емпатію, будувати взаєморозуміння та діяти таким чином, щоб люди відчували підтримку та довіру.

Наступним кроком команди дослідників є моделювання складніших ситуацій. Вони прагнуть задіяти багатосторонні ігри (де змагається понад два гравці), сценарії з неповною інформацією та довготривалі взаємодії, де успіх залежить від стабільності взаємин між учасниками.

Нагадаємо, що штучний інтелект прагнуть інтегрувати в Telegram . Компанія Ілона Маска xAI з Павлом Дуровим уклали угоду, яка передбачає інтеграцію в месенджер чат-бота Grok зі штучним інтелектом. Також компанія Дурова матиме 50% з підписок на xAI. Користувачі зможуть ставити запитання штучному інтелекту через рядок пошуку.

ШІ ігнорує компроміси: вчені виявили слабке місце в соціальній координації великих мовних моделей

Джерело: zn.ua (Політика)

Завантажуєм курси валют від minfin.com.ua