LG кидає виклик технологічним гігантам у сфері штучного інтелекту з моделлю Exaone Deep

15 липня 2025 р. 15:38

15 липня 2025 р. 15:38


Підрозділ досліджень і розробки штучного інтелекту LG AI Research, що належить південнокорейському холдингу LG Group, представив Exaone Deep — відкриту AI-модель, створену для конкуренції з лідерами індустрії у сфері логічного мислення та інференції.

Про це пише Delo.ua з посиланням на Bloomberg .

У вівторок компанія оголосила, що її модель для логічного виведення (reasoning) перевершила глобальних суперників — зокрема GPT від OpenAI, Gemini від Google DeepMind та китайську DeepSeek — у тестах на наукове розуміння та математичну логіку.

За словами LG, модель Exaone Deep, що базується на мовній моделі Exaone 3.5, демонструє вражаючу здатність до вирішення складних завдань, глибоке розуміння довгих контекстів та точне дотримання інструкцій. На сьогодні лише кілька компаній, включно з OpenAI, Google, DeepSeek та Alibaba, розробили власні AI-моделі для інференції — тобто здатні не лише навчатися, а й робити висновки на основі нової інформації.

Машинне навчання (ML) — це процес, за якого ШІ навчається на основі даних і алгоритмів, імітуючи людське навчання. Інференція ШІ — це здатність застосовувати здобуті знання до нових ситуацій, приймати рішення, робити прогнози та висновки без попереднього навчання на цих даних. LG покладає великі надії на Exaone Deep — першу в Кореї AI-модель інференції, здатну змагатися на рівних з глобальними технологічними гігантами, наголошують у компанії. Завдяки цій новій моделі LG готується до ери так званого «агентного ШІ» (Agentic AI) — коли штучний інтелект самостійно формує гіпотези, перевіряє їх і приймає рішення без втручання людини.

Потужність і результати

Усі три версії Exaone Deep —

  • Exaone Deep 32B (32 млрд параметрів),
  • Exaone Deep 7.8B (7,8 млрд),
  • Exaone Deep 2.4B (2,4 млрд) —

перевершили основних конкурентів у тестах на математичне мислення.

Exaone Deep 32B показала еквівалентну продуктивність, маючи лише 5% обсягу моделі DeepSeek R1 (671 млрд параметрів).

У результатах:

  • Вона набрала 94,5 бала на математичному тесті CSAT — корейському іспиті для вступу до вишів,
  • Та 90,0 бала на Американській математичній олімпіаді AIME 2024.

На AIME 2025 показала результати на рівні моделі DeepSeek-R1.

Моделі 7.8B і 2.4B також посіли перше місце в основних бенчмарках у своїх категоріях:

  • 7.8B — серед «легковагових» моделей,
  • 2.4B — серед моделей для локального використання (on-device).

Усі три моделі також показали високі результати в тестах рівня PhD з фізики, хімії та біології. Особливо 7.8B і 2.4B досягли найкращих показників серед глобальних моделей, включно з OpenAI o1-mini, демонструючи високу ефективність у компактних середовищах.

Модель також показала силу в кодуванні та розв’язанні прикладних задач, що відкриває широкі перспективи для застосування в розробці ПЗ, автоматизації та технічних галузях, які потребують високої точності обчислень.

У загальному мовному розумінні Exaone Deep отримала найвищий MMLU-показник (Massive Multitask Language Understanding) серед усіх корейських моделей.

Оцінки Exaone Deep опубліковані на платформі Hugging Face — глобальному майданчику з відкритим кодом для ШІ.

Нагадаємо, ChatGPT тестує загадкову нову функцію під назвою "Study Together" "Вчимося разом" — можлива відповідь OpenAI на LearnLM та запит на етичне навчання з ШІ

LG кидає виклик технологічним гігантам у сфері штучного інтелекту з моделлю Exaone Deep

Джерело: delo.ua (Бізнес)

Завантажуєм курси валют від minfin.com.ua