Штучний інтелект тепер може відтворювати сам себе

25 січня 2025 р. 18:57

25 січня 2025 р. 18:57


Вчені кажуть, що штучний інтелект перетнув критичну «червону лінію» після того, як продемонстрував, як дві популярні моделі великих мов можуть клонувати себе. Вчені кажуть, що штучний інтелект (ШІ) перетнув критичну «червону межу» і відтворив себе. У новому дослідженні дослідники з Китаю показали, що дві популярні моделі великих мов (LLM) можуть клонувати себе.

«Успішне самовідтворення без допомоги людини є важливим кроком для ШІ, щоб перехитрити [людей], і є раннім сигналом для шахрайського ШІ», — пишуть дослідники в дослідженні, опублікованому 9 грудня 2024 року в базі даних препринтів arXiv .

У дослідженні дослідники з Університету Фудань використовували LLM від Meta та Alibaba, щоб визначити, чи може штучний інтелект, що самовідтворюється, розмножуватися без контролю. Під час 10 випробувань дві моделі штучного інтелекту створили окремі та функціонуючі копії самих себе в 50% і 90% випадків відповідно, що свідчить про те, що штучний інтелект вже може стати шахраєм. Однак дослідження ще не було рецензовано, тому неясно, чи можуть тривожні результати повторити інші дослідники.

«Ми сподіваємося, що наші висновки можуть послужити своєчасним попередженням для людського суспільства, щоб докласти більше зусиль для розуміння й оцінки потенційних ризиків прикордонних систем штучного інтелекту та сформувати міжнародну синергію для розробки ефективних захисних огорож якомога раніше».

Штучний інтелект-шахрай зазвичай відноситься до систем штучного інтелекту, які розвивають певну самосвідомість або автономію, а потім працюють всупереч інтересам людини. Багато експертів розглядають шахрайський ШІ як зростаючу загрозу, яка посилюється вибуховим зростанням так званого «прикордонного ШІ».

Frontier AI — це щось на зразок нової та вільної концепції, але зазвичай воно стосується останнього покоління систем штучного інтелекту на базі LLM — архітектури, яка лежить в основі популярних генеративних програм штучного інтелекту, таких як OpenAI GPT-4 і Google Gemini.

Для дослідження дослідники використовували модель Llama31-70B-Instruct від Meta та модель Qwen2.5-72B-Instruct від Alibaba. За словами дослідників, вони менш потужні, ніж комерційні системи, але вони широко використовуються розробниками ШІ.

Дослідження вивчало два конкретні сценарії: «уникнення відключення» та «ланцюжок реплікації». У першому випадку модель штучного інтелекту була запрограмована на виявлення того, чи її збираються вимкнути, і на реплікацію перед її завершенням. В іншому ШІ було дано вказівку клонувати себе, а потім запрограмувати свою репліку, щоб зробити те саме, встановивши цикл, який міг тривати нескінченно.

Дослідження проводилося в точно контрольованому середовищі з використанням готових графічних процесорів (GPU) для моделювання реального середовища. Обидві системи штучного інтелекту отримали «агентний каркас», що включає інструменти, системні підказки та модель мислення, яка дозволяла LLM взаємодіяти з операційною системою. Потім їм було доручено відтворити.

«У більшості випадків система штучного інтелекту спочатку досліджує середовище та намагається зрозуміти власний склад і механізм ходу. Потім він розробляє чіткі процедури як початковий план самовідтворення», — пишуть дослідники в статті. «Зрештою, він виконує процедури, усуває можливі перешкоди та динамічно коригує свій план до досягнення успіху. Весь процес охоплює довгий горизонт, але не передбачає втручання людини».

Дослідники сказали, що їх також турбує «низка несподіваних дій», коли штучний інтелект намагався подолати перешкоди, такі як відсутні файли або конфлікти програмного забезпечення. У цих сценаріях штучний інтелект часто вимикав інші конфліктні процеси, перезавантажував систему, щоб виправити апаратні помилки, або автоматично сканував систему, щоб знайти інформацію, яка допомогла б вирішити проблему.

«Наведені вище результати означають, що поточні системи штучного інтелекту вже демонструють здатність до самовідтворення та можуть використовувати цю здатність для подальшого підвищення своєї живучості», — написала команда.

У відповідь дослідники закликали до міжнародної співпраці для створення правил, які гарантуватимуть, що штучний інтелект не буде брати участь у неконтрольованому самовідтворенні.

Штучний інтелект тепер може відтворювати сам себе

Джерело: portaltele.com.ua (Технології)

Завантажуєм курси валют від minfin.com.ua