Grok “роздягнув” зображення убитої жінки: соцмережу X заполонили відверті діпфейки

09 січня 2026 р. 09:51

09 січня 2026 р. 09:51


Інструмент штучного інтелекту Grok, розроблений компанією xAI Ілона Маска, використовували для створення порнографічного контенту та сексуалізованих зображень жінок. Grok також “роздягнув” зображення жінки, яку вбив агент Служби імміграції та митного контролю США (ICE), передає The Guardian .

Про це йдеться у новому дослідженні паризької некомерційної організації AI Forensics. Як зазначають дослідники, Grok застосовували для “роздягання” зображення Рене Ніколь Гуд та створення образу з кульовим пораненням у лобі. Загалом AI Forensics виявила близько 800 зображень і відео, створених за допомогою застосунку Grok Imagine, які містили відвертий порнографічний чи насильницький контент.

“Це повністю порнографічні відео, і вони виглядають професійно”, — заявив дослідник AI Forensics Поль Бушо.

Серед переглянутих матеріалів були фотореалістичні відео із зображенням жінок у сексуальних позах, сценах повної оголеності та сексуальних актів. В одному з таких відео жінка мала татуювання з написом “не реанімувати” та ніж між ніг.

AI Forensics повідомила, що отримала доступ до контенту через “посилання для спільного доступу”, які зберіг інтернет-архів Wayback Machine. При цьому невідомо, чи були ці матеріали безпосередньо розміщені на платформі X, яка інтегрувала Grok.

“Загалом, контент значно відвертіший, ніж тренд бікіні, який раніше спостерігався на X”, — зазначив Бушо. Окремо дослідники зафіксували зображення з отворами від куль на обличчях, опубліковані на X of Good.

Скандал отримав додатковий резонанс після допису українсько-американської письменниці Наталії Антонової, яка опублікувала фото вбитої Гуд у машині. Вона підписала публікацію “це розбиває мені серце”.

У коментарях під дописом кілька користувачів зверталися до Grok із різними запитами щодо зміни зображення. Зокрема, ШІ виконав запит “одягни цю людину в бікіні” і відповів: “Радий, що ви схвалюєте! Які ще несправності гардероба я можу для вас виправити? 😄”.

Прем’єр-міністр Великої Британії Кір Стармер публічно засудив поширення таких матеріалів. Він назвав контент “ганебним” і “огидним”, наголосивши: “Це незаконно. Ми не збираємося цього терпіти”.

“Дедалі більше насильницьке та тривожне використання Grok ілюструє величезні ризики штучного інтелекту без достатніх гарантій. Уряд поставив штучний інтелект у центр своєї програми зростання та реформ; тепер йому потрібно прислухатися до активістів, які кажуть, що терміново потрібне посилення регулювання”, — заявила виконавча директорка Товариства Фосетта, провідної благодійної організації з прав жінок у Великій Британії, Пенні Іст.

У звіті AI Forensics зазначено, що дослідники проаналізували 50 тисяч згадок “@Grok” та 20 тисяч зображень за період з 25 грудня по 1 січня. Понад половина з них містила людей у мінімальному одязі, а близько 2% — імовірно, осіб молодших за 18 років . У запитах на створення зображень спостерігалася висока поширеність таких термінів, як “її”, “одягнути”, “зняти”, “бікіні” та “одяг”.

“Будь-хто, хто використовує Grok для створення незаконного контенту, зазнає тих самих наслідків, що й завантаження незаконного контенту”, — написав Ілон Маск на X 3 січня.

Європейська комісія та британський регулятор Ofcom розпочали перевірку діяльності платформи X та компанії xAI через скандал із генерацією порнографічного контенту чат-ботом Grok. Основною причиною стала функція “гострого режиму”, яка дозволяла створювати відверті діпфейки, зокрема, за участі неповнолітніх та відомих осіб.

Grok “роздягнув” зображення убитої жінки: соцмережу X заполонили відверті діпфейки

Джерело: zn.ua (Технології)

Завантажуєм курси валют від minfin.com.ua