вологість:
тиск:
вітер:
“Найморальніший” штучний інтелект від Anthropic навчався на книжках без відома авторів
Американські письменники Андреа Барц, Чарльз Гребер та Кірк Воллес Джонсон судяться із Anthropic через авторське право. Розробник навчав свої моделі штучного інтелекту (ШІ) на їхніх книжках без спеціального дозволу. Суд постановив, що легально придбані паперові примірники стартап мав право використовувати, пише The Verge.
Рішення оголосив федеральний суддя Вільям Алсап з Північного округу Каліфорнії. Оскільки в США прецедентне право, інші судді можуть брати цей кейс за основу у схожих провадженнях.
“Скарги авторів нічим не відрізняються від претензій, що школярів навчать гарно писати і це призведе до появи безлічі конкуруючих творів, — зазначив суддя в резолютивній частині справи. — Закон про авторське право покликаний підтримувати оригінальні авторські твори, а не захищати письменників від конкуренції”.
Водночас Вільям Алсап наголосив, що Anthropic має постати перед окремим судом за використання “мільйонів книг з інтернету”. Навіть якщо не всі вони використовувалися, зберігання піратських копій може влетіти стартапу у копійку. Через використання нелегальних бібліотек у навчанні моделей тривають суди й з іншими компаніями. Наприклад, The New York Times судиться з OpenAI через порушення авторських прав.
Anthropic створили вихідці із OpenAI — брат із сестрою Даріо та Даніела Амодей. Даріо Амодей був там раніше віцепрезидентом з досліджень. Даніела в OpenAI була віцепрезиденткою з питань безпеки та політики компанії. Їхній власний стартап, що з’явився у 2020 році, створив лінійку моделей ШІ Claud.
Anthropic позиціонується на ринку як творець етичного і безпечного для людства штучного інтелекту. Саме через різне бачення майбутнього ШІ обоє Амодеїв та ще 11 їхніх колег пішли з OpenAI. Про це писали журнал Time , VentureBeat , Inc .
Для навчання своїх моделей Anthropic створили Constitutional AI — конституцію цінностей для штучного інтелекту. Інші розробники навчають свої моделі за допомогою живих користувачів, які обирають “правильнішу” відповідь. В Anthropic вважають, що так модель вчиться не бути моральною, а підбирати привабливу для користувача відповідь. Натомість Constitutional AI передбачає, що штучний інтелект співставляє свої відповіді із Загальною декларацією прав людини. І в такий спосіб стає більш безпечною та захищеною від когнітивних упереджень.
Як Claud від Anthropic, так і ChatGPT від OpenAI та низку інших популярних моделей люди використовують як помічників у творчості, навчанні та роботі. Водночас, досі тривають дискусії, чи захищені авторським правом об’єкти, якщо вони створені у колаборації із штучним інтелектом. Винахідник Володимир Коноваленко розібрався у цьому питанні у статті “Авторське право: правовий статус об’єктів, згенерованих штучним інтелектом” .

Новини рубріки

В ЄС незабаром зміняться банкомати: що слід знати
26 червня 2025 р. 20:50

Понад 90% українців у російському полоні зазнають катувань
26 червня 2025 р. 20:23

Трамп заперечив, що Іран міг вивезти уран зі своїх ядерних об'єктів перед ударом США
26 червня 2025 р. 20:15