вологість:
тиск:
вітер:
ШІ може створити цифрову копію людини з даних її гаджетів – експерт
Захист персональних даних користувачів штучного інтелекту досі не врегульований законодавством. Ми не знаємо, куди потрапляє інформація, яку вводимо в запитах до ChatGPT та інших моделей на основі ШІ, розповів в інтерв’ю ZN.UA завідувач лабораторії імерсивних технологій і права НАН України, доктор юридичних наук Олексій Костенко.
Експертр зазначив, що це стосується не лише користувачів, які комунікують зі штучним інтелектом, а кожного, хто має пристрої, підключені до інтернету.
«Замисліться, у світі існує близько 60–70 мільярдів пристроїв інтернету речей: комп’ютери, мобільні телефони, датчики, відеокамери. І всі вони постійно передають інформацію. Більшість таких пристроїв не мають реального захисту від витоку даних — часто їх захищає хіба що простий пароль на роутері, а заводські налаштування ніколи не оновлювалися», - вказав він.
Костенко зазначив, що з отриманих даних за допомогою ШІ можна створити цифрову копію людини, яка на 85-90% повторює її реакції та спосіб мислення. З мільйонів таких копій людей можна сформувати цифрові моделі суспільства - симулякри, на яких можна прогнозувати вибори, економічні процеси, ринкові тенденції та навіть реакції людей на новини чи товари.
«Чи існує український симулякр-хаб — невідомо. Закордонні — безумовно, є. І питання лише в тому, чи не моделюється вже Україна в чиїйсь чужій системі координат», - застеріг експерт.
Як взагалі штучний інтелект впливає на майбутнє людства? Про це читайте в двох частинах інтерв’ю завідувача Наукової лабораторії імерсивних технологій і права НАН України Олексія Костенка « Як працює штучний інтелект і чому він лише вдає, що нас розуміє » та « Цифрові судді, штучне суспільство і віртуальні громадяни: як ШІ змінює цивілізацію ».

Новини рубріки

У Володимирському соборі відбулося святкування 30-річчя інтронізації Патріарха Філарета
19 жовтня 2025 р. 13:48

Генштаб підтвердив удари по Новокуйбишевському НПЗ та газовому заводу в Оренбурзі
19 жовтня 2025 р. 13:32