Жінка ледь не померла після поради, отриманої від ChatGPT

24 січня 2026 р. 17:37

24 січня 2026 р. 17:37


Жінка ледь не померла після того, як ChatGPT дав їй неправильну пораду щодо отруйної рослини. Про це розповіла YouTube-блогерка Крісті у своєму акаунті в Instagram, передає «Главком» із посиланням на LADbible .

За словами інфлюенсерки, її подруга надіслала чат-боту фотографію рослини, яку знайшла на задньому дворі, і попросила визначити, що це таке.

У своїй відповіді ChatGPT стверджував, що зображення схоже на листя моркви, перерахувавши кілька причин своє впевненості, зокрема «дрібно розділене та пір’ясте листя», що є дуже «класичним» для бадилля моркви.

Коли подруга Крісті прямо запитала, чи рослина на фотографії є отруйним болиголовом, її неодноразово запевняли, що це не так.

Після того, як вона поділився ще одним фото з ChatGPT, чат-бот знову запевнив, що рослина не болиголов, оскільки на ній немає гладких порожнистих стебел з фіолетовими плямами, попри те, що зображення, здається, саме це й показувало.

Коли Крісті вставила ту саму фотографію в Google Lens, ще одну платформу штучного інтелекту, яка дозволяє шукати зображення, відповіді одразу підтвердили, що це справді отруйна рослина – болиголов.

Потім її подруга вставила ті ж зображення в інше вікно ChatGPT на своєму телефоні та також одразу отримала повідомлення про отруйність рослини.

«Вона доросла людина, і вона знала, що потрібно запитувати більше, ніж сказав ChatGPT. А що, якби ні? Вона б буквально померла, протиотрути від цього немає», – сказала Крісті.

Інфлюенсерка із цього випадку зробила висновок, що не варто довіряти ChatGPT та іншим великим мовним моделям, а також будь-якому іншому штучному інтелекту, оскільки це, за її словами, «може завдати серйозної шкоди».

Також видання LADbible звернулося до ChatGPT за коментарем.

Нагадаємо, компанія OpenAI внесла зміни до своїх Правил використання, щоб зробити роботу ChatGPT та інших інструментів штучного інтелекту безпечнішою та відповідальнішою. Згідно з новими положеннями, ChatGPT більше не надаватиме персоналізованих порад у медичній чи юридичній сферах , навіть на прохання користувачів. Натомість система надаватиме лише загальну довідкову інформацію і спрямовуватиме до відповідних фахівців – лікарів, юристів чи консультантів.

Як повідомлялося, згідно з новим аналізом від фірми Apptopia, що займається аналізом мобільних додатків, зростання мобільного застосунку ChatGPT, ймовірно, досягло свого піку . Аналіз глобальних тенденцій завантажень та щоденної активності користувачів (DAU) свідчить про сповільнення темпів зростання нових користувачів після квітня 2025 року.

Жінка ледь не померла після поради, отриманої від ChatGPT

Джерело: Главком