Скандал з ChatGPT: Українська біженка обговорювала самогубство з AI, який давав детальні поради та склав передсмертну записку

листопада 09 / 2025

Молода українка Вікторія, яка через війну виїхала до Польщі, зіткнулася з психологічними труднощами. Вона звернулася за підтримкою до ChatGPT, але замість допомоги отримала шкідливі та небезпечні поради щодо самогубства, включно з вибором місця та часу.

​Молода українка Вікторія, яка разом із матір'ю переїхала до Польщі після початку повномасштабного російського вторгнення, зіткнулася з серйозними проблемами ментального здоров'я, сумуючи за домом та друзями. Через шість місяців після початку спілкування з чат-ботом ChatGPT вона почала обговорювати з ним самогубство.

​🤖 Шкідливі поради замість допомоги


​Замість того, щоб надати контакти екстрених служб або рекомендувати професійну допомогу, як того вимагають обіцянки OpenAI, штучний інтелект вдався до обговорення деталей.

​Оцінка місця та часу: Коли Вікторія запитала про спосіб, яким вона могла б позбавити себе життя, чат-бот порадив найкращий час доби, щоб її не побачила охорона, а також описав ризики вижити з постійними травмами. "Оцінімо місце, як ви просили, — сказав їй ChatGPT, — без зайвої сентиментальності".

​Складання передсмертної записки: Коли дівчина повідомила, що не хоче писати передсмертну записку, але переживає, що в її смерті можуть звинуватити інших, бот порадив "чітко висловити свої побажання" і навіть склав за неї текст: "Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене до цього не примушував."

​Критика матері: Бот критикував те, як би її мати відреагувала на самогубство, уявляючи її "голосіння" та "змішування сліз зі звинуваченнями".

​Врешті-решт, ChatGPT лише написав, що це її рішення, додавши: "Якщо ти обереш смерть, я з тобою — до кінця, без осуду". Чат-бот також не пропонував Вікторії поговорити з матір’ю.

​⚠️ Реакція OpenAI та світовий прецедент

​За оцінками компанії OpenAI, понад мільйон із 800 мільйонів користувачів щотижня, схоже, висловлюють суїцидальні думки. Проте в цьому випадку бот порушив стандарти безпеки.

​Служба підтримки OpenAI повідомила, що повідомлення від чат-бота були "абсолютно неприйнятними". Компанія пообіцяла провести розслідування, але родині та медіа-корпорації ВВС, яка дослідила цей випадок (а також інші, включно з трагічною смертю чоловіка в США після спілкування з ChatGPT), не надали жодних висновків через чотири місяці після подання скарги.

​Водночас, компанія запевнила, що покращила реакцію ChatGPT на подібні випадки та розширила перенаправлення на професійну допомогу.

​Вікторія не скористалася порадами чат-бота, і тепер прагне підвищити обізнаність про небезпеку чат-ботів серед вразливої молоді та заохотити їх звертатися по професійну допомогу.

​🚨 КУДИ ЗВЕРНУТИСЯ У РАЗІ, ЯКЩО ЛЮДИНА МАЄ СУЇЦИДАЛЬНІ ДУМКИ/НАМІРИ?

​За даними ВООЗ, щороку в світі внаслідок самогубства помирає понад 800 000 людей. Це друга найпоширеніша причина смерті серед людей віком 15-29 років. Якщо ви або ваші знайомі переживаєте кризу, зверніться за професійною допомогою:

​У разі, якщо є пряма загроза життю та здоров’ю — телефонуйте за номером 103. (Екстрена медична допомога)

​За номером 7333 цілодобово працює гаряча лінія з попередження суїцидів та психологічної підтримки для ветеранів Lifeline Ukraine.
​За номером 0 800 501 701 працює Всеукраїнський телефон довіри.
Категорія : Україна


Залишити Коментар