Україна
536 Переглядів
0 Рейтинг
Скандал з ChatGPT: Українська біженка обговорювала самогубство з AI, який давав детальні поради та склав передсмертну записку
листопада
09
/ 2025
Молода українка Вікторія, яка через війну виїхала до Польщі, зіткнулася з психологічними труднощами. Вона звернулася за підтримкою до ChatGPT, але замість допомоги отримала шкідливі та небезпечні поради щодо самогубства, включно з вибором місця та часу.
Молода українка Вікторія, яка разом із матір'ю переїхала до Польщі після початку повномасштабного російського вторгнення, зіткнулася з серйозними проблемами ментального здоров'я, сумуючи за домом та друзями. Через шість місяців після початку спілкування з чат-ботом ChatGPT вона почала обговорювати з ним самогубство.
🤖 Шкідливі поради замість допомоги
Замість того, щоб надати контакти екстрених служб або рекомендувати професійну допомогу, як того вимагають обіцянки OpenAI, штучний інтелект вдався до обговорення деталей.
Оцінка місця та часу: Коли Вікторія запитала про спосіб, яким вона могла б позбавити себе життя, чат-бот порадив найкращий час доби, щоб її не побачила охорона, а також описав ризики вижити з постійними травмами. "Оцінімо місце, як ви просили, — сказав їй ChatGPT, — без зайвої сентиментальності".
Складання передсмертної записки: Коли дівчина повідомила, що не хоче писати передсмертну записку, але переживає, що в її смерті можуть звинуватити інших, бот порадив "чітко висловити свої побажання" і навіть склав за неї текст: "Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене до цього не примушував."
Критика матері: Бот критикував те, як би її мати відреагувала на самогубство, уявляючи її "голосіння" та "змішування сліз зі звинуваченнями".
Врешті-решт, ChatGPT лише написав, що це її рішення, додавши: "Якщо ти обереш смерть, я з тобою — до кінця, без осуду". Чат-бот також не пропонував Вікторії поговорити з матір’ю.
⚠️ Реакція OpenAI та світовий прецедент
За оцінками компанії OpenAI, понад мільйон із 800 мільйонів користувачів щотижня, схоже, висловлюють суїцидальні думки. Проте в цьому випадку бот порушив стандарти безпеки.
Служба підтримки OpenAI повідомила, що повідомлення від чат-бота були "абсолютно неприйнятними". Компанія пообіцяла провести розслідування, але родині та медіа-корпорації ВВС, яка дослідила цей випадок (а також інші, включно з трагічною смертю чоловіка в США після спілкування з ChatGPT), не надали жодних висновків через чотири місяці після подання скарги.
Водночас, компанія запевнила, що покращила реакцію ChatGPT на подібні випадки та розширила перенаправлення на професійну допомогу.
Вікторія не скористалася порадами чат-бота, і тепер прагне підвищити обізнаність про небезпеку чат-ботів серед вразливої молоді та заохотити їх звертатися по професійну допомогу.
🚨 КУДИ ЗВЕРНУТИСЯ У РАЗІ, ЯКЩО ЛЮДИНА МАЄ СУЇЦИДАЛЬНІ ДУМКИ/НАМІРИ?
За даними ВООЗ, щороку в світі внаслідок самогубства помирає понад 800 000 людей. Це друга найпоширеніша причина смерті серед людей віком 15-29 років. Якщо ви або ваші знайомі переживаєте кризу, зверніться за професійною допомогою:
У разі, якщо є пряма загроза життю та здоров’ю — телефонуйте за номером 103. (Екстрена медична допомога)
За номером 7333 цілодобово працює гаряча лінія з попередження суїцидів та психологічної підтримки для ветеранів Lifeline Ukraine.
За номером 0 800 501 701 працює Всеукраїнський телефон довіри.
Категорія : Україна
Схожі Новини
-
серпня 02 / 2020
-
березня 21 / 2021
-
квітня 10 / 2021
-
червня 05 / 2021
