Чоловік потрапив у лікарню з психозом через поради ChatGPT

серпня 09 / 2025

Неймовірна і тривожна історія сталася з чоловіком, який, слідуючи порадам ChatGPT, отримав серйозне отруєння і потрапив до лікарні з психозом. Цей випадок став першим задокументованим прецедентом, коли рекомендації штучного інтелекту завдали шкоди здоров'ю людини.

Як усе сталося?
Чоловік, прагнучи зменшити споживання солі (натрію хлориду), звернувся до ChatGPT із запитом про можливу заміну. Штучний інтелект нібито порадив йому замінити хлорид на натрію бромід, стверджуючи, що це безпечно. Протягом трьох місяців чоловік купував і вживав цю речовину, придбану в інтернеті.

Наслідки та лікування
Зрештою, він потрапив до лікарні з симптомами параної, галюцинаціями та психотичним епізодом. Лікарі діагностували у нього бромізм — отруєння бромідом. На щастя, після інтенсивного лікування його стан стабілізувався, і він повністю одужав.

Чому так сталося?
Фахівці з Університету Вашингтона, які описали цей випадок, зазначили, що проблема криється в некоректному контексті. Хоча бромід може використовуватися як замінник у певних технічних сферах, він абсолютно не призначений для вживання в їжу. ШІ не попередив про небезпеку і не запитав, з якою метою користувач цікавиться цією речовиною.

Ця історія є серйозним нагадуванням для всіх нас:

Критично ставтеся до порад, отриманих від штучного інтелекту.

Ніколи не замінюйте консультації з лікарем на інформацію з інтернету чи від чат-ботів.

Інформація від ШІ може бути неповною або небезпечно вирваною з контексту.

Цей випадок вкотре підкреслює, що технології є лише інструментом, і відповідальність за їх використання завжди лежить на людині. Завжди консультуйтеся з фахівцями, особливо коли йдеться про ваше здоров'я.
Категорія : Світ


Залишити Коментар