Чоловік потрапив до лікарні з психічними розладами після порад штучного інтелекту

Дата:

Штучний інтелект дедалі частіше використовується для порад — від вибору ресторану до складання робочих листів. Однак випадок, зафіксований лікарями у США, показав, що покладатися на чат-ботів у питаннях здоров’я може бути небезпечним. Чоловік, який вирішив скористатися планом харчування, рекомендованим AI, потрапив до лікарні з рідкісним видом отруєння, відомим як бромізм.

Все почалося з наміру пацієнта зменшити споживання солі (хлориду натрію) та знайти її безпечний замінник. Замість того щоб звернутися до дієтолога чи лікаря, він поставив запитання ChatGPT. Чат-бот запропонував використовувати бромід натрію — речовину, яка дійсно може замінювати хлорид натрію, але зазвичай застосовується для дезінфекції джакузі, а не при приготуванні їжі. Штучний інтелект не уточнив цього критично важливого нюансу, і чоловік почав додавати бромід натрію у свій раціон.

Через три місяці він звернувся до лікарні з сильними психічними симптомами. Пацієнт був переконаний, що його сусід намагається його отруїти. Протягом першої доби перебування у відділенні параноя посилювалася, з’явилися слухові та зорові галюцинації. Після спроби втечі чоловіка довелося помістити на примусове психіатричне утримання через серйозну небезпеку для себе.

Медикам вдалося стабілізувати стан пацієнта за допомогою антипсихотичних препаратів. Коли він заспокоївся, розповів про свій «AI-дієтичний план». Аналізи виявили у його крові 1700 мг/л броміду при нормі до 10 мг/л. Це дозволило поставити діагноз — бромізм, токсичне накопичення броміду в організмі.

Бромізм був доволі поширеним у першій половині XX століття та, за оцінками, спричиняв до 8% усіх психіатричних госпіталізацій. Однак у 1970–1980-х роках випадки різко зменшилися після відмови від медикаментів, що містили броміди. Сучасна медицина майже не стикається з цим захворюванням, що робить випадок особливо рідкісним.

Читайте також: Вчені: «стабільний» льодовик в Аргентині почав швидко танути

Лікування тривало близько трьох тижнів, після чого пацієнта виписали без серйозних наслідків. Але головний висновок цієї історії — навіть найсучасніші AI-системи не здатні замінити фахову медичну консультацію, особливо коли йдеться про питання, що безпосередньо впливають на здоров’я.

Автори дослідження, опублікованого в журналі Annals of Internal Medicine: Clinical Cases, наголосили, що ChatGPT та інші мовні моделі можуть генерувати наукові неточності, не мають здатності критично аналізувати результати та потенційно поширюють небезпечну дезінформацію. Як підкреслюють лікарі, малоймовірно, що кваліфікований медик коли-небудь порадив би пацієнту вживати бромід натрію як заміну кухонної солі.

0 0 голоси
Рейтинг статьи
Підписатися
Сповістити про
guest
0 комментариев
Найстаріші
Найновіше Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі

Поділитися:

Subscribe

Популярне

Останні новини
Останні новини

Трубін – у старті Бенфіки на матч-відповідь проти Ніцци у кваліфікації Ліги чемпіонів

Воротар національної збірної України Анатолій Трубін потрапив до...

В окупованому Криму попередили про можливе тривале відключення мобільного інтернету

В тимчасово окупованому Криму влада заявила про ймовірне відключення...

Пожежа біля Запорізької АЕС не спричинила підвищення рівня радіації – МАГАТЕ

Пожежа поблизу градирень тимчасово окупованої Запорізької АЕС не підвищила...