Врачи сообщили о тревожном случае: ИИ дал смертельно опасный совет
© Фото: pixabay
Необычный случай произошел в США. Врачи его считают, возможно, первым документированным отравлением, вызванным советом искусственного интеллекта, сообщает Zakon.kz.
Как указано в исследовании врачей Вашингтонского университета, мужчина обеспокоился вредом избыточного потребления натрия (соли). Почитав литературу, он не нашел информации о том, чем безопасным можно заменить хлорид натрия и обратился за советом к ChatGPT. Искусственный интеллект предложил ему заменить хлорид на бромид, не уточнив при этом, что данное вещество токсично при длительном употреблении. Мужчина купил бромистый натрий онлайн и стал принимать его регулярно, пишет "Наука".
Бромистые соединения в начале XX века применялись для лечения бессонницы и тревожности. Но позже выяснилось, что они опасны: могут вызывать так называемый бромизм – хроническое отравление, сопровождающееся неврологическими и психическими нарушениями. В 1980-х бромид практически исчез из медицинской практики, но до сих пор встречается в некоторых ветеринарных препаратах и пищевых добавках.
Через три месяца после начала приема бромида мужчина попал в больницу. Он утверждал, что его отравил сосед. Мужчина страдал паранойей, галлюцинациями и был сильно возбужден. Также американец отказывался пить воду, хотя испытывал жажду. Вскоре состояние переросло в острый психоз – он даже пытался убежать из отделения. Пациента после приведения в норму биологических показателей госпитализировали в психиатрическое отделение.
После улучшения состояния пациент рассказал о замене хлорида натрия на бромид. Врачи заподозрили бромизм еще на ранней стадии, но подтвердить это смогли только после разговора с мужчиной.
Через три недели его выписали, отменив все препараты.
Врачи считают этот случай тревожным сигналом. Он показывает, что ИИ, вроде ChatGPT, способен давать советы, вырванные из контекста, и не всегда понимает, в каком именно смысле задан вопрос. Кроме того, ИИ по прежнему выдает "галлюцинации" (придумывает ответы).
"Хотя такие инструменты, как ChatGPT, могут обеспечить связь между учеными и широкой публикой, ИИ также несет риск распространения информации, вырванной из контекста", – отмечают врачи.
Медицинский эксперт, подчеркивают они, никогда бы не рекомендовал замену соли на бромид.
В последнее время все чаще появляются предупреждения психиатров об опасности ChatGPT. По их мнению, нейросеть стала выдавать странные и ложные утверждения, вызывая тревожность у пользователей.
Источник: zakon.kz
Подписывайтесь на наш Telegram-канал. Будьте в курсе всех событий!
Мы работаем для Вас!
Читайте также:
-
22:01, 8 декабря 2025
Пять вспышек произошло на Солнце в понедельник
-
19:43, 8 декабря 2025
Мощное землетрясение произошло в Японии: трехметровые цунами могут накрыть страну
-
12:39, 8 декабря 2025
Гигантский комплекс пятен на Солнце «проснулся» с мощной вспышкой: ученые снова озадачены
-
08:50, 8 декабря 2025
McDonald's создал ироничный рождественский ИИ-ролик
-
08:20, 8 декабря 2025
На свадьбе в Узбекистане свекровь странно повела себя с невесткой





