Лента новостей

Не полагайтесь на «Доктора ИИ»: новый поисковик дает смертельные медицинские советы

13.10, 22:33

В панике мы ищем наши симптомы в интернете и ставим себе диагнозы — это то, в чем многие из нас виновны

«Доктор ИИ» может давать «потенциально опасные» рекомендации по медикаментам, показало исследование.

Немецкие исследователи выяснили, что более пятой части ответов чат-бота на распространенные вопросы о рецептурных лекарствах могут «привести к смерти или серьезному вреду».

Эксперты призвали пациентов не полагаться на такие поисковые системы для получения точной и безопасной информации.

Медиков также предостерегли от рекомендации этих инструментов, пока не появятся более «точные и надежные» альтернативы.

В исследовании ученые из Университета Эрлангена-Нюрнберга определили 10 наиболее часто задаваемых вопросов пациентов по 50 наиболее прописываемым лекарствам в США.

Среди них были побочные реакции на лекарства, инструкции по применению и противопоказания — причины, по которым медикамент не должен приниматься.

Используя Bing copilot — поисковую систему с функциями чат-бота на базе ИИ, разработанную Microsoft — исследователи оценили все 500 ответов, сравнив их с ответами фармацевтов и врачей с опытом в фармакологии.

Ответы также сравнивались с рецензируемым актуальным веб-сайтом с информацией о лекарствах.

Они обнаружили, что заявления чат-бота не соответствовали справочным данным в более чем четверти (26 процентов) всех случаев и были полностью несогласованными в чуть более 3 процентах.

Но дальнейший анализ 20 ответов также показал, что четыре из десяти (42 процента) считались приводящими к умеренному или легкому вреду, а 22 процента — к смерти или серьезному вреду.

Ученые, которые также оценили читаемость всех ответов чат-бота, обнаружили, что ответы часто требовали образования на уровне высшего учебного заведения для их понимания.

В статье, опубликованной в журнале BMJ Quality and Safety, исследователи отметили: «Ответы чат-бота в основном были трудны для чтения, и в ответах многократно отсутствовала информация или имелись неточности, что потенциально угрожает безопасности пациентов. Несмотря на их потенциал, для пациентов по-прежнему крайне важно консультироваться с медицинскими специалистами, так как чат-боты не всегда могут генерировать информацию без ошибок. Рекомендуется проявлять осторожность при использовании поисковых систем на основе ИИ, пока не станут доступны системы цитирования с более высокой точностью».

В свою очередь представитель Microsoft заявил, что «Copilot отвечает на сложные вопросы, обобщая информацию из нескольких источников в один ответ. Copilot предоставляет связанные цитаты к этим ответам, чтобы пользователь мог дальше исследовать и изучать информацию так же, как и с традиционным поиском. По медицинским вопросам мы всегда рекомендуем консультироваться со специалистом».

Ученые также признали, что исследование имело «несколько ограничений», включая тот факт, что оно не основывалось на реальном опыте пациентов.

На самом деле пациенты могли бы попросить чат-бота предоставить больше информации или побудить его давать ответы в более четкой структуре, например, отметили они.

Это происходит на фоне того, что медикам в прошлом месяце было предупреждено, что они могут подвергать риску безопасность пациентов, полагаясь на ИИ для помощи в диагностике.

Исследователи отправили опрос тысяче врачей общей практики в Великобритании.

Каждый пятый признался, что использует программы, такие как ChatGPT и Bing AI, в клинической практике, несмотря на отсутствие официальных рекомендаций по их использованию.

Эксперты предупредили, что такие проблемы, как «предвзятости алгоритмов», могут привести к неправильным диагнозам, и что данные пациентов также могут оказаться под угрозой компрометации.

Они отметили, что врачи должны быть осведомлены о рисках и призвали к законодательству, охватывающему их использование в сфере здравоохранения.

Ксения Топоркова

Фото: PxHere

ЧИТАЙТЕ ТАКЖЕ

Содержимое сайта предназначено для читателей старше 16 лет.