Пациенты жалуются на неверные диагнозы искусственного интеллекта в поликлиниках

Пациенты жалуются на неверные диагнозы искусственного интеллекта в поликлиниках

Истории 03 июня 2024 Светлана Цикулина

Более 14 млн диагнозов терапевты и врачи общей практики московских поликлиник поставили с помощью искусственного интеллекта (ИИ), сообщила вице-мэр Анастасия Ракова. Система была массово внедрена в столичных учреждениях здравоохранения в сентябре прошлого года. Чиновники заверяли, что ИИ станет для медиков вспомогательным инструментом. В действительности пациенты стали чаще сталкиваться с ложноположительными диагнозами из-за советов цифровых помощников, а при заполнении электронных карт допускается всё больше ошибок.

На этапе внедрения системы поддержки принятия врачебных решений, которая работает на базе искусственного интеллекта во всех взрослых поликлиниках Москвы, чиновники убеждали, что она позволит значительно повысить эффективность лечебно-диагностического процесса и обеспечит граждан максимально персонифицированной медицинской помощью.

«Система была разработана несколько лет назад совместно с компанией “СберМедИИ” и Лабораторией ИИ Сбера. Один из наших сервисов, цифровой помощник “ТОП-3”, анализирует жалобы на здоровье пациента и на основе полученной информации предлагает три наиболее вероятных предварительных диагноза. Врач может согласиться с одним из них или поставить свой. Сервис определяет 95 процентов самых распространённых заболеваний», – пояснила Анастасия Ракова.

По словам мэра Москвы Сергея Собянина, в ближайшее время в поликлиниках будет доступна расшифровка флюорографии и рентгена грудной клетки с помощью ИИ.

Между тем пациенты всё чаще сталкиваются с тем, что терапевты не пытаются интерпретировать результаты исследований и анализов, а просто соглашаются с диагнозом виртуального помощника. В ряде случаев это приводит к постановке неверных диагнозов, разбираться с которыми приходится в платных медучреждениях.

– Обратилась к поликлинику с жалобами на повышенное давление, – делится с «Октагоном» 42-летняя москвичка Татьяна. – Наш новый участковый терапевт дала мне направление на ЭКГ. По результатам диагностик поставлен диагноз «ишемия», хотя никаких характерных жалоб, кроме давления, у меня не было. Я просила дать направления на дополнительные исследования, но медик заверила, что всё очевидно, ИИ это подтверждает, и просто выписала таблетки. Верить в то, что в таком возрасте я заработала себе серьёзное сердечное заболевание, не хотелось, поэтому пришлось пройти развёрнутое обследование в платном центре. Диагноз не подтвердился. А ведь кто-то в такой ситуации просто начал бы принимать таблетки, которые опасны для человека, у которого нет диагноза.

С приходом цифровизации в сферу здравоохранения участились жалобы на некорректное заполнение электронных медицинских карт, которое может повлиять на советы искусственного интеллекта.

И всё же человеческий фактор в случае использования ИИ в медицине не исключён: если врач некорректно заполняет электронную карту пациента, в анализе нейросети ошибки не избежать.И всё же человеческий фактор в случае использования ИИ в медицине не исключён: если врач некорректно заполняет электронную карту пациента, в анализе нейросети ошибки не избежать.Фото: Оксана Король/Бизнес Online/ТАСС

– На приём отводится всего 12 минут. Медики часто не успевают выслушать, осмотреть пациента и внести данные в систему, особенно в случае полной записи, – рассказывает пенсионерка Светлана Громова. – Очевидно, чтобы ускорить процесс, некоторые врачи просто копируют шаблонные жалобы и списки назначений. На словах пациенту они могут назначить верные лекарства, а в компьютере оказываются другие. Часто приводится описание осмотров, которых не было. Когда ты оказываешься, например, на приёме у узкого специалиста, программы искусственного интеллекта используют все данные из карты, и начинается неразбериха.

Как утверждают медицинские работники, на текущем этапе при анализе результатов исследований ИИ часто ставит ложноположительные диагнозы, и полностью полагаться на него нельзя.

– Проблема ещё и в текущей системе подготовки медиков, – отмечает врач-терапевт Александр Косых. – После отмены интернатуры, где врачей обучали на практике, молодые терапевты приходят в поликлиники сразу после вуза, часто без какого-либо практического опыта. Тут их встречает искусственный интеллект, который всегда готов помочь с диагнозом. К сожалению, многие молодые медики воспринимают государственные клиники как ступень на пути в частные, терпят эту работу для получения стажа или для отработки по целевому направлению. Они не хотят утруждаться, чтобы помочь пациенту, а работают для галочки.

«В связи с этим внедрение систем искусственного интеллекта в поликлиниках может иметь негативные последствия для здравоохранения и для самих пациентов, которых при постановке ошибочного диагноза, по сути, вынуждают нести деньги в платные учреждения».

Александр Косых | врач-терапевт Александр Косых
врач-терапевт

Юридические аспекты применения искусственного интеллекта в медицине также вызывают у экспертов немало вопросов. Кто будет отвечать за ошибочный диагноз, интерпретацию результатов анализов или исследований и лечение, если это дело рук искусственного разума?

– Пока ответственность полностью лежит на враче, так как за ним последнее слово в постановке диагноза, – полагает кандидат медицинских наук, врач-рентгенолог Сергей Анохин. – Но ИИ будет всё шире использоваться в медицине, его роль неоценима при выполнении различных рутинных задач и систематизации, поэтому необходимо развивать законодательную базу. Главное, при внедрении ИИ не получить ситуацию, как с видеокамерами, которые фиксируют нарушения. Нам обещали, что проверять обоснованность вынесения штрафов будет человек. На деле россиянам приходят тысячи квитанций с ошибками системы, где на фото чётко видно, что на самом деле нарушения не было. При этом оспорить штраф – весьма непростая задача.

В сфере здравоохранения подобные ошибки могут быть фатальными, считает собеседник издания. Например, нейросети способны ошибаться при исследовании снимков, полученных в ходе проведения компьютерной томографии, – не видеть или, наоборот, дорисовывать несуществующие детали, имеющие принципиальное значение для постановки диагноза.