Люди меньше доверяют медицинским советам, если подозревают, что в их создании участвует искусственный интеллект. Это ключевой вывод исследования психологов из Вюрцбургского университета. Их статья опубликована в журнале Nature Medicine .
Исследование показывает, что люди оценивают медицинские советы как менее надежные и сочувственные, когда предполагается участие ИИ. Это имело место даже тогда, когда участники исследования могли предположить, что врач дал эти рекомендации с помощью ИИ. Следовательно, респонденты также были менее склонны следовать рекомендациям, поддержанным ИИ, по сравнению с советами, основанными исключительно на медицинской экспертизе врачей-людей.
Мориц Рейс и профессор Вильфрид Кунде с кафедры психологии III Университета Юлиуса-Максимилиана (JMU) отвечают за это исследование, которое проводилось в сотрудничестве с Флорианом Рейсом из Pfizer Pharma GmbH.
«Наше исследование проводится на базе цифровой платформы здравоохранения, где можно получить информацию по медицинским вопросам, — другими словами, в среде, которая будет становиться все более актуальной по мере роста цифровизации», — описывают свой подход авторы.
В рамках исследования более 2000 участников получили идентичные медицинские советы и были приглашены оценить их на предмет надежности, понятности и эмпатии. Единственное отличие: в то время как одной группе сказали, что этот совет исходит от врача, второй группе сказали, что за него отвечает чат-бот, поддерживаемый ИИ. Третью группу заставили поверить, что врач дал рекомендацию с помощью ИИ.
Результаты очевидны: люди меньше доверяют медицинским рекомендациям, если подозревают, что в них замешан ИИ. Это также применимо, если они считают, что медицинский персонал внес вклад в выработку рекомендаций. Советы, помеченные как выработанные человеком, также набрали больше баллов, чем два варианта ИИ в категории «эмпатия». Только с точки зрения понятности между тремя группами почти не было различий. По-видимому, у людей нет никаких сомнений относительно технологии с этой точки зрения.
«Это важный вывод, поскольку доверие к медицинским диагнозам и рекомендациям по терапии, как известно, является очень важным фактором успеха лечения», — говорят авторы исследования.
Эти результаты особенно важны на фоне возможного сокращения бюрократии и облегчения повседневной работы врачей за счет сотрудничества с ИИ. По их мнению, исследование представляет собой отправную точку для детального изучения условий, при которых ИИ может использоваться в диагностике и терапии, не ставя под угрозу доверие и сотрудничество пациентов.
Очень интересное исследование! Как вы думаете, можно ли повысить доверие к AI в медицине с помощью образовательных программ?
Я заметил, что сам иногда испытываю недоверие к рекомендациям, если знаю, что они пришли от ИИ. Это связано с тем, что воспринимаю медицину как что-то человеческое.
Благодарю за статью! Действительно, доверие к врачам всегда было на первом месте, а технологии вызывают много вопросов.
А что, если ИИ будет использоваться только в качестве вспомогательного инструмента для врачей? Это могло бы снизить уровень недоверия?
У меня есть свой опыт. Я обратилась к ИИ для получения рекомендаций по лечению, и, честно говоря, не доверяла этим советам. Лучше проконсультироваться с врачом.
Интересно, что именно вызывает недоверие — сама технология или недостаток понимания того, как она работает?
Я всегда считал, что технологии должны помогать врачам, а не заменять их. Надеюсь, что со временем люди смогут доверять ИИ больше.
А какие меры можно предпринять, чтобы повысить доверие к медицинским рекомендациям, основанным на ИИ?
Спасибо за публикацию! Интересно, как со временем изменится отношение к AI в медицине. Будем надеяться на положительные изменения!
По моему опыту, личное взаимодействие с врачом всегда лучше, чем общение с машиной. Искусственный интеллект — это лишь инструмент.
Я подумала о том, как важно вводить более прозрачные процессы в разработке ИИ, чтобы люди могли лучше понимать, как принимаются решения.