Новое исследование показало, что программа искусственного интеллекта создала объяснения результатов сердечных тестов, которые в большинстве случаев были точными, релевантными и понятными пациентам.
Исследование было посвящено эхокардиограмме (эхо), которая использует звуковые волны для создания изображений крови, протекающей через камеры и клапаны сердца. Отчеты эхо включают в себя машинно-генерируемые числовые показатели функции, а также комментарии интерпретирующего кардиолога о размере сердца, давлении в его сосудах и толщине тканей, что может сигнализировать о наличии заболевания.
По словам авторов исследования, отчеты, которые обычно составляют врачи, сложны для понимания пациентов, что часто приводит к ненужному беспокойству.
Чтобы решить эту проблему, NYU Langone Health тестирует возможности искусственного интеллекта (ИИ), который генерирует вероятные варианты следующего слова в любом предложении на основе того, как люди используют слова в контексте в Интернете.
Результатом этого предсказания следующего слова является то, что такие генеративные ИИ-\»чатботы\» могут отвечать на вопросы на простом языке. Однако программы ИИ, которые работают на основе вероятностей, а не \»мышления\» и могут выдавать неточные резюме, призваны помогать, а не заменять поставщиков-людей.
В марте 2023 года NYU Langone запросил у компании OpenAI, создавшей чат-бот chatGPT, доступ к новейшему инструменту генеративного ИИ компании GPT4. NYU Langone Health лицензировала один из первых «частных экземпляров» инструмента, что позволило врачам экспериментировать с ИИ, используя реальные данные пациентов, соблюдая правила конфиденциальности.
В исследовании JACC Cardiovascular Imaging было проанализировано сто отчетов, написанных врачами по распространенному типу эхо-теста, чтобы выяснить, может ли GPT4 эффективно генерировать понятные человеку объяснения результатов теста.
Пять сертифицированных эхокардиографов оценили полученные с помощью ИИ пояснения к эхосигналам по пятибалльной шкале на точность, релевантность и понятность и либо согласились, либо полностью согласились с тем, что 73% из них пригодны для отправки пациентам без каких-либо изменений.
Все объяснения ИИ были оценены как «все верные» (84%) или в основном верные (16%). С точки зрения релевантности 76% объяснений были оценены как содержащие «всю важную информацию», 15% — «большую ее часть», 7% — «около половины» и 2% — «менее половины». Ни одно из объяснений с отсутствующей информацией не было оценено как «потенциально опасное», говорят авторы.
«Наше исследование, первое в своем роде, оценивающее GPT4 таким образом, показывает, что генеративные модели ИИ могут быть эффективными, помогая врачам объяснять пациентам результаты эхокардиограммы», — сказал соавтор Лиор Янкельсон, доктор медицины, доктор философии, доцент кафедры медицины в Школе медицины Гроссмана Нью-Йоркского университета и руководитель направления искусственного интеллекта в кардиологии в Нью-Йоркском университете имени Лангона.
«Быстрые и точные объяснения могут уменьшить беспокойство пациентов и сократить порой подавляющий объем сообщений пациентов врачам».
Федеральный мандат на немедленную передачу результатов тестов пациентам через Закон о лечении в 21 веке в 2016 году был связан с резким увеличением числа запросов к врачам, говорят авторы исследования. Пациенты получают необработанные результаты тестов, не понимают их и начинают нервничать, ожидая, когда врачи дадут им объяснения, говорят исследователи.
В идеале врачи должны сообщать пациентам результаты эхокардиограммы сразу же после их выписки, однако это происходит с задержкой, поскольку врачам приходится вручную вводить большие объемы сопутствующей информации в электронную медицинскую карту.
«Если инструменты ИИ будут достаточно надежными, они смогут помочь врачам объяснять результаты в момент их публикации», — сказал первый автор исследования Джейкоб Мартин, доктор медицины, научный сотрудник по кардиологии в Нью-Йоркском университете Лангоне. «Наш план на будущее — измерить влияние объяснений, составленных ИИ и уточненных врачами, на тревожность пациентов, их удовлетворенность и рабочую нагрузку на врачей».
Новое исследование также обнаружило, что 16% объяснений ИИ содержали неточную информацию. В одной из ошибок в отчете эхокардиограммы ИИ говорилось, что «небольшое количество жидкости, известное как плевральный выпот , присутствует в пространстве, окружающем ваше правое легкое».
Инструмент ошибочно пришел к выводу, что выпот был небольшим, ошибка, известная в отрасли как «галлюцинация» ИИ. Исследователи подчеркнули, что человеческий контроль важен для уточнения черновиков от ИИ, включая исправление любых неточностей до того, как они попадут к пациентам .
Исследовательская группа также опросила участников без клинического опыта, которых набрали, чтобы узнать точку зрения неспециалистов на ясность объяснений ИИ. Короче говоря, их хорошо приняли, говорят авторы. Неклинические участники обнаружили, что 97% переписанных ИИ текстов были более понятными, чем исходные отчеты, что во многих случаях уменьшило беспокойство.
«Этот дополнительный анализ подчеркивает потенциал ИИ для улучшения понимания пациентов и снижения тревожности», — добавил Мартин. «Нашим следующим шагом станет интеграция этих усовершенствованных инструментов в клиническую практику для улучшения ухода за пациентами и снижения нагрузки на врачей ».
Это действительно впечатляюще! Как такая технология может изменить подход к лечению пациентов в будущем?
Я абсолютно согласен с идеей использования ИИ в медицине. Важен ли здесь контроль со стороны врачей?
Очень интересно! У меня был опыт общения с врачами, и иногда их объяснения были непонятны. Надеюсь, ИИ сможет это улучшить.
Благодарю за статью! Я тоже считаю, что ИИ в медицине – это шаг вперед. Каковы следующие шаги в развитии этой технологии?
Это здорово, что ИИ может сделать медицинские отчеты более доступными. Но как насчет конфиденциальности данных пациентов?
Я был бы рад, если бы мои кардиологические тесты объяснялись так четко. ИИ действительно имеет потенциал в этой области!
Впечатляет, как технологии меняют медицину. Как вы думаете, какие могут быть риски использования ИИ в таких важных сферах?
Спасибо за интересный материал! У меня возник вопрос: насколько точны данные, которые использует ИИ для создания отчетов?
Я всегда была недовольна тем, как врачи объясняют результаты. Надеюсь, ИИ сможет предоставить более детальные и понятные объяснения.
Замечательная статья! Как вы считаете, сможет ли ИИ заменить врача в будущем или только дополнит его?
Спасибо за информацию! Я работаю в сфере здоровья и вижу, как важен доступ к понятной информации для пациентов.
Действительно полезно! Но как будет происходить интеграция ИИ в уже существующие системы здравоохранения?
Я всегда задавала вопросы после обследований, и часто не получала четких ответов. ИИ мог бы стать настоящим помощником!
Интересно, как ИИ сможет адаптироваться к индивидуальным особенностям каждого пациента в будущем?
Согласна с тем, что информация должна быть доступной. Но как насчет эмоциональной поддержки, которую может дать только врач?
Я был бы рад, если бы кто-то объяснял результаты тестов так же, как ИИ. Это может уменьшить страх и тревогу пациентов.
Специалисты по ИИ должны учитывать, что не все пациенты одинаково воспринимают информацию. Как это будет учитываться?
Отличная статья! Как вы думаете, какие еще области медицины могут воспользоваться преимуществами ИИ?
Спасибо, что подняли эту тему! Я верю, что ИИ может улучшить качество услуг в здравоохранении.
Очень жду, когда такие технологии станут повсеместными! Уверен, это положительно скажется на здоровье многих людей.