Новое исследование показало, что программа искусственного интеллекта создала объяснения результатов сердечных тестов, которые в большинстве случаев были точными, релевантными и понятными пациентам.

Исследование было посвящено эхокардиограмме (эхо), которая использует звуковые волны для создания изображений крови, протекающей через камеры и клапаны сердца. Отчеты эхо включают в себя машинно-генерируемые числовые показатели функции, а также комментарии интерпретирующего кардиолога о размере сердца, давлении в его сосудах и толщине тканей, что может сигнализировать о наличии заболевания.

По словам авторов исследования, отчеты, которые обычно составляют врачи, сложны для понимания пациентов, что часто приводит к ненужному беспокойству.

Чтобы решить эту проблему, NYU Langone Health тестирует возможности искусственного интеллекта (ИИ), который генерирует вероятные варианты следующего слова в любом предложении на основе того, как люди используют слова в контексте в Интернете.

Результатом этого предсказания следующего слова является то, что такие генеративные ИИ-\»чатботы\» могут отвечать на вопросы на простом языке. Однако программы ИИ, которые работают на основе вероятностей, а не \»мышления\» и могут выдавать неточные резюме, призваны помогать, а не заменять поставщиков-людей.

В марте 2023 года NYU Langone запросил у компании OpenAI, создавшей чат-бот chatGPT, доступ к новейшему инструменту генеративного ИИ компании GPT4. NYU Langone Health лицензировала один из первых «частных экземпляров» инструмента, что позволило врачам экспериментировать с ИИ, используя реальные данные пациентов, соблюдая правила конфиденциальности.

В исследовании JACC Cardiovascular Imaging было проанализировано сто отчетов, написанных врачами по распространенному типу эхо-теста, чтобы выяснить, может ли GPT4 эффективно генерировать понятные человеку объяснения результатов теста.

Пять сертифицированных эхокардиографов оценили полученные с помощью ИИ пояснения к эхосигналам по пятибалльной шкале на точность, релевантность и понятность и либо согласились, либо полностью согласились с тем, что 73% из них пригодны для отправки пациентам без каких-либо изменений.

Все объяснения ИИ были оценены как «все верные» (84%) или в основном верные (16%). С точки зрения релевантности 76% объяснений были оценены как содержащие «всю важную информацию», 15% — «большую ее часть», 7% — «около половины» и 2% — «менее половины». Ни одно из объяснений с отсутствующей информацией не было оценено как «потенциально опасное», говорят авторы.

«Наше исследование, первое в своем роде, оценивающее GPT4 таким образом, показывает, что генеративные модели ИИ могут быть эффективными, помогая врачам объяснять пациентам результаты эхокардиограммы», — сказал соавтор Лиор Янкельсон, доктор медицины, доктор философии, доцент кафедры медицины в Школе медицины Гроссмана Нью-Йоркского университета и руководитель направления искусственного интеллекта в кардиологии в Нью-Йоркском университете имени Лангона.

«Быстрые и точные объяснения могут уменьшить беспокойство пациентов и сократить порой подавляющий объем сообщений пациентов врачам».

Федеральный мандат на немедленную передачу результатов тестов пациентам через Закон о лечении в 21 веке в 2016 году был связан с резким увеличением числа запросов к врачам, говорят авторы исследования. Пациенты получают необработанные результаты тестов, не понимают их и начинают нервничать, ожидая, когда врачи дадут им объяснения, говорят исследователи.

В идеале врачи должны сообщать пациентам результаты эхокардиограммы сразу же после их выписки, однако это происходит с задержкой, поскольку врачам приходится вручную вводить большие объемы сопутствующей информации в электронную медицинскую карту.

«Если инструменты ИИ будут достаточно надежными, они смогут помочь врачам объяснять результаты в момент их публикации», — сказал первый автор исследования Джейкоб Мартин, доктор медицины, научный сотрудник по кардиологии в Нью-Йоркском университете Лангоне. «Наш план на будущее — измерить влияние объяснений, составленных ИИ и уточненных врачами, на тревожность пациентов, их удовлетворенность и рабочую нагрузку на врачей».

Новое исследование также обнаружило, что 16% объяснений ИИ содержали неточную информацию. В одной из ошибок в отчете эхокардиограммы ИИ говорилось, что «небольшое количество жидкости, известное как плевральный выпот , присутствует в пространстве, окружающем ваше правое легкое».

Инструмент ошибочно пришел к выводу, что выпот был небольшим, ошибка, известная в отрасли как «галлюцинация» ИИ. Исследователи подчеркнули, что человеческий контроль важен для уточнения черновиков от ИИ, включая исправление любых неточностей до того, как они попадут к пациентам .

Исследовательская группа также опросила участников без клинического опыта, которых набрали, чтобы узнать точку зрения неспециалистов на ясность объяснений ИИ. Короче говоря, их хорошо приняли, говорят авторы. Неклинические участники обнаружили, что 97% переписанных ИИ текстов были более понятными, чем исходные отчеты, что во многих случаях уменьшило беспокойство.

«Этот дополнительный анализ подчеркивает потенциал ИИ для улучшения понимания пациентов и снижения тревожности», — добавил Мартин. «Нашим следующим шагом станет интеграция этих усовершенствованных инструментов в клиническую практику для улучшения ухода за пациентами и снижения нагрузки на врачей ».