Искусственный интеллект может быть полезным инструментом для медицинских работников и исследователей, когда дело доходит до интерпретации диагностических изображений. Там, где рентгенолог может идентифицировать переломы и другие аномалии на рентгеновском снимке, модели ИИ могут видеть закономерности, которые люди не могут увидеть, что дает возможность повысить эффективность медицинской визуализации.
Однако исследование, опубликованное в Scientific Reports, подчеркивает скрытую проблему использования ИИ в исследованиях медицинской визуализации — феномен высокоточных, но потенциально вводящих в заблуждение результатов, известный как «обучение по сокращенному пути».
Исследователи проанализировали более 25 000 рентгеновских снимков колена и обнаружили, что модели ИИ могут «предсказывать» не связанные и неправдоподобные черты, например, воздерживались ли пациенты от употребления жареных бобов или пива. Хотя эти прогнозы не имеют медицинской основы, модели достигли удивительного уровня точности, используя тонкие и непреднамеренные закономерности в данных.
«Хотя ИИ обладает потенциалом для трансформации медицинской визуализации, нам следует проявлять осторожность», — говорит старший автор исследования, доктор Питер Шиллинг, хирург-ортопед в Медицинском центре Дартмута Хичкока при Дартмутском медицинском центре и доцент кафедры ортопедии в Медицинской школе Гейзеля при Дартмутском медицинском центре.
«Эти модели могут видеть закономерности, которые люди не видят, но не все закономерности, которые они выявляют, значимы или надежны», — говорит Шиллинг. «Крайне важно распознавать эти риски, чтобы предотвратить вводящие в заблуждение выводы и обеспечить научную честность».
Сводные графики QUADAS-2. Кредит: npj Digital Medicine (2021). DOI: 10.1038/s41746-021-00438-z
Исследователи изучили, как алгоритмы ИИ часто полагаются на смешивающие переменные — такие как различия в рентгеновском оборудовании или клинических маркерах участков — для прогнозирования, а не на значимые с медицинской точки зрения признаки. Попытки устранить эти предубеждения были лишь отчасти успешными — модели ИИ просто «изучали» другие скрытые шаблоны данных.
«Это выходит за рамки предвзятости из-за признаков расы или пола», — говорит Брэндон Хилл, соавтор исследования и специалист по машинному обучению в Dartmouth Hitchcock. «Мы обнаружили, что алгоритм может даже научиться предсказывать год, когда был сделан рентгеновский снимок. Это пагубно — когда вы мешаете ему узнать один из этих элементов, он вместо этого узнает другой, который ранее игнорировал. Эта опасность может привести к некоторым действительно сомнительным заявлениям, и исследователи должны знать, как легко это происходит при использовании этой техники».
Результаты подчеркивают необходимость строгих стандартов оценки в медицинских исследованиях на основе ИИ . Чрезмерное доверие стандартным алгоритмам без более глубокого изучения может привести к ошибочным клиническим выводам и путям лечения.
«Бремя доказательств резко возрастает, когда речь заходит об использовании моделей для открытия новых закономерностей в медицине», — говорит Хилл. «Часть проблемы — это наша собственная предвзятость. Невероятно легко попасть в ловушку, предполагая, что модель «видит» так же, как и мы. В конце концов, это не так».
«ИИ — это почти как иметь дело с инопланетным разумом», — продолжает Хилл. «Вы хотите сказать, что модель «жульничает», но это антропоморфизирует технологию. Она научилась решать поставленную перед ней задачу, но не обязательно так, как это сделал бы человек. У нее нет логики или рассуждений в том виде, в каком мы их обычно понимаем».
Шиллинг, Хилл и соавтор исследования Фрэнсис Кобак, студентка третьего курса медицинского факультета Школы Гейзеля в Дартмуте, провели исследование в сотрудничестве с Медицинским центром по делам ветеранов в Уайт-Ривер-Джанкшен, штат Вермонт.


















Очень интересная статья! Не мога дождаться, когда ИИ станет полноценным помощником в медицине. Как вы думаете, когда это может произойти?
Благодарю за информацию! Я всегда считал, что ИИ сможет сделать революцию в медицине. Есть ли примеры успешного применения ИИ в рентгенографии?
Интересно, как ИИ может выявлять закономерности. У меня был случай, когда рентген показал нечто неожиданное. Как вы считаете, насколько надежны данные ИИ?
Я работаю в медицинской сфере и вижу, как технологии меняют подход к диагностике. Надеюсь, что ИИ сможет помочь сократить время на анализ снимков.
Спасибо за статью! У меня есть вопрос: какие риски могут возникнуть при использовании ИИ в медицине?
Очень познавательно! У меня есть личный опыт с рентгеном, и я знаю, как сложно иногда интерпретировать снимки. С нетерпением жду, когда ИИ станет более доступным.
Я согласна с тем, что ИИ может выявлять паттерны. Но неужели он сможет полностью заменить человеческий фактор в медицине?
Хочу выразить благодарность за эту статью! Мне всегда было интересно, как ИИ может улучшить диагностику. Есть ли примеры неудачного применения?
Очень интересно, что ИИ может делать в медицине! Но как быть с этическими вопросами, связанными с использованием таких технологий?
Читал про случаи, когда ИИ делал ошибки в диагностике. Как вы считаете, какая доля ответственности должна ложиться на врачей?
Спасибо за статью! У меня есть опыт работы с медицинскими изображениями. Как вы думаете, какие навыки нужны специалистам в эпоху ИИ?
Интересно, как ИИ будет адаптироваться к новым данным. Надеюсь, что это поможет в борьбе с заболеваниями!
Я согласна, что нужно использовать ИИ для улучшения диагностики. Но не упустим ли мы важные аспекты человеческого общения с пациентами?
Спасибо за просвещение! Начал задумываться о том, как сильно ИИ может изменить наше восприятие медицины.
Очень интересная тема! Мне всегда было страшно думать о том, что ИИ может сделать ошибку. Как можно минимизировать такие риски?
Статья просто супер! Есть ли у вас рекомендации по дополнительным источникам информации по этой теме?