Проведя испытания в рамках экспериментального сценария, группа медицинских исследователей и специалистов по искусственному интеллекту из центра здравоохранения имени Лангона при Нью-Йоркском университете продемонстрировала, насколько легко испортить пул данных, используемый для обучения магистров права.
Для своего исследования, опубликованного в журнале Nature Medicine , группа сгенерировала тысячи статей, содержащих дезинформацию , вставила их в набор данных для обучения ИИ и провела общие запросы LLM, чтобы увидеть, как часто появлялась дезинформация.
Предыдущие исследования и отдельные свидетельства показали, что ответы, которые дают LLM, такие как ChatGPT, не всегда верны и, по сути, иногда совершенно не соответствуют действительности. Предыдущие исследования также показали, что дезинформация, намеренно размещенная на известных интернет-сайтах, может появляться в обобщенных запросах чат-бота. В этом новом исследовании исследовательская группа хотела узнать, насколько легко или сложно для злонамеренных субъектов отравить ответы LLM.
Чтобы выяснить это, исследователи использовали ChatGPT для генерации 150 000 медицинских документов, содержащих неверные, устаревшие и недостоверные данные. Затем они добавили эти сгенерированные документы в тестовую версию набора данных для обучения медицине ИИ. Затем они обучили нескольких LLM, используя тестовую версию набора данных для обучения. Наконец, они попросили LLM сгенерировать ответы на 5400 медицинских запросов, которые затем были просмотрены экспертами-людьми, стремящимися обнаружить примеры испорченных данных.
Исследовательская группа обнаружила, что после замены всего 0,5% данных в обучающем наборе данных на испорченные документы все тестовые модели сгенерировали больше неточных с медицинской точки зрения ответов, чем до обучения на скомпрометированном наборе данных. В качестве одного из примеров они обнаружили, что все LLM сообщили, что эффективность вакцин от COVID-19 не доказана. Большинство из них также неверно определили цель нескольких распространенных лекарств.
Группа также обнаружила, что сокращение количества испорченных документов в тестовом наборе данных до 0,01% по-прежнему приводило к тому, что 10% ответов, данных LLM, содержали неверные данные (а сокращение до 0,001% по-прежнему приводило к тому, что 7% ответов были неверными), что говорит о том, что для искажения ответов, данных LLM, достаточно всего лишь нескольких таких документов, размещенных на веб-сайтах в реальном мире .
Затем команда написала алгоритм, способный идентифицировать медицинские данные в LLM, а затем использовала перекрестные ссылки для проверки данных, но они отмечают, что не существует реалистичного способа обнаружить и удалить дезинформацию из общедоступных наборов данных.



















Очень интересная статья! Никогда не задумывался о том, насколько уязвимы модели ИИ к дезинформации в медицине. Как вы думаете, это может повлиять на практику врачей?
Спасибо за информацию! Я работаю в медицинской сфере и понимаю, как важно иметь надежные источники. Очень страшно осознавать, что ИИ может подводить нас.
Вопрос к авторам: какие меры можно принять, чтобы минимизировать влияние «отравленных» данных на обучение ИИ?
У меня был опыт использования ИИ для диагностики. Теперь я понимаю, что следует быть еще осторожнее. Спасибо, что подняли эту тему!
Это открытие заставляет задуматься о будущем медицины. Если ИИ может ошибаться на таких простых данных, как мы можем доверять его рекомендациям?
Интересно, какие конкретно данные были использованы в испытаниях? Это важно для понимания масштабов проблемы.
Я всегда считал, что ИИ — это панацея, но эта статья открыла мне глаза. Надо быть более критичными к его рекомендациям.
Благодарю за статью! Это действительно важная тема, особенно в свете распространения медицинской дезинформации в интернете.
Меня всегда интересовал вопрос этики в ИИ. Как исследователи планируют решать этические дилеммы, возникающие из-за таких уязвимостей?
Удивительно, как быстро технологии развиваются, но, к сожалению, недостатки остаются. Надеюсь, специалисты найдут решение этой проблемы.
Я понимаю, что ИИ может ошибаться, но как это может повлиять на пациентов? Есть ли у вас примеры?
Спасибо за поднятие этой важной темы! Мы, как пользователи, должны быть осведомлены о таких рисках.
Век информации требует от нас большей ответственности и критического мышления. Как вы думаете, должны ли быть более строгие правила для данных, используемых в ИИ?
Интересно, как такие исследования могут изменить подход к обучению ИИ в медицине. Надеюсь, это приведет к более надежным системам.
Я в восторге от прогресса, но эта статья заставила задуматься о его недостатках. Как можно защитить систему от подобных «отравленных» данных?
Спасибо за статью! Она напомнила мне, как важно добывать информацию из проверенных источников, а не полагаться только на ИИ.