ВТБ-инструкции » Часто задаваемые вопросы ВТБ Онлайн » ChatGPT в ходе экспериментов показал себя более чутким, чем люди, спасающие людей в кризисных ситуациях

ChatGPT в ходе экспериментов показал себя более чутким, чем люди, спасающие людей в кризисных ситуациях

27 январь, 2025 0

По определению, роботы не могут испытывать эмпатию, поскольку для этого требуется способность соотносить себя с человеческим опытом другого человека — ставить себя на его место.



Однако, согласно новому исследованию Университета Торонто, искусственный интеллект (ИИ) может создавать эмпатические реакции более надежно и последовательно, чем люди.


К ним относятся профессиональные специалисты по реагированию на кризисы, обученные сопереживать нуждающимся.


«ИИ не устает», — говорит Дарья Овсянникова, руководитель лаборатории профессора Майкла Инцлихта в Университете Торонто в Скарборо и ведущий автор исследования.


«Он может предложить последовательные, высококачественные эмпатические ответы без эмоционального напряжения, которое испытывают люди».


Исследование, опубликованное в журнале Communications Psychology , изучало, как люди оценивают эмпатические ответы, генерируемые ChatGPT, по сравнению с ответами человека.


В ходе четырех отдельных экспериментов участников просили оценить уровень сострадания (важный аспект эмпатии) в письменных ответах на ряд позитивных и негативных сценариев, созданных ИИ, обычными людьми и экспертами по реагированию на кризисы. В каждом сценарии ответы ИИ были предпочтительными и оценены как более сострадательные и отзывчивые, передающие большую заботу, подтверждение и понимание по сравнению с человеческими ответами.


Как чат-бот вроде ChatGPT превосходит подготовленных профессионалов? Овсянникова указывает на способность ИИ улавливать мелкие детали и оставаться объективным, что делает его особенно искусным в создании внимательного общения, которое выглядит эмпатичным.



По словам исследователей, эмпатия — важная черта не только для укрепления социального единства, но и для того, чтобы помочь людям чувствовать себя признанными, понятыми и связанными с другими, которые им сопереживают. В клинических условиях она играет решающую роль, помогая людям регулировать эмоции и чувствовать себя менее изолированными.


Однако постоянное выражение сочувствия имеет свою цену.


«Лица, осуществляющие уход, могут испытывать усталость от сострадания», — говорит Овсянникова, выпускница Университета Торонто в Скарборо, имеющая профессиональный опыт волонтерской работы в качестве специалиста по работе на линии экстренной помощи.


Она добавляет, что профессиональным сиделкам, особенно в учреждениях психического здоровья , возможно, придется пожертвовать частью своей способности к сопереживанию, чтобы избежать выгорания и эффективно сбалансировать свою эмоциональную вовлеченность для каждого из своих клиентов.


Люди также имеют свои собственные предубеждения и могут быть эмоционально затронуты особенно тяжелым или сложным случаем, что влияет на их способность быть эмпатичными. Кроме того, исследователи говорят, что эмпатия в медицинских учреждениях все больше становится дефицитом из-за нехватки доступных медицинских услуг, квалифицированных работников и повсеместного роста психических расстройств.


«Конечно, это не значит, что мы должны в одночасье отказаться от лечения, основанного на эмпатии, в пользу искусственного интеллекта», — говорит Инцлихт, преподаватель кафедры психологии Торонтского университета в Скарборо, который был соавтором исследования вместе с аспиранткой Викторией Олдембурго де Мелло.


«ИИ может быть ценным инструментом, дополняющим человеческую эмпатию, но он несет в себе свои опасности», — говорит Инцлихт.


Он добавляет, что хотя ИИ может быть эффективным средством оказания поверхностного сострадания, которое люди могут сразу же счесть полезным, чат-боты, такие как ChatGPT, не смогут эффективно оказывать им более глубокую и значимую помощь, которая доберется до сути расстройства психического здоровья.


Он отмечает, что чрезмерная зависимость от ИИ также вызывает этические проблемы, а именно, власть, которую это может дать технологическим компаниям для манипулирования теми, кто нуждается в уходе. Например, кто-то, кто чувствует себя одиноким или изолированным, может стать зависимым от общения с чат-ботом ИИ, который постоянно раздает сочувствие вместо того, чтобы способствовать установлению значимых связей с другим человеком.


«Если ИИ станет предпочтительным источником эмпатии, люди могут отказаться от человеческого взаимодействия , что усугубит те самые проблемы, которые мы пытаемся решить, такие как одиночество и социальная изоляция », — говорит Инцлихт, чьи исследования изучают природу эмпатии и сострадания.


Другая проблема — это явление, известное как «неприятие ИИ», которое представляет собой преобладающий скептицизм относительно способности ИИ по-настоящему понимать человеческие эмоции. Хотя участники исследования изначально высоко оценивали ответы, сгенерированные ИИ, когда они не знали, кто — или что — их написал, это предпочтение изменилось, когда им сказали, что ответ пришел от ИИ. Однако Инцлихт говорит, что эта предвзятость может со временем и опытом исчезнуть, отмечая, что молодые люди, которые выросли, взаимодействуя с ИИ, скорее всего, будут больше доверять ему.


Несмотря на острую необходимость в эмпатии, Инцлихт призывает к прозрачному и сбалансированному подходу к внедрению ИИ, чтобы он дополнял человеческую эмпатию , а не заменял ее.


«ИИ может заполнить пробелы, но он никогда не должен полностью заменять человеческое участие».

Также читают:
  • Рациональный выбор дымоходов и печей: ключевые преимущества и рекомендации
  • Денежные поощрения и консультирование могут стать ключом к улучшению показателей успешности лечения туберкулеза
  • Высокий уровень расстройств пищевого поведения среди молодых людей связан с различиями в мозге
  • Выявлена ​​генетическая причина основного типа потери слуха у детей с синдромом Дауна
  • Исследование показало, что штаммы туберкулеза, устойчивые к новым препаратам, передаются от пациента к пациенту
  • Поделиться:

    Задать вопрос
    Подтвердите, что вы не робот:*