ChatGPT в ходе экспериментов показал себя более чутким, чем люди, спасающие людей в кризисных ситуациях
По определению, роботы не могут испытывать эмпатию, поскольку для этого требуется способность соотносить себя с человеческим опытом другого человека — ставить себя на его место.
Однако, согласно новому исследованию Университета Торонто, искусственный интеллект (ИИ) может создавать эмпатические реакции более надежно и последовательно, чем люди.
К ним относятся профессиональные специалисты по реагированию на кризисы, обученные сопереживать нуждающимся.
«ИИ не устает», — говорит Дарья Овсянникова, руководитель лаборатории профессора Майкла Инцлихта в Университете Торонто в Скарборо и ведущий автор исследования.
«Он может предложить последовательные, высококачественные эмпатические ответы без эмоционального напряжения, которое испытывают люди».
Исследование, опубликованное в журнале Communications Psychology , изучало, как люди оценивают эмпатические ответы, генерируемые ChatGPT, по сравнению с ответами человека.
В ходе четырех отдельных экспериментов участников просили оценить уровень сострадания (важный аспект эмпатии) в письменных ответах на ряд позитивных и негативных сценариев, созданных ИИ, обычными людьми и экспертами по реагированию на кризисы. В каждом сценарии ответы ИИ были предпочтительными и оценены как более сострадательные и отзывчивые, передающие большую заботу, подтверждение и понимание по сравнению с человеческими ответами.
Как чат-бот вроде ChatGPT превосходит подготовленных профессионалов? Овсянникова указывает на способность ИИ улавливать мелкие детали и оставаться объективным, что делает его особенно искусным в создании внимательного общения, которое выглядит эмпатичным.
По словам исследователей, эмпатия — важная черта не только для укрепления социального единства, но и для того, чтобы помочь людям чувствовать себя признанными, понятыми и связанными с другими, которые им сопереживают. В клинических условиях она играет решающую роль, помогая людям регулировать эмоции и чувствовать себя менее изолированными.
Однако постоянное выражение сочувствия имеет свою цену.
«Лица, осуществляющие уход, могут испытывать усталость от сострадания», — говорит Овсянникова, выпускница Университета Торонто в Скарборо, имеющая профессиональный опыт волонтерской работы в качестве специалиста по работе на линии экстренной помощи.
Она добавляет, что профессиональным сиделкам, особенно в учреждениях психического здоровья , возможно, придется пожертвовать частью своей способности к сопереживанию, чтобы избежать выгорания и эффективно сбалансировать свою эмоциональную вовлеченность для каждого из своих клиентов.
Люди также имеют свои собственные предубеждения и могут быть эмоционально затронуты особенно тяжелым или сложным случаем, что влияет на их способность быть эмпатичными. Кроме того, исследователи говорят, что эмпатия в медицинских учреждениях все больше становится дефицитом из-за нехватки доступных медицинских услуг, квалифицированных работников и повсеместного роста психических расстройств.
«Конечно, это не значит, что мы должны в одночасье отказаться от лечения, основанного на эмпатии, в пользу искусственного интеллекта», — говорит Инцлихт, преподаватель кафедры психологии Торонтского университета в Скарборо, который был соавтором исследования вместе с аспиранткой Викторией Олдембурго де Мелло.
«ИИ может быть ценным инструментом, дополняющим человеческую эмпатию, но он несет в себе свои опасности», — говорит Инцлихт.
Он добавляет, что хотя ИИ может быть эффективным средством оказания поверхностного сострадания, которое люди могут сразу же счесть полезным, чат-боты, такие как ChatGPT, не смогут эффективно оказывать им более глубокую и значимую помощь, которая доберется до сути расстройства психического здоровья.
Он отмечает, что чрезмерная зависимость от ИИ также вызывает этические проблемы, а именно, власть, которую это может дать технологическим компаниям для манипулирования теми, кто нуждается в уходе. Например, кто-то, кто чувствует себя одиноким или изолированным, может стать зависимым от общения с чат-ботом ИИ, который постоянно раздает сочувствие вместо того, чтобы способствовать установлению значимых связей с другим человеком.
«Если ИИ станет предпочтительным источником эмпатии, люди могут отказаться от человеческого взаимодействия , что усугубит те самые проблемы, которые мы пытаемся решить, такие как одиночество и социальная изоляция », — говорит Инцлихт, чьи исследования изучают природу эмпатии и сострадания.
Другая проблема — это явление, известное как «неприятие ИИ», которое представляет собой преобладающий скептицизм относительно способности ИИ по-настоящему понимать человеческие эмоции. Хотя участники исследования изначально высоко оценивали ответы, сгенерированные ИИ, когда они не знали, кто — или что — их написал, это предпочтение изменилось, когда им сказали, что ответ пришел от ИИ. Однако Инцлихт говорит, что эта предвзятость может со временем и опытом исчезнуть, отмечая, что молодые люди, которые выросли, взаимодействуя с ИИ, скорее всего, будут больше доверять ему.
Несмотря на острую необходимость в эмпатии, Инцлихт призывает к прозрачному и сбалансированному подходу к внедрению ИИ, чтобы он дополнял человеческую эмпатию , а не заменял ее.
«ИИ может заполнить пробелы, но он никогда не должен полностью заменять человеческое участие».