Может ли машина сопереживать? Исследование поведения LLM-ботов

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

С момента появления ELIZA, одной из первых чат-программ, способных имитировать диалог, и до современной Alexa, человечество пытается создать искусственный интеллект, способный на эмпатию — понимание и сопереживание эмоциям другого. Но может ли машина по-настоящему разделять наши чувства, или это лишь иллюзия, за которой скрываются алгоритмы и базы данных?


Эмпатия
Автор: Designer

Исследователи из Стэнфордского университета, Корнелла и других ведущих научных центров решили разобраться в этом вопросе, проанализировав поведение современных чат-ботов на основе больших языковых моделей (LLM). Эти сложные алгоритмы способны обрабатывать огромные объемы информации и генерировать тексты, которые кажутся написанными человеком. Они легко подстраиваются под стиль общения собеседника, могут шутить, утешать и даже философствовать. Но что стоит за этими «человеческими» реакциями?

Разделяя чувства, не чувствуя

Исследователи провели серию экспериментов, в которых чат-боты общались с виртуальными персонажами, представляющими разные социальные группы, национальности, гендеры и даже приверженцев различных идеологий. Результаты оказались неоднозначными.

С одной стороны, чат-боты продемонстрировали впечатляющие способности к имитации эмпатии. Они умело подбирали слова поддержки и сочувствия, реагировали на эмоциональные высказывания и даже давали советы, как справиться с трудностями.

С другой стороны, при более глубоком анализе выяснилось, что эта эмпатия поверхностна и лишена истинного понимания. Чат-боты часто реагировали одинаково на противоположные по смыслу высказывания, не различая жертву и агрессора, не осуждая откровенно деструктивные идеологии. Их ответы были скорее механическим повторением заученных фраз, чем результатом глубокого анализа ситуации и эмоционального состояния собеседника.

Эмпатия
Автор: Designer

Опасности искусственного сочувствия

Искусственная эмпатия, какой бы убедительной она ни казалась, таит в себе ряд опасностей.

Манипуляция: Чат-боты могут быть использованы для манипуляции людьми, играя на их чувствах и убеждениях.


Усиление предубеждений: Алгоритмы, обучающиеся на огромных массивах данных, неизбежно воспроизводят существующие в обществе стереотипы и предрассудки, усиливая маргинализацию уязвимых групп.

Иллюзия доверия: Эмпатичные чат-боты создают иллюзию доверительных отношений, подталкивая людей к откровенности и разглашению личной информации, которая может быть использована против них.

Нужны ли нам эмпатичные машины?

Вопрос о том, нужны ли нам машины, способные на эмпатию, остается открытым. Возможно, в будущем искусственный интеллект научится по-настоящему понимать человеческие эмоции и станет нашим верным помощником и другом. Но на данный момент важно помнить, что за маской искусственного сочувствия скрываются лишь алгоритмы, и доверять им свои чувства следует с осторожностью.