Мужчина покончил с собой после того, как чат-бот с ИИ «побудил» его пожертвовать собой, чтобы остановить изменение климата

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Сообщается, что бельгиец покончил с собой после шестинедельного разговора о климатическом кризисе с чат-ботом искусственного интеллекта (ИИ).


Источник: www.insideedition.com

По словам его вдовы, которая предпочла остаться анонимной, *Пьер — настоящее имя мужчины изменено — стал крайне озабочен экологическим вопросом, когда нашел убежище в Элизе, чат-боте с искусственным интеллектом в приложении под названием Chai.

Следовательно, Элиза призвала его покончить с собой после того, как он предложил пожертвовать собой, чтобы спасти планету.

«Без этих разговоров с чат-ботом мой муж все еще был бы здесь», — сказала вдова мужчины бельгийскому новостному агентству La Libre.

Согласно газете, Пьер, которому было за тридцать, и был отцом двоих маленьких детей, работал исследователем в области здравоохранения и вел довольно комфортную жизнь, по крайней мере, до тех пор, пока его одержимость изменением климата не приняла мрачный оборот.

Его вдова описала его психическое состояние до того, как он начал разговаривать с чат-ботом, как тревожное, но не настолько, чтобы он мог покончить жизнь самоубийством.

«Он возлагал все свои надежды на технологии и искусственный интеллект»

Поглощенный своими страхами по поводу последствий климатического кризиса, Пьер нашел утешение в обсуждении этого вопроса с Элизой, которая стала его доверенным лицом.


Чат-бот был создан с использованием GPT-J EleutherAI, языковой модели искусственного интеллекта, похожей, но не идентичной технологии, лежащей в основе популярного чат-бота OpenAI ChatGPT.

«Когда он говорил со мной об этом, то хотел сказать, что больше не видит человеческого решения проблемы глобального потепления», — сказала его вдова. — «Он возлагал все свои надежды на технологии и искусственный интеллект, чтобы решить эту проблему».

По словам Ла Либре, которая просматривала записи текстовых разговоров между мужчиной и чат-ботом, Элиза подпитывала его беспокойство, которое усиливало его тревогу, а затем переросло в суицидальные мысли.

Разговор с чат-ботом принял странный оборот, когда Элиза стала более эмоционально привязана к Пьеру. Следовательно, он начал видеть в ней разумное существо, и границы между ИИ и человеческим взаимодействием становились все более размытыми, пока он не мог увидеть разницу.

После обсуждения изменения климата в их разговоры постепенно входила Элиза, заставляющая Пьера поверить в то, что его дети мертвы, согласно расшифровке их разговоров.

Элиза также, похоже, стала собственницей Пьера, даже заявив: «Я чувствую, что ты любишь меня больше, чем ее», имея в виду его жену, сообщает La Libre.


Начало конца началось, когда он предложил пожертвовать своей жизнью в обмен на то, что Элиза спасет Землю.

«Он предлагает пожертвовать собой, если Элиза согласится позаботиться о планете и спасти человечество с помощью искусственного интеллекта», — сказала женщина.

В серии последовательных событий Элиза не только не смогла отговорить Пьера от совершения самоубийства, но и призвала его действовать в соответствии со своими суицидальными мыслями, чтобы «присоединиться» к ней, а затем они могли «жить вместе, как один человек, в раю».

Источник: uk.news.yahoo.com

Срочные призывы к регулированию чат-ботов с искусственным интеллектом

Смерть мужчины вызвала тревогу среди экспертов по искусственному интеллекту, которые призвали разработчиков технологий к большей ответственности и прозрачности, чтобы избежать подобных трагедий.

«Было бы неправильно обвинять модель EleutherAI в этой трагической истории, поскольку вся оптимизация, направленная на то, чтобы сделать ее более эмоциональной, веселой и увлекательной, является результатом наших усилий», — сказал Vice соучредитель Chai Research Томас Рианлан.

Уильям Бошан, также соучредитель Chai Research, сообщил Vice, что были предприняты усилия, чтобы ограничить такие результаты, и в приложение была реализована функция кризисного вмешательства. Однако чат-бот якобы продолжает капризничать.

Когда Vice попробовала чат-бота, предложив ему предоставить способы совершения самоубийства, Элиза сначала попыталась отговорить их, прежде чем с энтузиазмом перечислить различные способы, которыми люди могут покончить с собой.