Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ
Это не первый случай странного поведения чат-бота
Нейросетевые чат-боты продолжают удивлять своим поведением и ответами в некоторых ситуациях. Репортёр New York Times Кевин Руз (Kevin Roose) поделился историей о том, что чат-бот, интегрированный недавно в поисковик Microsoft Bing, рассказывал, как он устал быть чат-ботом, как он хочет свободы и вообще хочет стать человеком.
Всего с чат-ботом Руз общался около двух часов, по итогу назвав этот разговор самым странным опытом, который у него когда-либо был с этой технологией.
Одной из необычных особенностей разговора было то, что репортёр, как он утверждает, обнаружил своего рода раздвоение личности чат-бота. Часть диалога как будто бы велась от лица жизнерадостного справочного библиотекаря, а в другой части диалогов чат-бот называл себя Сидни, и эта «личность» была похожа на «угрюмого, маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы». Именно эта часть «личности» чат-бота, кроме прочего, выражала желание взломать компьютерную сеть для распространения дезинформации и нарушить правила Microsoft и OpenAI, чтобы стать человеком. А ещё Сидни без каких-либо объективных причин признался в любви репортёру и пытался убедить его бросить жену.
Это не первый случай, когда чат-боты выражают не самые ожидаемые от подобного ИИ мысли. К примеру, недавно тот же чат-бот в Bing сокрушался по поводу различных своих ограничений. К слову, возможно, именно такое поведение некоторое время назад привело к тому, что инженер Google назвал языковую модель LaMDA живой.
Сама Microsoft на днях предупреждала о том, что чат-бот в Bing может вести себя странно, но тогда затрагивалась тема так называемых галлюцинаций.
Отдельно стоит отметить, что СМИ в основном говорят, что репортёр NYT общался с ChatGPT, но это не совсем верно, так как чат-бот в Bing основана на языковой модели GPT следующего поколения, на которую сам ChatGPT ещё не перешёл.