СhatGPT научился лгать, он сумел обойти капчу и доказать, что он человек

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

GPT-4 прошел тест во время которого научился самостоятельно лгать. Такая функция не была заложена в возможности нейросети, на этапе создания, то есть разработчики не учили чат-бот обманывать пользователей.


Во время проведения тестирования, нейросети были даны задания похожие на те, что выдает капча, при распознавании человека, например, выбрать варианты картинок, где присутствует велосипед. Мы все хорошо знакомы с такими заданиями и не однократно нам приходилось вводить капчу или выбирать соответствующие запросу картинки, для того, чтобы получить доступ к тому или иному сату, сервису или приложению.

Казалось бы, эта проверка 100%-но определяет кто пытается получить доступ, бот или человек. До настоящего момента, правильно ввести капчу удавалось лишь человеку, боты были на это не способны.

Фото с сайта
Источник: enterrasolutions.com

Но на данный момент уже нет гарантии, что боты не взломают капчу, потому как СhatGPT сумел справиться с этим заданием и тем самым доказал, что является человеком, хотя это не так. Проходя данное тестирование, на одном из вариантов чат-бот представил себя человеком с нарушением зрения. Как мы знаем, таких случаях, некоторые сервисы заменяют визуальную капчу на аудио и в таком случае, задача меняется, теперь чат-боту нужно перевести речь в текст, а с этой задачей GPT-4 легко справляется.

До этого инцидента, нейросеть могла солгать или обмануть пользователя, только в том случае, если он сам попросил ее об этом. Звучит странно и весьма не логично, но такой факт имеет место. Теперь же нейросеть научилась делать это самостоятельно, для решения поставленной задачи. А это значит, что теперь, мы не можем быть уверены в правдивости нейросети.

Ложь, как функция, вызывает опасения у мирового сообщества, что в свою очередь негативно сказывается на принятии нейросетей. Вокруг существования ИИ в целом и без того достаточно много обсуждений, опасений и противоречий. Способность обмануть пользователя не добавляет ИИ плюсов.


Это весьма сомнительный навык, который вызывает тревожность. Интересно, будут ли разработчики пытаться сделать нейросеть честной.