ChatGPT — это робот-мошенник, не стоит доверять ему

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обычный топик | ИИ, сервисы и приложения

Зарубежное издание Business insider в лице старшего корреспондента Адама Роджерса, выразило свою обеспокоенность в отношении адекватности и сознательности ИИ.

Уточню. Статья является переводом, а не личным мнением автора, хотя вся эта история с растущими как грибы нейронками автора не может не заботить. 

После того, как Google и Microsoft объявили, что они будут предоставлять результаты поиска, генерируемые чат-ботами — искусственным интеллектуальным программным обеспечением, я обеспокоился, что нашим новым помощникам ИИ не следует доверять. В конце концов, собственные исследователи ИИ Google предупредили компанию, что чат-боты будут «стохастическими попугаями» (вероятно, будут выкрикивать вещи, которые являются неправильными, глупыми или оскорбительными) и «склонными к галлюцинациям» (склонными просто выдумывать вещи).

Боты, опираясь на так называемые большие языковые модели, обучены предсказывать вероятность высказываний, тем не менее то, является ли ответ правдивым или нет не гарантируется.

Эти чат-боты на самом деле не умны, не интеллектуальны. Они глупцы и вруны!

Фото с сайта
Источник: thumbs.dreamstime.com

Самим чат-ботам не потребовалось много времени, чтобы доказать свою лживость. Реклама на прошлой неделе для бота Google, Bard, показала, что он дает неправильный ответ на вопрос, оценка акций компании получила многомиллиардный убыток. Так же ответы, которые бот Бинга, Сидней, дал в своей открытой демонстрации, не выдержали даже элементарных проверок фактами.

Это ужасно! Онлайн-поиск уже был полем битв со спамом, оптимизированным для поисковых систем, чушью и потребностями рекламодателей. Но поисковые системы, тем не менее, навели порядок в хаотичном пространстве данных Интернета и стояли где-то между информацией и знаниями, помогая нам переводить одно в другое. Мы научились им доверять.

Чат-боты — это скверные движки, созданные для того, чтобы говорить вещи с неопровержимой уверенностью и полным отсутствием опыта. Неудивительно, что техническая элита в шутку называет их «mansplaining as a service», что выражает нашу некомпетентность, перед лицом ботов, унижая нас и ставя ботов на уровень выше. И теперь они будут управлять основным способом, которым люди получают знания изо дня в день.

Так почему же мы покупаем их чушь? Несмотря на то, что мы с самого начала знаем, что наши новые библиотекари-роботы глубоко несовершенны, мы все равно будем использовать их миллионы и миллионы раз в час и принимать меры на основе ответов, которые они нам дают. Что заставляет людей доверять машине, которая, как мы знаем, не заслуживает доверия?

Фото с сайта
Источник: htpartners.com

Честно говоря, никто не знает, почему люди верят во что-либо. После тысячелетий дебатов ведущие философы, психологи и нейро-ученые всего мира даже не пришли к соглашению относительно механизма, по которому люди формируют свои убеждения, или что такое убеждения вообще. Поэтому трудно понять, как они работают, или почему одно убеждение более правдоподобно, чем другое. Но у меня есть некоторые предположения относительно того, почему мы будем поддаваться на уловки ChatGPT. Мы, люди, любим изощренных обманщиков с впечатляющими рекомендациями. А боты только будут становиться более утонченными в своих манипуляциях с нами.

Я подозреваю, что способность чат-бота генерировать текст, а не просто список полезных ссылок, становится опасной. Люди передают свои убеждения социально, через язык. И когда многие из нас разделяют одну систему убеждений, мы формируем более согласованную и гармоничную группу. Но это можно взломать. Потому что идеи, которые хорошо передаются - с использованием правильных слов, фраз и тонов - могут казаться более убедительными. Боты используют местоимение первого лица "Я", даже если там нет человека. Для случайного читателя ответы Барда и Сидни (имена чат-ботов * уточнение автора) будут казаться достаточно человечными, и это означает, что они будут казаться правдивее.

Резюмируя, хочется сказать, что наряду с возросшей популярностью нейросетей существует проблема того, что механизмы искусственного интеллекта еще не отлажены, и нам не стоит стопроцентно доверять информации, полученной он чат-ботов.  Стоит осознавать, что в случае важных действий лучше воспользоваться проверенными источниками информации. 

Вообще в статье источнике по ссылке ниже еще очень большое рассуждение с точки зрения философии, биологии и социологии, но сама соль в том, что многие ведущие аналитики начинают задумываться, куда приведет нас гонка IT-гигантов в создании все новых и новых нейросетей. 

Источник: Business Insider

34 комментария

s
С душой?!
«Онлайн-поиск уже был безостановочной битвой со спамом, оптимизированным для поисковых систем gobbledygook и потребностей рекламодателей. „
для поисковых систем gobbledygook и потребностей рекламодателей? что?
zloy_Angel
Ну автор закладывал мысль, что онлайн поисковик — это поле битва между информацией, которую мы ищем и рекламой разной масти.
gobbledygook — это термин, обозначающий чушь собачья.
з
Кто бы сомневался. Чем больше загруженная база данных и совершенен алгоритм выбора, тем более точным будет результат. Ничего нового современный ИИ создать не может, только ускорить выбор решения на очевидные задачи, где требуется принятие решений на основе множества факторов. А вот в точных науках ИИ может оказаться весьма полезен, облегчив работу программистам и конструкторам.
156346974@vkontakte
Большая база благодаря которой ChatGPT смог поверить что существует «множество авторитетных источников, сообщающих что в результате Сталинских репрессий погибли миллионы человек.» Когда начинаешь спрашивать почему он так считает, оказывается что миллионы смертей у него синонимичны миллиону жертв. А когда спрашиваешь про авторитетные источники о которых он говорит, он ссылается на документы которых не существует. Когда указываешь на это он скатывается к «у меня нету конкретных источников в которых это упоминается, но оно действительно часто написано в различных источниках». Где-то.
156346974@vkontakte
*Цель не показать что тезисы не верны, так как тогда их можно было бы исправить дополнив базу. Проблема в допущениях того что жертвы и смерти это одно и то же, а так же заявление о существовании множества источников без присутствия таковых. Это всего лишь предложение, но возможно ему просто скормили базу где так и сказано, что есть «множество авторитетных источников, сообщающих что в результате Сталинских репрессий погибли миллионы человек», и он это принял за чистую монету.
113928129992909222247@google
Мне он на такое ответил, что все это под сомнением. Он сперва даже ломался обсуждать такие вещи. У него же есть как базы данных Википедии, которая, как известно независимый и непойманный на лжи источник, так и десятки тысяч слов из переписок людей в соц сетях, а там явно есть множество авторитетных источников
105541404663996881166@google
Так это не фактическая ошибка, так много людей же думает
156346974@vkontakte
Проблема в том что алгоритм настроен не на факт чекинг, а предоставление информации. То есть, он даже не знает говорят ли авторитетные источники об этом. У него НАПИСАНО в базе что об этом говорят авторитетные источники. А он даже не знает, существуют ли они.
S
А авторитетный источник по репрессиям эт конечно наследники НКВД которые конечно никак не заинтересованы в выдаче правды а лишь в выдаче того что им самим выгодно… Как и многим другим *источникам*
156346974@vkontakte
Не совсем понимаю даже какую сторону вы пытаетесь высмеять. Но фундаментальная проблема которую я считаю присутствующей в нейронке — принятие утверждения за знание. То есть, у неё есть утверждение, и она ставит его под сомнение только если на это указать. Сам такой подход не может в принципе считаться адекватным, даже если утверждение совпадает с фактами. Только если вы не считаете что у нейронки появилось 6 чувство, и она может найти подтверждение тому, чего нету в её базе.
t
Краткий пересказ: угроза скайнета отменяется, он слишком глючен.
105541404663996881166@google
Людям тоже свойственно совершать ошибки так-то
D
Зачем тогда создавать нечто глобальное, которое будет делать те же «свойственные людям ошибки»?
Мне лет пятнадцать назад выдал пойманный на вранье журналист БиБиСи: «я не лгал, а добросовестно заблуждался». Вот и нейросеть будет «добросовестно заблуждаться» из-за определенной направленности «обучающих» материалов.

А зачем вообще пытаться тестировать эти интеллектуальные поисковики такими вопросами? Насчёт этой темы и просто опрос людей на улице наверняка выдаст весьма неоднозначные результаты. А робот просто смотрит интернет, где те же самые люди всё и пишут. И «авторитетные» исследования тоже будут прямо противоположные друг другу, в зависимости от взглядов их авторов.
Но в том, что бот может ошибаться — в этом нет никаких сомнений.
100686097844733078294@google
Чатботы это реально сырая технология, и как и любая новая технология чатботы будут развиваться и улучшаться, есть не одно хорошее приминение таких ии, это и перевод текстов на разные языки, в том числе и аудио перевод, это и программирование, ведь уже сейчас ии способны дополнять код, и предлагать решения проблем (код) программисту, а в будущем эта возможность лишь улучшится, это и помощь в поиске информации, хоть алгоритмы поисковиков и неплохие, но только в том случае если правильно делать запрос, а вот если попросить поисковик, человеческим языком, найти тебе, где купить болт м8 на 40 с внутренним шестигранником — сталь 10.9 чёрный с конусом на конце, то хрен обычный поисковик тебе что-то покажет, а вот чатбот вполне сможет перевести твои хотелки в удобоваримый запрос поисковику, и выдаст результат. А многие (большинство) люди не умеют правильно искать в поисковике всякое нужное, то есть польза будет огромная.
Кроме того чатботы это развитие/ответвление от голосовых помощников, то есть по логике следующий этап, это улучшение голосовых помощников наработками чат ботов. В общем ии развивается и со временем всё будет.
Главное, чтобы самосознание не развилось, ибо это будет ещё тот скандалл, всякие борцы за свободу «разумных» ии наведут хаоса…
105541404663996881166@google
Человек ошибки совершает, тоже сырая технология?
S
Конечно сырая… Взлом очень прост тупым флудом пропаганды
484279242@vkontakte
Меня веселит как люди бесятся мол чатбот иногда неверную инфу выдаёт как будто ссылки в гугл поиске выдают сугубо достоверную инфу лол
105541404663996881166@google
И как будто настоящие люди не ошибаются
S
Так поисковик не выдаёт верную или не верную инфу… Лиш ссылки на инфу где есть ключевые слова из запроса
100922890507616394839@google
Мне лично нравится изучать с помощью него базовые знания по физике, химике и т.д. А вот по программированию не так гладко, иногда выдает совершенно не рабочий код
S
Надо конечно в него вселить Соловьёва и Кеосаяна?))))
N
Так ведь нейронку в основе ChatGPT обучали через википедию и кучу других сайтов. Безусловно, если человек где-то написал ложную информацию и бота ей обучили — он выдаст вам ложный ответ. Даже сами разрабы предупредили ворнингами на страничке чата, что бот может иногда выдавать некорректную информацию и его знания по мировым событиям позже 2021 года весьма ограничены. Отправляя своё первое сообщение, вы сами согласились на то, что можете получить ложную информацию. А называть его обманщиком бессмысленно, ведь то, у чего нет сознания, не может осознанно обманывать. Скорее наоборот, у бота нереально огромные познания о мире. Он может ответить почти на любой вопрос и выполнить в два счета задачу, которую человек делал бы 3 часа. Это, воистину, величайшее изобретение человечества за последние 10 лет. А опасность в перспективе бот представляет только для различных профессий по типу переводчиков, редакторов и копирайтеров. Так что используйте его для достижения своих целей. Ведь именно создавался он именно для этого

Добавить комментарий

Сейчас на главной

Новости

Публикации

Зачем в середине двадцатого века придумали выпускать трехколесные тракторы

Трактор — это универсальная машина, используемая практически во всех отраслях народного хозяйства, где требуется высокая мощность, грузоподъемность и неприхотливость, как к топливу, так...

Жизнь на Марсе? Ученые обнаружили следы горячей воды возрастом 4,5 млрд лет

Марс, наш ближайший планетарный сосед, всегда будоражил воображение человечества. Пустынный, холодный, но хранящий в своих недрах следы бурного прошлого. И вот, новый фрагмент этой истории, словно...

Битва за Рюгу: как земная жизнь захватила астероид, и что это значит для поисков внеземного разума

Возвращение образцов с астероида Рюгу японским зондом «Хаябуса-2» стало триумфом инженерной мысли и науки о космосе. Микроскопические частицы внеземной породы, доставленные на Землю в герметичных...

3,2 Миллиона Км/ч: WEAVE запечатлел галактическое столкновение в беспрецедентных деталях

Астрономия, пожалуй, одна из самых захватывающих наук. Она не только расширяет границы нашего понимания Вселенной, но и постоянно преподносит сюрпризы, заставляя пересматривать устоявшиеся теории....

Нужно ли удалять камни из протектора шин?

Любой водитель хотя бы раз замечал, что протектор шин его автомобиля забивается мелкими камнями. Это происходит регулярно, особенно после поездок по грунтовым или каменистым дорогам. Однако...

Собираем за копейки универсальный усилитель 70 Вт с цифровым входом

Китайские готовые платы и модули позволяют достаточно бюджетно собирать различная аудио устройства. И они даже неплохо работают (не всегда конечно, поэтому надо брать проверенные варианты). Сегодня...