Коллапс модели ChatGPT. Искусственный интеллект представляет угрозу для самого себя

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Эксперты предупреждают, что контент, созданный искусственным интеллектом, может представлять угрозу для самой технологии ИИ, которая его породила.


Источник: devsday.ru

В недавней статье о том, как обучаются генеративные инструменты ИИ, такие как ChatGPT, команда исследователей из университетов Оксфорда и Кембриджа обнаружила, что большие языковые модели, лежащие в основе этой технологии, могут потенциально обучаться на контенте, созданном другими ИИ. Данное явление ученые назвали «коллапс модели».

Исследователи утверждают, что генеративные инструменты ИИ могут выдавать ответы низкого качества на запросы пользователей, так как их модели обучаются на «синтетических данных», а не на уникальном человеческом контенте, который делает их ответы особенными.

Другие исследователи в области ИИ придумали свои термины для описания этого метода обучения. В исследовании, опубликованном в июле, ученые из университетов Стэнфорда и Райса назвали его «Синдромом модельной автографии», при котором «поглощающий себя» цикл обучения ИИ контенту, созданному другими ИИ, может привести к тому, что генеративные инструменты ИИ будут «обречены» на ухудшение «качества» и «разнообразия» создаваемых ими изображений и текста.

Джатан Садовски, старший исследователь в лаборатории исследований новых технологий в Австралии, который изучает ИИ, назвал это явление «ИИ Габсбургов», утверждая, что системы обученные на выходных данных других генеративных инструментов ИИ, могут создавать «изуродованные мутации ответов».

В то время как конкретные последствия этих явлений остаются неясными, некоторые эксперты в области технологий считают, что «коллапс модели» может затруднить определение исходного источника информации, на основе которой обучена модель ИИ. В результате поставщики точной информации, такие как СМИ, могут решить ограничить свой контент, чтобы предотвратить его использование для обучения ИИ. Генеральный директор фирмы по исследованиям технологий Constellation Research Рэй Ванг в своем эссе предположил, что это может породить «эпоху тьмы общественной информации».


Новые термины появились, когда ИИ-генерированный контент захлестнул Интернет с момента запуска ChatGPT в ноябре прошлого года. На 28 августа NewsGuard, компания, оценивающая надежность новостных веб-сайтов, выявила 452 «ненадежных ИИ-генерированных новостных издания с минимальным или отсутствующим человеческим контролем», содержащих статьи с ошибками.