Негативные последствия ChatGPT: что такое сети ИИ-ботов и какую угрозу они несут

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

С появлением ChatGPT открылись многие возможности для упрощения работы в разных сферах. Программисты могут быстрее писать код, журналисты создавать контент, дизайнеры создавать рисунки. Однако наряду с этими появились и негативные последствия. В частности, засорение социальных медиа спам-ботами и контентом, созданным искусственным интеллектом, что приводит к сильному ухудшению качества информации в интернете.


Источник: www.businessinsider.com

Новое исследование, опубликованное в прошлом месяце исследователями Обсерватории социальных медиа Индианского университета, подробно описывает, как злоумышленники используют возможности чатбота ChatGPT от OpenAI. Исследование, проведенное Кай-Чэн Янгом, исследователем по вычислительным социальным наукам, и Филиппо Менцером, профессором компьютерных наук, обнаружило, что способность ChatGPT генерировать авторитетно выглядящий текст используется для запуска «ИИ-ботов» на X, бывшем Twitter.

Что такое сеть ИИ-ботов

Сети ИИ-ботов — это сети из сотен вредоносных ботов и спам-кампаний в социальных медиа, которые могут оставаться незамеченными текущими антиспам-фильтрами. Они используются для многих целей, например, для продвижения мошеннических схем с криптовалютами и NFT. Бот-аккаунты пытаются убедить людей инвестировать в поддельные криптовалюты и даже могут воровать из их существующих криптокошельков.

Сеть, которую обнаружили Янг и Менцер на X, насчитывала более 1000 активных ботов. Боты следовали друг за другом и отвечали на посты друг друга выводами ChatGPT, часто публикуя украденные из человеческих профилей селфи для создания фейковых персон.

Возникновение социальных медиа предоставило злоумышленникам дешевый способ достичь большой аудитории и монетизировать ложный или вводящий в заблуждение контент, сказал Менцер. Новые инструменты искусственного интеллекта «еще больше снижают затраты на генерацию ложного, но достоверно выглядящего контента в масштабе, подрывая защиту модерации платформ социальных медиа», — сказал он.

В последние несколько лет социальные медиа боты — аккаунты, которыми полностью или частично управляет программное обеспечение — регулярно использовались для усиления дезинформации о событиях, начиная от выборов и заканчивая общественными кризисами, такими как COVID. Такие боты можно было легко выявить из-за их роботизированного поведения и непересекающихся фейковых персон. Однако инструменты генеративного искусственного интеллекта, такие как ChatGPT, создают человекоподобный текст и медиа за считанные секунды.

Такие ИИ-боты в сети, обнаруженной исследователями, в основном публиковали посты о мошеннических криптовалютных и NFT-кампаниях и продвигали подозрительные веб-сайты по подобным темам, вероятно, также написанные с использованием ChatGPT, гласит исследование.

Целые веб-сайты могут состоять из искусственно сгенерированной дезинформации

Помимо социальных медиа, инструменты, аналогичные ChatGPT, породили множество спамных общих новостных веб-сайтов, многие из которых публикуют откровенные фейки. NewsGuard, частная компания, которая оценивает надежность новостных и информационных веб-сайтов, уже обнаружила более 400 подобных порталов, созданных с помощью искусственного интеллекта.


Эти веб-сайты генерируют рекламные доходы от автоматизированной технологии размещения рекламы, которая покупает место для рекламы на веб-сайтах независимо от их качества или характера.