Украденный искусственный интеллект. Зачем боты воруют выходные данные GPT-4

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Мощные модели искусственного интеллекта, такие как GPT-4 от OpenAI, подвергаются бомбардировке цифровыми ботами, которые «добывают интеллект» новыми и мошенническими способами.


Источник: ru.icotokenfund.com

Этот феномен был недавно замечен Гильермо Раухом, генеральным директором Vercel, стартапа, который помогает разработчикам создавать веб-сайты с интеграцией со многими крупнейшими моделями искусственного интеллекта. Он обсудил это новое поколение ботов в подкасте No Priors с венчурными капиталистами Эладом Гилом и Сарой Го.

Бум генеративного искусственного интеллекта вызвал беспрецедентный спрос на качественные данные. Модели искусственного интеллекта нуждаются в этом контенте для обучения.

«Если вы сможете умело использовать выходные данные GPT-4, Llama 2 и других мощных моделей искусственного интеллекта, то вы могли бы использовать их в качестве свежих обучающих данных для своей собственной модели. Существует угроза перегонки модели. Теоретически модели искусственного интеллекта могут делиться всем, что они знают. Вполне вероятно, что вы можете обучить другую модель, например, на основе 100 000 высококачественных выходных данных GPT-4.»

Гильермо Раух

Действительно, несколько ведущих компаний, занимающихся искусственным интеллектом, включая OpenAI, Google и Anthropic, запрещают использовать свои результаты для обучения других моделей.

Неожиданный счет OpenAI на сумму 35 000 долларов

Еще одна причина: использование высокопроизводительных моделей становится все более дорогостоящим. У OpenAI и других технологических компаний есть ограничения по скорости, при которых даже платящие пользователи могут задавать только ограниченное количество вопросов в минуту или в день.


Вместо того чтобы соблюдать эти правила, злоумышленники создают ботов, которые бомбардируют модели вопросами и оставляют кого-то другого оплачивать счета за все ответы. Раух объяснил, что это часто делается путем проникновения в приложения, которые имеют официальные учетные записи и API-соединения с крупнейшими и наиболее мощными моделями искусственного интеллекта.

«Многие люди пишут ботов, которые пытаются использовать веб-приложения, основанные на искусственном интеллекте. По сути, это прокси-серверы для получения нужной информации, иногда от имени пользователей, которые не платят за доступ к моделям».

Гильермо Раух

Одна разработчица, которую знает Раух, стала жертвой такого рода атак. У нее есть приложение для специалистов по обработке данных, которое запрашивает основную модель большого языка. Боты атаковали и, по сути, использовали приложение в качестве прокси-сервера для доступа к модели искусственного интеллекта.

«Девушка оплатила счет OpenAI на 35 000 долларов. Она потратила месяцы, пытаясь объяснить, что это результат действия мошенников. В конце концов OpenAI вернула ей деньги.»

Гильермо Раух

Уклонение от блокировки китайской модели искусственного интеллекта

Китай заблокировал доступ к ChatGPT, GPT-4 и многим другим топовым моделям генеративного искусственного интеллекта. Раух объяснил, что создание бота, который тайно собирает все лучшие результаты — это один из способов обойти цензуру в этой стране.