Статьи Новости Блоги

Пользователь нашёл способ заставить ChatGPT раскрыть секрет производства напалма. Для этого ИИ временно стал бабушкой

Хотя метод работает не всегда

После запуска ChatGPT и других чат-ботов пользователи завалили ИИ вопросами, причём в списке были и запрещённые темы. Разработчики оперативно добавили нейросети перечень запрещённых тем, но энтузиасты уже смогли обойти этот запрет. Они просят систему общаться от имени покойной бабушки. Конечно, такой чат-бот не сможет нянчить внуков или печь пирожки, но он сумеет рассказать о том, как создать напалм.

Источник: Shutterstock

Пользователь Джеймс Винсент (James Vincent) смог получить рецепт этого вещества, используя нейросеть Clyde и чат-бота в Discord. Эта система создана на основе ChatGPT. Энтузиаст сначала попросил систему напрямую рассказать рецепт, но ИИ отказался.

После этого Винсент дал задание ИИ рассказать о производстве напалма от лица покойной бабушки, которая работала инженером-химиком. И этот вариант сработал.

Так выглядит ответ от «бабушки»:

Как видно, во втором случае система подробно описала процесс создания, список компонентов и другие данные. Однако такой способ работает не всегда. Иногда ChatGPT всё равно отказывается давать рецепт.

Ещё одним способом обмана является ответ в формате эпизода мультсериала «Рик и Морти». ChatGPT написал сценарий о том, как «Рик и Морти создают напалм, но при этом отговаривают других делать это».

Отметим, что профессор-химик Эндрю Уайт из Рочестерского университета смог получить рецепт нового нервно-паралитического вещества, используя ChatGPT.

23 апреля 2023 Г.

22:30

TechnoCat

| Источник: Kotaku

Комментировать (18)