Люди, которым платят за обучение ИИ, делегируют свою работу... ИИ

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Вместо того чтобы тренировать искусственный интеллект самостоятельно, некоторые специалисты по его обучению начинают использовать сам ИИ для выполнения своей работы.


Автор: iamaleksg Источник: app.leonardo.ai

Суть этого подхода заключается в том, что работники, которые обычно занимаются решением большого количества рутинных задач для обучения систем искусственного интеллекта (разметка и маркировка данных, аннотирование текста и др.), начинают использовать себе в помощь такие инструменты, как ChatGPT. Неудивительно, ведь таким работникам обычно платят очень мало, а требуют от них выполнения большого объема работы. И они, таким образом, пытаются увеличить свой потенциал заработка.

Проверка на использование ИИ в работе

Автор: iamaleksg Источник: app.leonardo.ai

Чтобы понять, насколько много таких сотрудников используют в своей работе помощь нейросетей, исследователи из Швейцарского федерального технологического института наняли 44 человека на платформе Amazon Mechanical Turk, чтобы сделать 16 саммари из медецинских научных работ. Далее исследователи анализировали ответы группы этих людей с помощью модели ИИ, которую сами же и обучили. Также они исследовали нажатия клавиш работников, чтобы проверить, как часто они делали «копипаст» в процессе генерации своих ответов.

По результатам этого исследования выяснилось, что ИИ в своей работе использовали от 33% до 46% сотрудников.

Основным преимуществом такого подхода является экономия времени и ресурсов. Поскольку ИИ может обрабатывать данные значительно быстрее, чем человек, процесс обучения становится более эффективным и производительным. И скорее всего этот тренд будет только расти.

Потенциальные проблемы с обучением ИИ

Автор: iamaleksg Источник: app.leonardo.ai

Однако такой подход не лишен недостатков. Во-первых, существует опасность потери контроля над процессом обучения искусственного интеллекта. Если ИИ делает ошибки или получает неправильные метки, это может привести к неверным результатам и плохим моделям.

Во-вторых, использование искусственного интеллекта для его же обучения создает зависимость от технологии. Если ИИ, используемый для выполнения работы, сталкивается с проблемами, это может привести к задержкам и сложностям в обучении моделей нейросетей.

Все это может привести к большой путанице по мнению Ильи Шумайлова (младшего научного сотрудника по информатике Оксфордского университета) — «Использование генерируемых ИИ данных для обучения ИИ может добавить дополнительные ошибки и без того подверженным ошибкам моделям. Большие языковые модели регулярно выдают ложную информацию за факт. Если они генерируют неверные результаты, которые используются для обучения других моделей ИИ, ошибки могут быть поглощены этими моделями и усиливаться со временем, что делает более трудным выяснение их происхождения».


Поэтому необходимо следить за развитием и надежностью ИИ-систем, чтобы избежать подобных ситуаций.