Люди, которым платят за обучение ИИ, делегируют свою работу... ИИ
Вместо того чтобы тренировать искусственный интеллект самостоятельно, некоторые специалисты по его обучению начинают использовать сам ИИ для выполнения своей работы.
Суть этого подхода заключается в том, что работники, которые обычно занимаются решением большого количества рутинных задач для обучения систем искусственного интеллекта (разметка и маркировка данных, аннотирование текста и др.), начинают использовать себе в помощь такие инструменты, как ChatGPT. Неудивительно, ведь таким работникам обычно платят очень мало, а требуют от них выполнения большого объема работы. И они, таким образом, пытаются увеличить свой потенциал заработка.
Проверка на использование ИИ в работе
Чтобы понять, насколько много таких сотрудников используют в своей работе помощь нейросетей, исследователи из Швейцарского федерального технологического института наняли 44 человека на платформе Amazon Mechanical Turk, чтобы сделать 16 саммари из медецинских научных работ. Далее исследователи анализировали ответы группы этих людей с помощью модели ИИ, которую сами же и обучили. Также они исследовали нажатия клавиш работников, чтобы проверить, как часто они делали «копипаст» в процессе генерации своих ответов.
По результатам этого исследования выяснилось, что ИИ в своей работе использовали от 33% до 46% сотрудников.
Основным преимуществом такого подхода является экономия времени и ресурсов. Поскольку ИИ может обрабатывать данные значительно быстрее, чем человек, процесс обучения становится более эффективным и производительным. И скорее всего этот тренд будет только расти.
Потенциальные проблемы с обучением ИИ
Однако такой подход не лишен недостатков. Во-первых, существует опасность потери контроля над процессом обучения искусственного интеллекта. Если ИИ делает ошибки или получает неправильные метки, это может привести к неверным результатам и плохим моделям.
Во-вторых, использование искусственного интеллекта для его же обучения создает зависимость от технологии. Если ИИ, используемый для выполнения работы, сталкивается с проблемами, это может привести к задержкам и сложностям в обучении моделей нейросетей.
Все это может привести к большой путанице по мнению Ильи Шумайлова (младшего научного сотрудника по информатике Оксфордского университета) — «Использование генерируемых ИИ данных для обучения ИИ может добавить дополнительные ошибки и без того подверженным ошибкам моделям. Большие языковые модели регулярно выдают ложную информацию за факт. Если они генерируют неверные результаты, которые используются для обучения других моделей ИИ, ошибки могут быть поглощены этими моделями и усиливаться со временем, что делает более трудным выяснение их происхождения».
Поэтому необходимо следить за развитием и надежностью ИИ-систем, чтобы избежать подобных ситуаций.
Источник: technologyreview
5 комментариев
Добавить комментарий
Судя по статье — нет.
Подсказка — Искуственного Интеллекта еще нету. Есть программы которые на основе больших текстовых данных имитируют «поток сознания».
Меня вот ещё бесит, как 3д дизайнера фраза игроков в компьютерные игры, застрял в текстурах, это такая дичь просто нет слов. Не вижу смысла в поощрении использования не правильных терминов, люди итак тупеют от технологий.
Добавить комментарий