Опасен ли ChatGPT для бизнеса?

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Опыт Samsung с ChatGPT показывает , насколько рискованным может быть взаимодействие с ИИ. Сотрудники Samsung Semiconductor использовали искусственный интеллект для обмена внутренними данными, которые могли раскрыть важную информацию о производственных процессах и другие секреты компании.


Хотя с одной стороны ChatGPT упрощает и оптимизирует выполнение задач во многих областях, с другой следует подчеркнуть, что данные собираются и хранятся на внешних серверах . Это означает, что любая информация, введенная в чат-бота, будет сохранена и ее будет невозможно удалить.

Автор: Alexandra Koch Источник: pixabay.com

В частности, Samsung зафиксировал три утечки данных всего за 20 дней. Это могло иметь катастрофические последствия для бизнеса компании. По этому компания внедрит системы безопасности в ожидании разработки собственного сервиса, аналогичного ChatGPT, только для внутреннего использования.

В первом случае сотрудник ввел весь исходный код совершенно секретного приложения, чтобы искусственный интеллект мог исправить его ошибки . Это означает, что все программное обеспечение было передано сторонней компании без возможности удаления.

Автор: Tumisu Источник: pixabay.com

Второе касается процесса, разработанного Samsung для производства полупроводников. Сотрудник работал с тестовыми шаблонами, которые компания использует для поиска неисправных дисков и запросов на оптимизацию . Цель состояла в том, чтобы ускорить процедуры тестирования и проверки неисправных чипов, что положительно сказалось на производственных затратах.

В третьем случае, после использования Naver Clova для преобразования записи совещания в текст, она была отправлена ​​в ChatGPT для подготовки презентации . Короче говоря, внутренних данных, которыми делились с чатом всего за 20 дней, было действительно много, что подвергает компанию огромным рискам для ее конкурентоспособности.


Автор: Tumisu Источник: pixabay.com

На самом деле самая большая проблема связана с возможностями обучения алгоритма, которые могут позволить другим компаниям получить доступ к информации без вмешательства даже OpenAI.

В связи с этим Samsung решила ограничить размер информации, вводимой в чат-боте, до 1024 байт. В любом случае, похоже, корейская компания действительно осуществляет тотальную блокировку доступа к ChatGPT с внутренних терминалов.