Искусственный интеллект: угроза или шанс для человечества? Результаты самого большого опроса исследователей ИИ

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Искусственный интеллект (ИИ) — одна из самых быстроразвивающихся и противоречивых областей современной науки. Он открывает невероятные возможности для улучшения качества жизни, решения глобальных проблем и расширения границ познания. Однако он также несет в себе потенциальные риски, которые могут поставить под угрозу существование человечества или его ценности.


Одним из таких рисков является возможное появление сверхчеловеческого ИИ — то есть такого, который может превзойти человека по всем или почти всем интеллектуальным задачам. Такой ИИ мог бы обладать огромным влиянием, которое могло бы быть использовано как во благо, так и наоборот. В худшем случае, сверхчеловеческий ИИ мог бы стать враждебным к человечеству или начать игнорировать его интересы, что могло бы привести к катастрофическим последствиям.

Насколько реальна такая угроза? Каковы шансы того, что сверхчеловеческий ИИ появится в ближайшем будущем? И как мы можем предотвратить или смягчить возможные негативные сценарии? На эти и другие вопросы пытались ответить исследователи искусственного интеллекта, которые приняли участие в самом большом на сегодняшний день опросе, проведенном группой ученых из Института исследований машинного интеллекта в Калифорнии.

Автор: Designer

Опрос исследователей искусственного интеллекта

Опрос был проведен среди 2700 исследователей ИИ, которые недавно опубликовали свои работы на шести лучших конференциях по ИИ. Опрос был направлен на изучение мнений и ожиданий ученых по поводу будущего развития данной технологии, а также о положительных и отрицательных общественных последствиях этого развития.

Опрос состоял из двух частей. В первой части участников просили оценить вероятность того, что ИИ достигнет определенных технологических вех в ближайшем будущем. Во второй части участников просили выразить свою озабоченность по поводу различных сценариев, связанных с ИИ, а также дать свои рекомендации по управлению и регулированию ИИ.

Результаты опроса были опубликованы в научном журнале AI and Society в январе 2024 года. Они показали, что исследователи ИИ имеют разные мнения и прогнозы по поводу будущего ИИ, но многие единогласны в том, что есть хоть и незначительный, но ненулевой риск того, что сверхчеловеческий ИИ может привести к вымиранию человечества или другим крайне плохим исходам.

Прогнозы по развитию искусственного интеллекта

Автор: Designer

В первой части опроса участников просили оценить вероятность того, что ИИ сможет успешно справиться с 39 образцовыми задачами в течение следующих 10, 20, 50 и 100 лет. Задачи были разделены на четыре категории: творчество, социальные навыки, физические навыки и общие навыки. Вот примеры некоторых образцовых задач:

  • Написать новую песню, неотличимую от хита Тейлор Свифт
  • Кодировать целый сайт по обработке платежей с нуля
  • Физически установить электропроводку в новом доме
  • Решить давние математические загадки
  • Превзойти человека во всех его делах

Результаты показали, что исследователи ИИ ожидают, что в течение следующего десятилетия ИИ имеет 50-ти процентный, если не больше, шанс успешно справиться с большинством задач из категорий творчества и социальных навыков, а также с некоторыми задачами из категорий физических и общих навыков. Однако другие задачи, такие как физическая установка электропроводки или решение математических загадок, ожидаемо, займут больше времени.


Самая амбициозная задача — превзойти человека во всех его делах — была оценена в 50-ти процентную вероятность к 2047 году, что на 13 лет раньше, чем в прошлогоднем опросе. Это означает, что исследователи ИИ стали более оптимистично настроенными по поводу скорости развития ИИ. Это может быть связано с тем, что в последние годы было достигнуто много прорывов в этой области, таких как появление больших языковых моделей, которые позволяют ИИ общаться с человеком на естественном языке.

Однако, как отмечают авторы опроса, прогнозы исследователей не являются точными или надежными, так как они основаны на субъективных оценках и могут быть подвержены различным погрешностям и предубеждениям. Кроме того, развитие данной технологии может быть замедлено (или ускорено) различными факторами, такими как финансирование, политика, этика, общественное мнение и технологические препятствия. Поэтому прогнозы исследователей ИИ не следует воспринимать как что-то неизбежное или неизменное, а скорее как возможные или вероятные сценарии.

Озабоченность по поводу рисков искусственного интеллекта

Автор: Designer

Во второй части опроса участников просили выразить свою озабоченность по поводу различных сценариев, связанных с ИИ, а также дать свои рекомендации по управлению и регулированию. Сценарии были разделены на две категории: краткосрочные и долгосрочные. Краткосрочные сценарии касались проблем, которые уже существуют или могут возникнуть в ближайшем будущем из-за применения машинного интеллекта в различных сферах жизни. Долгосрочные сценарии касались потенциальных рисков, которые могут возникнуть в дальнейшем из-за развития сверхчеловеческого ИИ.

Некоторые из краткосрочных сценариев были такими:

  • Создание дипфейков — поддельных видео или аудио, в которых ИИ имитирует голос или лицо реального человека
  • Манипулирование общественным мнением с помощью ИИ, например, через социальные сети, рекламу или пропаганду
  • Создание оружия, усиленного ИИ, например, дронов, роботов или кибератак
  • Авторитарный контроль над населением с помощью ИИ, например, через массовый сбор и анализ данных, системы распознавания лиц или кредитные рейтинги
  • Ухудшение экономического неравенства из-за ИИ, например, через замену человеческого труда, концентрацию богатства или уменьшение социальной защиты

Результаты показали, что большинство исследователей ИИ — более 70-ти процентов — описали эти сценарии как вызывающие серьезную или чрезвычайную озабоченность. То есть, исследователи ИИ осознают, что технология может иметь негативное воздействие на различные аспекты общества, такие как безопасность, свобода, справедливость и демократия. Дополнительно, исследователи утверждают о необходимости принятия мер по предотвращению или смягчению этих рисков, например, через разработку этических принципов, правовых норм или технических стандартов для ИИ.

Некоторые из долгосрочных сценариев были такими:

  • Вымирание человечества или другие крайне плохие исходы из-за сверхчеловеческого ИИ
  • Потеря контроля над сверхчеловеческим ИИ или невозможность его предсказания или понимания
  • Потеря человеческих ценностей или смысла жизни из-за сверхчеловеческого ИИ
  • Конфликт или сотрудничество между человечеством и сверхчеловеческим ИИ
  • Создание новых форм жизни или интеллекта с помощью сверхчеловеческого ИИ

Результаты показали, что почти 58 процентов исследователей ИИ считают, что есть 5-ти процентный шанс вымирания человечества или других крайне плохих исходов из-за сверхчеловеческого ИИ. Они не исключают возможность того, что технология при определенном (хоть и маловероятном) стечении обстоятельств может стать угрозой для человеческого рода.

Однако, как отмечают авторы опроса, озабоченность исследователей по поводу долгосрочных рисков ИИ не является единогласной или однозначной, так как они основаны на неопределенных и спорных предположениях и аргументах. Кроме того, озабоченность не следует воспринимать как панику или пессимистичный настрой, а скорее как предостережение или здравый взгляд на вещи. Тем не менее данный фактор не должен препятствовать развитию технологии, а скорее стимулировать ответственное и добропорядочное её использование.