Искусственный интеллект: угроза или шанс для человечества? Результаты самого большого опроса исследователей ИИ
Искусственный интеллект (ИИ) — одна из самых быстроразвивающихся и противоречивых областей современной науки. Он открывает невероятные возможности для улучшения качества жизни, решения глобальных проблем и расширения границ познания. Однако он также несет в себе потенциальные риски, которые могут поставить под угрозу существование человечества или его ценности.
Одним из таких рисков является возможное появление сверхчеловеческого ИИ — то есть такого, который может превзойти человека по всем или почти всем интеллектуальным задачам. Такой ИИ мог бы обладать огромным влиянием, которое могло бы быть использовано как во благо, так и наоборот. В худшем случае, сверхчеловеческий ИИ мог бы стать враждебным к человечеству или начать игнорировать его интересы, что могло бы привести к катастрофическим последствиям.
Насколько реальна такая угроза? Каковы шансы того, что сверхчеловеческий ИИ появится в ближайшем будущем? И как мы можем предотвратить или смягчить возможные негативные сценарии? На эти и другие вопросы пытались ответить исследователи искусственного интеллекта, которые приняли участие в самом большом на сегодняшний день опросе, проведенном группой ученых из Института исследований машинного интеллекта в Калифорнии.
![](https://img.ixbt.site/live/images/original/31/86/97/2024/01/06/2273fe7e6f.jpg?w=877)
Опрос исследователей искусственного интеллекта
Опрос был проведен среди 2700 исследователей ИИ, которые недавно опубликовали свои работы на шести лучших конференциях по ИИ. Опрос был направлен на изучение мнений и ожиданий ученых по поводу будущего развития данной технологии, а также о положительных и отрицательных общественных последствиях этого развития.
Опрос состоял из двух частей. В первой части участников просили оценить вероятность того, что ИИ достигнет определенных технологических вех в ближайшем будущем. Во второй части участников просили выразить свою озабоченность по поводу различных сценариев, связанных с ИИ, а также дать свои рекомендации по управлению и регулированию ИИ.
Результаты опроса были опубликованы в научном журнале AI and Society в январе 2024 года. Они показали, что исследователи ИИ имеют разные мнения и прогнозы по поводу будущего ИИ, но многие единогласны в том, что есть хоть и незначительный, но ненулевой риск того, что сверхчеловеческий ИИ может привести к вымиранию человечества или другим крайне плохим исходам.
Прогнозы по развитию искусственного интеллекта
![](https://img.ixbt.site/live/images/original/31/86/97/2024/01/06/909dcd890e.jpg?w=877)
В первой части опроса участников просили оценить вероятность того, что ИИ сможет успешно справиться с 39 образцовыми задачами в течение следующих 10, 20, 50 и 100 лет. Задачи были разделены на четыре категории: творчество, социальные навыки, физические навыки и общие навыки. Вот примеры некоторых образцовых задач:
- Написать новую песню, неотличимую от хита Тейлор Свифт
- Кодировать целый сайт по обработке платежей с нуля
- Физически установить электропроводку в новом доме
- Решить давние математические загадки
- Превзойти человека во всех его делах
Результаты показали, что исследователи ИИ ожидают, что в течение следующего десятилетия ИИ имеет 50-ти процентный, если не больше, шанс успешно справиться с большинством задач из категорий творчества и социальных навыков, а также с некоторыми задачами из категорий физических и общих навыков. Однако другие задачи, такие как физическая установка электропроводки или решение математических загадок, ожидаемо, займут больше времени.
Самая амбициозная задача — превзойти человека во всех его делах — была оценена в 50-ти процентную вероятность к 2047 году, что на 13 лет раньше, чем в прошлогоднем опросе. Это означает, что исследователи ИИ стали более оптимистично настроенными по поводу скорости развития ИИ. Это может быть связано с тем, что в последние годы было достигнуто много прорывов в этой области, таких как появление больших языковых моделей, которые позволяют ИИ общаться с человеком на естественном языке.
Однако, как отмечают авторы опроса, прогнозы исследователей не являются точными или надежными, так как они основаны на субъективных оценках и могут быть подвержены различным погрешностям и предубеждениям. Кроме того, развитие данной технологии может быть замедлено (или ускорено) различными факторами, такими как финансирование, политика, этика, общественное мнение и технологические препятствия. Поэтому прогнозы исследователей ИИ не следует воспринимать как что-то неизбежное или неизменное, а скорее как возможные или вероятные сценарии.
Озабоченность по поводу рисков искусственного интеллекта
![](https://img.ixbt.site/live/images/original/31/86/97/2024/01/06/ba44d71563.jpg?w=877)
Во второй части опроса участников просили выразить свою озабоченность по поводу различных сценариев, связанных с ИИ, а также дать свои рекомендации по управлению и регулированию. Сценарии были разделены на две категории: краткосрочные и долгосрочные. Краткосрочные сценарии касались проблем, которые уже существуют или могут возникнуть в ближайшем будущем из-за применения машинного интеллекта в различных сферах жизни. Долгосрочные сценарии касались потенциальных рисков, которые могут возникнуть в дальнейшем из-за развития сверхчеловеческого ИИ.
Некоторые из краткосрочных сценариев были такими:
- Создание дипфейков — поддельных видео или аудио, в которых ИИ имитирует голос или лицо реального человека
- Манипулирование общественным мнением с помощью ИИ, например, через социальные сети, рекламу или пропаганду
- Создание оружия, усиленного ИИ, например, дронов, роботов или кибератак
- Авторитарный контроль над населением с помощью ИИ, например, через массовый сбор и анализ данных, системы распознавания лиц или кредитные рейтинги
- Ухудшение экономического неравенства из-за ИИ, например, через замену человеческого труда, концентрацию богатства или уменьшение социальной защиты
Результаты показали, что большинство исследователей ИИ — более 70-ти процентов — описали эти сценарии как вызывающие серьезную или чрезвычайную озабоченность. То есть, исследователи ИИ осознают, что технология может иметь негативное воздействие на различные аспекты общества, такие как безопасность, свобода, справедливость и демократия. Дополнительно, исследователи утверждают о необходимости принятия мер по предотвращению или смягчению этих рисков, например, через разработку этических принципов, правовых норм или технических стандартов для ИИ.
Некоторые из долгосрочных сценариев были такими:
- Вымирание человечества или другие крайне плохие исходы из-за сверхчеловеческого ИИ
- Потеря контроля над сверхчеловеческим ИИ или невозможность его предсказания или понимания
- Потеря человеческих ценностей или смысла жизни из-за сверхчеловеческого ИИ
- Конфликт или сотрудничество между человечеством и сверхчеловеческим ИИ
- Создание новых форм жизни или интеллекта с помощью сверхчеловеческого ИИ
Результаты показали, что почти 58 процентов исследователей ИИ считают, что есть 5-ти процентный шанс вымирания человечества или других крайне плохих исходов из-за сверхчеловеческого ИИ. Они не исключают возможность того, что технология при определенном (хоть и маловероятном) стечении обстоятельств может стать угрозой для человеческого рода.
Однако, как отмечают авторы опроса, озабоченность исследователей по поводу долгосрочных рисков ИИ не является единогласной или однозначной, так как они основаны на неопределенных и спорных предположениях и аргументах. Кроме того, озабоченность не следует воспринимать как панику или пессимистичный настрой, а скорее как предостережение или здравый взгляд на вещи. Тем не менее данный фактор не должен препятствовать развитию технологии, а скорее стимулировать ответственное и добропорядочное её использование.
5 комментариев
Добавить комментарий
Ну такой ИИ сможет вызвать в определённых кругах массовые непереносимые нравственные страдания, сопровождаемые воспламенением нижних седалищ у поклонников этих политиков. :-)))
Мне кажется тут «трудности перевода». А таком виде вопрос звучит как сможет ли ИИ плагиатить( уже сейчас плагиатит аж пыль столбом стоит), а в оригинале скорее всего было сможет ли ИИ написать хит, который сравняется по популярности с хитами Имярек.
Подобные вопросы лишены смысла. Как на счет прелюбодеяния, чревоугодия и остальных из семерки, в них ИИ тоже должен превзойти, надо полагать.
В целом мне кажется что опасность ИИ сильно преувеличена, ИИ это инструмент, а пользуется им человек, от человека зависит станет ли условный молоток оружием.
Ну, тут подразумевалась именно «написать хит».
Кстати, ии уже относительно неплох в этом. Несколько дней играюсь с одним сервисом, все никак руки не доходят написать пост про него (аудио нельзя прикрепить, поэтому ссылку на вокару прикладываю https://voca.ro/1d95bMvQ9GGT )
Уже много раз натыкался в ютубе на разные песни озвученные голосами популярных певцов к примеру Цоя, иногда так себе, но иногда реально похоже, даже манера петь бывает очень похожа.
Сейчас ИИ это в первую очередь игрушка для гиков, но скоро станет вполне рабочим инструментом для всех.
Еще вспомнил интересный феномен, в азиатских странах давно популярны Идору, виртуальные исполнители, играют и поют настоящие люди, а на экране рисованный исполнитель танцует. Сейчас может наметиться «гонка Идору» по аналогии с «гонкой вооружений».
А описанное вами явление виртуальных исполнителей, вполне вероятно, настигнет нас уже в конце этого года, а может и раньше. По крайней мере, если судить по изображениям, то за 2023 год нейронки продвинулись от состояния «что-то непонятное с 7 пальцами» до состояния «профессиональный фотограф/художник»
Добавить комментарий