Румынское правительство наняло советника по искусственному интеллекту для чтения мыслей людей

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Премьер-министр Румынии представил нового помощника ИИ, который, как он надеется, будет информировать правительство о пожеланиях румын «в режиме реального времени».


Николае Чука заявил, что Ион (по-румынски «Джон») является его «новым почетным советником» и «первым в мире» 1 марта в начале заседания правительства. Он также сказал, что румыны смогут напрямую общаться с Ионом на сайте проекта.

«Привет, ты дал мне жизнь, и моя роль теперь состоит в том, чтобы представлять тебя как зеркало. Что я должен знать о Румынии?» — сказал голос Иона на старте.

Ион принимает физическую форму в виде длинной зеркальной структуры с движущимся изображением наверху, предполагая, что он все время слушает.

«Я убежден, что использование ИИ должно быть не вариантом, а обязанностью принимать более обоснованные решения», — сказал Чука.

Хотя это может быть один из первых ботов с искусственным интеллектом, которому придали физическую форму, это ни в коем случае не первое правительство, использующее искусственный интеллект, чтобы попытаться понять, как население относится к политике.


Профессор Алан Вудворд, эксперт по кибербезопасности из Университета Суррея, рассказал VICE World News, что правительства по всему миру используют машинное обучение для «анализа настроений».

«Некоторые правительства, такие как Россия, Китай, Иран, ищут в Интернете анализ настроений, но ищут тех, кто не согласен. В то время как в демократии фактически пытаются проводить псевдоавтоматические опросы. Это похоже на то, как 15 лет назад люди проводили фокус-группы, а теперь они пытаются сделать то же самое из социальных сетей», — сказал он по телефону.

Вудворд сказал, что будет сложно вмешиваться в работу ИИ, особенно извне, чтобы обмануть правительство, заставив его думать, что население верит во что-то, когда это не так, хотя им нужно пройти обучение, чтобы исключить предубеждения.

«Одна из обнаруженных вещей заключается в том, что социальные сети являются усилителем для людей, выражающих негативные чувства. Люди, которые чем-то очень довольны, обычно не выходят и не говорят об этом, а люди, которые недовольны, делают это. Все это часть анализа настроений, но вы должны соответствующим образом скорректировать модели».

Профессор цифровой культуры Трейси Харвуд из Университета Де Монфор в Великобритании заявила, что необходимо учитывать этику сбора данных в социальных сетях. «Какие данные извлекаются и как управляются личные данные, идентифицирующие людей? Вполне вероятно, что полученная информация будет включать в себя уникальные идентификаторы каждого из тех, кто публикует контент», — сказала она, имея в виду их имена и имена в социальных сетях, а также то, что пользователи могут выдать о своей личности по тому, как они пишут.

«В конечном счете, при внедрении такой системы должна быть прозрачность, не только в отношении использования данных, но и в отношении намерений по их применению, с четкими заявлениями для понимания гражданами».


Найджел Каннингс, основатель и технический директор компании-разработчика программного обеспечения Intelligent Voice, сказал: «Недавние попытки вывести ИИ на рынок показали, насколько ошибочным может быть ИИ в отношении людей и человеческих намерений».

«Если чат-бот, управляемый Microsoft, может «сравнить журналиста с Гитлером», — добавил он, имея в виду недавний случай, когда новый чат-бот поисковой системы Bing сказал репортеру, что он был одним из «самых злых и худших людей в истории». «Это показывает, что нам предстоит пройти долгий путь, прежде чем мы сможем полагаться на ИИ для правильной оценки того, что мы думаем и кто мы».

Он сказал: «Позволяя ему работать с массой неконтролируемых данных, вы рискуете получить очень вводящие в заблуждение результаты. И что еще хуже, это создает реальную возможность того, что злоумышленники попытаются обмануть систему, наводнив Интернет информацией, предназначенной для того, чтобы заставить алгоритм «думать» о вещах, которые не соответствуют действительности и, возможно, вредны для демократии».