Правозащитный орган Евросоюза предупредил о рисках использования искусственного интеллекта для профилактики правонарушений, медицинской диагностики и целенаправленной рекламы. В будущем году в ЕС планируют принять правила, которые должны смягчить проблемы, создаваемые развитием технологий ИИ.
Хотя ИИ широко используется правоохранительными органами, правозащитные группы заявляют, что авторитарные режимы злоупотребляют им для массового и дискриминационного наблюдения. Критики обеспокоены нарушением основных прав людей и правил конфиденциальности данных.
В опубликованном сегодня отчете агентство ЕС по основным правам человека (FRA), базирующееся в Вене, призвало политиков уделить больше внимания тому, как существующие нормы применяются к ИИ, и обеспечить, чтобы будущие законы об ИИ защищали основные права.
Отчет FRA появился в связи с тем, что Европейская комиссия в будущем году планирует рассмотреть законопроект, охватывающий так называемые сектора с высоким уровнем риска, такие как здравоохранение, энергетика, транспорт и некоторые части государственного сектора.
По мнению FRA, новые нормы должны обеспечить соблюдение всех основных прав, в частности, включать гарантию того, что люди могут оспаривать решения, принимаемые ИИ, и что компании должны быть способны объяснять, как их системы ИИ принимают решения.