Microsoft утверждает, что китайские, российские, иранские и северокорейские хакеры используют ее инструменты Gen AI для атак на США

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

В заявлении, опубликованном компанией Microsoft, было сообщено о том, что несколько стран, которые имеют напряженные отношения с США, начали использовать инструменты генеративного искусственного интеллекта (ИИ) Microsoft и OpenAI для масштабных кибератак на Соединенные штаты. Согласно этому заявлению, китайские, российские, иранские и северокорейские хакеры используют эти инструменты для атак на США.


Microsoft также сообщила о том, что в сотрудничестве с партнером OpenAI были выявлены и предотвращены угрозы, которые были или могли быть связаны с использованием технологий генеративного ИИ, разработанных упомянутыми противниками. В своем блоге Microsoft отметила, что соперничающие страны все чаще используют крупноязычные модели для взлома сетей и проведения операций влияния.

Автор: koreaherald.com Источник: news.koreaherald.com

Отчет, выпущенный компанией Microsoft совместно с анонсом, подчеркивает потенциал генеративного ИИ для совершенствования вредоносной социальной инженерии, клонирования голоса и создания сложных подделок. Это создает значительную угрозу демократическим процессам, особенно в свете предстоящих выборов.

Отчет также содержит конкретные случаи, когда Microsoft выявила и отключила учетные записи и активы групп хакеров, использующих инструменты генеративного ИИ. Среди этих групп была северокорейская группа Kimsuky, исследовавшая иностранные аналитические центры и проводившая хакерские кампании с использованием фишинга. Иранская Революционная гвардия использовала генеративный ИИ для социальной инженерии и изучения методов уклонения от сетевых вторжений. Российская группа Fancy Bear изучала спутниковые и радарные технологии, связанные с конфликтом в Украине. Китайские группы Aquatic Panda и Maverick Panda изучали возможности дополнения своих технических операций с помощью генеративного ИИ.

Эксперты предупреждают, что генеративный ИИ и крупноязычные модели имеют потенциал стать мощным оружием для каждого государства. Они отмечают необходимость разработки безопасных решений в области генеративного ИИ, чтобы снизить риски кибератак и сохранить безопасность демократических процессов.