Финансист выплатил 25 миллионов долларов США ИИ-фейкам

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Мошенники, которые использовали «дипфейки» на основе искусственного интеллекта, чтобы выдать себя за финансового директора транснациональной компании во время видеозвонка, смогли обманом заставить сотрудника отправить им более 25 миллионов долларов США, сообщает CNN.


Автор: Теро Весалайнен / Shutterstock Источник: 80.lv

Финансового работника обманом заставили совершить видеозвонок с предполагаемым финансовым директором и несколькими другими топ-менеджерами компании, но, хотя они выглядели и звучали довольно убедительно, на самом деле это были дипфейки, сообщила полиция Гонконга в своем заявлении в прошлую пятницу.

По данным CNN, жертве было отправлено электронное письмо, якобы от финансового директора компании. Первоначально сотрудник заподозрил, что сообщение было фишинговым, поскольку в нем содержалась просьба перевести крупную сумму денег на оффшорный счет. Однако мошенникам удалось рассеять все сомнения, пригласив сотрудника присутствовать на видеозвонке, на котором присутствовал предполагаемый финансовый директор и еще несколько знакомых ему коллег.

Полагая, что все участники звонка настоящие, сотрудник согласился отправить более 200 миллионов гонконгских долларов (около 25,6 миллиона долларов США) на указанный счет, сообщил старший суперинтендант барон Чан Шунь-цзин в своем заявлении.

«В видеоконференции с участием нескольких человек выяснилось, что все, кого он видел были фейками», — сказал Чан RTHK, городской общественной телекомпании.

Мошенничество было выявлено только через несколько дней, когда сотрудник забеспокоился по поводу перевода и обратился в головной офис компании. Ни работник, ни компания не были идентифицированы.


Некоторые дипфейки выглядят невероятно реалистично, поэтому неудивительно, что преступники используют эту технологию весьма изобретательными способами для облегчения мошенничества. Полиция Гонконга заявила, что только она выявила более 20 случаев использования дипфейков с использованием искусственного интеллекта для обмана систем распознавания лиц путем имитации внешности людей на удостоверениях личности.

Суперинтендант Чан сообщил, что недавно полиция арестовала шесть человек в связи с мошенничеством, в ходе которого были украдены восемь гонконгских удостоверений личности. Мошенники использовали карты для создания дипфейков, которые могли обмануть системы распознавания лиц, а затем подали более 90 заявок на получение кредита и регистрацию банковских счетов за последний год.

Источник: www.kenyan-post.com

Дипфейки также использовались отдельными лицами в целях манипулирования политическими выборами. В недавнем примере фальшивая аудиозапись президента США Джо Байдена была распространена среди демократов из Нью-Гэмпшира посредством автоматических звонков с просьбой воздержаться от голосования на президентских праймериз.

В прошлом году на X (ранее Twitter) появился еще один дипфейк с изображением сенатора Элизабет Уоррен, в котором она, как сообщается, заявила, что республиканцам нельзя разрешить голосовать на президентских выборах 2024 года. Видео было быстро идентифицировано как фейковое, но за неделю его просмотрели более 189 000 раз, прежде чем его удалили.

В прошлом месяце новая некоммерческая организация TrueMedia объявила о создании нового инструмента, который будет использовать искусственный интеллект для борьбы с дипфейками, чтобы не допустить их распространения дезинформации на выборах 2024 года.

TrueMedia заявила, что проанализирует несколько часов дипфейковых материалов, чтобы обучить модель искусственного интеллекта, способную обнаруживать фейковые видео и аудио. Для этого компания просит общественность присылать примеры дипфейков, чтобы создать более полный набор обучающих данных. Группа надеется запустить бесплатную веб-версию своего инструмента в первом квартале года. По словам организации, сначала он будет доступен журналистам, специалистам по проверке фактов и онлайн-инфлюенсерам.