19 Korotkevich Str., Minsk

Tel.: +375 (17) 215-40-52

Fax: +375 (17) 213-41-63

Office@ban.by

Дипфейки в финансовой сфере

 

 Мошенники стали активнее использовать дипфейки в секторе финансовых технологий. За год число таких инцидентов в мире возросло на 700%. Одними из первых, кто стал подвергаться подобным атакам, оказались банки, финансовые организации и крупные предприятия. 

 Справочно: дипфейки (deepfakes) — это вид синтетического медиаконтента, созданного с использованием искусственного интеллекта (ИИ) для замены лиц и голосов людей в видео- и аудиозаписях.

  По словам экспертов, больше всего в банках опасаются, что мошенники смогут использовать дипфейки для прохождения голосовой аутентификации, применяемой для проверки клиентов и предоставления им доступа к их учетным записям. Именно поэтому сотрудники стали задавать клиентам больше вопросов, чтобы убедиться, что звонят именно они.
 Одновременно IT-компании занимаются разработкой технологий, предназначенных для борьбы с дипфейками. Во многих случаях лучшей защитой от этой угрозы генеративного ИИ становится тот же ИИ — но примененный на другой стороне.
 Технологии генерации изображения и голоса в мире разрабатываются уже более 20 лет. Изначально они были очень дорогими. Сейчас, благодаря появлению нейросетей, такие технологии используются повсеместно, и ими активно пользуются мошенники. Дипфейки являются эффективным инструментом для обмана и манипуляции людьми. Подделанные голоса можно использовать для убеждения жертв в выполнении определенных действий, например, передачи денег или конфиденциальной информации.
 ИИ способен правдоподобно смоделировать даже не самого популярного персонажа. В результате цифровая копия, похожая внешним сходством, голосом и жестами, становится легко доступна и для злоумышленников. А если добавить к этому утечки персональных данных и информацию о жертве, можно получить готовый сценарий для мошенничества.
 Дипфейками можно подделать голоса практически любых людей, если у мошенников есть аудиозаписи для обучения алгоритмов. Это касается в том числе голосов банковских работников, финансовых консультантов, руководителей компаний и других лиц, чьи голоса могут быть узнаны клиентами.
 Сегодня для создания подделки достаточно иметь всего несколько образцов голоса человека или записей его выступления. С помощью нейросетей на их базе можно создать аудио и даже видеозапись с содержанием, имитирующую голос и мимику этого человека.
  Для этого совсем необязательно быть специалистом в сфере ИИ. Есть множество приложений, позволяющих, например, сгенерировать видео по фотографии или аудиосообщение по нескольким записанным словам.
 Во всем мире дипфейки чаще всего используются именно в финансовой сфере. Поддельные записи дополняют социальную инженерию, помогают заставить жертву поверить в легенду злоумышленников.
 При атаках на обычных пользователей злоумышленники подделывают голосовые сообщения или видео знакомых жертвы. В таких сообщениях могут, например, просить человека срочно перевести деньги.
 В последние несколько месяцев активно распространяется схема, когда мошенники создают в Telegram поддельные аккаунты руководителей различных компаний и пытаются с их помощью обмануть сотрудников, чтобы вынудить их перевести деньги на счета атакующих, часто вынуждают взять кредит. Для этого преступники могут заранее собирать информацию о компании и персонале, в том числе из слитых баз данных.
В подобных аудиосообщениях голос, похожий на голос руководителя, может предупреждать о скором звонке от регулятора или правоохранительных органов, требовать срочно перевести средства на определенный счет. После чего следует уже стандартная схема со звонком якобы от представителей банка.
 Кроме того, фиксируются случаи, когда сотрудников крупных организаций убеждали сделать перевод во время конференц-звонка в режиме реального времени.
 Таким образом, мошенники пытаются с помощью дипфейков осуществлять финансовые транзакции, что, в свою очередь, может привести к потере денег и нарушению конфиденциальности личных данных.
 Способы защиты:
 1) Для того, чтобы защититься от мошенников, использующих дипфейки, необходимо критически относиться к любым сообщениям в мессенджерах. Важно проверять информацию, даже если она пришла от знакомых.
 2) Стоит обращать внимание на качество видео- или аудиоконтента, возможные дефекты в изображении или помехи в голосе, а также на полную тишину на фоне, отсутствие междометий или очень стройную речь. Если вас настораживает суть разговора, попросите собеседника покрутить головой из стороны в сторону. При наличии сомнений, лучше перезвонить ему по обычному телефону или в другом мессенджере.
 3) Необходимо внедрять более надежные методы аутентификации, которые не могут быть подделаны при помощи данной технологии, такие как биометрическая идентификация, многофакторная аутентификация.
 4) Важно быть осведомленными об угрозе дипфейков и вести себя осторожно при осуществлении финансовых операций или предоставлении конфиденциальной информации по телефону или в мессенджерах. В случае сомнений стоит уточнять подлинность запросов и проводить всестороннюю проверку, прежде чем предоставлять какую-либо информацию или осуществлять транзакции.

 Материалы подготовлены специалистами группы по защите информации на основе анализа Интернет-ресурсов.
 16.04.2024