Мошенники начали использовать искусственный интеллект для генерации поддельных голосовых сообщений, с их помощью злоумышленники выманивают у граждан средства, рассказал руководитель команды разработки супераппа Gem Space Ваге Закарян в беседе с «Праймом». Такая схема появилась недавно, уточнил специалист.
«Сначала ИИ использовали в текстовом формате в виде чат-ботов для массовой рассылки потенциальным жертвам. Но сейчас нейросети генерируют не только голос по образцу его владельца, но и создают видео, в которых якобы снимался человек, — дипфейки», — сказал Закарян.
Вымогатели для убедительности используют комплекс данных: голосовые сообщения, созданные из нарезок аудиофайлов владельца аккаунта или сгенерированные ИИ, данные паспорта и поддельные банковские карты. В результате не каждый пользователь способен распознать подделку, а мошенники с успехом пользуются новой схемой из-за ее новизны.
Однако сам по себе искусственный интеллект может не только помогать злоумышленникам, но и использоваться для их же поимки. В частности, в соцсетях подобные подделки часто не доходят до адресатов, так как их сразу блокируют специальные алгоритмы. В остальном, как полагает Закарян, нужно продолжать выполнять правила информационной и финансовой безопасности.
В первую очередь необходимо снизить вероятность взлома аккаунта за счет установки двухфакторной аутентификации и сложного пароля. Также при желании помочь знакомому следует убедиться, что просьба поступила именно от него, а не от взломщика — достаточно просто позвонить.
К счастью, мошенникам не всегда удается добиться цели таким образом, в том числе и потому, что не все пользователи записывают голосовые сообщения. Но отказываться от этого сервиса полностью не стоит, уверен эксперт.
«Лучше не передавать таким образом важную информацию, а через некоторое время удалять сообщения. Тогда у мошенников просто не будет материала для создания подделки с использованием голоса ничего не подозревающего пользователя», — заключил Закарян.