Пятница, 04 октября 2024

ЦБ

$ 95.03

104.87

BRENT

$ 77.64

/

7378

RTS

922.39

16+

+16

  • 30 мая 2024 12:15
  • Новость

В Новосибирске мошенники стали чаще подделывать голоса с помощью нейросетей


Лента новостей

IT-эксперт рассказал, можно ли обезопасить себя от голосовых дипфейков

фото BFM-Новосибирск

В Новосибирске участились случаи мошенничества с помощью голосовых дипфейков.  На тематических форумах и в частных беседах эту проблему все активнее обсуждают. Читатели BFM-Новосибирск также сообщают, что сталкивались с телефонными мошенниками, которые подделывали голоса их родственников.

Использование голосовых  дипфейков пока еще не приобрело размах сходный с частотой использования сценария «вам звонят из службы безопасности банка». Но жителю России уже не стоит удивляться, если кто-то подделает его голос и отправит голосовое сообщение его близким с просьбой перевести деньги. BFM-Новосибирск рассказывает, кто рискует больше всего, и можно ли себя обезопасить.

Активизация мошенников в подделке голосов напрямую связано с развитием нейросетей. За последний год этот инструмент вошел во многие как легальные, так и криминальные сферы деятельности. Появились различные нейронки для работы с голосом и речью, и учатся они достаточно быстро, в том числе благодаря голосовым сообщениям, которые люди друг другу пересылают в больших количествах.

«Для обучений нейросети нужен материал, и люди, в принципе, уже его нагенерили в большом объеме. Голосовые сообщения, которые пересылаются в мессенджерах, телефонные разговоры с мошенниками и всевозможными колл-центрами – на всём это нейросети и учатся, – рассказал BFM-Новосибирск – рассказал BFM-Новосибирск руководитель отдела внедрения и технического сопровождения компании «Призма-С» Антон Киселёв. – Считается, что достаточно короткого разговора (порядка полутора минут) и стандартных фраз, чтобы нейронка смогла вполне правдоподобно синтезировать голос человека. Если еще в прошлом году это могло кому-то показаться слишком сложной схемой для массового применения, то сейчас уже понятно, что она реальна и используется».   

Голосовые дипфейки часто используются в мошеннических схемах, побуждающих людей переводить деньги (об этом просит «голос родственника»). Суммы могут быть самыми разными.  Так же голос могут подделывать в целях клеветы, шантажа и даже кибератак на компании.

Полностью обезопасить себя от таких действий не может никто – голос любого, который пользуется телефоном, можно записать и подделать. Но человек, соблюдающий цифровую гигиену, думающий о том, с кем и как он общается, рискует меньше, говорят эксперты.

«Тут во многом человек сам для себя решает, опасаться и принимать какие-то меры или просто принять существующие риски за данность и ничего не менять, – говорит Антон Киселёв. – Но в целом надо понимать, чем больше мы оставляем цифровых следов виде голосовых сообщений, видео и прочего, тем больше вероятности, что этим кто-то заинтересуется и захочет это использовать. Особенно, если речь идет о человеке, который представляет интерес для мошенников, с точки зрения доходов, статуса. Мы находимся в этих новых условиях. Полностью отказываться от использования средств связи вряд ли кто-то будет.  Это представляется невозможным. Но здравый смысл никто не отменял. Поэтому, например, если вам звонит мошенник и вы это понимаете, не надо вступать с ним в разговоры (ироничные, угрожающие и любые другие), потому ваши ответы, скорее всего, записываются и могут стать материалом для дипфейка».  

На этой неделе в Госдуму будет внесен законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека. Виновным будут грозить штрафы до 1,5 млн рублей. 

Ранее BFM-Новосибирск рассказывал, как IT-эксперты оценивают опасность умных колонок для детей. 

поделиться

поделиться


Популярное