- 30 мая 2024 12:15
- Новость
В Новосибирске мошенники стали чаще подделывать голоса с помощью нейросетей
IT-эксперт рассказал, можно ли обезопасить себя от голосовых дипфейков
фото BFM-НовосибирскВ Новосибирске участились случаи мошенничества с помощью голосовых дипфейков. На тематических форумах и в частных беседах эту проблему все активнее обсуждают. Читатели BFM-Новосибирск также сообщают, что сталкивались с телефонными мошенниками, которые подделывали голоса их родственников.
Использование голосовых дипфейков пока еще не приобрело размах сходный с частотой использования сценария «вам звонят из службы безопасности банка». Но жителю России уже не стоит удивляться, если кто-то подделает его голос и отправит голосовое сообщение его близким с просьбой перевести деньги. BFM-Новосибирск рассказывает, кто рискует больше всего, и можно ли себя обезопасить.
Активизация мошенников в подделке голосов напрямую связано с развитием нейросетей. За последний год этот инструмент вошел во многие как легальные, так и криминальные сферы деятельности. Появились различные нейронки для работы с голосом и речью, и учатся они достаточно быстро, в том числе благодаря голосовым сообщениям, которые люди друг другу пересылают в больших количествах.
«Для обучений нейросети нужен материал, и люди, в принципе, уже его нагенерили в большом объеме. Голосовые сообщения, которые пересылаются в мессенджерах, телефонные разговоры с мошенниками и всевозможными колл-центрами – на всём это нейросети и учатся, – рассказал BFM-Новосибирск – рассказал BFM-Новосибирск руководитель отдела внедрения и технического сопровождения компании «Призма-С» Антон Киселёв. – Считается, что достаточно короткого разговора (порядка полутора минут) и стандартных фраз, чтобы нейронка смогла вполне правдоподобно синтезировать голос человека. Если еще в прошлом году это могло кому-то показаться слишком сложной схемой для массового применения, то сейчас уже понятно, что она реальна и используется».
Голосовые дипфейки часто используются в мошеннических схемах, побуждающих людей переводить деньги (об этом просит «голос родственника»). Суммы могут быть самыми разными. Так же голос могут подделывать в целях клеветы, шантажа и даже кибератак на компании.
Полностью обезопасить себя от таких действий не может никто – голос любого, который пользуется телефоном, можно записать и подделать. Но человек, соблюдающий цифровую гигиену, думающий о том, с кем и как он общается, рискует меньше, говорят эксперты.
«Тут во многом человек сам для себя решает, опасаться и принимать какие-то меры или просто принять существующие риски за данность и ничего не менять, – говорит Антон Киселёв. – Но в целом надо понимать, чем больше мы оставляем цифровых следов виде голосовых сообщений, видео и прочего, тем больше вероятности, что этим кто-то заинтересуется и захочет это использовать. Особенно, если речь идет о человеке, который представляет интерес для мошенников, с точки зрения доходов, статуса. Мы находимся в этих новых условиях. Полностью отказываться от использования средств связи вряд ли кто-то будет. Это представляется невозможным. Но здравый смысл никто не отменял. Поэтому, например, если вам звонит мошенник и вы это понимаете, не надо вступать с ним в разговоры (ироничные, угрожающие и любые другие), потому ваши ответы, скорее всего, записываются и могут стать материалом для дипфейка».
На этой неделе в Госдуму будет внесен законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека. Виновным будут грозить штрафы до 1,5 млн рублей.
Ранее BFM-Новосибирск рассказывал, как IT-эксперты оценивают опасность умных колонок для детей.
Рекомендуем:
Популярное
День учителя-2024: когда отмечают, что подарить, будет ли этот день выходным в школах
Металлурги и РусГидро заключили рекордную сделку на покупку углеродных единиц в России
Пенсионеров с непрерывным 10-летним стажем ждет сюрприз: Путин подписал указ
Новосибирцы отмечают Людмилин день: что нельзя делать 29 сентября
Средняя пенсия россиян достигнет приятных цифр: это произойдет уже в 2025 году
Последние новости