Специалисты Центра цифровой экспертизы Роскачества предупреждают о новой схеме мошенничества. Злоумышленники звонят в банк, представляясь клиентами, и пытаются списать деньги со счета или оформить кредит. Расскажем о новой схеме «развода» и поможем не попасться на удочку мошенников.
Нейросети на базе искусственного интеллекта (ИИ) могут имитировать голос позвонившего вам знакомого или родственника. Для этого мошенникам требуется образец голоса, который без труда можно найти в мессенджере, где практически все пользователи отправляют голосовые сообщения. Подделка голоса осуществляется при помощи различных сервисов и программ, способных создавать голосовые аналоги человека на основе записанных образцов.
Качество искусственно созданного голоса определяется точностью и количеством использованных для обучения образцов. Современные технологии позволяют хакерам создать убедительную имитацию голоса человека, имея лишь 20-секундный фрагмент его речи.
Мошенники используют различные способы для сбора образцов голосов своих жертв:
Эти системы ИИ анализируют собранные образцы голоса, чтобы научиться имитировать речь жертвы.
Даже если мошенники подделают чей-то голос и позвонят в банк, они не смогут снять деньги со счета или оформить кредит. Ведущие российские банки, такие как Сбербанк, не используют голосовое управление счетом. Вместо этого для биометрической идентификации используется распознавание лица. Банки хранят голосовые данные в своих базах данных только для автоматического распознавания клиентов при звонках в службу технической поддержки.
Несмотря на опасения, что мошенники могут получить доступ к вашим биометрическим данным (голос, изображение лица) через банки или единую биометрическую систему, их использование для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации.
Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. Это означает, что по этим данным невозможно восстановить ваше лицо или голос.
Банки уделяют большое внимание защите конфиденциальности своих клиентов. Несанкционированный доступ к биометрическим данным может нанести ущерб их репутации и привести к финансовым потерям. Поэтому биометрические данные надежно хранятся и защищены от несанкционированного использования.
Многие люди доверчиво отвечают на телефонные звонки, полагая, что общаются с человеком, записанным в их телефонной книге. Однако мошенники научились копировать голоса, что позволяет им обманом заставить вас перевести деньги на неизвестные счета или номера телефонов. Эти тактики подчеркивают необходимость проявлять бдительность и проверять запросы, даже если вы узнаете голос звонящего.
Преступники используют искусственный интеллект (ИИ) для создания реалистичных аудиосообщений, копирующих голос, интонацию и речевые особенности конкретных людей. Эти сообщения часто используются для телефонного мошенничества, когда преступники представляются членами семьи или знакомыми и просят перевести деньги на указанный номер телефона или банковский счет. Оправдания могут быть разными, например, срочный подарок или нехватка денег на лекарства. Преступники скрывают свою личность, утверждая, что деньги нужно переводить через посредника, такого как друг или продавец. Они часто звонят ночью, чтобы застать жертву врасплох. Небольшие суммы обычно не вызывают подозрений, что позволяет мошенникам успешно выманивать деньги у жертв.
Специалисты из Центра цифровой экспертизы Роскачества предупреждают, что в ближайшем будущем на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки (Deepfake). Такие случаи мошенничества уже появляются, но ещё не получили широкого распространения. Это связано с тем, что технология Deepfake пока несовершенна, и даже обычные пользователи могут легко распознать фальшивое видео. Тем не менее, эксперты по кибербезопасности не исключают, что в будущем мошенники могут начать продавать записи поддельных видеозвонков с клиентами, подобно тому, как сейчас они продают базы телефонных номеров.
Эксперты подготовили правила цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему:
Аферисты продолжают использовать старые мошеннические схемы, но теперь, благодаря современным технологиям, у них появилось больше возможностей для обмана. В сегодняшнем мире каждый, у кого есть смартфон и деньги на счете, может стать жертвой мошенничества.
Чтобы защитить себя, важно обсудить ситуацию со своими близкими и установить кодовую фразу, которая поможет вам убедиться, что звонящий человек является тем, за кого себя выдает.
Если вы получили тревожный звонок, самое главное — сохранять спокойствие и не торопиться. Не поддавайтесь манипуляциям мошенников и не отправляйте деньги на незнакомые счета. Чтобы проверить информацию, сначала позвоните вашим родственникам или друзьям.
Источник: https://rskrf.ru/tips/eksperty-obyasnyayut/voice-fake/
Если у вас возникли вопросы по проведению фоноскопической экспертизы — АНО ЦСЭ «Рособщемаш» предоставит вам необходимую поддержку и поможет разрешить все вопросы и проблемы.