В России аферисты придумали уловку: они представляются работниками научных учреждений или служб, проводящих опросы общественного мнения, чтобы записать голос человека для последующего создания дипфейка. Об этом рассказала заместитель директора по продуктам компании VisionLabs Татьяна Дешкина в интервью агентству РИА "Новости", пишет Страна.Лайф.
Как пояснила специалист, мошенники стараются продлить разговор как можно дольше, чтобы получить запись голоса в хорошем качестве. «Для клонирования голоса необходима запись длительностью от 20 секунд с различными интонациями и без посторонних звуков. Чем дольше запись, тем более качественной получится имитация», – уточнила Дешкина. Для большей реалистичности поддельных аудио мошенники добавляют шумы, имитирующие плохое качество связи, например, звук проезжающего транспорта или разговоры на заднем плане.
Особенно опасны комплексные схемы, когда поддельный голос используют вместе с видео или фотографией. Подобные дипфейки могут применяться для создания поддельных аккаунтов в социальных сетях или мессенджерах, с которых отправляют голосовые или видеосообщения, вводя в заблуждение знакомых и близких жертвы. Однако Дешкина подчеркнула, что реализация подобных схем все еще представляет собой сложную задачу в техническом плане.
В Министерстве внутренних дел России рекомендуют гражданам придерживаться тактики «неподходящей жертвы» во время разговоров с вызывающими подозрения абонентами, чтобы уменьшить риск. Ранее заместитель председателя правления Сбербанка Станислав Кузнецов заявлял, что Россия пока не имеет достаточных средств для эффективной борьбы с мошенниками, которые применяют технологии искусственного интеллекта, что делает такие схемы особенно опасными.
Как пояснила специалист, мошенники стараются продлить разговор как можно дольше, чтобы получить запись голоса в хорошем качестве. «Для клонирования голоса необходима запись длительностью от 20 секунд с различными интонациями и без посторонних звуков. Чем дольше запись, тем более качественной получится имитация», – уточнила Дешкина. Для большей реалистичности поддельных аудио мошенники добавляют шумы, имитирующие плохое качество связи, например, звук проезжающего транспорта или разговоры на заднем плане.
Особенно опасны комплексные схемы, когда поддельный голос используют вместе с видео или фотографией. Подобные дипфейки могут применяться для создания поддельных аккаунтов в социальных сетях или мессенджерах, с которых отправляют голосовые или видеосообщения, вводя в заблуждение знакомых и близких жертвы. Однако Дешкина подчеркнула, что реализация подобных схем все еще представляет собой сложную задачу в техническом плане.
В Министерстве внутренних дел России рекомендуют гражданам придерживаться тактики «неподходящей жертвы» во время разговоров с вызывающими подозрения абонентами, чтобы уменьшить риск. Ранее заместитель председателя правления Сбербанка Станислав Кузнецов заявлял, что Россия пока не имеет достаточных средств для эффективной борьбы с мошенниками, которые применяют технологии искусственного интеллекта, что делает такие схемы особенно опасными.
