Туляков предупредили о «новогодних» схемах мошенников с нейросетями

Туляков предупредили о «новогодних» схемах мошенников с нейросетями
Фото принадлежит ИА SM-News

В России аферисты под Новый год становятся наиболее активными, применяя для своих целей передовые технологии нейросетей, чтобы обмануть туляков и других жителей страны. Об этом сообщил изданию «Газете.Ru» Родион Кадыров, директор по ИИ-продукту FABULA AI .

Злоумышленники намного чаще стали прибегать к применению дипфейк-технологий для того, чтобы похитить финансовые средства, создавая даже видео на основе фотографий человека. По словам специалиста, не следует терять бдительность даже в том случае, если вы слышите в голосовом сообщении знакомый голос.

Видеосообщения в Telegram с лицом вашего друга или родственника легко может быть сделано при помощи технологии Face swap, сказал эксперт.

Также мошенники подделывают и голос родственников или близких, применяя визуальные и голосовые генеративные сети, используют технологии замены лиц (face swap), и применяют много других способов.

Стоит проверять все электронные письма и аккаунты в другом распространенном случае - как аферист представляется сотрудником банка. Стоит помнить, что техподдержка банков клиентам первая пишет крайне редко, и не переходить по ссылкам - они могут быть фишинговыми.

Если же мошенник отправляет вам видеокружок, следует обращать внимание на любой резкий поворот головы - может проявиться эффект «слетания» технологии Face Swap, а голос у "подделки" обычно монотонен и совсем лишен эмоций, поэтому попробуйте вызвать на них человека, которого, как вы считаете, хорошо знаете. 

При подозрении на появление в поле зрения дипфейка сообщайте об этом в службу поддержки компании, чьи данные или имя было использовано мошенниками.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру