Видео, где знакомый просит деньги и говорит о сложной жизненной ситуации, может оказаться фейковым. Об этом предупредили специалисты Альянса по защите детей в цифровой среде.
Они объяснили, что аферисты могут с помощью такой технологии создать фальшивые видеозаписи, голосовые сообщения и фото. Лица и прочие биометрические данные людей на подобных материалах заменяют с помощью искусственного интеллекта.
Причём процесс создания дипфейков звучит сложно.
«Программа анализирует снимки и видео, чтобы понять, как выглядит, двигается и звучит определённый человек. Потом на основе этого материала нейросеть создаёт новое изображение или ролик», - объяснили эксперты.
Специалисты также выделили несколько признаков дипфейков:
- неплавное движение человека в видео;
- смена освещения в соседних кадрах;
- человек странно моргает или не делает этого вообще;
- плохая синхронизация губ с речью.
Ранее «МК в Туле» писал, что в Узловой пьяный администратор магазина напал на покупателя и попал под суд.