По словам экспертов компании «Инфосистемы Джет», в последнее время в Интернете появилось достаточно новое явление под названием «deep fake», которое представляет собой поддельные ролики с наложением голосов и лиц знаменитостей на видеозаписи с различным содержанием с использованием технологий Deep Learning. Технология нейронных сетей позволяет заменять движение губ и речь людей на видео. При этом обычному пользователю достаточно сложно выявить такие фейки, и подобные «шутки» принимаются за чистую монету. Что, в свою очередь, открывает простор для мошенников и провокаторов.

Кред. лимит | 700 000Р |
Проц. ставка | От 15% |
Без процентов | 55 дней |
Стоимость | 990 руб./год |
Кэшбек | До 5% |
Решение | 2 мин. |
Так, недавно в Интернете было обнаружено фейковое видео, где используется образ Дмитрия Нагиева, который якобы обещает зрителям ценные призы или денежное вознаграждение. Чтобы его получить, достаточно просто перейти на указанный сайт. В компании подчеркивают, что такие действия ведут к потере денег. Представитель Дмитрия Нагиева заявил, что ему ничего не известно о таком способе мошенничества.
Эксперты компании «Инфосистемы Джет» уточняют, что при переходе по ссылке под видео пользователь оказывается на портале со сгенерированным именем домена. Как правило, подобные сайты перестают отвечать спустя несколько дней, поскольку попадают в «черный список». Но мошенники запускают новые порталы и новую рекламу. Таким образом, пока сложно подсчитать, сколько уже пострадало россиян.
Пользователь может распознать фейковые видео по целому ряду признаков:
- резкие колебания четкости изображения;
- глаза все время открыты, полузакрыты или не моргают;
- странные шлейфы вокруг головы при резких движениях, наклонах, поворотах;
- колебание теней на лице и освещенности, если положение головы относительно источника света не изменяется и др.
Комментарии: 0