Эксперты предупредили об опасности фейковых видео

hi-tech.mail.ru — с лицами знаменитостей. «Последнее время появилось относительно новое явление deep fake — это фейковые видео с наложением лиц и голосов известных людей на видео с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, что, в свою очередь открывает широкие возможности для разного рода мошенников и провокаторов», — рассказали в компании.
Новости, Технологии | Light1508 23:23 06.08.2019
21 комментарий | 34 за, 0 против |
#1 | 23:24 06.08.2019 | Кому: Всем
Эксперты компании обнаружили в сети мошенническое видео с использованием образа шоумена Дмитрия Нагиева, где он якобы обещает пользователям ценный приз или денежное вознаграждение — для этого лишь надо перейти на сайт. В результате это ведет к потере денег, отметили в компании. Представитель шоумена сказал РИА Новости, что ему неизвестно о таком роде мошенничества.

Как отметили в «Инфосистемы Джет», при нажатии на ссылку пользователь попадает на портал со сгенерированным именем домена. «Такие сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей», — отметили в «Инфосистемы Джет».

По словам специалиста по нейронным сетям компании «Инфосистемы Джет» Анны Олейниковой, deep fake является крайне серьезной угрозой. «Спектр зловредного применения deep fake и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике», — сказала она.

«Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта для противодействия таким угрозам информационной безопасности, как сетевые атаки, спам, вирусы. Но такого рода deep fake — это первые случаи, когда злоумышленники сами вооружились технологиями ИИ. Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий — придется обучать нейронные сети, чтобы они могли находить и распознавать deep fake в сети», — добавила Олейникова.

В компании отметили, что обычный пользователь может распознать такие фейки по ряду признаков: например, если на видео глаза не моргают, все время открыты или полузакрыты, то, скорее всего, это deep fake; резкое колебания четкости изображения; появление странных шлейфов вокруг контура головы при резких движениях, поворотах, наклонах; колебания освещенности и теней на лице, если положение лица относительно источника света не меняется и ряд других.
fantomas
дурачок »
#2 | 23:46 06.08.2019 | Кому: Всем
Да, мы уже в курсе, спасибо!
#3 | 23:47 06.08.2019 | Кому: Всем
лёха панин ещё не назвал себя жертвой дипфейковых технологий???
#4 | 23:48 06.08.2019 | Кому: Всем
лёха панин ещё не назвал себя жертвой дипфейковых технологий?
#5 | 01:33 07.08.2019 | Кому: tuco
> лёха панин ещё не назвал себя жертвой дипфейковых технологий?

Так дипфейк же недавно появился, а видео с собакой сильно старше будет, не?
#6 | 01:41 07.08.2019 | Кому: tuco
> дипфейковых технологий???

Он жертва дипфутовых технологий, а может и не жертва!
#7 | 02:07 07.08.2019 | Кому: Всем
Херня это всё по сравнению с тем, что эта технология даст нашим уважаемым и эффективным чиновникам: спизданул, что шелупонь не просили рожать экономически невыгодные макарошки в кредит, засветился в СМИ да и свалил всё на дипфейк. Раздолье: мозг больше не нужен.
#8 | 02:08 07.08.2019 | Кому: Всем
Теперь несчастный, весь порванный контекст можно оставить в покое.
#9 | 02:26 07.08.2019 | Кому: KRash
>
> Он жертва дипфутовых технологий, а может и не жертва!

По лесам Сибири бегает Дипфут!!!
#10 | 02:44 07.08.2019 | Кому: tuco
> лёха панин ещё не назвал себя жертвой дипфейковых технологий???

Он вроде ещё тогда говорил, что на нём есть татуировки, а на мужике с собакой нет. Или наоборот. Короче, на ком-то есть, а на ком-то нет, а значит, они разные мужики.
#11 | 03:05 07.08.2019 | Кому: Всем
предвыборные обещания будут самые фантастическия.
хотя, про что это я??? они и так
#12 | 04:20 07.08.2019 | Кому: Пальтоконь
> Раздолье: мозг больше не нужен.

Имеет и обратный эффект, об чем кстати и статья. ВВП ебёт собачку, негр развлекается с Кабаевой. :)
Ну а если серьезно то скажем пустить в сеть пару сотен фейковых речей разных известных личностей, и потом объясняй сотням тысяч (если не миллионам) что это фейк (плюсом репутационные потери, ведь после того как это лицо сказало что ты .... доверять снова ему будет тяжело).
#13 | 04:21 07.08.2019 | Кому: Всем
Эта технология отличный инструмент в войне с коллегами, масса возможностей для мести.
#14 | 04:45 07.08.2019 | Кому: Всем
это уже было в Эквилибриуме, когда на личной встрече с отцом нации ему обьясняют что отец не более чем картинка, а всем давно правит некий совет
Malganus
надзор »
#15 | 05:03 07.08.2019 | Кому: Всем
Пелевина перечитывать всё страшнее.

[censored]
#16 | 05:23 07.08.2019 | Кому: fantomas
> Да, мы уже в курсе, спасибо!

[смотрит на ник] ещё бы!!!
#17 | 05:24 07.08.2019 | Кому: Всем
Да у нас уже давно на постоянной основе такие фейковые видео выходят: то одну говорящую голову злые хакеры заставят про макарошки рассказать, то другую!!
#18 | 05:27 07.08.2019 | Кому: Shnyrik
> Да у нас уже давно на постоянной основе такие фейковые видео выходят: то одну говорящую голову злые хакеры заставят про макарошки рассказать, то другую!!

Жирика тоже Безруков сыграл, когда напомнил Бушу кто он есть.
#19 | 06:48 07.08.2019 | Кому: Всем
Ага сейчас договоримся, что и царь-то президент не настоящий!
Ибо настоящий говорил, что возраст пенсионный не поднимет! А этот поднял.
#20 | 07:06 07.08.2019 | Кому: Ataliya
> Ибо настоящий говорил

А вдруг наоборот?!
#21 | 08:41 07.08.2019 | Кому: Всем
Ctrl Shift Face:

[censored]
Войдите или зарегистрируйтесь чтобы писать комментарии.