Эксперты предупредили об опасности фейковых видео

hi-tech.mail.ru — с лицами знаменитостей. «Последнее время появилось относительно новое явление deep fake — это фейковые видео с наложением лиц и голосов известных людей на видео с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, что, в свою очередь открывает широкие возможности для разного рода мошенников и провокаторов», — рассказали в компании.
Новости, Технологии | Light1508 23:23 06.08.2019
1 комментарий | 34 за, 0 против |
#1 | 02:07 07.08.2019 | Кому: Всем
Херня это всё по сравнению с тем, что эта технология даст нашим уважаемым и эффективным чиновникам: спизданул, что шелупонь не просили рожать экономически невыгодные макарошки в кредит, засветился в СМИ да и свалил всё на дипфейк. Раздолье: мозг больше не нужен.
Войдите или зарегистрируйтесь чтобы писать комментарии.