跳转至

Deepfake技术可以把话塞进任何人的嘴里-甚至是你的(视频)

深度伪造技术:能让任何人“开口说话”,包括你

你知道存在一种能创建非真实人物图像的技术吗?还有,你知道有一种技术能让这些“人物”开口说话吗?

我们在本网站已经写过各种反乌托邦式的技术,但这个可能是最恐怖的了。
这种被称为“深度伪造”(“深度学习”和“伪造”的合成词)的技术,能够基于人工智能进行人物图像合成。
它运用一种名为生成对抗网络(GAN)的机器学习技术,将现有的图像和视频组合并叠加到源图像或者视频上。

深度伪造技术正在快速发展,其可能产生的后果令人担忧。
深度伪造技术已经被用于制造假新闻、恶意恶作剧、伪造的名人色情视频以及复仇色情内容。
我们都知道互联网能因为一个拍摄角度就迅速对一个人发起攻击。
想象一下这种技术带来的可怕可能性。

在2019年2月名为《ThisPersonDoesNotExist.com利用人工智能生成无尽假脸》的报告中,詹姆斯·文森特(James Vincent)对这种技术提出了令人毛骨悚然的担忧:正如我们在关于深度伪造(利用GAN将人脸粘贴到目标视频上,往往是为了制作非自愿色情内容)的讨论中所看到的,能够大规模操纵和生成逼真图像的能力将对现代社会如何看待证据和信任产生巨大影响。
这样的软件对于制造政治宣传和影响力活动也可能极其有用。

换句话说,《ThisPersonDoesNotExist.com》只是这种新技术的一个礼貌性介绍,而真正的警醒还在后面。

看起来“警醒”已经来临了:一种新的算法允许视频编辑人员像编辑文字一样编辑说话人头部视频——复制、粘贴或者添加和删除词语。

斯坦福大学、马克斯·普朗克研究所(德国一家著名的科研机构)、普林斯顿大学和Adobe研究公司的一个研究团队创建了这样一个用于编辑说话人头部视频(从肩部以上展示说话人的视频)的算法。

这种技术可能产生的后果令人胆寒,但真理流媒体(Truthstream Media)的梅丽莎·戴克斯(Melissa Dykes)在这个令人毛骨悚然(此处形容视频内容让人感到恐惧)的视频中进行了思考。

区分真假变得越来越困难。
“我们的现实正日益被技术操纵和中介,我认为我们人类确实开始感受到这一点了。
”戴克斯写道:在我们这个后后现代社会即将到达一个点,在那里眼见为实不再成立。
旧的准则将变得毫无价值。
我们越考虑这些技术的复杂性,就越清楚我们在试图理解“后真相世界”这个短语的真实含义时只是刚刚触及皮毛。
这也不是巧合,这还是去年极度机密的精英比尔德伯格会议(Bilderberg meeting,一个由欧美各国政商学界精英组成的秘密会议)的官方议题之一,像谷歌和微软这样的硅谷巨头经常参加这个会议。

你怎么看呢?深度伪造技术会被用于什么目的?你认为最终是否会变得无法识别深度伪造内容?会有什么后果呢?欢迎在评论中分享你的想法。

引用:https://www.theorganicprepper.com/deepfake-technology/
原文: https://s2.tttl.online/blog/1735943576/

图书推荐