 | 广告资讯 | | |
5月底,国家网信办会同有关部门发布《数据安全管理办法(征求意见稿)》,其中要求,“网络运营者利用大数据、人工智能等技术自动合成新闻、博文、帖子、评论等信息,应以明显方式标明‘合成’字样;不得以谋取利益或损害他人利益为目的自动合成信息”。
不过,这些尚未正式出台的法律法规,还无法有效阻止DeepNude、Deepfakes及伪造裸照、淫秽视频的广泛传播。
有技术人员正寻求办法识别伪造视频
有技术人员告诉南都记者,从实践来看,制作逼真度较高的换脸视频,至少需要千余张照片。但目前已出现一些新的技术方法,即便只有一张照片,也可以制作出换脸视频。
这意味着,不仅是女明星,任何曾在社交媒体上公开过生活照片的女性,都可能成为恶意应用的受害者。
正如新加坡女孩Rose,她的伪造裸照在色情网站流传,其本人却毫不知情。据新加坡媒体the Star Online报道,过去几周内,有数个像Rose一样的受害者出现。有人盗取了她们的社交媒体照片,通过DeepNude篡改后发上色情网站。并且,这些照片还在被不停地重新编辑,变得越来越多。
美国民间组织Revenge Porn的创始人兼首席执行官Katelyn Bowden曾作出鲜明的反对表态,认为DeepNude这样的技术不应该向公众开放。“现在任何人,甚至在根本没有拍过裸照的情况下,都可能发现自己成了色情的受害者。”她对媒体表示。
“是的,这不是你真正的私处,但别人会以为他们看到了你的裸体。一个Deepfakes的受害者曾告诉我,她觉得有上千人看到了她的裸体,她的身体好像不再是自己的了。”马里兰大学法学院教授Danielle Citron在接受外媒采访时说。
在全球执法者设法应对的同时,技术人员也在寻求破解之道。今年6月初,有企业在DEF CON CHINA 1.0大会上展示了“打假”成果,研究人员用深度神经网络来训练识别算法,识别伪造视频的准确率超过了90%。6月底,加州大学伯克利分校和南加州大学的研究者也发布了一项进展,据称“打假”正确率达到了92%。
用技术作恶的人似乎总是比伦理和法律跑得快。在法律和技术尚无有效应对之道的当下,女性不得不更加保守和谨慎地对待社交网络。
Rose告诉媒体,她打算将社交账户设为“私密”。
|
|
没有评论:
发表评论