 | 广告资讯 | | |
最近,27岁的新加坡女孩Rose(化名)发现,她的社交账号粉丝量莫名暴涨。如果不是有人联系告知,Rose可能永远不会知道,一年前她在社交账号上发布的生活照片,被人改成了裸体照片,如今正在色情网站流传。
 | 点 击 图 片 看 原 图 |
一套人工智能算法,数十张正常的生活照,二者结合,就能凭空生成一个女性的裸体照片,甚至把她的脸移花接木到淫秽视频女优身上。类似的事情正在中国发生,多位知名女明星也中招,成为不法卖家的牟利工具。
被下架的“脱衣”软件流入中国
今年6月下旬,一款名为“DeepNude”的AI软件现身网络。它以人工智能算法为基础,可以识别并“删去”照片中人物的衣服,从而把正常照片转为“裸照”。据外媒测试,原始照片的清晰度越高、女性裸露的肌肤越多,转换出的“裸照”就越逼真。
由于伪造女性裸照极具道德争议,DeepNude火了不到一个星期便被开发者下架。6月27日,开发者在推特发布声明称,“从未想到该软件会得到病毒式传播”。他承认,尽管软件生成裸照后会打上“伪造”等遮挡水印,人们滥用软件的可能性还是很大。“这个世界还没有做好接受DeepNude的准备。”开发者说。
开发者还表示,肯定会有DeepNude的部分副本在网上流传,如果有人从其他地方下载、分享这些副本,将违反DeepNude官网的使用条款----如今,这一判断成为了现实。对于盗版者而言,“违反使用条款”的警告丝毫没有震慑力。
|
|
没有评论:
发表评论