您现在的位置: 刘伯温论坛 > 香港中特网 >
换脸软件背后的隐忧:生物信息收集和视频伪造
发布时间:2019-09-18

  大规模收集生物识别信息和Deepfake,本身都是现有技术的自然延申,可二者产生的影响可能是深远、不可逆的。对于ZAO这样的换脸APP,应该更严肃地对待、更严格地监管。

  用户从下载App,到生成量身定制、有强烈的代入感的视频、音频,短则几秒钟、长则数十分钟,既有趣也操作简单,只要技术过关,想不流行都难。这就好比平时只买大众服装品牌的人,突然有机会免费尝试一下高级订制的服务,短暂体验明星的待遇,自然抵挡不住诱惑。

  然而这其实是一场复杂的魔鬼交易,只是包括App的开发者在内,并没有意识到魔鬼在谁、隐藏在哪里。评论者多聚焦于对用户协议或隐私政策的批评,或者对知识产权、肖像权的侵犯,这当然有道理,但笔者认为这些权利义务失衡的条款及侵权行为被司法和监管纠正并不困难,在现有法律框架下也有成熟的方案。换脸、换声这类APP最大的问题在于其大规模收集的生物识别信息如果发生泄露及滥用,会造成各种欺诈和造假。社会各界应对此问题高度重视,加强监管。

  静态或动态的人脸信息(ZAO都会向用户收集)以及指纹、声纹、虹膜属于生物识别信息,在各国的立法中通常都属于个人敏感信息。其之所以敏感,在于天然能够真正识别个人身份且终身无法更改(毁容之类的特例除外),而且除了指纹外容易以非接触的方式收集。从某种程度上说,这些生物识别信息真正定义了我们每个人。

  生物识别信息的不同类别,又有所区别,其中人脸信息的公开性更强,也更容易被收集,目前在国际上加强监管的趋势也更明显。多国都在开始进行立法,强化对人脸信息收集以及识别技术应用场景的约束。

  生物识别信息的收集和利用,具有很大的不对称性,个人得到的可能仅仅是一个带有娱乐性的视频片段,收集者却掌握了个人最基础的信息。技术都很难做到万无一失,但生物识别信息一旦泄露,真的是“一失万无”,缺乏救济渠道。邮箱密码、电话号码泄露了,还可以更改,但人脸、声纹、虹膜等信息泄露后,却没有办法进行更改,个人几乎终生暴露在被攻击和骚扰的风险中。

  当提到技术带来的风险时,一定会有人指出创新的价值以及技术的中立性。然而需要看到的是,技术并不是天然具有中立性,有的技术天然具有破坏性、伤害性,虽然也有正面价值,但在一些场景下其带来的风险可能涉及人类的底线,在没有进行审慎的论证和评估前,· 满园葱茏“荷”你相遇!不应该大规模应用或扩散。这就像很多青少年都玩过弹弓甚至弓箭,虽然也会造成损失,但完全可控;但如果给每人发一只自动步枪,无疑会带来巨大的混乱。

  加强监管也不意味着阻碍技术进步,而是在风险较高的领域、场景进行更充分的防范,这样也不会让技术本身被污名化,引发更高的监管压力。比如生物识别信息既可以用于安防、反欺诈,也可以用于造假、监视、强化歧视。这就要求在源头上就要加以限制,必须考虑收集信息的目的是否正当、必要,不能“为了芝麻,要个西瓜”。

  在国内外,对于收集生物识别信息的监管和立法已经有不少,如美国有多个州通过了与生物识别信息有关的法案,欧盟GDPR对于生物识别信息的收集也有相应的严格要求。尽管有不同的思路,但基本思路都是一致的,必须保证透明性,让用户清楚了解后果并明确同意,同时有权要求更正或删除该类信息;收集者只有在必要的情况下才能收集生物识别信息,并尽量不存储原始信息,同时负有较高的义务保护这些信息的安全,绝对不能滥用。除了政府监管以外,涉及生物识别信息的企业也需要建立行业自律,对于害群之马建立某种淘汰机制。除此以外,对于生物识别信息的收集者,是否应当采取备案或登记制度,人脸识别技术在哪些特定场景下应被禁止,以保护个人的基本权利,都是很值得讨论的话题。

  生物识别信息需要重视,也和快速发展的deepfake技术有关。当不可修改的生物识别信息遇上几乎可以以假乱真的视频、音频伪造技术,对很多普通人都是灾难。

  在2017年年底,一个名为“Deepfake”(意为深度伪造)的用户在Reddit平台发布了一批色情视频,借由机器学习技术尤其是deep learning(深度学习)将色情明星面孔 “换脸”成名人。这类技术随后就被统称为deepfake,并不断迭代,也离公众的生活越来越近。根据不完全统计,deepfake技术的应用对象已包括了:娱乐明星、政治领袖与政治人物、商业领袖、间谍与情报人员、新闻媒体主播、世界名人与艺术形象、一般公众。制作的视频既有充满幽默的恶搞也有带有明显恶意的色情、造假,有的故意留有破绽,有的则真假莫辨。

  相比之前仿真度已经非常高的图片造假,deepfake制造视频和音频难度要更大,但也更容易让普通人相信,毕竟“眼见为实”。从笔者朋友圈曾多次传播过的此类视频来看,在未经提示的情况下,大部分人都没有能力分辨真伪。而且该技术在早期需要提供大量的照片或音频用于训练模型,因此只适用于有很多曝光记录的名人,尤其是政客和影视明星;但随着技术的进化,目前该技术只需要很少量的照片和音频就能相当实现逼真的效果。

  从现有实例看, deepfake技术大概会在几个方面给人类社会造成风险,包括:个体人身和精神损害、企业信誉和商业利益的损失、国家安全和公共安全受到的威胁、新闻媒体行业的社会信任受损。试想一家大型企业在上市前,其CEO的不雅视频或CFO揭露企业财务造假的视频突然在网上传播,造成股市的大幅波动,而通过权威媒体的辟谣也无助于事,尽管当事人知道这些视频都是通过deepfake伪造的。

  对于deepfake,有不少人认为不必过虑,毕竟各种视觉、听觉造假技术在历史上层出不穷。但需要注意的是,视觉和听觉的造假以前掌握在专业的欺诈者或职业的影像制造者手中。比如,大型电影公司早就有能力制做足以乱真的已过世名人的影像,但需要花费不菲的成本并获得相应的授权。而deepfake技术则让很多普通人的“造假水平”迅速提升到专业级,而且成本接近于零。

  假如deepfake技术不加以监管和限制,人们对于事实的基本共识会被破坏,何为真实将会被反复质疑,需要花费很高的成本进行验证(目前技术上还能够分辨)。一个互相信任程度很低、缺乏共识的社会,协作成本一定是很高的,而且容易造成撕裂。

  无论是国外还是国内的立法者和监管者,对于deepfake造成的危害,都迅速做出了回应。美国在联邦和州针对deepfake的立法都非常迅速,比如在参、众两院提交的《2019年深度伪造报告法案》、弗吉尼亚州通过了于2019年7月1日生效的法案主要针对利用deepfake的色情内容、德克萨斯州通过了将于今年9月1日正式生效的《关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》。上述立法的关注点有所不同,有的是关注选举安全,有的是关注色情问题,有的则是关注更广泛的影响。而中国的监管者和立法者对于deepfake造成的影响也非常关注,比如正在征求意见的《数据安全管理办法》就规定:“网络运营者利用大数据、人工智能等技术自动合成新闻、博文、帖子、评论等信息,应以明显方式标明“合成”字样;不得以谋取利益或损害他人利益为目的自动合成信息。”

  大规模收集生物识别信息和Deepfake,本身都是现有技术的自然延申,可二者产生的影响可能是深远、不可逆的。对于ZAO这样的换脸APP,应该更严肃地对待、更严格地监管。


友情链接:
Copyright 2018-2021 刘伯温论坛 版权所有,未经授权,禁止转载。
香港马会开奖资料| 今天晚上开什么码| 六合现场开奖结果| 68期香港马会开奖结果| 本港台开奖现场报码室| 416111b.com| 深圳福坛| www.721133.com| www.70655.com| 中特网资讯站| 香港六合报码网| www.865599.com|