分论坛 > 深圳 > 新闻动态
监管趋严,人工智能行业仍待做好全面准备
2021-03-30 阅读量:376 小字

在2021年315晚会上,科勒卫浴、宝马4S店、名创优品等部分商家因安装人脸识别摄像头,在未告知客户的情况下,抓取包括性别、年龄在内的个人信息以做商业数据分析等问题,遭到央视的曝光,涉及产品提供方的万店掌、瑞为等企业被点名,人脸识别技术以及与人相关数据的滥用与信息安全问题再一次受到全社会的关注。

根据国家市场监管总局发布的《个人信息安全规范》明确规定,人脸信息属于生物识别信息,也属于个人敏感信息,收集个人信息时应获得个人信息主体的授权同意。2021年1月1日正式实施的《民法典》第一千零三十二条第一款规定:“自然人享有隐私权。任何组织或者个人不得以刺探、侵扰、泄露、公开等方式侵害他人的隐私权。”第一千零三十五条明确规定,处理个人信息,应征得该自然人或者其监护人同意。尽管法律明确规定未经允许不得随意获取人脸识别信息,然而在我们周围,偷偷获取涉及我们隐私、财产安全的人脸识别摄像头数量惊人,甚至这些最核心的生物识别信息,已经被和我们毫无关系的第三方公司所掌握。

纵观国内的人脸识别技术应用的发展情况,人脸识别技术在中国存在广泛的应用。根据全国信息技术标准化技术委员会发布的《2020人脸识别行业研究报告》显示,中国人脸识别技术投入在2017~2018年达到巅峰,2018年中国在全球人脸识别市场的业务占据接近一半份额,2019~2020年人脸识别技术发展趋于平缓,进入理智期。截止2020年底,中国人脸识别技术总投资额达到406亿元。未来五年中国人脸识别市场规模保持23%的CAGR,到2024年市场规模将突破100亿元。当前中国人脸识别的典型应用场景已经覆盖了安防、金融、园区、交通、教育、互联网服务等领域。大量的应用场景也预示着生物识别信息的使用在我国存在用户隐私侵犯的较大潜在风险。这一轮人工智能的爆发是基于数据驱动的深度学习技术,其中人脸识别可以说是这一轮爆发中的落地最广泛的细分技术,在中国,包括人脸识别在内的一系列人工智能技术受到最强的驱动力是政府侧的智慧城市建设、平安城市建设等一系列的宏观政策,其他基于数据驱动的人工智能技术也面临人脸识别技术类似的潜在数据隐私等问题。

当前,全球已有125个国家制定了个人信息保护法。2021年1月1日正式实施的《民法典》以及其他相关法律,也体现了中国对个人隐私保护的决心。可以预见,随着监管的趋严以及人们隐私保护意识的逐渐觉醒,原先大量处于灰色地带的人工智能场景将会受到冲击。在这种情况下,技术如何满足监管的需求,企业如何应对等问题,都是值得探讨的。面对趋严的数据监管,人工智能行业准备好了吗? 2021年3月27日,CCF YOCSEF深圳分论坛主办观点论坛“数据监管趋严,人工智能行业准备好了吗?”,邀请了人工智能产业及学术界等相关领域不同的专家,共同思辨这个问题。论坛执行主席为CCF YOCSEF深圳AC莫磊及陈小军。本次活动得到了深圳大学大数据技术与应用研究所的大力支持。

1.jpg

CCF YOCSEF深圳候任主席魏彦杰介绍CCF YOCSEF深圳

活动开始,CCF YOCSEF深圳候任主席魏彦杰对YOCSEF深圳的情况做了介绍。CCF YOCSEF深圳拥有20名来自高校及企业的精英AC委员,以“承担社会责任、提升成员能力”为主旨,坚持质量第一的原则,在深圳组织了包括论坛、走进及Club等多种形式的精彩活动,成为深圳一道亮丽的风景线。

2.jpg

执行主席莫磊介绍论坛背景

活动分嘉宾引导发言和互动思辨两个环节。在引导发言阶段,首先由来自深圳大学传播学院的教授丁未以《智慧城市与数据权利》为题介绍了从用户的数据劳动和隐私权谈如何建构以人为本的智慧城市。

3.jpg

深圳大学丁未教授报告

来自中电科新型智慧城市研究院有限公司研究开发部总经理胡金晖以《AI赋能城市管理和服务》为题围绕新型智慧城市的功能愿景、人工智能赋能城市管理和服务的实践案例,以及探索构建城市级的人工智能开放创新平台的三个方面,分享业务牵引和开放创新视角下的央企实践,并分享了对隐私保护方面的一些思考。

4.jpg

中电科胡金辉报告

在论坛的思辨环节,大家充分交流了自己对隐私保护的一些看法,并围绕四个议题展开了精彩的讨论。

5.jpg6.jpg7.jpg8.jpg9.jpg

线下思辨现场


以下是对思辨环节内容的整理:

01

议题

数据隐私定义是否全面?

在民法典第六章"隐私权和个人信息保护"第一千零三十四条 【个人信息的定义】自然人的个人信息受法律保护。个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。数据的匿名化已经是行业的一种通识,然而纯粹的匿名化是否足够,当前的人脸识别行业存在大量匿名化的应用,针对两种匿名化的数据类型,在场来宾进行了激烈的思辨。


议题1.1:匿名化的数据是否属于隐私数据?

此处的匿名化是指个体存在唯一的身份识别信息即人脸特征编码,但没有显性的身份信息。在思辨前,我们提取了现场来宾的部分调研数据,同时与在微信群中对线上观众的调研数据作了对比,结果如下:

 10.png

议题1.1现场嘉宾调研结果  


11.png

 议题1.1线上微信群调研结果

从结果显示,现场嘉宾与线上观众的观点趋于类似,即大部分人认为即便对数据进行了匿名化,仍然属于隐私数据。持赞同观点的看法大致从数据是否能间接定位到个人来进行判断,尽管不存在显性的身份信息,但基于人脸提取的特征信息在合适的阈值范围仍然具有唯一性,通过结合其他属性如性别、年龄范围、穿着等信息仍然可以在特定时间段特定地点定位到具体个人,所以这仍然属于数据隐私范畴,而商家正是可以通过这样的技术手段对用户进行精准的营销;同时也有来宾表明了如果商家可以通过上述或者其他手段利用匿名化的数据定位到具体用户同时以此获得商业利益,变相侵犯了用户的隐私权,那么这些数据也应该算是隐私数据,即若用户的隐私权因为该数据被侵犯,那么这类型的数据也应该属于隐私数据。


议题1.1:群体画像是否属于隐私数据?

群体画像是对一个群体信息的一个汇总,也是目前大多数人工智能企业采用的隐私保护方法之一。

12.png

议题1.2现场嘉宾调研结果

13.png

议题1.2线上微信群调研结果


从在微信群做的线上调研结果看,正反方的数据趋于接近,认为群体画像属于隐私数据的稍多,而现场来宾则仍有75%认为群体画像属于隐私数据;而认为群体画像属于隐私数据的核心观点与第一题类似,仍然以商家是否能基于该群体画像侵犯用户的隐私,即用户是否会由于群体画像数据被商家各类型信息所打扰;而持反对意见的嘉宾则认为群体画像与前面匿名化数据不同,除非群体画像非常精确以及所涉及范围足够小,已经无法定位个具体的个人,所以不属于隐私数据

这两个问题并不存在一个确定的答案,在社会上也是存在广泛的讨论,而匿名化数据的商业化或当前大量的群体画像应用,仍然有不少的用户认为是侵犯了他们的隐私,但侵犯了隐私的数据是否属于隐私数据,这个问题仍然是没有定论的。从讨论以及线上调研结果看来,数据隐私的定义仍然不够全面,需要做进一步的讨论。

02

议题

现有的隐私保护技术与监管要求是否匹配?

当前政府已经出台了若干的监管要求来保护公民的隐私,但从技术层面是否能确保相应权利的实施?通过线上调研,发现大部分的线上观众认为当前技术仍然是无法满足监管的要求。

14.png

议题2线上微信群调研结果

此次论坛针对三个较有争议的细分话题,探讨技术能否与监管相匹配:

1.  当前是否有合适的技术,或者是否存在技术方向,能够防止数据处理方超越原定的数据处理目的、方式和范围?

2.  当前的技术是否能够确保用户对个人数据的删除权?仅删除原始数据是否能够确保用户的权益?

3.  当前是否有合适的技术确保个人信息不被篡改?

通过现场的思辨,针对问题1和3,当前的区块链技术已经可以实现,只是在效率上仍有较大的提升空间。特别针对问题1,只要数据访问接口、可访问数据的应用程序均上链,那么便可实现对数据的访问以及数据在程序中的流向进行监听,以实现全流程的监管,同时也能确保数据本身的安全。

而针对问题2,仅删除数据是否能确保用户的权益,该问题等同于数据所产生的价值能否被删除,这个问题在当前阶段也是难以回答的。但大部分现场嘉宾也认为利用数据所训练得到的模型,数据的价值已经体现在模型之中,已经无法对数据关联的价值进行分析,除非把模型删除;而数据本身所体现的价值不仅限于原始数据,而是基于数据所学习得到的特征,即便商家删除了原始数据,包含用户数据的模型仍然在正常运转,因此仅删除原始数据是难以彻底保护用户的权益。

03

议题

AI监管是否需要差异化?

2007年美国国家安全局启动的网络监控计划“棱镜(PRISM)”将任何涉外通讯列为监听对象。2013年该项目由美国特工爱德华斯诺登曝出。“棱镜门”直接使得欧洲美国之间的个人数据流通协议作废,并增加了美国公民对政府的不信任。欧盟法院曾经在“数字权利爱尔兰”一案中,将政府的大范围数据分析裁定为非法。欧盟、日本、韩国和电气电子工程师学会(美国)的人工智能文件中都提到了人工智能开发的人类中心原则,人工智能开发应以增进人类福祉为目的。但基于统计方法的面部识别技术在公权力,尤其是行政机关,的应用很可能将机器凌驾于人之上。

众所周知,在社会治理的很多应用中,公众的很多隐私数据被采集并保存下来了,对这些数据的使用是大众所关注的。今年实施的《民法典》第一千零三十九条规定,“国家机关、承担行政职能的法定机构及其工作人员对于履行职责过程中知悉的自然人的隐私和个人信息,应当予以保密,不得泄露或者向他人非法提供”。随着公众对隐私保护关注力度的增加,AI监管是否应该针对政府应用和非政府应用实现差异化,也是一个很值得探讨的问题。如果差异化,应该如何对政府应用进行监管,也是个值得探讨的问题。

在微信群中的调查问反映出大部分线上观众支持AI监管的差异化。


15.png

议题3线上微信群调研结果

在去年的疫情中,AI相关应用在防疫中发挥了重大作用,也让我国免除大规模疫情的反复,AI与大数据对抗疫的价值相当明确。然而疫情实质加速了民众信息线上化的进程,疫情会过去,然而数字化的设施不可逆,这也对政府在数据使用的监管方面提出了更高的要求。在讨论中,大家也提到,尽管大多数人赞同政府合理利用大家的隐私数据,但如何限制政府利用个人隐私数据的权利,也将引起越来越多人的关注。


04

议题

隐私保护,主要靠监管还是企业自律?

个人隐私保护,目前主要从两方面进行:监管与自律。在监管方面,全球已经有超过125个国家制定了个人信息保护法,各国呈现对个人数据与隐私保护进行专门立法的大趋势。17.png

监管趋严

在企业自律方面,近期欧盟有关方面和微软、IBM等科技巨头共同签署了《人工智能伦理罗马宣言》,讨论如何规范人工智能的社会影响,这是欧盟推动全球数字经济监管新标准的最新举措。与美国不同,在数字经济和人工智能领域,欧盟采取的是先规范后发展的路径。《人工智能伦理罗马宣言》指出,人工智能技术应尊重个人隐私,以可靠而无偏见的方式工作,考虑所有人的需求,并以透明方式运作。这些表述显示欧盟担忧人工智能的负面影响,认为人工智能系统尚处于研究阶段,其做出的决定往往难以预测。Google启动了800多名员工的初始“技术道德”培训,并还针对AI原则问题发现了新的培训。Google最近发布了此培训的一个版本,作为面向客户的Cloud团队的必修课程,已有5000名Cloud员工参加了该培训。这些员工提出了一些关键问题来发现潜在的道德问题,例如AI应用程序是否会导致经济或教育上的排斥或造成身体、心理、社会或环境伤害。

可以看到,欧美的企业已经通过自律的方式来约束企业对数据的滥用,以推动个人的隐私保护。现阶段,国内企业在自律方面鲜有建树。所以,隐私保护,主要靠监管还是企业自律,是一个值得探讨的话题。针对这个问题的投票结果显示,线上观众超过70%支持主要靠政府监管。

16.png

议题4线上微信群调研结果

然而在场嘉宾则有不同的观点,监管固然重要,然而法律法规是一条红线,当红线划清,超越红线的事情是被禁止的,因此立法需要慎重而且往往比社会经济的发展稍微滞后,才能不会因为过早的立法而对发展产生较大的负面影响。正因为我国处于高速发展阶段,为了顺应时代,我国相关的监管也是较谨慎,正如人脸识别行业已经野蛮生长了5年,而相关部门也是在去年才逐渐开始对行业进行规范。在行业发展初期,出现大量的灰色地带不可避免,在监管未跟上的时候,企业自身的自律显得尤为关键,如何能够抵制诱惑对企业是一种考验,但同时也是让我们识别出优秀有社会责任感企业的一种方式。我们也期待看到国内企业在相关方面的动作。


总结:监管趋严,人工智能行业仍待做好全面准备


17.jpg

线下参会人员合影

最终,历时近4个小时的活动于18:00左右结束。通过对相关问题的讨论,大家对隐私保护有了更清晰的认识,也发现了当前的监管政策及技术仍然存在很多不足。CCF YOCSEF深圳现任主席陈小军对活动进行了总结:在活动中,我们发现,相较于80后90后,00后们对个人隐私保护更加关注。相信监管的趋严以及人们隐私保护意识的逐渐觉醒,大量处于灰色地带的人工智能场景将会受到冲击,人工智能行业将面临巨大的挑战,如何应对这种冲击,是整个人工智能行业必须认真思考的事。对隐私保护立法的完善,相关技术的完善与应用,对政府权力的差异化监管,将是未来行业发展的趋势。而人工智能企业除了满足监管要求外,也需要加强企业自律,方能减少公众的质疑,促进行业的健康发展。


热门动态
2019-08-29
2019年8月25日,YOCSEF广州分论坛、深圳分论坛在广州大学城中山...
2019-06-04
2019年6月2日,YOCSEF广州分论坛、深圳分论坛在广州大学城中山大...
CCF聚焦
会员权益
会员故事
会员荣誉
入会流程
返回顶部