分论坛 > 上海 > 新闻动态
CCF YOCSEF上海成功举办“AI是人类偏见的继承者还是终结者?”观点论坛
2019-10-17 阅读量:1102 小字

2019年9月27日,CCF YOCSEF上海在上海理工大学图文信息中心第一会议室成功举办了题“AI是人类偏见的继承者还是终结者?”的AI系列观点论坛。本次活动的执行主席为CCF YOCSEF 上海AC委员、复旦大学卢暾,CCF YOCSEF 上海AC委员、学术秘书、上海理工大学裴颂文,CCF YOCSEF上海前任主席、同济大学王昊奋。参加本次活动的还有:CCF YOCSEF 上海现任主席、上海交通大学李超,CCF YOCSEF上海荣誉委员、复旦大学张文强,CCF YOCSEF上海前任主席、上海电力大学温蜜,副主席陈铭松、蒋力、吕东全,AC委员薛建新、张楚炜、熊启莉,积极分子黄芹华等人。

终结者1

本次论坛特邀的与会嘉宾有来自华东师范大学孙仕亮教授、复旦大学邱锡鹏教授、复旦大学张文强教授、上海市人民检察院尚珂全先生、普华永道林榕女士、数据堂高磊先生、京颐科技邵华钢先生。本次活动还得到了上海理工大学光电信息与计算机工程学院、上海北鼎信息科技有限公司的大力支持。

论坛开始前,首先由数据堂的高磊先生、复旦大学邱锡鹏教授、普华永道林榕女士和京颐科技邵华钢先生分别做了“人工智能到底通向哪里”、“ 追求AI的可解释性—真的必要和可行吗?”、“人类没解决的问题,AI还想解决?”和“AI真的会思考诊断疾病吗?”的引导性发言。结合实际应用案例,分别讨论了人工智能的本职话题,分析了人工智能与人类思维的异同;不可解释性是否意味着潜在的风险,要不要为了可解释性牺牲AI的能力;数据的偏见带来机器学习的偏见,人工智能的偏见是不是由带有偏见的样本所导致的;AI在医学应用两方面:诊断类(肿瘤领域治疗方案的选择)和治疗类(图形图像识别为主流)上的尝试等。

               终结者2      

     数据堂 高磊作引导发言  

        终结者3

                          复旦大学 邱锡鹏教授作引导发言

                 终结者4         

                         普华永道 林榕作引导发言

       终结者5

                         京颐科技 邵华钢作引导发言

着重讨论了3个方面的问题:

(1) 人工智能的“傲慢与偏见” 和“铁面无私”, AI偏见产生的根源是什么?主要讨论的观点如下:

李超认为:量化偏见,如果根源来自于一个没有量化的模型就会产生偏见。要定义一个指标。随后,裴颂文补充讲到:只有量化还不够,输入的数据样本是符合一定概率分布,针对不同概率分布的数据都套用某一个模型,可能导致机器判断的结果有差异。王昊奋指出:信息化定量分析需要有确定性计算为基础,但是数据驱动的AI模型由于介入的因素众多,增加了计算结果的不确定性。高磊表示:以数据驱动AI的发展,把数据做好做精,定义AI算法或走势,训练时采集数据是带偏见的,但AI引导自己走向偏见。林榕指出:对于黑盒出来的东西能验证吗?可控吗?我们未来的无监督学习到底是相信他是无偏见的还是相信他是有偏见的?邱锟鹏的观点是:对于AI唯一的途径就是无监督学习,无监督学习很难,无指标,无法评价,因此先做一些无监督学习,做一些任务,对无监督学习有个评价,再做有监督学习。


(2) 人类的偏见和AI偏见的关系。主要讨论的观点如下:

邵华钢认为:AI在医疗领域的应用处于两难的尴尬。一方面,希望AI学会一些三甲医院的知识给基层医疗机构赋能,来解决一些医疗资源紧缺的情况。但是AI在基层医疗机构的使用过程中,必须关闭其学习功能,否则会水平越来越低。另一方面,高水平的医疗往往伴随着探索和创新全新的诊断方向和治疗思路,但由于这部分的探索往往是小数据,不利于AI向更高级别晋升。王昊奋指出人的偏见来源于信息不对称,如果有大量全面的数据的话,机器产生的结果解决了信息不对称。机器所得到的结果不一定是最优的决策,但一定是最全面最客观的认识和理解。或者人拿到了高质量无偏见的少量数据,而机器拿到的数据是单一来源并且相对有偏见的,会导致机器做出次优选择,因此需要人机协同。机器将会跟人协作而不是替代人。孙仕亮认为虽然我们存在大数据的环境里,小数据是有必要的。如果是较难的问题或者是维度很高或者说比较复杂的模型,这样过度拟合的可能性会很高,解决方法是加一些先验知识在上面弥补数据的不足。


(3) 人工智能的偏见谁应该在什么时间、什么阶段、什么角度、负什么样的责任。主要讨论的观点如下:

林榕认为:讨论偏见话题时,需要分清什么是事实,什么是观点(判断)?。我们怎样去负责应该是对观点负责,以及观点的使用后果承担责任。更多地,要看应用的领域得出的结论对人类的伤害是怎样的。高磊和李超均认为人工智能是随着社会发展必要衍生出来的一个产物,是一个机构按照什么方法去做的,不存在负不负责,没办法去谈负责。裴颂文指出技术本身没有错,如果出错错的是应用技术的人。尚珂全提出讨论无人驾驶,如果出问题了责任算谁的。蒋力认为偏见是数据的偏见,是选择数据的人决定的,人的责任会发生变化,人的责任是怎么对机器进行监管。

与会嘉宾们认为:在任何技术领域上面一定是法律法规道德伦理,技术方面起到引领作用,并且技术一定会发展的更好。AI方面我们应该乐观点,一切问题都是可以解决的。人工智能可代替人类本身就是一种偏见,偏见是永远存在的,但AI会让这个社会越来越美好。这个社会是多样性的,多样性一定导致偏见,承担偏见的责任需要有一个主体。




热门动态
2018-07-31
CCF YOCSEF 上海分论坛于2018年7月23日晚在上海交通大学徐汇校区...
2018-07-14
人工智能(AI)在理论、技术和应用等方面得到学术界、产业界、教...
2018-07-11
CCF YOCSEF上海分论坛于2018年7月6日晚上在上海市黄浦区洛克外滩...
CCF聚焦