返回首页
您的位置:首页 > 新闻 > CCF新闻 > ADL

ADL140《鲁棒机器学习》开始报名

阅读量:783 2023-05-08 收藏本文


CCF学科前沿讲习班

The CCF Advanced Disciplines Lectures

CCFADL第140期

主题 鲁棒机器学习

2023年6月25日-27日 北京


本期CCF学科前沿讲习班ADL140《鲁棒机器学习》,将对鲁棒机器学习的最新进展进行深入浅出的讲解,从算法理论、计算机视觉、机器学习、自然语言处理、搜索推荐等不同领域视角为听众介绍鲁棒机器学习的关键技术和前沿研究。相信学员经过本次讲习班,能够深入了解鲁棒机器学习的基础技术、主要挑战和应用场景,开阔科研视野,增强实践能力。


本期ADL讲习班邀请了7位来自国内外著名高校与企业科研机构活跃在前沿领域的专家学者做主题报告。第一天,何琨教授介绍深度学习模型的对抗攻击与防御方法,黄高副教授介绍视觉基础模型结构设计与训练方法前沿;第二天张拳石,副教授介绍神经网络中的概念涌现与基于博弈交互的解释性理论体系,纪守领研究员介绍深度学习算法安全;第三天董胤蓬博士介绍黑盒对抗攻击理论、方法与应用,何源博士介绍面向计算机视觉领域的模型鲁棒性研究,王云鹤博士介绍关于AI数据和AI生成的安全性思考。通过三天教学,旨在带领学员实现对鲁棒机器学习从基础技术,到前沿科研动态,再到典型应用场景的深入学习与思考。



学术主任:苏航 副研究员 清华大学 / 王晋东 研究员 微软亚洲研究院

主办单位:中国计算机学会


本期ADL主题《鲁棒机器学习》,由清华大学副研究员苏航和微软亚洲研究院研究员王晋东担任学术主任,邀请到何琨(教授,华中科技大学)、黄高(副教授, 清华大学)、张拳石(副教授, 上海交通大学)、纪守领(研究员,浙江大学)、董胤蓬(博士后,清华大学)、何源(阿里安全视觉智能算法负责人)、王云鹤(华为算法应用部部长)等7位专家做专题讲座。




活动日程:


2023625日(周日)

9:00-9:10

开班仪式

9:10-9:20

全体合影

9:20-12:00

专题讲座1:度学习模型的对抗攻击与防御方法

何琨,教授,华中科技大学

12:00-14:00

午餐

14:00-17:00

专题讲座2:视觉基础模型结构设计与训练方法前沿

黄高,副教授,清华大学

2023626日(周一)

9:00-12:00

专题讲座3:神经网络中的概念涌现与基于博弈交互的解释性理论体系

张拳石,副教授,上海交通大学

12:00-14:00

午餐

14:00-17:00

专题讲座4:深度学习算法安全

纪守领,研究员,浙江大学

2023627日(周二)

9:00-12:00

专题讲座5:黑盒对抗攻击理论、方法与应用

董胤蓬,博士后,清华大学

12:00-13:30

午餐

13:30-15:30

专题讲座6:面向计算机视觉领域的模型鲁棒性研究

何源,阿里安全视觉智能算法负责人

15:45-17:45

专题讲座7:关于AI数据和AI生成的安全性思考

王云鹤,华为算法应用部部长




特邀讲者


何琨

华中科技大学计算机学院教授


报告人简介:何琨,华中科技大学计算机学院教授、博士生导师,霍普克罗夫特计算科学研究中心副主任。ACM高级会员,IEEE高级会员,CCF杰出会员,CCF理论计算机科学专委会副主任。2011-2012年为美国斯坦福大学访问学者,2013-2016年作为客座副教授、客座教授多次访问美国康奈尔大学。2016年入选德国海德堡阿贝尔/菲尔兹/图灵奖基金会全球200名杰出青年学者,2016-2017学年入选康奈尔大学工程学院Mary Shepard B. Upson冠名客座教授。主要研究领域包括深度学习的安全性与可解释性、社交网络与图数据挖掘、智能优化算法、深度表征学习等。


报告题目:深度学习模型的对抗攻击与防御方法


报告摘要:本报告拟专注由于对抗样本现象而导致的深度学习模型的安全性问题。对抗样本首先在图像分类领域被发现,随后相关研究扩展到自然语言处理等领域。在图像分类的对抗攻击方面,如何有效提升对抗样本的迁移性是黑盒攻击的一种重要手段。本报告拟首先介绍业内主流的图像对抗迁移攻击的相关研究,包括本团队提出的多个提升对抗样本迁移性的方法。随后,拟介绍针对文本分类深度学习模型的对抗样本研究的现状,包括与图像领域对抗样本的区别与联系,以及文本对抗攻击与鲁棒性防御的主流方法。




黄高

清华大学自动化系副教授


报告人简介:黄高,清华大学自动化系副教授,博士生导师。2015年获清华大学博士学位,2015年至2018年在美国康奈尔大学计算机系从事博士后科研工作。主要研究领域为深度学习和计算机视觉,提出了主流卷积网络模型DenseNet。目前在NeurIPS,ICML,CVPR等国际顶级会议及IEEE多个汇刊共计发表学术论文100余篇,被引5万余次,最高单篇引用超过3万次。获国家优青、CVPR最佳论文奖、达摩院青橙奖、世界人工智能大会SAIL先锋奖、教育部自然科学一等奖、中国人工智能学会自然科学一等奖、中国自动化学会优秀博士学位论文、中国百篇最具影响国际学术论文等荣誉,入选北京智源学者、AI 2000人工智能最具影响力学者、《麻省理工科技评论》亚太区“35岁以下科技创新35人”,担任TPAMI、TBD、Pattern Recognition等国际期刊编委和CVPR、ICCV、NIPS、ICML等国际会议领域主席。


报告题目:视觉基础模型结构设计与训练方法前沿


报告摘要:深度学习方法在计算机视觉领域取得了巨大的成功,不仅在特定的视觉任务上超越了人类的表现,而且随着大模型技术的发展,其通用性也得到了大幅提升。但是大型深度神经网络在数据效率、计算效率以及特定任务上的鲁棒性仍存在较大的瓶颈。本报告将面向图像识别、视频分析、点云识别等视觉任务,探讨视觉基础模型的宏观与微观结构设计方法以及高效鲁棒的训练策略。




张拳石

上海交通大学计算机系长聘教轨副教授


报告人简介:张拳石,上海交通大学电院计算机科学与工程系长聘教轨副教授,博士生导师,入选国家级海外高层次人才引进计划,获ACM China新星奖。他于2014年获得日本东京大学博士学位,于2014-2018年在加州大学洛杉矶分校(UCLA)从事博士后研究,主要研究方向包括机器学习和计算机视觉。其研究工作主要发表在计算机视觉、人工智能、机器学习等不同领域的顶级期刊和会议上(包括IEEE T-PAMI、ICML、ICLR、CVPR、ICCV、AAAI、KDD、ICRA等)。近年来,张拳石在神经网络可解释性方向取得了多项具有国际影响力的创新性成果。张拳石承担了ICPR 2020的领域主席,CCF-A类会议IJCAI 2020和IJCAI 2021的可解释性方向的Tutorial,并先后担任了AAAI 2019, CVPR 2019, ICML 2021大会可解释性方向的分论坛主席。


报告题目:神经网络中的概念涌现与基于博弈交互的解释性理论体系


报告摘要:深度神经网络的可解释性近年来受到大家越来越多的关注,相关技术流派也呈百家争鸣的状态。但是目前可解释性领域中一些核心的基础的问题并没有得到建模,比如,神经网络中的概念涌现的问题尚未得到数学证明,决定神经网络鲁棒性和泛化性的第一性原理因素尚不清晰。对这些基础性问题的建模,有助于提升可解释性算法的严谨性,为未来深度学习发展提供新的可能性。因此,在本次演讲中,嘉宾将介绍其团队近年来所提出的可解释性博弈交互理论体系中的众多研究,包括数学证明神经网络中的概念涌现现象的工作进展和研究规划,如何在博弈交互的理论框架下统一解释神经网络的归因权重算法,如何在符号化概念层面解释神经网络的对抗鲁棒性和神经网络的泛化能力,如何解释视觉神经网络所建模的原型特征等。




纪守领

浙江大学“百人计划”研究员


报告人简介:纪守领,浙江大学“百人计划”研究员、博士生导师、可信人工智能研究中心主任,获佐治亚理工学院电子与计算机工程博士学位、佐治亚州立大学计算机科学博士学位,入选国家青年人才计划。主要研究方向为人工智能安全、软件与系统安全,发表IEEE S&P, USENIX Security, ACM CCS, NDSS等CCF A类论文100余篇,研制的多个系统在大型平台上获得部署应用。获ACM CCS 2021最佳论文奖等10项最佳论文奖、华为优秀技术成果奖、国家优秀留学生奖等。


报告题目:深度学习算法安全


报告摘要:随着人工智能应用的不断深入,以深度学习算法为代表的技术产生的影响也越来越广泛。深度学习算法在数据、模型和实现层面面临数据投毒、模型后门、逃逸攻击、代码缺陷等诸多威胁,本次报告将围绕深度学习算法安全,分析典型算法攻防技术,探讨可信人工智能的潜在研究方向和问题。




董胤蓬

清华大学计算机系博士后研究员


讲者简介:董胤蓬,清华大学计算机系博士后研究员,导师为朱军教授。主要研究方向为机器学习与计算机视觉,聚焦深度学习鲁棒性的研究,发表TPAMI、IJCV、CVPR、NeurIPS等顶级国际期刊和会议论文四十余篇。担任TPAMI、IJCV、ICML、NeurIPS、CVPR等期刊和会议审稿人,曾在ICML2021、AAAI2022等国际会议上组织了对抗机器学习相关研讨会。获得NeurIPS2017首届国际人工智能对抗攻防赛、GeekPwn对抗样本挑战赛等10余项竞赛冠亚军。曾获得CCF优秀博士学位论文激励计划、CCF-CV学术新锐奖、微软奖学金、百度奖学金、字节奖学金、清华大学“水木学者”计划、博新计划等。


报告题目:黑盒对抗攻击理论、方法与应用


报告摘要:机器学习模型在对抗环境下存在鲁棒性不足的问题,引发了人们的广泛关注和研究。黑盒对抗攻击研究如何在不获取模型信息(如结构、参数)的情况下欺骗模型,可用于挖掘真实应用中模型的安全漏洞,评估比较不同模型的鲁棒性,具有重要的理论和现实意义。本报告将回顾对抗攻击的经典方法,介绍梯度估计理论框架以及典型黑盒对抗攻击方法,包括基于迁移的黑盒对抗攻击和基于查询的黑盒对抗攻击方法。然后介绍黑盒对抗攻击在人脸识别、自动驾驶、3D感知等领域的应用。最后简要展望黑盒对抗攻击未来可能的发展趋势。




何源

阿里安全视觉智能算法负责人


讲者简介:何源,阿里安全视觉智能算法负责人,主要从事面向内容安全、知识产权保护和人工智能安全的技术研发。毕业于清华大学并获得工学学士和博士学位,研究领域包括计算机视觉、深度学习和人工智能安全,曾在TPAMI、CVPR、ICCV、ICML、NeurIPS、软件学报等人工智能领域学术会议和期刊上发表论文70余篇,已授权国内和国际专利30余项。相关研究成果曾获得吴文俊人工智能科技进步二等奖。近年来在CVPR、AAAI、IJCAI等学术会议上牵头主办了人工智能安全领域学术竞赛和研讨会,并联合推动了人工智能安全相关IEEE国际标准和CCSA行业标准的制定。


报告题目:面向计算机视觉领域的模型鲁棒性研究


报告摘要:以深度学习为代表的人工智能技术已深刻改变了我们的生产和生活方式,而人工智能技术本身存在的安全风险,也日益受到从业人员的关注。阿里安全研究团队针对对抗样本攻击和防御、机器学习模型鲁棒性等课题开展研究,从理论和系统角度出发提出了计算机视觉模型鲁棒性的综合量化评估以及优化的技术方案,并以此为基础推动和制定了相关IEEE国际标准。同时联合推出了面向学术研究领域的对抗攻击benchmark,并开源了针对模型鲁棒性增强的算法框架。




王云鹤

华为算法应用部部长


讲者简介:王云鹤,华为算法应用部部长。在华为诺亚方舟实验室从事人工智能算法的研发和在实际业务中的应用落地。主要的研究领域包含计算机视觉、机器学习、模型压缩、高能效AI计算等,多项算法落地工业界产品,主导的加法神经网络项目受到了业界的广泛关注。在相关领域发表CCF A类学术论文80余篇,包含NeurIPS、ICML、CVPR、ICCV、IEEE TPAMI等。担任NeurIPS和ICML的领域主席,VALSE的高级领域主席。


题目:关于AI数据和AI生成的安全性思考


摘要:AI已经在很多领域发挥了巨大的作用。然而,但AI也同时带来了一些安全性的问题,例如,AI的训练数据可能会泄漏,使用AI生成的文本和图片可能会被用于制造虚假等。在本报告中,会针对如何保护训练数据的隐私以及如何检测AIGC相关内容这两个方面的问题进行讨论。我们提出的方案可以用生成数据替代原始训练数据进行模型调优和压缩。我们也结合AIGC的特性,提出了一系列关于如何对AI文本和图片进行检测的方案。






学术主任


苏航

清华大学计算机系副研究员


苏航,清华大学计算机系副研究员,入选国家青年拔尖人才,主要研究对抗机器学习和鲁棒视觉计算等相关领域,发表CCF推荐A类会议和期刊论文50余篇,谷歌学术论文引用6000余次,获得吴文俊人工智能自然科学一等奖,ICME铂金最佳论文、MICCAI青年学者奖和AVSS最佳论文等多个学术奖项,曾率队在NeurIPS2017对抗攻防等多个国际学术比赛中获得冠军。现任中国图像图形学会青工委执委、VALSE执行AC委员会主席,担任NeurIPS21的领域主席(Area Chair)、AAAI22 Workshop Co-Chair,并在多次ICML等顶级国际会议上作为分论坛主席组织对抗学习专题研讨。




王晋东

微软亚洲研究院主管研究员


微软亚洲研究院主管研究员、中科院计算所博士。研究兴趣为迁移学习、鲁棒机器学习、半监督学习及相关的视觉和普适计算等应用。在国际知名会议和期刊如NeurIPS、ICLR、CVPR、IJCAI、UbiComp、ACMMM、TKDE、TASLP等发表50余篇论文,谷歌学术被引5000余次。获得IJCAI-19联邦学习研讨会最佳应用论文奖、清华大学AMiner 2012-2022十年最具影响力AI学者等荣誉奖项。出版的《迁移学习导论》一书帮助众多研究人员快速入门和学习该领域。领导开源了Github上最受欢迎的迁移学习项目(获得超1万星标)、半监督学习项目TorchSSL和USB、以及个性化联邦学习项目PersonalizedFL等。

个人主页:https://jd92.wang/。




时间:2023年6月25日-27日

地址:北京•中科院计算所一层报告厅(北京市海淀区中关村科学院南路6号)



乘坐北京地铁10号线到“知春里站”下车出A口,步行10分钟即到。


报名须知:


1、报名费:CCF会员2800元,非会员3600元。食宿交通(费用)自理。根据交费先后顺序,会员优先的原则录取,额满为止。应部分学员的要求,本期ADL线上同步举办,线上线下报名注册费用相同。线上会议室号和密码将在会前3天通过邮件发送。

2、报名截止日期:6月20日。报名请预留不会拦截外部邮件的邮箱,如qq邮箱。会前1天将通过邮件发送会议注意事项和微信群二维码。

3、咨询邮箱 : adl@ccf.org.cn


缴费方式:


在报名系统中报名后在线缴费或者通过银行转账:

银行转账(支持网银、支付宝):

开户行:招商银行北京海淀支行

户名:中国计算机学会

账号:110943026510701

请务必注明:ADL140+姓名

报名缴费后,报名系统中显示缴费完成,即为报名成功,不再另行通知。


报名方式:


请选择以下两种方式之一报名:

1、扫描(识别)以下二维码报名:

2、点击报名链接报名:

https://conf.ccf.org.cn/ADL140