返回首页
您的位置:首页 > 新闻 > CCF新闻 > ADL

ADL117《人工智能的计算机系统观》开始报名

阅读量:2447 2021-05-27 收藏本文

CCF学科前沿讲习班

The CCF Advanced Disciplines Lectures

CCFADL第117

主题 人工智能的计算机系统观

2021年625-27 北京


本期CCF学科前沿讲习班《人工智能的计算机系统观》,从硬件加速,系统结构,语言框架和编译器,计算机网络以及分布式系统对人工智能系统进行了全面的介绍,帮助学员了解人工智能系统的全景,基本概念以及关键技术,建立对于人工智能下一步发展至关重要的系统观,顺应人工智能和计算机系统相互融合的大趋势,激励和引导学员成为横跨人工智能和计算机系统两个重要领域的稀缺人才。

本期ADL讲习班邀请到了本领域的7位来自于著名高校及企业科研机构的重量级专家学者做主题报告。这些专家都活跃在人工智能系统研究和创新的第一线,具有超高的理论造诣和丰富的实践经验,在学术界、产业界以及开源社区都具有广泛的影响力。他们将以不同的视角,从不同的维度为听众进行深入浅出的讲解,结合产学研一体的实践案例, 为大家全方位展示人工智能系统的魅力。


学术主任
:周礼栋 微软亚洲研究院常务副院长微软杰出首席科学家

主办单位:中国计算机学会

活动日程

2021625周五

9:00-9:15

开班仪式

9:15-9:30

全体合影

9:30-12:30

专题讲座1深度学习框架与AI开源

黄之鹏 华为计算开源生态部副总监

12:30-14:00

午餐

14:00-17:00

专题讲座2whale:大规模模型训练框架

林伟 阿里云智能研究员,阿里云机器学习PAI平台技术负责人

2021626周六

9:00-12:00

专题讲座3面向智能的高能效系统与硬件架构

汪玉 清华大学电子工程系长聘教授,系主任

12:00-13:30

午餐

13:30-15:30

专题讲座4基于数据流分析的深度学习系统结构

冷静文 上海交通大学计算机科学与技术系 副教授

15:30-15:45

休息

15:45-17:45

专题讲座5高能效深度学习处理系统

郭崎 中科院计算所研究员、博士生导师

2021627周日

9:00-12:00

专题讲座6BytePS来加速分布式深度神经网络训练

郭传雄 字节跳动公司

12:00-14:00

午餐

14:00-17:00

专题讲座7智能边缘计算中的挑战和机遇

刘云新 清华大学智能产业研究院,首席研究员,国强冠名教授

17:00-17:10

小结


特邀讲者

黄之鹏 华为

黄之鹏

讲者简介黄之鹏,华为计算开源生态部副总监,目前担任MindSpore开源社区运营负责人, 同时担任启智OpenI社区、LFAI基金会、私密计算论坛等开源组织的技术委员会的委员职务, Kubernetes Policy工作组以及CNCF基金会安全兴趣组中Policy团队负责人, OpenStack Cyborg项目创始人, 并且带领团队参与ONNX, Kubeflow, Akraino等开源社区。曾经在OpenStack SummitCloud Native Con/KubeCon等国际顶级开源峰会进行过Keynote主题演讲,此外也在LinuxConRISC-V Summit等多个国际峰会进行议题分享

报告题目:深度学习框架与AI开源

报告摘要:深度学习框架是人工智能的重要基础,从早期简单神经网络到现在的亿级参数超大模型,框架本身的不断演进起到了决定性的作用。在本次报告中我们将主要介绍深度学习框架的技术发展历史及趋势、深度学习框架的开源生态、深度学习框架未来展望等三个方面的内容。


林伟
阿里云

林伟

讲者简介:林伟,阿里云智能研究员,阿里云机器学习PAI平台技术负责人,主攻大规模分布式训练加速、编译优化等AI工程的建设和性能优化。具有大规模并发系统有15年的系统架构设计及研发经验,并在国际一流OSDINSDISIGMOD会议上多次发表论文。

报告题目whale:大规模模型训练框架

报告摘要:受益于深度神经网络的发展,NLPCV等领域模型效果得到很大提升,但同时模型参数量也大大增长,从几百兆快速增长到千亿万亿参数规模,单纯的数据并行已经无法适应当前机器学习分布式训练的要求。Whale中提供统一多种并行策略的高性能、灵活、易用的分布式框架,支持数据并行、模型并行、流水并行、算子拆分和各种并行策略组合从而推动大模型研发的快速迭代。


汪玉教授 清华大学

汪玉

讲者简介汪玉,清华大学电子工程系长聘教授,系主任。长期从事高能效电路与系统研究,发表论文200余篇,IEEE/ACM杂志50余篇;谷歌学术引用9600余次。曾获ASPDAC19FPGA17NVMSA17ISVLSI12最佳论文,以及9次国际会议最佳论文提名。担任ACM SIGDA-NEWS主编,IEEE TCADTCSVT编委,以及DAC等顶级会议技术委员会委员。获2019年中国计算机学会青竹奖(附件4)、2018年国际设计自动化会议40岁以下创新者奖(DAC 2018 Under-40 Innovators Award)、2017年中国计算机学会科学技术奖技术发明一等奖等荣誉,荣获2019年德国洪堡奖学者(Alexander von Humboldt Fellowship)、2018年中关村高聚工程高端领军人才等称号。深度学习加速器研究成果2016年初知识产权转化入股北京深鉴科技有限公司,2018年末被可重构计算龙头企业赛灵思以约3亿美元收购,清华大学知识产权价值超2亿元人民币,并推动了全球范围的FPGA深度学习加速器产业化。

报告题目面向智能的高能效系统与硬件架构

报告摘要人工智能已经赋能许多关键领域,如安防监控、无人驾驶、国防装备等,其计算量呈爆炸式的增长趋势。以安防监控为例,全球范围内安全摄像头每天产生约2500PB的数据 ,同时处理这些数据需要108Nvidia T4深度学习卡的内存容量,对应的整体计算功耗高达7.5×10^6 KW,一年耗电量相当于0.66个三峡水电站一年的发电量。推动人工智能在各类生活场景中快速落地,需要实现人工智能算法向硬件系统的高效映射,这对面向智能的系统与硬件架构设计提出了巨大挑战。一方面,智能算法算力要求激增与通用硬件能效提升缓慢之间存在矛盾;另一方面,非结构化稀疏数据结构和结构化硬件架构存在矛盾。本报告将介绍结构化稀疏剪枝和动态低比特量化技术,在几乎不损失准确率的情况下将模型计算量和带宽需求压缩10-20倍,设计的FPGA专用加速器相比CPUGPU分别实现高达40倍和16倍的能效提升。通过提出业界广泛采用的剪枝-量化-定制神经网络软硬件协同设计范式,提出基于FPGA的粗粒度指令集架构和神经网络层融合编译技术,整合形成面向FPGA的端到端部署工具链,提升26%计算效率的同时将任意神经网络模型的硬件部署开销降低至百秒量级,突破了智能算法专用硬件开发周期长的难题。进一步地,针对更大规模且更稀疏的图神经网络场景,通过抽取基本稀疏算子库并设计加速架构,实现相较传统框架多达3.67倍的加速,并形成一整套面向大规模图神经网络的稀疏算子加速库。


冷静文
上海交通大学

冷静文

讲者简介:冷静文现就职于上海交通大学计算机科学与技术系、John Hopcroft计算机科学中心,任长聘教轨副教授,主要研究方向为面向人工智能的新型计算系统的设计以及性能、能效、可靠性优化,并在国际一流的会议和期刊上发表了二十多篇论文和相关国内与国际专利。他于201612月毕业于德州大学奥斯汀分校电子与计算机工程系并获得博士学位,期间主要研究GPU处理器的体系结构优化,其主持设计的GPU功耗模型GPUWattch是目前学术界最为广泛使用的功耗模型;20107月毕业于上海交通大学,获得学士学位。

报告题目:基于数据流分析的深度学习系统结构

报告摘要:随着人工智能和计算技术的迅速发展,人工智能与计算系统的融合发展成为信息领域的重要趋势之一。计算系统为人工智能快速发展提供算力引擎,人工智能成为计算系统的重要应用,两者的融合发展对计算系统的体系结构、系统软件和开发方法等都带来了新的挑战与机遇。针对人工智能规模大、黑盒化的问题,我们提出了基于数据流分析的方法,优化人工智能模型的性能和可解释性。


郭崎
中国科学院计算技术研究所

郭崎

讲者简介:郭崎,中国科学院计算技术研究所研究员、博士生导师。长期从事智能计算系统相关研究。在包括ISCAMICROHPCACCF-A类会议及ACM/IEEE汇刊上发表论文60余篇,申请(授权)专利80余项。曾获得国家“万人计划”青年拔尖人才、首届中国科协青年人才托举工程等项目支持。曾获得中国科学院杰出科技成就奖等多项省部级科技奖励。

报告题目:高能效深度学习处理系统

报告摘要深度学习是最重要、应用最为广泛的人工智能方法之一。传统基于CPUGPU的系统在进行深度学习处理时遇到了严重的性能和能效瓶颈。为了提升深度学习处理的能效,需要从算法、编译、架构等多个层次进行软硬件协同设计和优化。我们在报告中将介绍高能效深度学习处理系统所面临的技术挑战和应对策略。


郭传雄
字节跳动公司

郭传雄

讲者简介:郭传雄就职于字节跳动公司,从事机器学习系统、数据中心网络、硬件研发方面的工作。在加入字节跳动之前,他是微软研究院的研究员。他也曾在微软云计算部门Azure Networking从事研发工作。他的研究兴趣是理解、设计、并运营大规模高可用计算机系统。

报告题目:用BytePS来加速分布式深度神经网络训练

报告摘要:深度神经网络(DNN)在许多领域,包括语音、计算机视觉、自然语言理解和内容推荐,都取得了突破性进展。这些突破背后的DNN模型有数十到数百层,数十亿甚至更多参数。训练这些深度模型需要花费大量算力,训练过程会持续数天至数周。在本报告中,我将介绍BytePS,用于加速分布式DNN训练。BytePS提供了一个统一的最佳通信框架,这个框架中包括了参数服务器和all-reduce两种最常用的分布式训练方式。为了在实践中达到最优性能,BytePS进一步引入了几种关键技术,包括RDMA/RoCEv2加速,梯度分片和调度等。BytePS支持主要的训练框架,包括TensorFlowPyTorchMXNetBytePS已在字节跳动和其他公司中广泛采用,用于多达数百个GPUDNN训练加速。

刘云新 清华大学智能产业研究院

刘云新

讲者简介刘云新博士现任清华大学智能产业研究院首席研究员,清华大学国强冠名教授。加入清华大学之前,他在微软亚洲研究院工作近20年,担任主任研究员,异构计算研究组负责人。他的主要研究领域为移动计算和边缘计算,在MobiSysMobiComSenSysTONTMC等国际学术会议和期刊上发表学术论文90多篇,拥有已授权美国专利16项。他的研究成果成功应用到了Visual Studio等多项微软产品中,并被国际媒体广泛报道。他获得了SenSys 2018最佳论文Runner-up奖,MobiCom 2015最佳演示奖,和PhoneSense 2011最佳论文奖。他曾任或现任多个国际学术会议的技术程序委员会成员,包括MobiSysMobiCom ATCWWW等,并担任国际学术会议MobiHoc 2021的大会共同主席和国际学术期刊IEEE Transactions on Mobile Computing的编委。
报告题目:智能边缘计算中的挑战和机遇

报告摘要随着计算机软硬件和人工智能的快速发展以及新型应用的不断涌现,计算模式正在从以云计算为中心的集中式智能向面向边缘计算的分布式智能逐步演变。在智能边缘计算时代,如何利用人工智能赋能于资源受限又形态各异的边缘设备,满足丰富多样的智能应用的实际需求,面临着诸多技术挑战,也带来了很多研究课题。本报告简述智能边缘计算的主要挑战和机遇,并介绍相关研究工作的近期进展,包括面向异构硬件的模型定制和自动生成、模型推理的性能和能耗优化、安全和隐私保护等。


学术主任:
周礼栋 博士 微软亚洲研究常务副院长,微软杰出首席科学家

周礼栋

简介:周礼栋博士现任微软亚洲研究院常务副院长,作为微软杰出首席科学家主要从事大规模分布式系统、存储系统、无线通讯和网络,以及系统安全和可靠性方面的研究,专注于推动可靠、可信及可扩展的分布式系统的理论研究和实践探索。曾先后就职于微软硅谷研究院、微软雷德蒙研究院和微软亚洲研究院。周礼栋博士是国际电子电气工程师学会院士(IEEE Fellow),国际计算机学会院士(ACM Fellow),计算机学会计算机系统会刊(ACM Transactions on Computer Systems)、计算机学会计算机存储会刊(ACM Transactions on Storage)、电子电气工程师学会计算机会刊(IEEE Transactions on Computers)编委会成员。周礼栋博士曾担任第一届亚太系统研讨会(APSys)程序委员会联合主席以及操作系统原理大会(SOSP)的联合主席。周礼栋博士毕业于复旦大学,并获得了计算机科学学士学位,之后在康奈尔大学深造,先后获得计算机科学硕士及博士学位。

时间:2021625-27

地点:北京中国科学院计算技术研究所一层报告厅北京市海淀区中关村科学院南路6

计算所地图

报名须知:

1、报名费:CCF会员2800元,非会员3600元。食宿交通费用自理。根据交费先后顺序,会员优先的原则录取,额满为止。
2、报名截止日期:2021627日。报名请预留不会拦截外部邮件的邮箱qq邮箱
3、联系:李红梅   邮箱 : adl@ccf.org.cn  

缴费方式:

在报名系统中在线缴费或者通过银行转账

银行转账(支持网银、支付宝):

开户行:招商银行北京海淀支行

户名:中国计算机学会

账号:110943026510701

请务必注明:姓名+ADL117

报名缴费后,报名系统中显示缴费完成,即为报名成功。

报名方式:请选择以下两种方式之一报名:

1、扫描(识别)以下二维码报名:

ADL117报名二维码

2、点击报名链接报名:https://conf.ccf.org.cn/ADL117