计算机视觉与深度学习

阅读量:311
2017-04-07

中国计算机学会青年计算机科技论坛

CCF Young Computer Scientists & Engineers Forum

CCF长沙 CCF YOCSEF长沙

联合论坛

201748(星期六上午8:20-12:00

长沙理工大学云塘校区理科楼B311会议室

举行专题报告会,敬请光临

报告会主题

计算机视觉与深度学习

计算机视觉是使用计算机及相关设备对生物视觉的一种模拟。它的主要任务就是通过对采集的图片或视频进行处理以获得相应场景的三维信息。计算机视觉既是工程领域,也是科学领域中的一个富有挑战性重要研究领域。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,深度学习在计算机视觉、语音识别和自然语言处理等领域有成功的应用。本次研讨会邀请了计算机视觉和深度学习相关领域的著名学者共同探讨其研究进展。

承办单位:长沙理工大学计算机与通信工程学院

综合交通运输大数据智能处理湖南省重点实验室

专题报告会程序


8:20   入场签到

8:45 长沙理工大学计通学院院长李峰教授致欢迎词

8:55 CCF长沙代表致词(欧阳建权执委)

9:00   报告一

特邀讲者:杨高波博士,湖南大学教授

报告题目:语义对象级图像篡改被动取证技术

9:50   报告二

特邀讲者:郑伟诗博士,国家优青,广东省杰青,中山大学教授

报告题目:非对称行人重识别

10:40 报告三

特邀讲者:黄岩博士,中国科学院自动化研究所助理研究员

报告题目:深度学习新模型及其在视觉方面的应用

11:30 参会人员合影


执行主席:彭绍亮博士/研究员,国防科学技术大学计算机学院

CCF YOCSEF长沙分论坛主席

执行主席:满君丰博士/教授,湖南工业大学计算机与通信学院

CCF YOCSEF长沙分论坛候任主席

执行主席:张建明博士/副教授,长沙理工大学计算机与通信工程学院

CCF YOCSEF长沙分论坛副主席


注:①CCF会员免费参加,往返交通费和住宿自理

②尚未加入CCF的参会人员,欢迎参会期间加入CCF,并同时加入所在城市的CCF YOCSEF

③联系人及电话:张建明(13974818482)、李文军(18373164290)、曾道建(18817159991)

④请参会人员于4月7日前将参会回执(如表1)发E-mail至17156213@qq.com


表1. 参会回执单

姓名

工作单位

职务/职称

手机

Email

CCF会员号






          

1. 会场方位图

特邀讲者:杨高波

湖南大学信息科学与工程学院教授、博士生导师。感兴趣的研究领域包括图像/视频信息安全, 多媒体通信。1995年毕业于沈阳工业学院电子工程系;2001年毕业于华东交通大学,获交通信工程及控制专业的工学硕士学位;2004年3月毕业于上海大学,获通信与信息系统专业的工学博士学位。同期,进入湖南大学计算机与通信学院任教。2005年晋升为副教授,2008年破格晋升为教授,并被评为湖南大学2007-2008年度优秀教师,入选湖南省青年骨干教师培养对象。2010年入选湖南省新世纪121人才工程。2010年8月至2011年8月国家公派在英国Surrey大学进行访问学者交流。2011年,被遴选为博士生导师,并入选教育部新世纪优秀人才支持计划。2013年,入选教育部保密管理专业教学指导分委员会委员。2014年,入选中国人工智能学会智能传媒专业委员会委员。2015年,应邀担任江苏省物联网移动互联技术工程实验室的学术委员会委员。主持国家973前期研究专项1项,国家自然科学基金项目3项,教育部高等学校博士学科点专项科研基金1项,湖南省自然科学基金重点项目和面上项目各1项,省(部)级重点实验室开放课题3项以及横向课题多项,参与完成国家115科研基金课题2项。近几年,第一作者或通讯作者发表论文50余篇,包括IEEE Transactions on CSVT, IEEE Transactions on Multimedia, IEEE Transactions on Broadcasting等权威期刊和JCVIR、MTA、SCN等主流期刊。同时,为IEEE Transactions on TIFS、IEEE Transactions on CSVT、IEEE Signal Processing Letter、电子学报、通信学报、电子与信息学报和计算机研究与发展等主流期刊审稿,年审稿量约50篇。

报告提要:语义对象级图像篡改被动取证技术

基于语义对象的图像/视频操作是图像/视频处理应用的特色与目标,既可以提高视觉质量,也可以提供更好的交互性能。然而,语义对象级的操作也经常被用于改变图像/视频的语义,以达到恶意篡改的目的。本讲座以两种常见的对象移除方法Seamcarving和imageinpainting为例,阐述语义对象级图像篡改的被动取证技术。

特邀讲者:郑伟诗


博士,中山大学数据科学与计算机学院教授,机器智能与先进计算教育部重点实验室副主任。他主要面向大规模智能视频监控,展开视频图像信息与信号的处理研究,并开展大规模机器学习的算法和理论研究。他目前的主要研究应用领域是:视频监控下的行人身份识别与行为信息理解。面向大规模监控网络下的行人追踪问题,他在国内外较早和持续开展跨视域行人重识别的研究,发表一系列以跨视域度量学习为主线的研究工作,他提出的基于相对比较思想建模思路在行人重识别中被广泛深入研究。他已发表90余篇主要学术论文,其中60余篇发表在图像识别和模式分类IEEE TPAMI、IEEE TIP、IEEE TNN、PR、IEEE TCSVT、IEEE TSMC-B等国际主流权威期刊和ICCV、CVPR、IJCAI等计算机学会推荐A类国际学术会议。近5年来,与国内外同行一道,他在中国计算机学会推荐A类国际学术会议ICCV和CVPR上以及其它著名国际学术会议期间做Tutorial。获国家优秀青年科学基金、英国皇家学会牛顿高级学者基金、广东省科技创新领军人才等支持。曾获广东省科学技术进步奖二等奖、广州市科学技术进步奖一等奖。

报告提要:Asymmetric Person Re-Identification/非对称行人重识别

Person re-identification is fundamentally challenging because of the large visual appearance changes caused by variations in view angle, gesture, lighting, background clutter, and occlusion. With the help of person re-identification, we are able to match people across non-overlapping camera views at different locations and different time in a large distributed space over a prolonged period of time. In this talk, we will introduce our recent work on asymmetric modeling for person re-identification for learning view-specific feature transformations, an under-studied approach. In particular, we formulate a novel view-specific person re-identification framework from the feature augmentation point of view, called Camera coRrelation Aware Feature augmenTation (CRAFT). Specifically, CRAFT performs cross-view adaptation by automatically measuring camera correlation from cross-view visual data distribution and adaptively conducting feature augmentation to transform the original features into a new adaptive space. Through our augmentation framework, view-generic learning algorithms can be readily generalized to learn and optimize view-specific sub-models whilst simultaneously modelling view-generic discrimination information. We conducted extensively comparative experiments to validate the superiority and advantages of our proposed framework over state-of-the-art competitors on contemporary challenging person re-id datasets.


特邀讲者:黄岩

黄岩博士,中国科学院自动化研究所模式识别国家重点实验室助理研究员。研究方向为深度学习、计算机视觉与模式识别。目前已在相关领域顶级会议和期刊上发表多篇文章,包括Advances in Neural Information Processing Systems (NIPS)IEEE Conference on Computer Vision and Pattern Recognition(CVPR)IEEE International Conference on Computer Vision (ICCV)IEEE Tranactions on MultimediaTMM)等。曾获得CVPR 2014-Deep Vision Workshop最佳论文奖、International Conference on Pattern Recognition (ICPR) 2014最佳学生论文奖以及The Symposium on Research and Application in Computer Vision(RACV) 2016最佳墙报奖。现为IEEE Transactions on Information Forensics and Security (TIFS)IEEE Transactions on Cybernetics (TSMC-B)Computer Vision and Image Understanding (CVIU)Neurocomputing等多个期刊和会议的审稿人。曾是2016年度百度奖学金获得者。

报告提要:深度学习新模型及其在视觉方面的应用

自2006年深度学习兴起以来,其发展可大致分为三个阶段:基于玻尔兹曼机和自编码机的无监督表示学习阶段、基于卷积神经网络的有监督表示学习阶段以及基于循环神经网络的序列化表示学习阶段。在本次报告中,报告人将介绍其在不同阶段所提出的新型深度模型,并应用到多种计算机视觉与模式识别任务中。报告内容主要分为三部分:1)基于深度判别式高阶玻尔兹曼机的数据关系学习——考虑到现有用于关系学习的高阶玻尔兹曼机都是无监督学习得到的,无法适用于一些对精度要求较高的任务,因此我们考虑将关系类别标签引入并进行建模,提出判别式高阶玻尔兹曼机以及它相应的监督式学习算法,该模型在人脸验证及视频行为关系分类方面取得较好结果。2)基于双向循环卷积网络的视频超分辨率——考虑到传统多帧超分辨率方法需要花费大量计算做运动估计,且循环神经网络拥有对视频长距离背景信息能力,因此我们提出了一种全卷积的循环神经网络用于视频超分辨率任务,该模型将传统循环网络的参数从百万级降低到几万的同时还可以保持图像空间结构信息,在运行速度上相对于其它多帧超分辨率方法提升两个数量级。3)基于选择式多模态循环网络的图像文本匹配——考虑到在匹配一对图像文本时,图像文本都包含很多冗余信息,只有部分显著的、表征同一语义概念的内容才能被关联起来,因此我们提出一种基于选择式多模态循环网络的图像文本匹配方法,可以选择性关注和匹配图像文本中的语义实例,并进行动态融合得到全局相似性。我们在两个公开多模态数据集Flickr30k和MSCOCO上进行实验验证,均取得较好匹配结果。


执行主席:彭绍亮

博士,2008年至今在国防科技大学计算机学院从事高性能计算、大数据、生物医学工程、移动计算等技术研究工作,并担任天河生命科学计算方向负责人,华大基因研究院“特聘教授”。2008年获国防科技大学计算机学院博士学位,2007年至2008年在香港城市大学计算机系联合培养。主持国家自然科学基金项目3(重点1),国家发改委项目1项,省部级项目多项,并出版学术专著多部(一部为“十一五”国家重点图书)。已发表学术论文数十篇,其中包括Nature Communications, Cell AJHG, Genome Biology, BMC Bioinformatics, PLOS ONE, ACM/IEEE Transactions, ISC, 《中国科学》等。曾参与天河系列超级计算机应用软件研发工作,参与国家973项目、863项目、军队重大型号项目等13项,获军队科技进步一等奖1项。是中国计算机学会理事(2016-2019)CCF计算机应用专委会副主任,YOCSEF长沙2016-2017主席,CCF高性能计算、大数据、传感器网络专委会委员、CCF高级会员和杰出讲者、中国医药生物技术协会生物医学信息技术分会委员、中国生物医学工程学会健康分会委员、上海市数据科学重点实验室“执行委员会委员”和“数据科学家”、广东省超算学会理事、广东省计算机学会超算专委会副主任、ACM/IEEE会员。2014,2015年连续两次率队获得全国并行应用挑战赛金奖(人类基因组重测序软件流水线深度并行优化,天河2号上一种大规模虚拟药物筛选平台),目前申请软件著作权15项,专利15项。

执行主席:满君丰


博士,湖南工业大学计算机与通信学院教授,“智能信息感知及处理技术”湖南省重点实验室副主任,“智能感知与网络化控制”湖南省高校重点实验室副主任兼方向带头人,计算机应用技术硕士点带头人,湖南省青年骨干教师,CCF YOCSEF长沙AC委员,YOCSEF长沙2017-2018主席,CCF长沙执委,湖南省计算机学会理事。主要研究方向:网络化软件、业务过程分析。在国内外期刊及会议上发表学术论文40多篇,其中有20多篇被SCI/EI检索,主持包括国家自科基金、湖南省自科基金在内的科研项目7项,参与包括国家自科基金、湖南省自科基金重点项目在内的科研项目10余项。


执行主席:张建明


博士,长沙理工大学计算机与通信工程学院副院长、副教授,“综合交通运输大数据智能处理湖南省重点实验室”骨干成员,湖南省普通高校青年骨干教师,CCF YOCSEF长沙AC委员,YOCSEF长沙2016-2017副主席,CCF理论计算机科学专委会委员,湖南省计算机学会理事。主要研究方向为计算机视觉、机器学习、传感器网络、智能交通系统等。迄今已在国内外几十种学术刊物上发表学术论文60余篇,其中SCI收录9篇,EI收录26篇;出版译著2部。主持完成湖南省科技厅、湖南省教育厅、湖南省建设厅的科研项目6项,省级重点实验室开放基金1项;曾参与完成国家863项目、国家自然科学基金等。获省自然科学优秀学术论文二等奖1项、三等奖1项,软件著作权4项,申请发明专利2项。作为学院“智能感知与交通安全”团队的骨干,承担了团队部分管理工作,团队连续多年每年新增湖南省交通运输厅的科技计划项目;通过联合科研项目攻关、研究成果推广试用、关联项目承担单位间合作等方式,与湖南省交通行业许多单位、企业建立了良好的合作关系。