返回首页
您的位置:首页 > 新闻 > CCF新闻 > CNCC

CNCC论坛分享 | 第三届网络生态治理论坛——大模型安全路在何方?

阅读量:250 2023-11-27 收藏本文


2023年10月27日,CNCC2023第三届网络生态治理论坛——大模型安全路在何方?在沈阳举办。



2023年10月27日下午,CNCC2023第三届网络生态治理论坛——大模型安全路在何方?(以下简称“论坛”)在沈阳新世界博览馆2层会议室A举办,论坛由CCF杰出会员,中国科学院信息工程研究所虎嵩林研究员担任主席,CCF高级会员,清华大学长聘副教授刘知远担任共同主席。


本论坛聚焦大模型最新进展及其所面临的安全与伦理难题,邀请了复旦大学邱锡鹏教授,CCF学术工委秘书长、清华大学黄民烈长聘教授,清华大学刘知远教授,阿里安全资深算法专家黄龙涛博士,科大讯飞副总裁、AI研究院执行院长、认知智能全国重点实验室副主任王士进正高级工程师分别做了 “安全可靠的大模型”、“大型语言模型的安全/对齐问题”、“智能基础模型的“洋葱”型多层安全与防护体系”、“大模型时代的算法治理与实践”、“认知大模型技术应用与安全实践”等主题报告,报告环节由虎嵩林研究员主持。


图片

 虎嵩林研究员介绍论坛背景


清华大学的刘知远教授和大家分享了主题《智能基础模型的“洋葱”型多层安全与防护体系》的报告,报告首先系统介绍了智能基础模型安全的重要性,提出基础模型安全层次应包括系统层、用户层、应用层和社会层,其次介绍了智能基础模型安全防护体系现有工作和未来展望,刘教授希望与我们广大同行一起,共同探索大模型前沿问题,推动大模型技术的研究与应用。


图片

 虎嵩林研究员向论坛嘉宾刘知远教授颁发感谢证书


科大讯飞副总裁王士进正高级工程师首先介绍了认知大模型的现状,其次和大家分享了讯飞星火大模型团队在技术研究及安全等方面的最新研究进展以及安全处理流程,第三是提出了大模型的复杂性、黑盒化、难验证等特性给大模型的安全应用带来了新的挑战,以及未来的发展方向。

 

图片

王士进博士做主题分享


清华大学长聘教授黄民烈的报告主要围绕大语言模型,尤其是中文大语言模型、对话系统的安全性问题,和大家分享了黄教授团队在安全类别体系、对抗攻防、隐性毒性内容检测、隐私训练数据抽取、社会伦理道德植入等方面的工作。

 

图片

黄民烈教授回答观众的提问


阿里安全资深算法专家黄龙涛博士从企业的角度和大家分享了阿里巴巴在人工智能安全治理方面的一些实践和思考,报告阐述了以大模型为代表的生成式人工智能技术,不仅带来了新的技术变革,更引发了新的风险挑战,需要政府、企业、高校、研究机构等充分交流,合作共治。


图片

 黄龙涛博士做主题报告分享


复旦大学邱锡鹏教授向大家介绍了大型语言模型的主要科学挑战,包括模型的架构、推理能力来源、幻觉、可解释性等问题,最后对未来的研究做了展望。


图片

 虎嵩林研究员向论坛嘉宾邱锡鹏教授颁发感谢证书


在Panel环节,与会嘉宾围绕“大模型技术高速演进,例如大语言模型驱动的Agents如火如荼,AI治理的范式如何与时俱进?”、“AI治理中政府、企业、学术界的责任分别是什么,应当如何协同推进AI向善?”以及“我们是否需要担心AI发展带来的深层伦理问题,对人类主体地位的挑战如就业等?”三个主题进行深度讨论和交流分享,同时与台下观众就大模型安全问题展开了激烈的研讨,激荡思想的火花,Panel 环节由刘知远教授主持。


图片

 Panel 讨论环节


本次论坛有超过300位来自科研院所、高校和企业的观众齐聚现场,大家就大模型的科学问题、新范式下的研究方向、大模型的安全性挑战、最新技术进展与安全实践等问题展开深入的讨论。


图片

 论坛主要人员合影


网络生态治理论坛已在中国计算机大会上连续成功举办三届,持续聚焦网络生态治理领域的前沿技术创新及安全落地应用,秉承科技向善的原则解决科技与伦理风险冲突,打造科技赋能的网络治理生态圈,期待与关心人工智能发展、赋能、治理网络生态的社会各界友人一起相约CNCC2024,进一步探讨网络生态治理新范式。