返回首页

超大规模预训练模型的挑战与前景— CCF第九期启智会在北京召开

阅读量:7 2021-09-16 收藏本文

2021年9月10日至12日,中国计算机学会(CCF)第九期启智会在北京举行。会议由中国人民大学文继荣教授、清华大学唐杰教授领衔发起,来自清华大学、北京大学、中国人民大学等单位的12名相关领域专家学者出席了本次会议。

会议围绕“超大规模预训练模型的科学难点、重要方向与应用场景”话题展开深入讨论。近年来预训练技术在自然语言处理领域蓬勃发展,在大部分重要任务上实现了性能显著提升,被公认为近年来人工智能的重大技术突破。预训练作为新兴技术仍然有许多开放问题,未来发展方向也值得进一步思考:预训练模型有哪些需要突破的科学难点?还有哪些值得探索的重要方向?预训练模型会带来哪些新的应用场景?这些问题对于预训练技术甚至整个自然语言处理领域都有深远的意义,深入探讨这些问题不仅有助于更好地理解预训练语言模型的机制与本质,将现有技术潜力发挥到极致,也有助于把握预训练技术的未来发展方向,做出超前的具有突破意义的工作。

本期启智会会议采取引导报告与圆桌讨论相结合的形式,对超大规模预训练技术的挑战与前景进行了探讨。与会专家围绕会议主题,结合最新研究成果阐述观点和辩论,最终就超大规模预训练技术的近期目标、远期目标以及重要应用场景等问题达成了共识。此次会议为超大规模预训练模型的未来工作指明了方向,蓄积了人工智能新动力、激发了语言模型新潜力、释放了应用技术新活力,令与会者受益匪浅。

会议合影

题图


后排从左至右:邹旭、刘潇、韩文弢、陈键飞、卢浩宇、高一钊、秦禹嘉、曾哲妮;

前排从左至右:王立威、黄民烈洪波宋睿华、文继荣唐杰李涓子张静、刘知远、卢志武


会议现场

现场会议1

现场会议2