返回首页

从千亿模型 GLM-130B 到 ChatGLM 的尝试|SPP第47期

阅读量:8 2024-02-22 收藏本文

本期SPP报告将分享GLM团队在千亿模型GLM-130B训练和ChatGLM研发过程的思考和尝试。GLM-130B 是一个拥有1300亿参数的中英双语预训练基座模型,架构采用通用语言模型GLM。斯坦福基础模型中心202211月对全球30个大模型进行的评测报告显示GLM-130B 在准确性和恶意性指标上与GPT-3 175B (davinci) 接近或持平,鲁棒性在所有千亿基座模型中表现优异。自20232月开始内测ChatGLM-130B (chatglm.cn) 千亿对话模型,并应用于大型互联网企业等3月开源ChatGLM-6B 模型,截至5月份全球累计下载200万,连续两周Hugging Face趋势榜第一。

欢迎参加本期SPP621日(本周三) 19:30-21:00


本期直播你将收获哪些

1、国内外大模型研究和技术发展的脉络

2、大模型训练和推理面临的技术挑战

3ChatGLM团队在大模型研发过程中的探索与尝试

演讲嘉宾

东昱晓

清华大学计算机系助理教授

东昱晓,清华大学计算机系助理教授,知识工程实验室(KEG)成员,曾工作于脸书人工智能和微软总部研究院。研究方向为数据挖掘、图机器学习和预训练基础模型,相关成果应用于十亿级社交网络和知识图谱。入选IJCAI 22 Early Career Spotlight,获2017ACM SIGKDD博士论文奖第三名2022ACM SIGKDD新星奖。

开课时间

2023621日(本周三)19:30-21:00

如何报名

SPP目前暂为免费直播。点击阅读原文立即报名,报名可在活动当天(621日)1500获取到直播间链接,可与老师线上即时交流。