大模型成为当前人工智能的主流,在上下文语义理解、多媒体内容生成、多元化问题求解等方面,能够完成过去只有人才能完成的任务,然而这是一条“延长线”式的研究路径,而且面临着过渡消耗数据和算力、灾难性遗忘、抽象推理能力弱、不可解释性等固有缺陷。对此,我们提出了借鉴人脑记忆机理,具有抽象、联想、混沌等功能的新型机器记忆智能模型,旨在探索一条通向小数据、低算力、强推理的机器智能新路径。
报告提出以“记忆工程”为核心,推动大模型、智能体与知识图谱深度融合,并梳理从提示词/上下文工程到记忆工程的演进。重点介绍MemOS的分层记忆与调度机制如何联动动态知识图谱,提升推理与任务效率,并给出金融、工业、教育等落地案例及OpenMem进展。
智能体的核心价值正随着个性化记忆能力的增强被重新定义:通过自主规划、动态决策与工具调用,智能体得以在复杂任务中保持推理连续性、稳健管理上下文,并显著提升知识复用效率。系统能力也从一次性交互走向可持续的多轮对话与长期偏好建模,进而支撑更复杂的决策与执行。报告将重点聚焦如何高效构建、更新与调度个性化记忆,让智能体在多轮交互中按需调用、持续学习,从而提升决策质量与执行效率。
探讨了大语言模型与符号系统的融合路径,指出当前大模型存在幻觉、可解释性不足等问题,而传统知识工程则面临构建开销大、泛化能力弱的局限。会议形成共识,需发展 “符号 + 神经” 的技术路线,通过跨学科融合突破现有瓶颈,构建自主可控、可信可溯的新一代知识工程体系。该体系将聚焦智慧教育、金融、医疗等关键领域,以知识表示、获取与推理为核心,推动人工智能技术自立自强与产业智能化升级。
围绕“机器思考的闭环”,从 AGI 视角梳理推理→学习→记忆的三步演进与 Scaling Law 的广义迁移。内容覆盖大模型的可扩展学习实践、超快推理技术以及面向“无限记忆/无限推理”的 MemAgent 机制。介绍推理模型时代的训练框架 veRL,从实现细节出发说明其概念与实践,并讨论超快推理、超长上下文记忆与更强学习算法对机器推理的意义。
大模型为通用人工智能奠定了强有力的基础,但其能力主要依赖于从超大规模数据中归纳学习得到的“静态”知识记忆。而人类智能不仅需要长期学习得到的经验和知识,同时还需要在实践中动态的搜集外部信息,进一步归纳和提炼有用知识,有时甚至结合已有记忆进行深度推理,从而有效解决复杂的高难度任务。我们认为,真正的通用人工智能是基于开放世界的外部动态知识和模型内部静态记忆的高效联动。基于此,该报告将结合研究组在外部知识向量表示和获取、大模型高效记忆增强、多模态知识融合等方面的实践和思考,探讨通向真正通用人工智能的路径。