以 GPT-5、Claude 和 Gemini 为代表的大语言模型Large Language ModelsLLMs的兴起为开发能够通过自然语言接口执行复杂任务的智能体开辟了新的研究前沿。这类智能体展现出卓越的泛化能力但在不断演化、知识密集的应用环境中仍普遍面临记忆能力有限、上下文保持不稳定以及可解释性不足等问题。为应对上述挑战近期研究将显式记忆增强、基于智能体的体系结构以及神经–符号融合作为构建自适应、可信且以知识为基础的 LLM 智能体的关键技术路径。尤其是通过引入知识图谱或符号化记忆存储等结构化知识表示形式LLM 能够更有效地保持长期事实性知识支持持续适应与演化并在动态真实环境中提升智能体的行为表现。本专刊旨在汇聚大语言模型、记忆体系结构、智能体系统与知识工程交叉领域的前沿研究系统性地探讨和解决记忆增强型大语言模型智能体在基础理论与实际应用中的关键挑战。我们诚邀原创研究论文、应用研究以及开源资源如工具、基准和数据集重点关注如何通过结构化知识、持续学习与多智能体协同提升 LLM 智能体的记忆能力、推理能力与环境适应能力。征稿主题包括但不限于1. 面向大语言模型智能体的记忆增强体系结构2. 支持长期推理与规划的符号化记忆融合方法3. LLM/智能体中的知识机制与机制层面可解释性4. 面向 LLM 与因果智能体的因果学习方法5. LLM/智能体中的因果可解释性6. 面向 LLM 记忆对齐的知识编辑、注入与优化7. 动态环境中 LLM 智能体的持续学习与终身学习8. 多模态或多智能体场景下的显式记忆检索与路由机制9. LLM 系统中可控、可验证的记忆行为建模10. 结构化知识与智能体记忆的时间一致性建模11. 记忆驱动智能体中的涌现行为与拓扑结构优化12. 用于智能体通信与协同的神经–符号模型13. 结合结构化记忆的领域特定 LLM 适配如科学发现、代码生成、医疗健康、金融等14. 面向记忆增强型 LLM 智能体的基准、工具与数据集15. 基于符号化知识轨迹的可解释性与可信性方法16. 开放世界场景下的适应机制、知识遗忘与记忆编辑17. 跨语言或低资源场景下的智能体记忆建模客座主编况琨浙江大学计算机学院张宁豫浙江大学软件学院余航上海大学计算机工程与科学学院吴桐桐蒙纳士大学信息技术学院截止日期2026年12月15日截稿日期前投稿 APC $2750 USD所有论文录用后将在线发表提交说明请通过在线投稿系统将稿件提交至The Knowledge Engineering Review。另外请在提交时选择本期特刊 Memory-Augmented LLM Agents并在投稿信Cover letter中注明。期刊投稿链接https://mc.manuscriptcentral.com/ker如有任何疑问欢迎联系客座主编。况琨, kunkuangzju.edu.cn张宁豫, zhangningyuzju.edu.cn余航, yuhangshu.edu.cn吴桐桐, tongtong.wumonash.edu专刊详情https://www.maxapress.com/ker/specials/155AboutThe Knowledge Engineering ReviewThe Knowledge Engineering Review 是由Maximum Academic Press出版的开放获取期刊本刊致力于致力于传播人工智能领域相关研究成果为全球学者、研究人员、技术人员和从业人员提供高质量的文章。期刊主编由东南大学计算机科学与工程学院的漆桂林教授和鲍灵格林州立大学的Arijit Khan副教授共同担任执行主编由东南大学计算机科学与工程学院的吴天星副教授担任。目前期刊已被SCIEJIF 20242.0、ScopusCiteScore 20247.7、PubMed、Ei Compendex、EBSCO等数据库收录。期刊官网2026年1月正式发布https://www.maxapress.com/ker投稿链接https://mc.manuscriptcentral.com/kerOpenKGOpenKG中文开放知识图谱旨在推动以中文为核心的知识图谱数据的开放、互联及众包并促进知识图谱算法、工具及平台的开源开放。点击阅读原文进入 OpenKG 网站。