AI“做梦”从科幻想象到现实功能1968年科幻电影《银翼杀手》原著作者菲利普·K·迪克提出“仿生人会做梦吗会梦见电子羊吗”半个多世纪后硅谷科技巨头给出答案。昨天Anthropic在旧金山开发者大会上发布智能体构建平台Managed Agents的新功能包括记忆扩展、结果输出、多智能体协作以及「做梦Dreaming」。AI“做梦”的本质与机制早在2024年OpenAI推出o1系列时就将“思考”等人类行为用于AI。而Anthropic的“做梦”功能本质是自动化的离线日志批处理。AI Agent完成长链路复杂任务后后台会留下海量运行日志“做梦”功能让Agent在闲置时间重新梳理历史记录寻找模式优化操作路径。“记忆”负责捕获学到的东西“做梦”则提炼记忆并共享。不同AI产品的“做梦”功能Claude Code代码泄露事件中网友发现Anthropic准备Auto Dreaming功能。开发者大会更新的Managed Agents里的Dreams需手动触发Claude一次能读最多100个session的对话历史。之前Claude Code里的AutoDream默认24小时跑一次。Hermes Agent也有类似功能能自我学习和进化Curator功能可将操作指南整理成Skill。OpenClaw在更新中添加相关机制其做梦机制分light、REM、deep三个阶段深度睡眠阶段由6个加权信号决定是否写入长期记忆还会生成面向机器和用户的文件Dreaming默认每天凌晨3点自动运行系统会生成“梦境日记”。AI的记忆与上下文工程AI的“做梦”离不开记忆。目前AI圈最有价值的是上下文工程系统提示、用户输入等叠加构成agent的“上下文”。让Agent记得更多有用内容是难题Manus优化上下文工程提到KV - Cache缓存命中率是重要指标还介绍了工具调用和文件系统相关方法。KV - Cache是大模型“用空间换时间”的底层加速技术一般大模型上下文窗口最多百万级别。SubQ模型拓展上下文昨天拿到2900万美元种子轮融资的新公司Subquadratic发布SubQ新模型主打更长上下文宣称可支持最高1200万token上下文窗口。其核心技术路线从“稠密注意力”转向“次二次/线性扩展”架构有望解决上下文长算力成本高的问题。测试结果显示在100万token下速度提升超50倍、成本降低超50倍在1200万token时算力需求较前沿模型降低近1000倍。在RULER 128K长上下文基准上SubQ成本下降约300倍。AI用词模糊人机边界AI公司用“思考”“记忆”“做梦”等词描述机器不仅在卖产品还在重新分配“人”概念里的词汇所有权模糊了机器和人的边界。同时这种用词影响责任分配出问题时人们易把AI当成独立“行为主体”追责而真正应被追问的是部署程序的公司和产品团队。