文心大模型10款ERNIE 4.5 模型系列正式开源(中文官方文档)
发布时间2025年6月30日发布方百度文心大模型团队开源协议Apache 2.0个人与商业无限制免费使用支持二次开发和私有化部署官方资源GitHub 官方仓库https://github.com/PaddlePaddle/ERNIEHugging Face 模型库https://huggingface.co/baidu飞桨星河社区https://aistudio.baidu.com/modelsoverview技术报告https://yiyan.baidu.com/blog/posts/ernie4.5在线体验https://yiyan.baidu.com一、开源公告2025年6月30日百度正式全面开源文心大模型4.5ERNIE 4.5全系列10款模型覆盖从0.3B端侧稠密模型到424B超大规模多模态MoE模型的完整梯度矩阵同步开放预训练权重、推理代码、开发套件和部署工具链。这是中国AI产业迄今为止规模最大、覆盖场景最全面的大模型开源行动。ERNIE 4.5系列首创多模态异构混合专家架构在指令遵循、知识记忆、逻辑推理和多模态理解等核心能力上达到全球领先水平其中旗舰模型ERNIE-4.5-300B-A47B在28项主流基准测试中22项超越DeepSeek-V3-671B成为目前性能最强的开源大模型之一。此次开源将彻底降低AI技术的落地门槛推动大模型从少数企业的专利变为全行业的基础设施加速中国AI生态的繁荣发展。二、10款开源模型完整矩阵ERNIE 4.5系列分为大语言模型和多模态模型两大分支共10款模型提供PyTorch和PaddlePaddle双版本总计23个模型文件适配从端侧到云端的全场景需求。2.1 大语言模型系列7款模型名称总参数量激活参数量上下文窗口核心特点适用场景ERNIE-4.5-300B-A47B-Base4240亿470亿128K通用旗舰基座泛化能力最强通用AI应用、复杂推理、知识密集型任务ERNIE-4.5-300B-A47B-Instruct4240亿470亿128K指令微调版指令遵循能力业界第一智能对话、内容生成、代码开发ERNIE-4.5-21B-A3B-Base210亿30亿128K轻量旗舰MoE性价比最高企业级应用、中等规模部署ERNIE-4.5-21B-A3B-Instruct210亿30亿128K轻量指令微调版客服机器人、内容创作、数据分析ERNIE-4.5-21B-A3B-Thinking210亿30亿128K深度思考版强化逻辑推理数学求解、学术分析、复杂问题解决ERNIE-4.5-0.3B-Base3亿3亿32K纯稠密模型体积最小端侧部署、嵌入式设备、实时推理ERNIE-4.5-0.3B-Instruct3亿3亿32K轻量指令微调版移动端应用、离线AI助手2.2 多模态模型系列3款模型名称总参数量激活参数量上下文窗口核心特点适用场景ERNIE-4.5-VL-424B-A47B-Base4240亿470亿128K多模态旗舰基座支持文本图像输入多模态理解、图像描述、视觉问答ERNIE-4.5-VL-424B-A47B-Instruct4240亿470亿128K多模态指令微调版图文生成、内容审核、智能客服ERNIE-4.5-VL-21B-A3B-Instruct210亿30亿128K轻量多模态模型移动端多模态应用、实时图像分析三、核心技术突破ERNIE 4.5的性能飞跃源于三项原创的核心技术创新彻底解决了传统大模型多模态能力弱、推理成本高、长上下文效果差的行业痛点。3.1 多模态异构混合专家架构这是ERNIE 4.5最核心的技术突破首次实现了文本与视觉模态的深度融合跨模态参数共享设计模态隔离路由机制文本和视觉专家共享底层参数同时保留各自的专用空间实现112的效果专家正交性优化引入路由器正交损失函数确保不同专家专注于不同的任务避免专家坍塌高效激活机制每次推理仅动态激活最相关的8个专家在4240亿总参数规模下单Token计算量仅为同规模稠密模型的15%3.2 全栈高效训推体系基于飞桨PaddlePaddle深度学习框架构建了从训练到推理的全栈优化方案训练优化采用异构混合并行策略和多层级负载均衡技术结合FP8混合精度训练预训练吞吐量提升47%推理量化创新多专家并行协同量化方法和卷积编码量化算法实现4-bit/2-bit近无损量化推理速度提升3倍显存占用降低75%部署优化实现动态角色转换的预填充-解码分离部署技术大幅提升高并发场景下的资源利用率3.3 模态针对性后训练针对不同任务场景进行精细化调优兼顾通用能力和垂直领域表现多阶段训练采用监督微调SFT 直接偏好优化DPO 统一偏好优化UPO的三阶段训练流程双模式支持多模态模型支持思考模式强化推理和非思考模式强化感知切换用户可根据需求灵活选择中文深度优化在预训练阶段融入海量高质量中文语料中文理解和生成能力远超海外模型四、性能基准对比在全球主流的大模型基准测试中ERNIE 4.5系列全面超越了此前的开源模型多项指标达到闭源模型水平。4.1 通用能力对比基准测试测试维度ERNIE-4.5-300B-A47BDeepSeek-V3-671BQwen3-72BLlama 3-70BMMLU通用知识89.488.286.183.1C-Eval中文知识87.682.384.572.8IFEval指令遵循92.187.589.385.7GSM8K数学推理86.384.783.278.9HumanEval代码生成85.784.283.579.1数据来源ERNIE 4.5官方技术报告2025年6月4.2 多模态能力对比基准测试测试维度ERNIE-4.5-VL-424B-A47BGPT-4oGemini 2.5 ProQwen-VL-MaxMME多模态理解1890192018701820VQA-v2视觉问答85.386.784.182.5TextVQA文本识别82.784.281.579.3DocVQA文档理解88.990.187.285.6五、快速上手教程5.1 环境准备# 安装依赖pipinstalltransformers torch paddlepaddle-gpu# 或使用飞桨版本pipinstallerniekit fastdeploy5.2 Hugging Face 调用示例PyTorchfromtransformersimportAutoTokenizer,AutoModelForCausalLMimporttorch# 加载模型和分词器model_namebaidu/ERNIE-4.5-21B-A3B-InstructtokenizerAutoTokenizer.from_pretrained(model_name,trust_remote_codeTrue)modelAutoModelForCausalLM.from_pretrained(model_name,torch_dtypetorch.bfloat16,device_mapauto,trust_remote_codeTrue)# 生成回答prompt请用Python写一个快速排序算法并添加详细注释messages[{role:user,content:prompt}]inputstokenizer.apply_chat_template(messages,tokenizeTrue,return_tensorspt,return_dictTrue).to(model.device)outputsmodel.generate(**inputs,max_new_tokens2048,temperature0.1)responsetokenizer.decode(outputs[0],skip_special_tokensTrue)print(response)5.3 飞桨 Paddle 调用示例fromerniekitimportErnieModelForCausalLM,ErnieTokenizer# 加载模型modelErnieModelForCausalLM.from_pretrained(baidu/ERNIE-4.5-21B-A3B-Instruct)tokenizerErnieTokenizer.from_pretrained(baidu/ERNIE-4.5-21B-A3B-Instruct)# 生成回答prompt解释一下什么是大模型的混合专家架构inputstokenizer(prompt,return_tensorspd)outputsmodel.generate(**inputs,max_new_tokens1024)print(tokenizer.decode(outputs[0],skip_special_tokensTrue))六、部署指南6.1 本地部署FastDeploy 一键部署FastDeploy是百度专为大模型打造的推理部署工具支持一键启动OpenAI兼容的API服务# 安装FastDeploypipinstallfastdeploy-gpu-python# 启动API服务以0.3B模型为例python-mfastdeploy.entrypoints.openai.api_server\--modelbaidu/ERNIE-4.5-0.3B-Instruct\--port8180\--host0.0.0.0\--max-model-len32768\--max-num-seqs326.2 硬件要求参考模型最低显存要求FP16推荐显存要求4-bit量化ERNIE-4.5-0.3B2GB1GBERNIE-4.5-21B-A3B40GB16GBERNIE-4.5-300B-A47B320GB80GB4张A100 80GB6.3 企业级部署对于有更高性能和安全需求的企业推荐使用百度智能云千帆大模型平台提供的托管服务支持弹性扩缩容支持百万级并发企业级安全防护和数据隔离完整的监控和运维体系定制化模型微调服务七、生态支持与未来规划7.1 配套工具链百度同步开源了两大开发套件为开发者提供开箱即用的全流程支持ERNIEKit文心大模型开发套件支持模型微调、评估、推理全流程FastDeploy大模型高效部署套件支持多硬件、多平台部署提供OpenAI兼容API7.2 支持平台所有模型已同步上传至以下平台开发者可自由选择下载Hugging Face Hubhttps://huggingface.co/baidu飞桨星河社区https://aistudio.baidu.com魔搭社区ModelScopehttps://modelscope.cn/organization/baiduGitCodehttps://gitcode.com/PaddlePaddle/ERNIE7.3 未来规划百度文心大模型团队表示将持续投入ERNIE系列的研发未来计划2026年Q3开源ERNIE 4.5语音模型支持语音识别和语音生成2026年Q4推出ERNIE 5.0预览版进一步提升推理能力和多模态融合效果2027年Q1开源端侧专用模型支持手机、手表等嵌入式设备持续优化工具链和生态降低开发者使用门槛结尾文心大模型4.5系列的全面开源标志着中国大模型技术已经从跟跑进入并跑甚至领跑的新阶段。它不仅为全球开发者提供了一个高性能、低成本的大模型选择更为中国AI产业的自主可控发展奠定了坚实的基础。未来百度将继续坚持开源开放的理念与全球开发者和企业携手共同推动AI技术的创新和落地让AI技术惠及每一个人。