LFM2.5-VL-1.6B开源大模型Liquid AI官方授权可商用可二次开发1. 项目概述LFM2.5-VL-1.6B是由Liquid AI发布的轻量级多模态大模型专为端侧和边缘设备设计。这款开源模型结合了1.2B参数的语言模型和约400M参数的视觉模型总参数量达到1.6B在保持高性能的同时显著降低了硬件需求。核心特点多模态能力同时处理图像和文本输入轻量化设计适合边缘设备离线运行低显存需求仅需约3GB GPU显存快速响应优化后的推理速度项目值模型名称LFM2.5-VL-1.6B开发商Liquid AI参数量1.6B类型视觉语言模型 (Vision-Language)模型路径/root/ai-models/LiquidAI/LFM2___5-VL-1___6BWebUI 地址http://localhost:78602. 环境准备与快速部署2.1 硬件要求LFM2.5-VL-1.6B对硬件要求相对友好适合大多数开发者环境组件要求GPUNVIDIA GPU (推荐 8GB 显存)当前配置RTX 4090 D, 22.15 GB 可用内存占用~3 GB GPU2.2 快速启动方式WebUI方式推荐模型已配置开机自启服务可通过以下命令管理# 查看服务状态 supervisorctl status lfm-vl # 重启服务 supervisorctl restart lfm-vl # 查看日志 tail -f /var/log/lfm-vl.out.log启动后访问 http://localhost:7860 即可使用Web界面。命令行方式如需手动启动可执行cd /root/LFM2.5-VL-1.6B python webui.py3. 核心功能与使用指南3.1 Python API调用示例以下是完整的Python调用示例展示如何加载模型并进行图文对话import warnings warnings.filterwarnings(ignore) import torch from PIL import Image from transformers import AutoProcessor, AutoModelForImageTextToText MODEL_PATH /root/ai-models/LiquidAI/LFM2___5-VL-1___6B # 加载模型 processor AutoProcessor.from_pretrained(MODEL_PATH, trust_remote_codeTrue) model AutoModelForImageTextToText.from_pretrained( MODEL_PATH, device_mapauto, dtypetorch.bfloat16, trust_remote_codeTrue ) model.eval() # 准备图片 image Image.open(your_image.jpg).convert(RGB) # 构建对话 conversation [ { role: user, content: [ {type: image, image: image}, {type: text, text: 描述这张图片} ] } ] # 生成回复 text processor.apply_chat_template( conversation, add_generation_promptTrue, tokenizeFalse, ) inputs processor.tokenizer( text, return_tensorspt, paddingTrue, truncationTrue, max_length2048, ) inputs {k: v.to(model.device) for k, v in inputs.items()} with torch.no_grad(): outputs model.generate( **inputs, max_new_tokens256, temperature0.1, min_p0.15, do_sampleTrue, ) response processor.batch_decode(outputs, skip_special_tokensTrue)[0].strip() print(response)3.2 使用URL图片模型支持直接处理网络图片from transformers.image_utils import load_image url https://cdn.britannica.com/61/93061-050-99147DCE/Statue-of-Liberty-Island-New-York-Bay.jpg image load_image(url)3.3 推荐生成参数针对不同任务类型建议使用以下参数组合任务temperaturemin_pmax_new_tokens事实问答0.10.15256创意描述0.70.15512代码生成0.10.110244. 功能特性与项目结构4.1 支持功能图片问答/描述理解图片内容并回答问题多语言支持英语、日语、韩语、法语、西班牙语、德语、阿拉伯语、中文高分辨率处理支持512x512分块处理大图多图片输入同时处理多张图片OCR文档理解识别和理解文档内容Function Calling纯文本功能调用4.2 项目结构/root/LFM2.5-VL-1.6B/ ├── webui.py # Gradio WebUI 入口 ├── webui.log # 运行日志 └── ... /root/ai-models/LiquidAI/LFM2___5-VL-1___6B/ ├── model.safetensors # 模型权重 (3.1 GB) ├── config.json # 模型配置 ├── processor_config.json # 处理器配置 ├── tokenizer.json # 分词器 ├── chat_template.jinja # 对话模板 ├── README.md # 官方文档 └── ...5. 系统配置与维护5.1 开机自启配置服务已通过Supervisor配置为开机自动启动[program:lfm-vl] command/opt/miniconda3/envs/torch28/bin/python /root/LFM2.5-VL-1.6B/webui.py directory/root/LFM2.5-VL-1.6B userroot autostarttrue autorestarttrue stderr_logfile/var/log/lfm-vl.err.log stdout_logfile/var/log/lfm-vl.out.log5.2 常见问题解决WebUI启动报端口占用# 检查端口占用 lsof -i :7860 # 重启服务 supervisorctl restart lfm-vl模型加载失败# 检查模型文件 ls -la /root/ai-models/LiquidAI/LFM2___5-VL-1___6B/ # 检查 GPU nvidia-smi推理报错处理确保使用正确的调用方式# 错误方式 (会报错) inputs processor.apply_chat_template(...).to(device) # 正确方式 text processor.apply_chat_template(..., tokenizeFalse) inputs processor.tokenizer(text, return_tensorspt) inputs {k: v.to(model.device) for k, v in inputs.items()}6. 总结与资源LFM2.5-VL-1.6B作为一款轻量级多模态大模型在边缘计算场景下表现出色。其低显存需求和快速响应特性使其成为实际应用中的理想选择。官方资源模型主页官方文档PlaygroundDiscord 社区更新日志日期内容2026-04-08初始部署修复apply_chat_template调用方式配置开机自启获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。