DeepSeek-OCR-2图文教程:上传PDF→自动识别→复制文本→导出TXT/JSON
DeepSeek-OCR-2图文教程上传PDF→自动识别→复制文本→导出TXT/JSON1. 前言告别繁琐让文档识别变得简单如果你经常需要处理扫描的PDF文档、图片里的文字或者想把纸质文件变成可编辑的电子版那么手动打字或者用传统的OCR工具可能会让你头疼。识别不准、格式混乱、操作复杂——这些问题我都经历过。今天我要分享的DeepSeek-OCR-2可能是你一直在找的解决方案。这个模型采用了全新的DeepEncoder V2方法让AI能够理解图像的含义然后智能地重排图像的各个部分而不是像传统OCR那样机械地从左到右扫描。简单来说它更聪明了。最让我惊喜的是这个模型只需要256到1120个视觉Token就能处理复杂的文档页面在OmniDocBench v1.5评测中综合得分达到了91.09%。这意味着什么意味着识别准确率更高处理速度更快而且对复杂版面的适应能力更强。在这篇教程里我会手把手带你从零开始学会如何快速部署DeepSeek-OCR-2环境上传PDF文件进行自动识别复制识别出来的文本内容导出为TXT或JSON格式文件整个过程就像用手机拍照一样简单但效果却专业得多。无论你是学生、研究人员、办公人员还是需要处理大量文档的从业者这个工具都能帮你节省大量时间。2. 环境准备三步搞定部署2.1 系统要求在开始之前我们先看看需要准备什么。其实要求很简单操作系统Linux推荐Ubuntu 20.04或更高版本Windows和macOS也可以通过Docker运行内存至少16GB RAM处理大文档时建议32GBGPU有GPU会更快但CPU也能运行只是速度会慢一些存储空间至少20GB可用空间如果你用的是CSDN星图镜像很多环境都已经预配置好了可以直接跳到下一步。2.2 快速安装步骤如果你需要自己搭建环境下面是完整的安装流程。别担心我已经把命令都整理好了你只需要复制粘贴就行。首先创建一个新的工作目录并进入mkdir deepseek-ocr-demo cd deepseek-ocr-demo然后安装必要的Python包。我建议使用Python 3.9或更高版本pip install torch torchvision torchaudio pip install vllm pip install gradio pip install pdf2image pip install pillow pip install transformers这些包的作用分别是torch深度学习框架基础vllm推理加速让识别速度更快gradio创建Web界面让你可以通过浏览器操作pdf2image把PDF转换成图片因为OCR模型需要图片输入pillow处理图片transformers加载和使用预训练模型2.3 下载模型文件接下来需要下载DeepSeek-OCR-2模型。模型文件比较大大约几个GB所以需要一些时间from transformers import AutoModelForCausalLM, AutoTokenizer model_name deepseek-ai/DeepSeek-OCR-2 model AutoModelForCausalLM.from_pretrained(model_name) tokenizer AutoTokenizer.from_pretrained(model_name) # 保存到本地方便以后使用 model.save_pretrained(./deepseek-ocr-2-model) tokenizer.save_pretrained(./deepseek-ocr-2-model)如果你觉得下载速度慢也可以先下载到本地然后从本地加载。很多云服务商都提供了模型镜像下载速度会快很多。3. 启动Web界面像用网站一样简单3.1 创建Gradio应用现在我们来创建一个简单的Web界面。创建一个名为app.py的文件然后添加以下代码import gradio as gr from pdf2image import convert_from_path from PIL import Image import torch from transformers import AutoModelForCausalLM, AutoTokenizer import json import os # 加载模型和分词器 print(正在加载模型这可能需要几分钟...) model AutoModelForCausalLM.from_pretrained( ./deepseek-ocr-2-model, torch_dtypetorch.float16, device_mapauto ) tokenizer AutoTokenizer.from_pretrained(./deepseek-ocr-2-model) print(模型加载完成) def process_pdf(pdf_file): 处理PDF文件的主函数 try: # 第一步将PDF转换为图片 print(f正在转换PDF: {pdf_file.name}) images convert_from_path(pdf_file.name) results [] all_text # 第二步逐页识别 for i, image in enumerate(images): print(f正在识别第 {i1}/{len(images)} 页...) # 预处理图片 image image.convert(RGB) # 使用模型进行OCR识别 inputs tokenizer(image, return_tensorspt).to(model.device) with torch.no_grad(): outputs model.generate(**inputs, max_new_tokens1024) # 解码识别结果 text tokenizer.decode(outputs[0], skip_special_tokensTrue) # 保存每页结果 page_result { page: i 1, text: text, image_size: image.size } results.append(page_result) all_text f 第 {i1} 页 \n{text}\n\n # 第三步返回结果 return all_text, json.dumps(results, ensure_asciiFalse, indent2) except Exception as e: return f处理出错: {str(e)}, # 创建Gradio界面 with gr.Blocks(titleDeepSeek-OCR-2 PDF识别工具) as demo: gr.Markdown(# DeepSeek-OCR-2 PDF文字识别) gr.Markdown(上传PDF文件自动识别文字内容支持导出TXT和JSON格式) with gr.Row(): with gr.Column(): pdf_input gr.File(label上传PDF文件, file_types[.pdf]) submit_btn gr.Button(开始识别, variantprimary) with gr.Column(): text_output gr.Textbox(label识别结果, lines20, interactiveTrue) json_output gr.Code(labelJSON格式结果, languagejson, interactiveTrue) with gr.Row(): txt_download gr.DownloadButton(下载TXT文件, visibleFalse) json_download gr.DownloadButton(下载JSON文件, visibleFalse) # 处理函数 def process_and_download(pdf_file): text_result, json_result process_pdf(pdf_file) # 保存临时文件供下载 txt_filename 识别结果.txt json_filename 识别结果.json with open(txt_filename, w, encodingutf-8) as f: f.write(text_result) with open(json_filename, w, encodingutf-8) as f: f.write(json_result) return text_result, json_result, txt_filename, json_filename # 绑定事件 submit_btn.click( fnprocess_and_download, inputs[pdf_input], outputs[text_output, json_output, txt_download, json_download] ) # 更新下载按钮可见性 def update_download_visibility(text_result): return gr.DownloadButton(visiblebool(text_result)), gr.DownloadButton(visiblebool(text_result)) text_output.change( fnupdate_download_visibility, inputs[text_output], outputs[txt_download, json_download] ) # 启动应用 if __name__ __main__: demo.launch(server_name0.0.0.0, server_port7860, shareFalse)3.2 启动应用保存文件后在终端中运行python app.py你会看到类似这样的输出正在加载模型这可能需要几分钟... 模型加载完成 Running on local URL: http://0.0.0.0:7860现在打开浏览器访问http://localhost:7860就能看到我们刚刚创建的界面了。如果你用的是CSDN星图镜像通常已经预置了Web界面直接点击相应的按钮就能打开不需要自己运行上面的命令。4. 实际操作从上传到导出的完整流程4.1 上传PDF文件打开Web界面后你会看到一个简洁的页面。点击上传PDF文件按钮选择你要识别的文档。这里有几个小建议PDF质量尽量选择清晰的PDF文件扫描质量越好识别准确率越高文件大小单次处理建议不超过50页大文件可以分批处理语言支持DeepSeek-OCR-2支持多种语言包括中文、英文、日文、韩文等上传后界面大概是这样的左侧是上传区域和开始按钮右侧是结果显示区域分为文本预览和JSON格式4.2 开始识别点击开始识别按钮系统就会开始处理。处理时间取决于PDF的页数每页的复杂度你的硬件配置GPU比CPU快很多在识别过程中你可以在终端看到进度提示正在转换PDF: document.pdf 正在识别第 1/10 页... 正在识别第 2/10 页... ...通常来说一页普通的A4文档在GPU上只需要几秒钟就能识别完成。4.3 查看和编辑识别结果识别完成后右侧的文本框中会显示所有识别出来的文字。这里有几个实用的功能文本预览区域可以直接查看识别结果可以选中文字进行复制可以编辑修改识别错误的地方JSON格式区域显示结构化的识别结果包含每页的文本、页码、图片尺寸等信息方便程序进一步处理如果发现识别有错误你可以直接在文本框中修改。DeepSeek-OCR-2的准确率很高但对于一些特殊字体、手写体或者模糊的扫描件可能还是需要人工校对一下。4.4 导出结果这是最实用的部分——导出识别结果。导出TXT文件点击下载TXT文件按钮文件会自动下载到你的电脑用任何文本编辑器如记事本、VS Code等都能打开格式清晰每页之间有分隔线导出JSON文件点击下载JSON文件按钮下载后可以用Python、JavaScript等语言处理适合需要进一步自动化处理的场景JSON文件的格式是这样的[ { page: 1, text: 这是第一页的内容..., image_size: [2480, 3508] }, { page: 2, text: 这是第二页的内容..., image_size: [2480, 3508] } ]5. 实用技巧与常见问题5.1 提升识别准确率的小技巧根据我的使用经验下面这些方法能让识别效果更好预处理PDF# 如果你有多个PDF需要批量处理可以这样优化 from pdf2image import convert_from_path def optimize_pdf_conversion(pdf_path, dpi300): 优化PDF转换参数 images convert_from_path( pdf_path, dpidpi, # 提高DPI让图片更清晰 grayscaleTrue, # 灰度模式有时识别更好 fmtjpeg, # JPEG格式 thread_count4 # 多线程加速 ) return images处理特殊场景表格识别DeepSeek-OCR-2对表格的支持不错但复杂的合并单元格可能需要后期调整数学公式能识别基本的数学符号但对于复杂公式建议使用专门的工具手写文字印刷体识别效果很好手写体取决于书写工整程度5.2 常见问题解决问题1识别速度慢检查是否使用了GPUtorch.cuda.is_available()减少max_new_tokens参数的值分批处理大文档问题2内存不足# 可以尝试降低精度 model AutoModelForCausalLM.from_pretrained( ./deepseek-ocr-2-model, torch_dtypetorch.float16, # 使用半精度 device_mapauto, low_cpu_mem_usageTrue # 减少CPU内存使用 )问题3特殊字符识别错误确保PDF中的字体是嵌入的尝试调整图片的对比度和亮度对于特定领域的文档如医学、法律可能需要微调模型问题4批量处理需求如果你需要处理大量PDF文件可以这样自动化import os from glob import glob def batch_process_pdfs(pdf_folder, output_folder): 批量处理文件夹中的所有PDF os.makedirs(output_folder, exist_okTrue) pdf_files glob(os.path.join(pdf_folder, *.pdf)) for pdf_file in pdf_files: filename os.path.basename(pdf_file) print(f处理: {filename}) # 调用识别函数 text_result, json_result process_pdf(pdf_file) # 保存结果 txt_path os.path.join(output_folder, f{filename}_result.txt) json_path os.path.join(output_folder, f{filename}_result.json) with open(txt_path, w, encodingutf-8) as f: f.write(text_result) with open(json_path, w, encodingutf-8) as f: f.write(json_result) print(f批量处理完成共处理 {len(pdf_files)} 个文件)5.3 进阶用法API集成如果你想把OCR功能集成到自己的系统中可以这样创建一个简单的APIfrom fastapi import FastAPI, File, UploadFile from fastapi.responses import JSONResponse import tempfile import os app FastAPI(titleDeepSeek-OCR-2 API) app.post(/ocr/pdf) async def ocr_pdf(file: UploadFile File(...)): 处理上传的PDF文件 try: # 保存上传的文件 with tempfile.NamedTemporaryFile(deleteFalse, suffix.pdf) as tmp: content await file.read() tmp.write(content) tmp_path tmp.name # 处理PDF text_result, json_result process_pdf(tmp_path) # 清理临时文件 os.unlink(tmp_path) return JSONResponse({ status: success, filename: file.filename, text: text_result, json: json.loads(json_result) }) except Exception as e: return JSONResponse({ status: error, message: str(e) }, status_code500) # 运行uvicorn api:app --reload --port 8000这样你就可以通过HTTP请求来调用OCR功能了方便集成到各种应用中。6. 总结让文档处理更高效通过这篇教程你应该已经掌握了DeepSeek-OCR-2的基本使用方法。让我们回顾一下关键点核心流程很简单准备环境或者直接用现成的镜像启动Web界面上传PDF文件点击识别按钮查看、编辑、导出结果这个工具的优势准确率高采用创新的DeepEncoder V2方法理解图像含义而非机械扫描使用简单Web界面操作无需编程基础格式灵活支持TXT和JSON导出满足不同需求处理高效支持vLLM推理加速处理速度快适用场景广泛学生把教材、论文扫描件转换成可编辑文本办公人员处理合同、报告等文档研究人员数字化古籍、档案资料开发者集成到自己的应用中我个人的使用感受是DeepSeek-OCR-2在保持高准确率的同时大大简化了操作流程。传统的OCR工具往往需要复杂的参数调整而这个工具基本上就是上传-识别-导出三步走。如果你在使用的过程中遇到问题或者有改进建议可以参考官方文档或者社区讨论。技术的进步离不开大家的反馈和贡献。最后提醒一点虽然这个工具的识别准确率很高但对于重要的文档建议还是人工核对一下关键信息。特别是涉及法律、财务等敏感内容的文档双重检查总是更稳妥。希望这篇教程能帮你提高文档处理的效率。技术应该让生活更简单而不是更复杂——DeepSeek-OCR-2正是这样一个工具。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。