人工智能实战:大模型异步任务怎么设计?从同步接口超时到任务队列、状态机与结果回调的完整方案一、问题场景:用户点一次生成,接口直接等到超时很多大模型应用一开始都是同步接口。例如:用户提交问题 ↓ 后端调用大模型 ↓ 等待生成完成 ↓ 返回结果代码写起来很简单:answer=call_llm(prompt)return{"answer":answer}如果只是短问答,这种方式没有问题。但一旦业务变成:1. 长文生成 2. 报告生成 3. PPT