一、LangChain 核心定位LangChain 是大模型应用开发框架不用手写拼接 prompt、原生调模型、手动清理杂乱输出。解决三大痛点统一兼容国内 / 国外大模型通义千问、OpenAI、Ollama 全覆盖标准化提示词、链式调用、结构化解析为 RAG 知识库、Agent 智能体打下底层基础二、LangChain 经典核心链路固定背诵链路Prompt 提示词模板 → 调用通义千问大模型 → OutputParser 输出解析器分步拆解PromptTemplate固定模板 变量占位统一管理提示词改需求不改代码通义千问 LLM填充完整 prompt 传给模型返回原生长文本OutputParser过滤冗余输出干净结构化结果方便业务对接三、通义千问可运行代码import os import langchain from langchain.chat_models import init_chat_model from langchain_community.chat_models import ChatTongyi from langchain_core.output_parsers import StrOutputParser from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate # 开启LangChain调试模式查看详细执行日志 langchain.debug True # ---------------------- 1. 初始化通义千问聊天模型 ---------------------- # 使用阿里云通义千问大模型 model ChatTongyi(model_nameqwen-max) # ---------------------- 2. 构建聊天提示词模板 ---------------------- # 定义角色对话模板系统角色 用户输入 chatPrompt ChatPromptTemplate.from_messages([ # 系统提示设定模型角色为翻译助手 SystemMessagePromptTemplate.from_template(你是一个翻译模型你需要将输入的句子翻译成{language}), # 用户输入需要翻译的文本 HumanMessagePromptTemplate.from_template({text}), ]) # ---------------------- 3. 初始化输出解析器 ---------------------- # 字符串解析器提取模型返回的纯文本结果 parser StrOutputParser() # ---------------------- 4. 构建LangChain标准执行链 ---------------------- # 标准链路提示词模板 → 大模型 → 输出解析器 chain chatPrompt | model | parser # ---------------------- 5. 执行链并输出结果 ---------------------- # 传入参数调用链获取翻译后的结果 print(chain.invoke({language: 英文, text: 我喜欢编程}))四、LangChain 标准开发全流程1️⃣ 开发阶段搭建环境、安装依赖写核心链Prompt 大模型 输出解析器完成基础业务逻辑编码2️⃣ 测试阶段本地运行代码传入测试问题检查密钥读取正常、模型连通、输出格式合规修复语法、依赖、配置基础错误3️⃣ 部署阶段① 本地原生调试开启langchain.debugTrue看每一步输入输出日志② 可视化追踪调试接入LangSmith看整条链中间结果、报错点位、耗时S③ 生产环境部署容器化封装、配置环境变量隔离密钥、接入监控告警口诀先开发、再测试、出问题双调试、稳部署五、项目环境基础要点依赖必装langchain/langchain-community/dashscope/python-dotenvPyCharm 打开项目一定要「信任项目」否则解释器、导包全报错密钥统一放.env严禁硬编码写在代码里公开六、三大模型分类Chat 聊天模型通义千问对话版、GPT主打多轮交互LLM 文本模型文案续写、基础生成任务Embedding 嵌入模型文本转向量专门给 RAG 知识库用七、三大配套框架LangChain搭基础链、写核心业务逻辑LangServe把链部署成 HTTP 接口前后端可调用LangGraph开发 Agent 智能体做多步骤思考、状态流转