这篇教程适合谁?
如果你正在搜索 Dify 接 OpenAI 兼容接口、Dify 接 AI Gateway、Dify 怎么配置模型供应商,这篇就是给你的。重点不是只跑通模型测试,而是让 Dify 里的知识库、工作流和应用都能稳定复用统一模型入口。
如果你已经在用 Dify 做知识库问答、Agent、工作流或者内部 AI 应用,那么接入统一 AI Gateway 的最大价值不是“换一个接口地址”,而是把模型供应层从应用层拆开:以后换模型、调成本、做容灾、统一密钥管理,都会轻很多。
如果你正在搜索 Dify 接 OpenAI 兼容接口、Dify 接 AI Gateway、Dify 怎么配置模型供应商,这篇就是给你的。重点不是只跑通模型测试,而是让 Dify 里的知识库、工作流和应用都能稳定复用统一模型入口。
简单说,Dify 是“应用层”,AI Gateway 是“模型供应层”。两层拆开,后面整个系统会更稳。
Dify 最常见也最稳的方式,就是把模型供应商按 OpenAI 兼容接口来接。这样你不需要为每一个下游模型分别改 Dify 应用,只需要让 Dify 指向统一接口。
Base URL: https://api.bangban.xin/v1
你可以在模型供应商配置里,按 OpenAI 兼容方式填写 API 信息。不同版本的 Dify UI 细节可能略有区别,但核心字段通常就是这几个:
API Key: sk-your-token
API Base: https://api.bangban.xin/v1
Model: gpt-4o-mini
如果你的 Dify 版本区分供应商类型,优先选择 OpenAI 兼容模式或可自定义 Base URL 的方式。
因为这个场景最容易验证三件事:模型能不能正常调用、知识召回稳不稳、回答边界能不能控制住。它比一上来做复杂 Agent 更容易排查问题。
如果你用的是 Dify Workflow,建议优先让模型承担这些更容易标准化的任务:
不要一开始就把高风险的审批、下单、删除或外发动作完全交给模型自动执行,先让它做“辅助判断”和“结构化输出”更稳。
如果后续节点要消费结果,提示词尽量要求固定格式,而不是让模型自由发挥:
你是企业知识问答助手。
请基于召回内容回答用户问题。
如果资料不足,请明确说“资料不足,建议人工处理”。
如果输出给工作流后续节点使用,请只输出 JSON:
{"answer":"...","confidence":"high|medium|low","need_human":true}
通常是 API Key 错了,或者复制时漏字符。
大多是 Base URL 配置错误,尤其是漏了 /v1。
说明模型名和网关支持的名称不一致,先用已知可用模型做基线测试。
不一定是模型问题,很多时候是切片、召回、提示词边界没设好。
通常是提示词对 JSON 约束不够硬,或者没有加校验节点。
说明不同应用共用同一模型但没有分层,建议按场景做模型和令牌拆分。
搜索 “Dify 接 AI Gateway” 或 “Dify 接 OpenAI 兼容接口” 的人,通常已经进入实施阶段,搜索意图很强。相比泛泛介绍 Dify 是什么,这类配置型、排障型、落地型教程更容易带来精准流量。