这篇教程适合谁?
如果你正在搜索 Make 接入 OpenAI 兼容接口、Make 接 AI Gateway、自动化流程接大模型,这篇就是给你的。重点不是跑通一个测试,而是让后续流程稳定、可复用、可替换模型。
如果你在用 Make 串 CRM、表单、飞书、邮件、数据库或营销工具,那么把大模型接进去的价值非常直接:自动总结、自动分类、自动提取字段、自动生成回复,不用每个流程单独接一套模型逻辑。
如果你正在搜索 Make 接入 OpenAI 兼容接口、Make 接 AI Gateway、自动化流程接大模型,这篇就是给你的。重点不是跑通一个测试,而是让后续流程稳定、可复用、可替换模型。
这类场景都更适合走统一 AI Gateway,而不是每个模块散着接不同模型服务。
因为 Make 最灵活、最稳的接法,通常还是 HTTP 模块直接请求。只要接口兼容 OpenAI 风格,后续切模型、调成本、做故障切换都更容易。
Base URL: https://api.bangban.xin/v1
在 Make 中新建一个 HTTP 请求,方法用 POST,地址如下:
POST https://api.bangban.xin/v1/chat/completions
Authorization: Bearer sk-your-token
Content-Type: application/json
请求体可以先用最小版本:
{
"model": "gpt-4o-mini",
"messages": [
{"role": "system", "content": "你是自动化流程助手"},
{"role": "user", "content": "请把下面客户留言总结成一句话"}
]
}
Make 场景里,最好要求结构化输出,方便后续模块直接消费:
你是线索分类助手。
请识别咨询类别:售前咨询 / 报价需求 / 技术支持 / 投诉反馈。
只输出 JSON:
{"category":"...","priority":"...","reason":"..."}
通常是 Authorization 头或令牌有问题。
大多是路径拼错,常见是把 /v1 漏掉。
说明模型输出不稳定,提示词要更明确约束字段。
说明并发过高,建议对场景做限速、重试和队列。
搜索 “Make 接 AI Gateway” 或 “Make 接 OpenAI 兼容接口” 的人,基本都已经在做自动化实施了。这类词很接近成交和落地,不是泛流量,转化意图会更强。