418 字
2 分钟
关于如何在OpenWebUI中启用OpenAI的responses端点的模型
最近发现OpenWebUI尚未支持OpenAI的新responses端点模型,(Cloudflare提供的OSS模型以及官方O系列模型)社区解决方案如下,但不能完美解决,故自己写了一个更好的解决方案

Waiting for api.github.com...
关于如何在OpenWebUI中启用官方OpenAI的responses端点的模型
1.官方端点我们采用了社区关于responses端点的解决方案(实测正常使用官方端点)
社区解决方案链接 先按照社区文档的步骤进行操作,安装这个Pipe;安装链接如下
https://github.com/jrkropp/open-webui-developer-toolkit/blob/main/functions/pipes/openai_responses_manifold/openai_responses_manifold.py
安装后需要我们对此Pipe进行一些修改,主要是修改你要请求的端点以及模型等
2.调用Cloudflare的OSS模型,采用我的Pipe
1.首先你需要去Cloudflare注册一个账号,然后创建一个API Token、获得你的账户ID,获得方法如图
-
账户ID获得方法
-
创建API Token,选择后续的WorkerAI模板即可
创建完成后你会获得一个API Token,复制保存好
2.然后我们安装我开发的Pipe
Waiting for api.github.com...
安装链接
https://github.com/Besty0728/OpenWebUI-Cloudflare-OSS/blob/main/cloudflare_responses.py
-
Cloudflare Account ID处填写你刚才获得的账户ID
-
API Key处填写你刚才创建的API Token
-
模型名称处填写你要调用的模型名称,例如本次的
@cf/openai/gpt-oss-120b
,如果你要调用其他模型请参考Cloudflare的文档(以上只适用于responses端点的模型)
填入如图
3.最后别忘了启用该Pipe,以及某些模型的特定修改
例如本文的Cloudflare的OSS模型需要我们在参数处选择禁用Stream Chat Response
(流式对话响应/流式输出;因为CF不支持流式输出调用该模型;也可以选择不修改,因为我的Pipe禁用了)
4.完成后即可愉快使用
实测支持OpenWebUI的联网工具等
关于如何在OpenWebUI中启用OpenAI的responses端点的模型
https://www.micostar.tech/posts/openwebui-responses/