大概 10 秒的延迟吧。请问正常吗?我是付费用户。 有没有方法让 OpenAI 更加快速的响应。
1
seakey001 2023-04-23 10:38:37 +08:00
|
2
quzard 2023-04-23 10:39:36 +08:00
因为没绑卡
|
3
caohuihe31 OP @quzard 绑了卡,还特意设置到上限 500 美元。(默认 120 美元)
|
4
caohuihe31 OP @seakey001 你这个直接调用的 3.5(turbo)接口是的吧,看起来很快。请教下你服务器部署在什么地方的?我的确实很慢,比你这个慢多了
|
5
mmdsun 2023-04-23 12:54:38 +08:00 via iPhone
在美国小服务器,速度很快,接口用了 steam 流参数,走 SSE
|
6
lxiian 2023-04-23 13:38:33 +08:00 via iPhone
公众号,怕不是直接用 post 请求的。stream 响应才会快,不用 stream 的话,要等回答完毕才返回数据
|
7
qiayue 2023-04-23 13:52:06 +08:00
https://github.com/qiayue/php-openai-gpt-stream-chat-api-webui/
用流式请求,并且在第一句返回时,先发给用户,剩下的等全文返回再发给用户。 这样就给用户一个预期,知道你已经在回答中了。 |
8
caohuihe31 OP @mmdsun 感谢分享。不过我的是直接放在公众号里面,使用微信的聊天界面,可能不合适使用 stream.
|
9
caohuihe31 OP @lxiian 是的。难怪比别人慢
|