我使用 dify 查询知识库后,需要用 llm 的 api 来处理查询出来的结果
但我需要处理的数据比较多,目前可以理解 1000 行数据,但目前测下来只能处理 60 多行
遇到的问题是
调用 api 处理,在排除 api 报错超时的情况下,我的 api 回复输出一段时间后就自动停止了,没有任何报错。
我起初以为是 dify 的调用 api 接口超时问题,我现在基本上都改成了 1 个小时,现在还是同样的情况
请问这个是 dify 的问题还是 api 的问题,我在硅基上吗也没找到关于 api 的设置,而且我调用的是免费额度的模型,是不是换付费的 pro 模型会好点
![]() |
1
syaoranex 7 天前
你可以了解一下 max_token 这个概念。
|