1
neteroster 246 天前 via Android
Claude3 全系列 200K 上下文,GPT4 Turbo 128K 上下文。绰绰有余。
开源模型这边,Qwen1.5 词表有中文词汇,如果是中文的话 Tokens 量会比汉字数量少不少,32K 完全足够。但上下文较长时效果可能下降。 |
2
macaodoll 246 天前 via Android
这个问题之前也测试过,谷歌 genmini 1.5 最优,能吐完所有东西,国产几个吐着吐着就开始省略号了
|
3
BeyondReach OP @neteroster
免费版的 Claude3 Sonnet 提示我超出限制: Message is 12128% over the remaining length limit. Try replacing the attached 1 file with smaller excerpts. Coze 里的 GPT4 Turbo 128K 模型,支持我输入这么长的文字,但是输出的答案非常短,只有 Tokens 801 ,Characters 803 |
4
wwhc 246 天前
MistralAI 的开源模型支持 32K Tokens 或 64K Tokens
|
5
mrp 246 天前 via iPhone
kimi
|
6
BeyondReach OP |
7
BeyondReach OP @mrp
输入一个 80 分钟视频的字幕后( 29510 个字符),kimi 返回了 3670 个字符,就开始提示其他内容了 |
8
BeyondReach OP @wwhc 8g 内存的 mac mini m2 ,使用 Jan 运行 Mistral Instruct 7B Q4 无响应
|
9
BeyondReach OP |
10
wwhc 246 天前
@BeyondReach 建议在 16G 内存或 10G 以上显存的设备上部署 Mistral 7B
|
11
maymay5 244 天前
Asistants GPT
|
12
BeyondReach OP @maymay5 有网页吗?网上收到好几个项目都是这个名称
|
13
maymay5 244 天前
@BeyondReach #12 这是 openai 官方的,你需要充值 API ,然后在这里可以使用 https://platform.openai.com/assistants
|
14
BeyondReach OP |