大家在本地通过 ollama 运行 Llama2 大模型的时候如何友好的支持中文呢?我运行的时候默认都是英文回答,然后我用英文问它如何切换为中文它告诉我使用 llama2 -lang zh-CN 但是我在交互式里面执行该指令后并没有效果,回答的时候还是英文,大家是怎么设置的呢?除了在问题前表明用中文回答这种方式
1
waityan 246 天前
ollama run yi
|
2
idblife 246 天前 via iPhone
同问,qwen 和 yi 感觉和 mistral 差不少呢
|
3
paopjian 246 天前
llama2 没有用中文微调,虽然会说中文,但是回答肯定是英文优先,你找找有没有微调后的模型
|
4
73cn4XL4Ufv3V65L 246 天前
op 用什么配置的机器跑的
|
5
vacuitym 246 天前 1
ollama 上有个 llama2-chinese
|
6
kaoshuiwan 246 天前
llama2 对于中文支持就是不好(包括词表中缺少中文 tokens 、语料少),可以换个模型试试。
|
7
xiaohupro OP @leesin8848 我就是用一台笔记本,Thinkpad-P15v ,内存 16G ,我下载了 7B 版本的 llama2 测试,英文的表现还行。准备后面组一个机子试试
|
9
uniqueman 246 天前
@huhailong1121 cpu 占用率怎么样的?一直在后台跑着吗
|
10
unclemcz 246 天前 via Android
@uniqueman 纯 cpu 跑的话占用率接近 100%,只有执行的时候会这样,ollama 会一直在后台,基本无感,只有跑模型的时候会 100%这样子。
|
11
xiaohupro OP @uniqueman 我是在做测试,通过 ollama 的 API 接口调试前端,我自笔记本的话一开始还行,简单的问题响应速度可以接受,但是稍微复杂的问题就耗时间了,而且风扇呼呼的,如果是测试我觉得自己电脑就行,如果真要长时间用 serve 模式运行的话还是组装一台高配置的
|
13
kangfenmao 121 天前
设置一个 system prompt:使用中文回答,禁止使用英文
|