大家在本地通过 ollama 运行 Llama2 大模型的时候如何友好的支持中文呢?我运行的时候默认都是英文回答,然后我用英文问它如何切换为中文它告诉我使用 llama2 -lang zh-CN 但是在交互式里面执行该指令后并没有效果,回答的时候还是英文,大家是怎么设置的呢?除了在问题前表明用中文回答这种方式
1 waityan 2024-03-20 09:44:13 +08:00 ollama run yi |
![]() | 2 idblife 2024-03-20 09:48:41 +08:00 via iPhone 同问,qwen 和 yi 感觉和 mistral 差不少呢 |
3 paopjian 2024-03-20 09:50:59 +08:00 llama2 没有用中文微调,虽然会说中文,但是回答肯定是英文优先,你找找有没有微调后的模型 |
4 73cn4XL4Ufv3V65L 2024-03-20 09:55:30 +08:00 op 用什么配置的机器跑的 |
5 vacuitym 2024-03-20 09:58:39 +08:00 ![]() ollama 上有个 llama2-chinese |
6 kaoshuiwan 2024-03-20 09:59:54 +08:00 llama2 对于中文支持就是不好(包括词表中缺少中文 tokens 、语料少),可以换个模型试试。 |
![]() | 7 xiaohupro OP @leesin8848 我就是用一台笔记本,Thinkpad-P15v ,内存 16G ,我下载了 7B 版本的 llama2 测试,英文的表现还行。准备后面组一个机子试试 |
![]() | 9 uniqueman 2024-03-20 12:12:22 +08:00 @huhailong1121 cpu 占用率怎么样的?一直在后台跑着吗 |
![]() | 10 unclemcz 2024-03-20 12:33:00 +08:00 via Android @uniqueman 纯 cpu 跑的话占用率接近 100%,只有执行的时候会这样,ollama 会一直在后台,基本无感,只有跑模型的时候会 100%这样子。 |
![]() | 11 xiaohupro OP @uniqueman 我是在做测试,通过 ollama 的 API 接口调试前端,我自笔记本的话一开始还行,简单的问题响应速度可以接受,但是稍微复杂的问题就耗时间了,而且风扇呼呼的,如果是测试我觉得自己电脑就行,如果真要长时间用 serve 模式运行的话还是组装一台高配置的 |
![]() | 12 xiaohupro OP @unclemcz 嗯嗯,是的,默认开机它就自己后台运行着,但是基本不消耗资源,我电脑除了 CPU 我看 GPU 占用也挺高,估计也用到了 |
![]() | 13 kangfenmao 2024-07-23 20:31:24 +08:00 设置一个 system prompt:使用中文回答,禁止使用英文 |