
1 TimePPT PRO 应该有现成框架,langchain 或者 llamaimex 好像都自带 |
2 maolon 2024-05-14 22:32:15 +08:00 via Android 提取块的: qanything, ragflow 但是是把整篇文章分块,你要求的段落在里面,然后 llm 问答,可以在管理界面查看管理提取过的段落 普通低配能跑: 这两都不怎么行 最后开源模型: qwen 1.5 的 7 或者 14 应该能满足你需求 |
3 mumbler 2024-05-14 22:45:30 +08:00 这是常见 NLP 场景,有个 6G 显存的 GPU ,ollama 跑 llama3 8B 就能完成得很好,CPU 长文分析太慢了 |
4 NoobNoob030 2024-05-15 09:48:06 +08:00 普通低配服务器? 2 核 4G 没显卡的吗?如果是跑不了一点 |
5 mmdsun 2024-05-15 09:48:57 +08:00 大模型基本上都可以。本地电脑 WSL 2 直接跑的 qwen 14b 4090 显卡。自己部署就不会有什么数据泄露了 |
6 myhloli 2024-07-13 02:24:32 +08:00 via iPhone |