参考前文,已经可以在本地运行deepseek了,但是现有大模型都是使用通用数据训练出来的,如果我们有专业用途,由于大模型缺乏相应数据,无法提供有价值的回答。因此就需要对大模型进行定向投喂,让大模型对特定文本、数据等信息进行分析,提升大模型在特定专业方向的知识和能力。
1.下载嵌入模型
嵌入模型可以将文本内容转换为向量数据,以便大模型进行更高效的处理和分析。Ollama上最火的嵌入模型是nomic-embed-text,可以处理中文。在命令行运行:
ollama pull nomic-embed-text
即可下载该模型。
2.在AnythingLLM中配置嵌入模型
下载好之后需要在AnythingLLM中进行配置,使用这个嵌入模型。
点击主界面左侧工具栏最下方的设置按钮,进入Embedder首选项,提供商选择Ollama,模型选nomic-embed-text,点击保存。
3.投喂数据
主界面工作区按钮右侧有向上箭头,点击后出现文档界面
把本地文档拖拽到中间蓝色区域,文件就会显示在上方,勾选相应文件再点击Move to workspace,文件就会出现在最下方工作区位置,此时模型会对文件进行处理。这样就投喂完成了。
4.验证
在命令行把deepseek跑起来,使用本地工作区提问。上面的提问是投喂前的,模型建议我自己查询,投喂后就可以使用该数据回答我的问题了。
大模型在通用领域能力下限已经很高,但要提升专用领域的可用性必须投喂足够数据,借助现有模型的数据处理和逻辑推理能力,它就可以成为专用领域的专家。
文章评论