在 Ubuntu 24.04 上部署 Ollama + DeepSeek,可以构建一个安全、可控的本地 AI 知识库系统,适用于企业文档管理、个人学习助手等场景。本教程将详细介绍安装配置步骤,帮助用户快速搭建属于自己的 AI 知识库,实现高效信息检索与智能交互。
一、Ollama 下载与部署
Ollama 是一个开源项目,可以使用官网推荐的脚本方式安装,也可以直接访问 github 下载 release 包后进行手动安装。我这里选择手动安装ollama-linux-amd64.tgz
1. 自动安装
2. 手动安装
3. 创建 Ollama 用户及系统服务
出于安全性、隔离性和系统管理的考虑,需要创建 ollama 用户,执行以下命令:
4. 配置重载及开机自启
二、Huggingface模型下载
- ollama因为网络不稳定的原因,所以在这里没有ollama pull XXX模型,在这里根据自身显卡规格选择想要运行的模型,用这两个模型作为参考:
下载并上传到服务器/data/models/XXX
模型目录下
三、Ollama手动加载模型运行
把DeepSeek-R1-Distill-Qwen-32B-Q4_K_M.gguf
及qwq-32b-q4_k_m.gguf
两个模型文件放到对应的deepseek
及qwq
目录下。
1. 在DeepSeek模型文件同级目录下创建文件ollama-deepseek
并写入以下内容:
2. 在Qwq模型文件同级目录下创建文件ollama-qwq
并写入以下内容:
四、查看模型与运行模型
可以使用命令ollama list
查看已加载的模型列表:
然后通过命令ollama run <model-name>
就可以运行指定的模型了