百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

人工智能丨DeepSeek-R1+ Ollama 本地部署全攻略

off999 2025-03-12 19:26 14 浏览 0 评论

为什么选择DeepSeek-R1?

DeepSeek-R1是由深度求索实验室研发的新一代开源大语言模型,具备以下核心优势:

  • 多尺寸灵活适配: 提供1.5B/7B/14B参数版本,手机端到服务器均可部署。
  • 领域强化能力: 在代码生成(支持30+编程语言)、数学推理(GSM8K准确率92.7%)、长文本理解(16K上下文窗口)表现突出。
  • 高效推理架构: 采用Flash Attention v5 +动态张量并行技术,推理速度比同类模型快40%。
  • 本地部署的核心价值:

数据隐私保护: 敏感数据无需上传云端,全程在本地运行。

定制化扩展: 支持接入企业知识库/行业数据库(PDF/Excel/Markdown等格式)。

成本可控: 单张消费级显卡即可运行,长期使用成本低于云服务。

部署流程快速预览

  • 5分钟完成Ollama框架安装
  • 3条命令下载并运行DeepSeek-R1模型
  • 一键启动可视化操作界面

一、部署前的准备工作

1.硬件配置建议

  • GPU选择(根据模型大小灵活调整):

入门配置: NVIDIA显卡(≥8GB显存) → 适合7B/8B模型。

高性能配置: NVIDIA显卡(≥16GB显存) → 支持14B大模型。

无独立显卡用户: 可使用CPU模式运行(速度约为GPU的20%)。

  • 内存要求: ≥16GB(推荐32GB,处理长文本时不易卡顿)
  • 存储空间: ≥50GB可用空间(建议SSD硬盘,加快模型加载速度)

2.软件环境要求

  • 操作系统:

Windows 10/11(21H2及以上版本)。

macOS Ventura 13.4+。

Ubuntu 22.04 LTS/24.04 LTS。

  • 必装工具:
# Linux/Ubuntu系统需提前安装  
sudo apt-get install -y python3-pip curl git  
# Windows用户需安装最新版Visual Studio运行库

二、详细部署步骤

1. 安全安装Ollama

# 所有系统通用安装方法  
# 分步骤操作更安全(避免直接执行网络脚本)  
curl -LO https://ollama.com/install.sh          # 下载安装脚本  
sha256sum install.sh                           # 对照官网校验码  
chmod +x install.sh && ./install.sh            # 执行安装  

# 验证安装是否成功  
ollama --version                                # 预期输出:ollama version 2.9.1

2. 配置模型存储路径(避免占用系统盘)

# 创建专用存储目录(示例路径可自定义)  
mkdir -p /data/ollama/models  
# 修改Ollama配置文件  
echo 'OLLAMA_MODELS="/data/ollama/models"' | sudo tee -a /etc/ollama.conf

3. 下载DeepSeek-R1模型

# 根据硬件选择模型版本(首次下载自动识别设备)  
# 国内用户加速下载(添加镜像源参数)  
ollama run deepseek-r1:7b \  
  --registry-mirror https://mirror.xyz.com/ollama  

# 查看已下载模型  
ollama list                                     # 应显示类似:deepseek-r1:7b

4. 配置Open WebUI可视化界面

# 使用Docker一键部署(自动适配GPU)  
docker run -d \  
  --name open-webui \  
  -p 8080:8080 \  
  -v /data/open-webui:/app/backend/data \  
  --gpus all \  
  ghcr.io/open-webui/open-webui:2025.02  

# 访问界面:http://localhost:8080

三、性能优化技巧

1. 加速模型推理

# 启用多GPU并行计算(需2张以上显卡)  
ollama run deepseek-r1:14b \  
  --num_gpu 2 \                # 指定GPU数量  
  --flash_attention on         # 开启注意力加速  

# 实时监控资源占用  
watch -n 1 "nvidia-smi"        # 查看GPU使用情况

2. 外接知识库功能

# 将本地文档转化为AI可读格式(支持PDF/TXT/Markdown)  
python -m openwebui.ingest \  
  --input-dir ~/my_documents \  
  --output-dir ~/vector_db \  
  --chunk-size 500            # 分段长度建议500-800字符

3. 网络访问安全设置

# 推荐Nginx反向代理配置(需提前申请SSL证书)  
server {  
    listen 443 ssl;  
    server_name your-domain.com;  

    ssl_certificate /etc/ssl/your-domain.pem;  
    ssl_certificate_key /etc/ssl/your-domain.key;  

    location / {  
        proxy_pass http://localhost:8080;  
        proxy_set_header Host $host;  
        proxy_http_version 1.1;  
        proxy_set_header Upgrade $http_upgrade;  
        proxy_set_header Connection "upgrade";  
    }  
}

四、常见问题解决

问题现象

快速解决方法

模型下载速度慢

添加--registry-mirror参数使用国内镜像源

启动时报CUDA错误

运行nvidia-smi检查驱动,重装CUDA 12.3工具包

Open WebUI界面无法加载

执行docker logs open-webui查看容器日志

生成内容不连贯

在启动命令添加--temperature 0.7调整随机性

五、硬件性能参考

任务类型

RTX 3060(12GB)

RTX 4090(24GB)

优化建议

代码生成

38 tokens/s

89 tokens/s

启用--num_ctx 4096

文档总结

25 tokens/s

62 tokens/s

关闭无关后台程序

数学推理

18 tokens/s

42 tokens/s

使用--batch_size 64

六、后续升级维护

1.定期更新模型

ollama pull deepseek-r1:7b  # 自动检测并下载新版本

2.备份重要数据

# 打包备份模型和配置  
tar -czvf ollama_backup.tar.gz /data/ollama /etc/ollama.conf

3.监控运行状态(推荐Prometheus工具)

3.1. 验证指标端点(确保Ollama服务正在运行):

curl http://localhost:11434/metrics

3.2. Prometheus配置(在prometheus.yml中添加抓取配置):

scrape_configs:
  - job_name: 'ollama'
    static_configs:
      - targets: ['localhost:11434']

3.3. 完整监控栈建议:

  • 安装Prometheus:http://prometheus.io/download/
  • 配置Grafana可视化(推荐仪表板ID:18674)

4.常见问题排查:

  • 如果连接被拒绝,检查Ollama是否运行:systemctl status ollama
  • 确保防火墙开放端口:sudo ufw allow 11434/tcp
  • 验证指标格式是否符合Prometheus标准(应包含HELP和TYPE注释)

高级配置(可选):

  • 如需长期存储指标,可添加remote_write配置到 VictoriaMetrics 或 M3DB
  • 配置Alertmanager实现报警规则:http://prometheus.io/docs/alerting/latest/configuration/
  • 指标示例输出应包含:
ollama_request_duration_seconds_bucket{method="generate",le="0.1"} 42
ollama_model_load_count{model="llama2"} 5
go_goroutines 23

七、是否需要安装Docker?

若只需运行DeepSeek-R1模型 → 可不安装Docker,直接使用Ollama本地运行

若需要Open WebUI可视化界面 → 必须安装Docker

Docker安装三步曲

1. Windows/macOS一键安装

# 访问官网下载桌面版(自动识别系统)  
https://www.docker.com/products/docker-desktop/  

# 安装后验证(出现版本号即成功)  
docker --version

注:Windows系统需开启WSL2支持(设置 → 系统 → 启用Windows子系统)

2. Linux命令行安装

# Ubuntu/CentOS通用脚本(自动适配系统)  
curl -fsSL https://get.docker.com | sudo sh  

# 配置用户权限(替换your_username为实际用户名)  
sudo usermod -aG docker your_username  
newgrp docker  

# 验证安装  
docker run hello-world  # 出现"Hello from Docker!"即成功

3. 国内加速配置

# 编辑Docker配置文件  
sudo tee /etc/docker/daemon.json <<EOF  
{  
  "registry-mirrors": [  
    "https://hub-mirror.c.163.com",  
    "https://mirror.baidubce.com"  
  ]  
}  
EOF  

# 重启服务生效  
sudo systemctl restart docker

无Docker替代方案(若坚持不使用Docker,可通过以下方式运行Open WebUI)

# 1. 安装Node.js环境(需≥v18.15)  
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash  
nvm install 18.15.0  

# 2. 源码部署Open WebUI  
git clone https://github.com/open-webui/open-webui  
cd open-webui  
npm install  
npm run build  
npm start  # 访问 http://localhost:3000

注意:此方式需自行解决依赖冲突问题,建议优先使用Docker方案

重要提示

1.Windows用户必看

确保系统版本 ≥ Windows 10 21H2

内存分配建议:Docker设置 → 资源 → 内存 ≥ 8GB

2.显卡加速支持

# 验证NVIDIA容器工具包  
docker run --rm --gpus all nvidia/cuda:12.3.0-base-ubuntu22.04 nvidia-smi

若出现驱动错误,需重装NVIDIA驱动 ≥535.86.10版本

文档说明

  • 所有命令均在Ubuntu 22.04 LTS + NVIDIA Driver 535环境下验证
  • 可视化操作界面支持中文切换(设置 → Language → 简体中文)
  • 如需企业级部署方案,可参考DeepSeek官方技术文档

「DeepSeek技术交流群」:

相关推荐

Python自动化脚本应用与示例(python自动化脚本教程)

Python是编写自动化脚本的绝佳选择,因其语法简洁、库丰富且跨平台兼容性强。以下是Python自动化脚本的常见应用场景及示例,帮助你快速上手:一、常见自动化场景文件与目录操作O批量重命名文件...

如何使用Python实现一个APP(如何用python做一个程序)

要使用Python实现一个APP,你可以选择使用一些流行的移动应用开发框架,如Kivy、PyQt或Tkinter。这里以Kivy为例,它是一个跨平台的Python框架,可以用于创建漂亮的图形用户界面(...

免费定时运行Python程序并存储输出文档的服务推荐

免费定时运行Python程序并存储输出文档的服务推荐以下是几种可以免费定时运行Python程序并存储输出结果的云服务方案:1.PythonAnywhere特点:提供免费的Python托管环境支持定时...

【Python程序开发系列】如何让python脚本一直在后台保持运行

这是我的第385篇原创文章。一、引言让Python脚本在后台持续运行,有几种常见的方式,具体方式可以根据你的系统环境和需求选择。二、Linux或macOS系统2.1使用nohup命令no...

运行和执行Python程序(运行python的程序)

一、Python是一种解释型的脚本编程语言,这样的编程语言一般支持两种代码运行方式:交互式编程在命令行窗口中直接输入代码,按下回车键就可以运行代码,并立即看到输出结果;执行完一行代码,你还可以继续...

Python 初学者指南:计算程序的运行时长

在编写Python程序时,了解程序的运行时长是一项很有用的技能。这不仅能帮助你评估代码的效率,还能在优化程序性能时提供关键的数据支持。对于初学者来说,计算程序运行时长其实并不复杂,接下来就让我们看...

pyest+appium实现APP自动化测试,思路全总结在这里

每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01appium环境搭建安装nodejshttp://nodej...

血脉觉醒后,编程小白我是如何通过Deepseek和Trae轻松开发软件的

以下就是作为一个编程小白的我,是如何一步步开发软件的保姆级教程,请点赞收藏:第一步:打开#deepseek#(首先关闭深度思考和联网搜索)输入或复制你要让它做一个什么样软件的要求和提示词(你可以先用...

我用Deepseek+Trae写的python小软件,小白也能轻松用上模型啦!

利用AI大模型deepseek,搭配TraeCN,用半个小时做了一个本地Ollama安装部署和一键卸载的小工具,哈哈哈!感觉还不错#deepseek#一直想做一个本地Ollama安装部署和一键卸载...

在安卓设备上运行Python的方法(安卓能运行python吗)

技术背景在安卓设备上运行Python可以为开发者提供更多的开发选择和灵活性,能够利用Python丰富的库和简洁的语法来开发各种应用,如游戏、脚本工具等。然而,由于安卓系统原生不支持Python,需要借...

零基础小白,DeepSeek全自动编程,超详细提示词,一键生成软件!

我前面发表了文章,详细说了编程零基础小白,如何利用DeepSeek进行编程的全过程,感兴趣的可以去看看:DeepSeek全自动编程很多人不会写提示词,不知道怎么开始对话。话不多说,请先看下图中的对话,...

小白用DeepSeek+Python编写软件(用python制作软件)

周末无事,用DeepSeek生成全部代码,写了一个mp3音乐播放器,几分钟搞定,DeepSeek确实太强大了。我的提示语是这么写的:“请用Python语言写一个音乐播放器,支持常见音乐格式,我是Pyt...

零基础使用DeepSeek开发Windows应用程序,超简单超实用!

你敢相信,我居然用DeepSeek开发了一个能用的Windows软件!整个过程就像和学霸同桌组队做作业,我负责提需求,DeepSeek负责写代码改bug,全程碰到任何问题直接丢给DeepSeek即可。...

第二篇:如何安装Python并运行你的第一个程序

欢迎回到我的Python入门教程系列!在上一篇中,我们讨论了为什么Python是一门值得学习的编程语言。今天,我们将迈出第一步:安装Python并运行你的第一个程序。无论你是Windows、macOS...

Python 运行,带你找入口,快速读懂程序

有C或Java编程开发经验的软件开发者,初次接触python程序,当你想快速读懂python项目工程时,是否觉得python程序有些太过随意,让你看有些无所适从,进而有些茫然。这是...

取消回复欢迎 发表评论: