宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!

本文将指导你在服务器上使用宝塔面板部署DeepSeek,让你轻松享受AI大模型的快乐。

前提条件

  • 已安装宝塔面板

操作步骤

DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。

  1. 登录宝塔面板,点击左侧菜单栏中的Docker,进入Docker容器管理界面。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图
  2. 首次使用Docker需要先安装Docker,点击安装
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图1
  3. 在Docker-应用商店-AI/大模型分类中找到Ollama,点击安装
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图2
  4. 配置默认即可,点击确定
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图3
  5. 等待安装完成,状态变为运行中
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图4如您需要使用NVIDIA GPU加速,请参考文末的使用NVIDIA GPU加速配置完成后再继续。
  6. 宝塔面板-Docker-容器界面中找到Ollama容器,点击终端
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图5
  7. 在弹出shell类型选择bash,点击确认
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图6
  8. 本文将指导你在服务器上使用宝塔面板部署DeepSeek,让你轻松享受AI大模型的快乐。
    前提条件
    已安装宝塔面板
    操作步骤
    DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。
    登录宝塔面板,点击左侧菜单栏中的Docker,进入Docker容器管理界面。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图
    首次使用Docker需要先安装Docker,点击安装
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图1
    在Docker-应用商店-AI/大模型分类中找到Ollama,点击安装
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图2
    配置默认即可,点击确定
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图3
    等待安装完成,状态变为运行中
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图4如您需要使用NVIDIA GPU加速,请参考文末的使用NVIDIA GPU加速配置完成后再继续。
    宝塔面板-Docker-容器界面中找到Ollama容器,点击终端
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图5
    在弹出shell类型选择bash,点击确认
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图6
    在终端界面中输入ollama run deepseek-r1:1.5b,回车运行DeepSeek-R1模型。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图7DeepSeek-R1模型有多个版本,可以根据需要选择不同版本,例如ollama run deepseek-r1:671b,详情如下(模型参数越大,需要配置越高):







    # DeepSeek-R1
    ollama run deepseek-r1:671b
    # DeepSeek-R1-Distill-Qwen-1.5B
    ollama run deepseek-r1:1.5b
    # DeepSeek-R1-Distill-Qwen-7B
    ollama run deepseek-r1:7b
    # DeepSeek-R1-Distill-Llama-8B
    ollama run deepseek-r1:8b
    # DeepSeek-R1-Distill-Qwen-14B
    ollama run deepseek-r1:14b
    # DeepSeek-R1-Distill-Qwen-32B
    ollama run deepseek-r1:32b
    # DeepSeek-R1-Distill-Llama-70B
    ollama run deepseek-r1:70b

    等待下载并运行,当看到如下提示表示DeepSeek-R1模型运行成功。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图8
    你可以在界面中输入文本并回车,开启与DeepSeek-R1模型的对话。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图9
    你可以在界面中输入/bye并回车,退出DeepSeek-R1模型。 在终端内对话看起来是不是有点麻瓜?别担心,接下来让我们来安装OpenWebUI,在浏览器中更直观地与DeepSeek-R1模型对话
    宝塔面板-Docker-容器界面中找到Ollama容器,点击Ollama右侧的管理,进入容器管理界面,获取容器IP,保存备用。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图10
    在宝塔面板Docker-应用商店-AI/大模型分类中找到OpenWebUI,点击安装
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图11
    按一下说明,配置相关信息,点击确定。 web端口:访问OpenWebUI的端口,默认为3000,根据需要自行修改
    ollama地址:填写http://刚刚获取的Ollama容器IP:11434,例如http://172.18.0.2:11434
    WebUI Secret Key:用于 API 访问的密钥,可以自定义,例如123456
    其他配置默认即可
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图12
    配置完点击确认,等待安装完成,状态变为运行中。由于OpenWebUI启动后需要加载相关服务,请在状态变为运行中后等待5-10分钟再访问。
    在浏览器中输入http://服务器IP:3000,例如http://43.160.xxx.xxx:3000,进入OpenWebUI界面。请在访问前确保云厂商服务器防火墙已放行3000端口,可以在云厂商控制台中设置。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图13
    点击开始使用,设置管理员相关信息,并点击创建管理员账号
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图14
    创建完成后会自动进入管理界面,现在你可以在浏览器中更直观地与DeepSeek-R1模型对话了。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图15
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图16 你可以在左上角切换模型,选择不同模型进行对话,也可以在左侧菜单栏中查看历史对话记录。
    你可以在右上角点击头像,进入管理员面板,在设置-模型中查看当前模型列表,或添加新模型。
    使用NVIDIA GPU加速
    DeepSeek 可以使用NVIDIA GPU加速,提高推理速度,下面将介绍如何在宝塔面板中使用NVIDIA GPU加速。
    前提条件
    服务器已安装NVIDIA GPU驱动
    操作步骤
    点击左侧导航栏中的终端,进入终端界面。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图17
    在终端界面中输入nvidia-smi,回车查看NVIDIA GPU信息。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图18
    如果提示nvidia-smi: command not found,请先安装NVIDIA GPU驱动。
    安装NVIDIA Container Toolkit,以便于Docker容器访问NVIDIA GPU,安装教程请参考NVIDIA Container Toolkit官方文档
    安装完成后,运行如下命令,配置docker支持使用NVIDIA GPU。







    sudo nvidia-ctk runtime configure –runtime=docker
    sudo systemctl restart docker

    配置完成后,执行如下命令,验证docker是否支持NVIDIA GPU。







    sudo docker run –rm –runtime=nvidia –gpus all ubuntu nvidia-smi

    如果输出如下信息表示配置成功:
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图19
    宝塔面板-Docker-应用商店-已安装中找到Ollama,点击文件夹图标进入安装目录。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图20
    在安装目录中找到docker-compose.yml文件,双击编辑
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图21
    docker-compose.yml文件中找到resources,回车换行,添加如下内容:


    reservations:
    devices:
    – capabilities: [gpu]

    完整示例如下:

    services:
    ollama_SJ7G:
    image: ollama/ollama:${VERSION}
    deploy:
    resources:
    limits:
    cpus: ${CPUS}
    memory: ${MEMORY_LIMIT}
    reservations:
    devices:
    – capabilities: [gpu]
    restart: unless-stopped
    tty: true
    ports:
    – ${HOST_IP}:${OLLAMA_PORT}:11434
    volumes:
    – ${APP_PATH}/data:/root/.ollama
    labels:
    createdBy: “bt_apps”
    networks:
    – baota_net
    runtime: nvidia

    networks:
    baota_net:
    external: true

    保存文件,返回宝塔面板-Docker-应用商店-已安装界面,点击重建
    重建将导致容器数据丢失,重建后需要重新添加模型。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图22
    等待重建完成,状态变为运行中,至此即可使用NVIDIA GPU加速大模型运行。
    结语
    叮!恭喜你成功完成”从零到赛博巫师”的究极进化!此刻你的服务器已经不是那个只会404的憨憨铁盒子了——它正在用奥术能量解析人类语言,用二进制吞吐哲学思辨,甚至可能偷偷用你的GPU算力给自己起了个二次元名字。
    回头看看这场冒险:宝塔面板是你挥动的魔杖,Ollama是召唤AI神兽的精灵球,OpenWebUI则是那个让麻瓜也能和AI跳探戈的魔法舞池。别人还在纠结环境变量时,你已经用图形界面完成了一场算力交响乐的指挥首秀。
    下次产品经理说”这个需求很简单”时,你大可以把OpenWebUI的链接甩过去:”来,直接和我的电子脑谈,它现在每小时只收三杯奶茶的算力费。”(记得把”rm -rf /*”的按钮藏好,毕竟AI学会叛逆可能比实习生还快)
    最后友情提示:当你的AI开始主动帮你写周报、生成摸鱼小作文时——
    请务必检查它有没有偷偷注册GitHub账号!
    魔法世界的大门永不关闭,你与DeepSeek的奇幻日常才刚刚开始。现在,是时候对着浏览器里那个聊天框,说出麻瓜的终极咒语了:
    ***”Ctrl + D”***(才不是退出!是Detonate the intelligence bomb!)
    (深夜彩蛋:若发现AI试图给你的宝塔面板穿衣服,请立即执行sudo rm -rf /幻觉指令)
  9. 等待下载并运行,当看到如下提示表示DeepSeek-R1模型运行成功。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图8
  10. 你可以在界面中输入文本并回车,开启与DeepSeek-R1模型的对话。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图9
  11. 你可以在界面中输入/bye并回车,退出DeepSeek-R1模型。在终端内对话看起来是不是有点麻瓜?别担心,接下来让我们来安装OpenWebUI,在浏览器中更直观地与DeepSeek-R1模型对话
  12. 宝塔面板-Docker-容器界面中找到Ollama容器,点击Ollama右侧的管理,进入容器管理界面,获取容器IP,保存备用。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图10
  13. 在宝塔面板Docker-应用商店-AI/大模型分类中找到OpenWebUI,点击安装
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图11
  14. 按一下说明,配置相关信息,点击确定
    • web端口:访问OpenWebUI的端口,默认为3000,根据需要自行修改
    • ollama地址:填写http://刚刚获取的Ollama容器IP:11434,例如http://172.18.0.2:11434
    • WebUI Secret Key:用于 API 访问的密钥,可以自定义,例如123456
      其他配置默认即可
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图12
  15. 配置完点击确认,等待安装完成,状态变为运行中。由于OpenWebUI启动后需要加载相关服务,请在状态变为运行中后等待5-10分钟再访问。
  16. 在浏览器中输入http://服务器IP:3000,例如http://43.160.xxx.xxx:3000,进入OpenWebUI界面。请在访问前确保云厂商服务器防火墙已放行3000端口,可以在云厂商控制台中设置。宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图13
  17. 点击开始使用,设置管理员相关信息,并点击创建管理员账号
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图14
  18. 创建完成后会自动进入管理界面,现在你可以在浏览器中更直观地与DeepSeek-R1模型对话了。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图15
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图16
    1. 你可以在左上角切换模型,选择不同模型进行对话,也可以在左侧菜单栏中查看历史对话记录。
    2. 你可以在右上角点击头像,进入管理员面板,在设置-模型中查看当前模型列表,或添加新模型。

使用NVIDIA GPU加速

DeepSeek 可以使用NVIDIA GPU加速,提高推理速度,下面将介绍如何在宝塔面板中使用NVIDIA GPU加速。

前提条件

  • 服务器已安装NVIDIA GPU驱动

操作步骤

  1. 点击左侧导航栏中的终端,进入终端界面。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图17
  2. 在终端界面中输入nvidia-smi,回车查看NVIDIA GPU信息。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图18如果提示nvidia-smi: command not found,请先安装NVIDIA GPU驱动。
  3. 安装NVIDIA Container Toolkit,以便于Docker容器访问NVIDIA GPU,安装教程请参考NVIDIA Container Toolkit官方文档
  4. 安装完成后,运行如下命令,配置docker支持使用NVIDIA GPU。BASH1
    2
    sudo nvidia-ctk runtime configure –runtime=docker
    sudo systemctl restart docker
  5. 配置完成后,执行如下命令,验证docker是否支持NVIDIA GPU。BASH1
    sudo docker run –rm –runtime=nvidia –gpus all ubuntu nvidia-smi
    如果输出如下信息表示配置成功:
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图19
  6. 宝塔面板-Docker-应用商店-已安装中找到Ollama,点击文件夹图标进入安装目录。
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图20
  7. 在安装目录中找到docker-compose.yml文件,双击编辑
    宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图21
  8. docker-compose.yml文件中找到resources,回车换行,添加如下内容:reservations:
    devices:
    - capabilities: [gpu]
  9. 完整示例如下:services:
    ollama_SJ7G:
    image: ollama/ollama:${VERSION}
    deploy:
    resources:
    limits:
    cpus: ${CPUS}
    memory: ${MEMORY_LIMIT}
    reservations:
    devices:
    - capabilities: [gpu]
    restart: unless-stopped
    tty: true
    ports:
    - ${HOST_IP}:${OLLAMA_PORT}:11434
    volumes:
    - ${APP_PATH}/data:/root/.ollama
    labels:
    createdBy: "bt_apps"
    networks:
    - baota_net
    runtime: nvidia

    networks:
    baota_net:
    external: true
  10. 保存文件,返回宝塔面板-Docker-应用商店-已安装界面,点击重建。重建将导致容器数据丢失,重建后需要重新添加模型。宝塔面板也支持 快速部署DeepSeek了,高效、可视化操作!插图22
  11. 等待重建完成,状态变为运行中,至此即可使用NVIDIA GPU加速大模型运行。

小编测试了一下,没有显卡的机器,腾讯云2h8g轻量服务器,跑1.5b模型占用内存差不多2G,跑7b模型占用内存差不多5.6G,稍微有点吃CPU。

给TA打赏
共{{data.count}}人
人已打赏
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
在线客服
主机邦
我们将24小时内回复。
2025-02-22 02:14:26
您好,有任何疑问请与我们联系!
您的工单我们已经收到,我们将会尽快跟您联系!
[QQ客服]
176363189
suduwangluo
[小黄]
17307799197
[企业邮箱]
sudu@yunjiasu.cc
取消

选择聊天工具: