磊语

DeepSeek本地安装部署

本文将指导您如何在本地运行 DeepSeek 模型,并通过 Chatbox 进行对话。我也测试下,但是我个人觉得,除非你有钱,不然不值得自己部署。

以下是详细步骤:


1. 下载并安装 Ollama


2. 下载并安装 DeepSeek 模型

ollama run deepseek-r1:7b

安装完成后,您可以在本地使用 DeepSeek 的 AI 功能。


3. 下载并配置 Chatbox


4. 配置远程 Ollama 服务(可选)

如果您希望在其他设备上访问本地运行的 Ollama 服务,可以按照以下步骤配置远程访问:

在 MacOS 上配置

  1. 打开命令行终端,输入以下命令:
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"

重启 Ollama 应用,使配置生效。

如果无法同局域网访问,可以尝试:

ollama serve
sudo sh -c 'echo "export OLLAMA_HOST=0.0.0.0:11434" >> /etc/profile'

参考了这篇文章:link

在 Windows 上配置

  1. 通过任务栏退出 Ollama。
  2. 打开设置(Windows 11)或控制面板(Windows 10),搜索 环境变量
  3. 编辑或创建以下环境变量:
    • OLLAMA_HOST,值为 0.0.0.0
    • OLLAMA_ORIGINS,值为 *
  4. 保存设置并重新启动 Ollama。

在 Linux 上配置

  1. 打开终端,输入以下命令
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*
  1. 重启 Ollama 服务。

5. 删除 Ollama 模型(可选)

如果您需要删除已下载的模型,可以按照以下步骤操作:

  1. 查看已安装的模型:ollama list
  2. 删除指定模型:ollama rm <模型名称>
    • 例如,删除 deepseek-r1:7b 模型:ollama rm deepseek-r1:7b

总结

通过以上步骤,您可以在本地运行 DeepSeek 模型,并使用 Chatbox 进行对话。如果需要远程访问,可以通过配置 Ollama 的环境变量实现。希望本文对您有所帮助!

其他的资源各种框架的介绍

1. Ollama

2. LM Studio

这两种方式各有优势,Ollama 更适合开发者和轻量级 API 集成,而 LM Studio 则更适合普通用户和 GUI 交互需求

Cherry Studio

说一下个人的体验,自己部署真的是一个坑。如果是7b,只能说,回答一些很基本的问题。甚至你要花更多的时间来检查。

如果你想要真的体验,我推荐用硅基流动的API,现在注册送14元,够你玩一些时间了。欢迎使用我的链接。https://cloud.siliconflow.cn/i/rLUPU4Na

Exit mobile version