DeepSeek本地安装部署
|本文将指导您如何在本地运行 DeepSeek 模型,并通过 Chatbox 进行对话。我也测试下,但是我个人觉得,除非你有钱,不然不值得自己部署。
以下是详细步骤:
1. 下载并安装 Ollama
- 访问 Ollama 官网:https://ollama.com。
- 下载适合您操作系统的版本:
- 如果无法访问官网,最好使用梯子来获取文件。
- 安装 Ollama:
- 安装完成后,电脑右上角会显示一个小羊驼图标,表示 Ollama 已成功运行。
2. 下载并安装 DeepSeek 模型
- 访问 Ollama 官网,在搜索框中输入 deepseek,找到 r1 版本。
- 选择适合您电脑的配置:
- 根据您的硬件配置(如显存、内存等),选择合适的模型版本。
- 在终端中运行以下命令,下载并安装 DeepSeek 模型:
ollama run deepseek-r1:7b
安装完成后,您可以在本地使用 DeepSeek 的 AI 功能。
3. 下载并配置 Chatbox
- 访问 Chatbox 官网:https://chatboxai.app/zh。
- 下载并安装 Chatbox。
- 配置 Chatbox 连接 Ollama:
- 打开 Chatbox,进入设置。
- 选择 Ollama 作为服务,并选择 deepseek-r1 模型。
4. 配置远程 Ollama 服务(可选)
如果您希望在其他设备上访问本地运行的 Ollama 服务,可以按照以下步骤配置远程访问:
在 MacOS 上配置
- 打开命令行终端,输入以下命令:
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"
重启 Ollama 应用,使配置生效。
如果无法同局域网访问,可以尝试:
ollama serve
sudo sh -c 'echo "export OLLAMA_HOST=0.0.0.0:11434" >> /etc/profile'
参考了这篇文章:link
在 Windows 上配置
- 通过任务栏退出 Ollama。
- 打开设置(Windows 11)或控制面板(Windows 10),搜索 环境变量。
- 编辑或创建以下环境变量:
OLLAMA_HOST
,值为0.0.0.0
。OLLAMA_ORIGINS
,值为*
。
- 保存设置并重新启动 Ollama。
在 Linux 上配置
- 打开终端,输入以下命令
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*
- 重启 Ollama 服务。
5. 删除 Ollama 模型(可选)
如果您需要删除已下载的模型,可以按照以下步骤操作:
- 查看已安装的模型:ollama list
- 删除指定模型:ollama rm <模型名称>
- 例如,删除
deepseek-r1:7b
模型:ollama rm deepseek-r1:7b
- 例如,删除
总结
通过以上步骤,您可以在本地运行 DeepSeek 模型,并使用 Chatbox 进行对话。如果需要远程访问,可以通过配置 Ollama 的环境变量实现。希望本文对您有所帮助!
其他的资源各种框架的介绍
1. Ollama
- 简介:Ollama 是一个轻量级的本地 AI 推理框架,支持一键下载和运行各种大模型,如 Llama、Mistral 等。
- 特点:
- 开箱即用,适用于 macOS 和 Linux
- 提供 CLI 方式调用,支持 API 集成。
- 资源占用相对较低,适合个人用户在本地部署 AI 模型。
- 适用场景:本地聊天助手、代码生成、文本处理等轻量级 AI 任务。
2. LM Studio
- 简介:LM Studio 是一款 GUI 界面的本地 AI 模型管理工具,简化了 AI 模型的下载、管理和运行。
- 特点:
- 提供用户友好的图形界面,适合不熟悉命令行的用户。
- 支持 GGUF 格式的 LLM 模型,并兼容许多开源模型。
- 允许本地 API 访问,方便与其他应用集成。
- 适用场景:适合需要可视化界面、低代码环境的用户,如本地 AI 助手、编程辅助、知识问答等。
这两种方式各有优势,Ollama 更适合开发者和轻量级 API 集成,而 LM Studio 则更适合普通用户和 GUI 交互需求。
Cherry Studio
说一下个人的体验,自己部署真的是一个坑。如果是7b,只能说,回答一些很基本的问题。甚至你要花更多的时间来检查。
如果你想要真的体验,我推荐用硅基流动的API,现在注册送14元,够你玩一些时间了。欢迎使用我的链接。https://cloud.siliconflow.cn/i/rLUPU4Na