deepseek作为一款功能强大的人工智能大模型,本地部署后能够实现更高效、稳定的响应体验。对于mac用户来说,掌握如何在本地配置deepseek显得尤为重要。以下是一份详尽的操作指南:
一、前期准备
硬件配置建议:
- 基础配置:搭载Apple Silicon芯片(M1/M2/M3),配备16GB内存和30GB存储空间,可流畅运行1.5B或7B级别的模型。
- 高端配置:推荐使用M2 Ultra或M3 Max芯片,64GB内存及100GB存储,可支持14B甚至32B的大规模模型运行。
系统环境要求:
需运行macOS Ventura(版本13.0)或更高系统,并提前安装Xcode命令行工具。可在终端执行命令
xcode-select --install完成安装。
二、安装 Ollama
获取安装包:
前往Ollama官方网站,下载适用于macOS(Apple Silicon)平台的.dmg安装文件。
安装流程与权限设置:
双击下载完成的.dmg文件,将Ollama应用图标拖拽至“应用程序”文件夹中。首次启动时,若系统提示“无法验证开发者”,请进入 系统设置 → 隐私与安全性 → 安全性,点击“仍要打开”以允许运行。
验证是否安装成功:
打开终端,输入命令
ollama --version,如果返回类似
ollama version 0.1.20的版本信息,则说明安装成功。
三、下载并加载 DeepSeek 模型
模型版本推荐:
- 1.5B:适用于轻量级文本生成任务,最低需要4GB显存,模型体积约1.1GB。
- 7B:适合通用场景(推荐使用),最低需8GB显存,文件大小约为5GB。
- 14B:适用于复杂推理与代码生成,最低需16GB显存,模型大小约12GB。
通过命令行下载模型:
在终端中输入标准命令,例如下载7B版本模型,执行:
ollama run deepseek-r1:7b
首次运行会自动开始下载,终端将实时显示下载进度条。
国内网络加速(可选操作):
若下载速度较慢,可设置国内镜像源。在终端输入以下命令:
export OLLAMA_HOST=mirror.ghproxy.com(适用于macOS/Linux系统)
四、可视化界面搭建(可选步骤)
下载 Chatbox AI 应用:
访问Chatbox AI官网,下载适用于macOS的客户端程序,安装时只需将应用图标拖入“应用程序”文件夹即可。
配置本地模型连接:
启动Chatbox AI后,选择“使用自己的 API Key 或本地模型”,接着选择“Ollama API”。在设置界面中,API地址保持默认,模型下拉菜单中选择已下载的模型(如
deepseek-r1:1.5b)。若模型列表为空,请确认模型已下载完毕或尝试重新拉取。
开启本地对话:
完成配置后,即可在图形化界面中与DeepSeek进行交互。所有数据处理均在本地完成,响应速度快且保障隐私安全。













