本帖最后由 chenghelin 于 2025-2-8 13:50 编辑
DeepSeek 的本地部署可以通过 Ollama 工具实现。以下是详细的本地部署步骤:
一、安装 Ollama 下载 Ollama
1.安装 Ollama 双击下载的安装包,按照提示完成安装,默认是C盘。 命令提示符安装到其它盘:OllamaSetup.exe /DIR="G:\Ollama" 安装完成后,打开命令提示符,输入 ollama help,如果显示帮助信息且无报错,则安装成功。
二、下载 DeepSeek 模型 1.设置环境变量 设置环境变量以便让Ollama知道在哪里查找模型和其他配置。以下是几个重要的环境变量及其设置方法: 设置 OLLAMA_MODELS 环境变量 这个变量指定了Ollama存放模型的路径。如果您希望将模型存放在G盘而非默认的C盘,可以这样设置: 右键点击“此电脑”或“我的电脑”,选择“属性”。 在左侧菜单中点击“高级系统设置”。 在弹出的“系统属性”窗口中,点击“环境变量”按钮。 在“用户变量”部分,点击“新建”按钮。 输入变量名为OLLAMA_MODELS,变量值为G:\Ollama\Models或其他您希望使用的路径。 点击确定保存设置。
2.选择模型版本 根据硬件配置选择合适的模型版本(如 1.5b、7b、8b、14b 等)。 建议: 低配置设备(如集成显卡):选择 1.5b 或 7b 模型。 高配置设备(如 NVIDIA 显卡):可选择 14b 或更大模型1812。
3.下载模型 复制页面右侧的下载命令(如 ollama run deepseek-r1:7b),在命令提示符或终端中粘贴并运行,开始下载模型。下载完成后,模型会自动加载。
下载不稳定,极容易断线,建议晚上挂机下载,可以多开几个CMD窗口,每个窗口下载一种模型文件
运行7b模型命令: ollama run deepseek-r1:7b
退出模型: CTRL+D
安装后占用空间: 安装后ollama文件夹4.5G deepseek-r1:1.5b 1.1G deepseek-r1:7b 4.5G deepseek-r1:8b 4.7G deepseek-r1:14b 9G
三,deepseek+chatbox本地可视化 2.设置本地模型:
3.命令行运行模型:ollama run deepseek-r1:7b,chatbox里面就可以用了
|