MacBook air M3本地部署Deepseek

DeepSeek因此受到了大洋彼岸黑客攻击,随之而来的是全球宕机,很多人在春节也纷纷吐槽为何不能继续用深度思考和联网能力。

如果想继续使用稳定的Deep Seek,那么可以尝试本地部署,Deepseek将会永远免费用。

首先,百度搜索Ollama

图片[1]-MacBook air M3本地部署Deepseek-老苏

来到 Ollama 官网,这里有 Deepseek R1 模型,点击下载,然后选择适合自己电脑的版本。要注意的是,Windows 版本需要是 win 10 或更高的版本。点击下载,大概 2 到 4 分钟就能完成。

图片[2]-MacBook air M3本地部署Deepseek-老苏

接着,回到 Olama 的模型官方页面,点击搜索 R1

可以看到这里有很多个版本,根据电脑内存选择合适的版本,参数越大,代表训练成本越大,模型也会更灵活,但也会需要电脑有更大的内存来运行。

图片[3]-MacBook air M3本地部署Deepseek-老苏

根据自己的需求选择对应参数的模型,然后再复制右上角这一串字母。

图片[4]-MacBook air M3本地部署Deepseek-老苏

打开“终端”,输入“ollama run Deepseek-r1:7b”,会出现加载的进度。

图片[5]-MacBook air M3本地部署Deepseek-老苏
图片[6]-MacBook air M3本地部署Deepseek-老苏

等待大约 10 分钟左右就能下载完,等出现“send a message”的字母就说明安装成功,您可以直接在这里提问。

图片[7]-MacBook air M3本地部署Deepseek-老苏

在这输入问题即可聊天了。

经测试M316G版本14B能安装,能对话,速度还可以,就是发热严重,个人使用7B或8B更理想。

后续琢磨下如何添加个人知识库

THE END
喜欢就支持一下吧
点赞7 分享