想不想拥有一个本地的DeepSeek,快跟我一起来部署一个本地版本吧

随风

使用硅基流动+chatbox的方式可以解决当前官网卡顿的问题,但是有些时候我们出外做项目或者是在需要保密的场景,我们可能无法使用联网的大模型,那怎么办呢?别急,本地部署大模型是你的最后选择,使用Lmstduio部署本地大模型是当前最简单的本地大模型部署方法,可以让你轻松尝试到不用联网也能畅快玩耍Ai的快感。

首先我们下载LM Studio – Discover, download, and run local LLMs软件。

安装完成后就会出现以下界面

我们点击左侧放大镜图标,根据自己电脑的性能,选择一款自己想下载的模型(我的电脑是Rtx4060,可以流畅运行7B的DeepSeek模型)其它配置的电脑可以点击尝试,如果可以运行的话LmStudio会出现绿色图标,表示可以运行。

下载完成后,回到主页面,设置好参数,可以按照我的配置进行设置(一般默认即可),点击加载模型(load model)。

然后就可以愉快玩耍了。

不得不说AI的进步真的是一日千里,DeepSeek将R1蒸馏成多个尺寸的版本使得总有一款模型适合你的电脑,开源模型将加速端侧AI时代的到来,也使得个人开发者和用户也能参与到AI的滚滚洪流之中,最后想说一句——开源力量是很难阻挡的。

DeepSeek官网访问不稳定,如何使用硅基流动配合chatbox实现稳定输出

随风

当前DeepSeek模型可谓是当红炸子鸡,其强大的性能,低廉的训练成本,使得其在AI界迅速走红,创万联在年初就已经基于其开发Ai原生应用 ruanrongman/IntelliConnect: A Powerful AI agent IoT platform core. 在开发中其强劲的模型能力带来了愉悦的开发体验,但最近由于用户激增,网络攻击等原因,官网使用经常出现访问不稳定,问一个问题很容易出现服务器限流,这严重影响了用户体验,但幸运的是 DeepSeek 是开源模型,因此许多第三方平台,或者是自己本地部署均可以实现 DeepSeek模型自由。

首先打开硅基流动官方,这里可以使用我的邀请链接,双方均可以获得更多免费额度。https://cloud.siliconflow.cn/i/dlfqbBUr,注册之后进入界面,点击左侧API密钥,进入到API密钥栏目,点击新建API密钥复制备用。

然后下载chatbox,这是一个第三方的界面友好的对话引擎,官网为Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载,安装之后点击设置,输入自己的API密钥,选择v3或者思考模型R1即可流畅使用。

希望以上教程可以帮助到各位朋友流畅的使用DeepSeek模型。下期还会给大家介绍如何本地部署自己的DeepSeek模型,实现桌面AI时代。