首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

只需两步,在你的电脑上运行 DeepSeek R1!超简单!

是不是觉得本地运行AI模型是只有极客大佬们才能做,现在,只需要两步,不到五分钟,完全不懂技术的小白也可以在本地运行 DeepSeek R1 这款世界最强模型!

为什么要在本地部署模型?

DeepSeek R1 官方提供在线的服务,那么我们为什么还要在本地部署模型呢?

本地部署模型有几点优势是使用在线模型没办法做的:首先所有聊天都在本地,你不用担心聊天信息泄露,你可以选择让你的模型记住你的所有习惯,让他变得独一无二

另外本地部署的模型是没有任何敏感词限制的,你可以问他任何问题

要使用到的开源项目

我们会用到两款开源产品,首先是 Ollama ,他可以让我们在本地无痛跑起来主流的开源模型,可以跑包括 DeepSeek R1 还有 Llama 3.3, Phi-4, Mistral, Gemma 2

第二个要用到的开源项目是 Page Assist

他是一个开源的浏览器插件,可以为我们本地的模型提供一个很好的聊天窗口。

因为我的电脑是 Macbook,在这里我主要展示Mac 的安装步骤,使用 windows 系统的小伙伴呀不用担心,上面三个开源项目都是支持 Windows 系统的,大家下载对应的 windows 版本即可。

第一步 下载 Ollama

打开网址 https://ollama.com/download 下载对应系统的 Ollama 程序。

下载到本地解压之后,Mac 系统一定要拖动到 “应用” 文件夹。Windows 系统直接安装即可。

安装后,点击打开,Mac系统会提示你是否安装 Ollama 命令行工具。一定要安装。

这时候我们就可以运行命令行直接跑模型了,Mac系统中,打开 Terminal 终端,输入以下命令:

ollama run deepseek-r1:8B

执行这个命令后,首先会自动下载 deepseek-r1 的 8B版本模型

下载完成后就可以直接跟 deepseek R1 聊天了!是不是非常的简单!

直接输入问题,点击回车,就能看到回答了。在我本地运行,速度还是很快的。

这样在命令行里面聊天很不方便,为了能有更好的聊天体验,这时候我们就需要第三个工具:PageAssist。他可以为我们的本地模型提供体验非常好的聊天框

点击这个地址安装 Chrome 浏览器插件:https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo?hl=en

安装好之后,点击这个插件

可以看到,Page Assist 已经自动检测出 Ollama 正在运行了。

这时候选择一下模型,就可以直接问本地的 Deepseek R1 问题了。

这时候,你就拥有了一个本地部署的,世界上最强的AI模型。所有聊天都在本地,你不用担心聊天信息泄露。同时本地部署的模型是没有任何敏感词限制的,你可以问他任何问题。快玩起来吧!

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OkfKz2DI0Q33AckZaF3i607Q0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券