近期,AI领域一颗新星冉冉升起,它就是备受瞩目的DeepSeek模型。凭借其强大的自然语言处理能力和广泛的应用场景,DeepSeek迅速在科技圈掀起一股热潮,成为开发者们争相研究和应用的对象。从智能客服到内容创作,从代码生成到数据分析,DeepSeek展现出的潜力令人惊叹。
然而,想要将DeepSeek的强大能力应用到实际项目中,首要任务就是完成模型的部署。对于许多开发者而言,云服务器以其弹性扩展、高效稳定的特性,成为部署DeepSeek模型的首选平台。本文将带领大家一步步探索如何在腾讯云Lighthouse轻量应用服务器上部署DeepSeek模型,解锁其无限潜能,为你的项目注入AI动力!
在轻量应用服务器的购买页
具体的服务器配置如下:
镜像:使用容器镜像 CentOS7.6-Docker26
地域:硅谷地域
套餐:锐驰型2核8G套餐,即可以运行DeepSeek-R1 1.5B的模型。
注:此套餐的峰值带宽达到200Mbps,且无流量上限不用担心流量包超额的问题。
访问ollama官网下载页面,找到Linux操作系统的安装命令。
登录一键登录轻量应用服务器,选择创建出来的服务器,点击登录按钮。
执行ollama安装命令。
curl -fsSL https://ollama.com/install.sh | sh
安装完成后如下图所示。
安装并运行deepseek-r1:1.5b模型,执行如下命令。
ollama run deepseek-r1:1.5b
轻量应用服务器锐驰型套餐的下载速度能达到97MB/s,这个速度还是非常给力的。
模型运行成功后,在命令行中可以进行对话。
测试一下效果:
向模型提问:请使用python写一个快速排序算法。
可以看到模型在给出答案之前进行了长时间的think,这也是推理模型有别于其他模型的地方。在思考结束后才给出来答案。
为ollama添加允许访问来源IP地址为OLLAMA_HOST=0.0.0.0和OLLAMA_ORIGINS=*
这样才能允许其他IP地址的设备访问ollama上部署的deepseek模型。
sudo vim /etc/systemd/system/ollama.service
添加下图中的两行代码
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
在命令行中提问体验不好,我们可以安装open-webui,在浏览器中使用我们部署好的deepseek模型。
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,设计为完全离线运行。它支持多种 LLM 运行器,如 Ollama 和兼容 OpenAI 的 API,并内置推理引擎用于 RAG(检索增强生成),使其成为一个强大的 AI 部署解决方案。
在命令行上执行如下命令:
sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
然后在轻量应用服务器的防火墙页面添加两条规则
全部IPv4地址,TCP,3000: 放通open-webui访问端口
全部IPv4地址,TCP,11434:放通ollama API访问端口
访问http://IP:3000
输入名称和管理员的电子邮箱
点击右上角用户头像,然后点击设置按钮,选择模型。
点击管理员设置
点击模型,再点击右侧的管理模型按钮,可以选择我们刚才部署的deepseek-r1:1.5b模型。
点击新对话,这样我们就能在web浏览器里开始与deepseek大模型开始对话了。
我们看到deepseek思考了1分钟,然后写了一篇观后感。
Enchanted 是一款开源的、兼容 Ollama 的优雅的 macOS/iOS/visionOS 应用程序,用于使用私有托管的模型,如 Llama 2、Mistral、Vicuna、Starling 等。它本质上是一个连接到您私有模型的 ChatGPT 风格的应用程序界面。Enchanted 的目标是提供一个产品,让用户能够在 iOS 生态系统的所有设备(macOS、iOS、Watch、Vision Pro)上获得无过滤、安全、私密且支持多模态的体验。
在Apple 的AppStore上下载Enchanted,连接deepseek。
OLLAM地址处:填写轻量应用服务器的IP:11434,Default Model处选择deepseek-r1:1.5b
接下来我们就可以愉快地与deepseek对话了。
使用轻量应用服务器运行DeepSeek大模型,不用担心数据被其他人获取或者数据用于AI训练的问题。在成本上只有服务器的成本,而不是根据输入与输出的token数计算成本。如果感兴趣,可以参考本文部署一下DeepSeek大模型。在云服务器上部署DeepSeek模型,只是我们迈向大模型时代的第一步。未来,随着技术的不断突破和应用场景的拓展,大模型将为我们开启一个更加智能、高效和充满想象力的新时代。让我们共同期待,这场由大模型引领的技术革命,将如何重塑我们的世界!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。