部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >如何用废旧手机部署DeepSeek-R1模型:超详细手把手教程

如何用废旧手机部署DeepSeek-R1模型:超详细手把手教程

原创
作者头像
夏末浅笑
发布2025-02-25 20:22:58
发布2025-02-25 20:22:58
1350
举报

大家好!今天我将为大家带来一个既环保又充满科技感的技术教程:如何用废旧手机部署DeepSeek-R1模型,让被淘汰的老手机“重获新生”,摇身一变成为一个小型AI服务器!

一、引言

在这个数字化时代,手机更新换代的速度越来越快,很多旧手机因此被闲置或丢弃。然而,这些旧手机其实仍然具有很大的潜力。通过一些简单的操作,我们可以将它们变成功能强大的AI服务器,运行DeepSeek-R1这样的AI模型。

二、准备工作

在开始之前,你需要准备以下物品:

  1. 一台安卓系统的废旧手机(最好是安卓7.0以上版本)。
  2. 耐心和细心,因为你需要按照步骤一步步操作。
三、详细步骤
  1. 安装Termux

Termux是一个安卓上的终端模拟器,可以让你像使用电脑一样在手机上运行命令行工具。

  • 打开手机浏览器,访问F-Droid官网,下载并安装Termux应用。
  • 安装完成后,打开Termux,你会看到一个黑底白字的终端界面。
  1. 更新软件包及依赖
  • 在Termux中输入命令pkg update && pkg upgrade,然后按回车。
  • 系统会自动下载更新包,期间可能会询问是否确认,输入“Y”后回车。
  • 等待几分钟,直到更新完成。
  1. 安装wget软件包

wget是一个下载工具,我们需要用它来获取后续的安装文件。

  • 在Termux中输入命令pkg install wget,然后按回车。
  • 系统会询问是否安装,输入“Y”后回车。
  • 等待安装完成。
  1. 下载并运行Ollama安装脚本

Ollama是运行AI模型的核心平台,我们通过它来部署DeepSeek-R1。

  • 在Termux中输入命令wget https://github.com/Dev-ing-ing/ollama-termux/releases/download/v1.0.0/ollama-installer.sh,然后按回车。
  • 下载完成后,输入命令bash ollama-installer.sh运行脚本。
  • 脚本会自动安装Ollama和相关依赖,耐心等待几分钟。
  1. 添加环境变量(可选)

这一步是可选的,但如果你想通过其他设备访问手机上的AI服务,建议进行这一步。

  • 在Termux中输入命令export OLLAMA_HOST=0.0.0.0,然后按回车。
  • 这会让Ollama服务对局域网开放,后续我们可以通过电脑或另一台手机访问。
  1. 启动Ollama服务
  • 在Termux中输入命令ollama serve,然后按回车。
  • 你会看到一些日志信息,表示服务已经启动成功。
  • 如果希望服务在后台运行(比如关闭Termux窗口后仍能继续运行),请使用命令nohup ollama serve &
  1. 下载并选择DeepSeek-R1模型

DeepSeek-R1模型有不同版本,根据手机配置选择合适的版本非常重要。

  • 如果你的手机内存小于8G,输入命令ollama pull deepseek-r1:1.5b下载1.5b版本。
  • 如果内存大于8G,可以选择7b版本,输入命令ollama pull deepseek-r1:7b
  • 模型有点大,根据网速可能需要几分钟,耐心等待。
  1. 在终端与模型对话
  • 模型下载好后,输入命令ollama run deepseek-r1:1.5b(以1.5b为例),然后按回车。
  • 进入对话模式后,直接输入问题,比如“今天天气怎么样?”然后回车,DeepSeek-R1就会回复你。
  1. 通过手机浏览器或聊天软件与模型对话
  • 本地访问:在手机浏览器中输入http://127.0.0.1:11434/v1
  • 局域网访问:在另一台设备浏览器中输入http://[手机的局域网IP]:11434/v1(替换成你手机的局域网IP)。
  • 公网访问:如果你的手机有公网IP或设置了端口转发,可以在外网通过http://[手机的公网IP]:11434/v1访问。
  • 注意:如果用手机浏览器访问,需要安装一个支持API调用的插件。
四、总结

通过这9个步骤,你的废旧手机已经成功变身AI助手了!这个教程不仅能让老手机焕发新生,还能让你体验AI的乐趣。以下是关键点总结:

  • 内存小于8G用DeepSeek-R1:1.5b,大于8G用DeepSeek-R1:7b。
  • 想后台运行服务,用nohup ollama serve &
  • 如果需要手机浏览器访问,需安装支持API调用的插件。

快动手试试吧!如果你有任何问题或建议,欢迎留言告诉我。让我们一起探索更多科技的乐趣吧!

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、引言
  • 二、准备工作
  • 三、详细步骤
  • 四、总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档