部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署

DeepSeek实践-5分钟快速腾讯云部/Ollama部署/本地部署

原创
作者头像
七条猫
修改2025-03-19 14:59:06
修改2025-03-19 14:59:06
1.1K00
代码可运行
举报
运行总次数:0
代码可运行

自问世以来,DeepSeek迅速成为全球瞩目的焦点,这不仅归功于其卓越的技术表现,更在于其开源的开放策略和极具竞争力的低成本优势,从而在全球范围内掀起了一股AI应用的新浪潮。

DeepSeek-R1作为该系列中的明星产品,凭借其出色的推理能力,在多个权威基准测试中超越了当前顶尖的模型。这一技术上的重大突破,不仅标志着AI领域的一次显著进步,同时也为开发者提供了一个性价比极高的解决方案。特别值得一提的是,DeepSeek-R1通过大规模的强化学习训练,无需依赖传统的监督微调,即可在数学推理等高难度任务中展现出卓越的性能。

部署要求

本文将详细介绍如何快速部署Deepseek。要快速部署 DeepSeek,首先需要明确 DeepSeek 的具体用途和功能。DeepSeek 可能是一个深度学习模型、工具或平台,用于特定任务(如图像识别、自然语言处理等)。以下是一个通用的步骤指南,帮助普通人快速部署 DeepSeek,快速部署 DeepSeek 的关键在于:

  1. 明确需求。
  2. 准备好环境和依赖。
  3. 获取并配置模型。
  4. 测试和部署。
明确需求

确定 DeepSeek 的具体用途(如文本生成、图像分类等)。

了解 DeepSeek 的输入输出格式以及所需的硬件资源(如 GPU 或 CPU)。

硬件要求
  • 一台服务器或高性能计算机(推荐使用云服务器)
软件要求
  • 操作系统:Linux(推荐Ubuntu 20.04或更高版本)
  • Docker:用于容器化部署

部署逻辑:

说明:

  1. 安装Ollama;
  2. 使用Ollama部署DeepSeek;
  3. ChatBox集成DeepSeek;
  4. CodeArts IDE集成DeepSeek。

部署DeepSeek步骤

1、安装Ollama

Ollama 是一款功能强大的开源工具,专为在本地运行、部署和管理大型语言模型(LLMs)而设计。它提供了简洁的命令行界面,使用户能够轻松下载、运行并与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,非常适合希望在本地环境中使用 LLMs 的开发者和研究人员。

  1. 打开终端: 在云主机桌面上右键选择“Open Terminal Here”,打开命令终端窗口。
  1. 执行安装命令: 在终端中输入以下命令并回车:
代码语言:javascript
代码运行次数:0
运行
复制
curl -fsSL https://ollama.com/install.sh | sh

2、部署DeepSeek

借助 Ollama,我们可以轻松部署 DeepSeek 大模型。以下步骤将指导您部署 deepseek-r1:1.5b 版本:

  1. 执行部署命令: 在终端中输入以下命令并回车:
代码语言:javascript
代码运行次数:0
运行
复制
ollama run deepseek-r1:1.5b

2.开始对话: 部署完成后,您可以直接在终端与 DeepSeek 大模型进行对话。

!

3、安装ChatBox

虽然通过终端可以与 DeepSeek 进行交互,但为了获得更直观和流畅的体验,我们可以使用可视化聊天工具,例如 Open WebUI 或 ChatBox。以下步骤将指导您安装并使用 ChatBox:浏览器下载ChatBox: https://chatboxai.app/zh 进入Chatboxai点击“免费下载”按钮下载适用于您系统的安装包。

打开下载文件所在目录,右键选择“Open Terminal Here”,在终端中输入以下命令并回车:

代码语言:javascript
代码运行次数:0
运行
复制
sudo chmod +x Chatbox-1.9.8-arm64.AppImage

安装zlib 库:

代码语言:javascript
代码运行次数:0
运行
复制
sudo apt update
sudo apt install zlib1g zlib1g-dev

安装 zlib 后,使用 find 命令查找 libz.so 文件:

代码语言:javascript
代码运行次数:0
运行
复制
sudo find / -name libz.so*

设置 LD_LIBRARY_PATH:

代码语言:javascript
代码运行次数:0
运行
复制
export LD_LIBRARY_PATH=/usr/lib/aarch64-linux-gnu:$LD_LIBRARY_PATH

安装libfuse.so.2库:

代码语言:javascript
代码运行次数:0
运行
复制
sudo apt install libfuse2

运行文件,运行应用时禁用沙盒:

代码语言:javascript
代码运行次数:0
运行
复制
./Chatbox-1.9.8-arm64.AppImage --no-sandbox

配置 ChatBox

  1. 选择 API 类型: 首次打开 ChatBox 时,选择“使用自己的API Key或本地模型(Use My Own API Key/Local Model)”。
  2. 选择 Ollama API: 在新的标签页中选择 Ollama API。
  3. 选择模型: 在模型列表中选择 deepseek-r1:1.5b,然后点击保存。

配置完成后,您就可以在 ChatBox 的对话框里与 DeepSeek 大模型进行对话了。

DeepSeek API秘钥

目前deepseek已经获得最牛的域名,AI.com

秘钥需要登录:https://platform.deepseek.com/sign_in

API 及定价

DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元

Token 用量计算

token 是模型用来表示自然语言文本的基本单位,也是我们的计费单元,可以直观的理解为“字”或“词”;通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。

一般情况下模型中 token 和字数的换算比例大致如下:

  • 1 个英文字符 ≈ 0.3 个 token。
  • 1 个中文字符 ≈ 0.6 个 token。

但因为不同模型的分词不同,所以换算比例也存在差异,每一次实际处理 token 数量以模型返回为准,您可以从返回结果的 usage 中查看。

本地部署

成功在本地部署DeepSeek AI助手后,您将能够在个人电脑上畅享其强大功能,无需担忧网络延迟和隐私泄露问题。

第一步:环境搭建(安装Ollama)

Ollama 是一款轻量级的AI模型运行框架,兼容多种开源模型,我们将利用它来运行DeepSeek。

重要提示: 近期DeepSeek热度高涨,网络上出现了许多仿冒诈骗网站。请务必通过官方渠道下载软件,警惕任何付费或转账要求。

  1. 获取 Ollama
  2. 前往 Ollama 官方网站。
  3. 根据您的操作系统选择相应的安装包(Windows 选择 .exe,Mac 选择 .dmg)。
  4. 下载完成后,按照提示完成安装:
  5. Windows:双击安装包,按照向导操作即可。
  6. Mac:将 Ollama 图标拖拽至 Applications 文件夹。

2. 验证安装

安装完成后,打开终端(Windows 按 Win + R 输入 cmd,Mac 直接打开 Terminal),然后输入:ollama list

输入以下命令:

复制

代码语言:javascript
代码运行次数:0
运行
复制
ollama list

如果终端显示类似 llama3 的模型名称,则说明安装成功。

注意事项

  • 确保您的系统已更新至最新版本,以避免兼容性问题。
  • 安装过程中,建议暂时关闭杀毒软件,防止其误报拦截。
  • 保持网络连接稳定,下载过程可能需要传输超过 300MB 的数据。
第二步:部署DeepSeek模型

DeepSeek 提供了多种参数版本,我们推荐:

  • 普通用户: 选择 8B 版本,适用于日常对话、写作等场景。
  • 高性能显卡用户(显存 16GB 以上): 可选择 16B 版本,体验更强大的性能。
  • 获取并安装模型
  • 访问 Ollama 模型库,搜索 deepseek-r1
  • 复制对应版本的安装命令,并在终端中运行:
代码语言:javascript
代码运行次数:0
运行
复制
ollama run deepseek-r1:8b

(如果您选择 16B 版本,将 8b 替换为 16b

首次运行时,系统会自动下载约 5GB 的模型文件,请耐心等待。

2.测试模型

安装完成后,在终端中输入:

代码语言:javascript
代码运行次数:0
运行
复制
说一句有趣的新年祝福

如果模型能够成功回应,则说明部署成功!

如果模型成功回应,说明部署无误!

第三步:安装可视化界面(Chatbox AI)

虽然终端交互方便快捷,但如果您更倾向于使用类似ChatGPT的可视化界面,可以安装Chatbox AI。

1. 下载 Chatbox

  • 访问 Chatbox 官网,下载对应系统的安装包
  • 按照默认设置完成安装

2. 连接本地模型

  • 打开 Chatbox,进入设置界面。
  • 在模型设置中选择:
  • API 类型:Ollama API
  • 模型名称:deepseek-r1:8b
  • 点击“检查连接”,如果状态正常,即可开始使用。

3. 进阶设置(可选)

  • 温度值: 建议设置为 0.3-0.7,数值越低,AI 的回答越保守。
  • 最大生成长度: 建议设置为 2048 tokens,以获得更丰富的回答。
  • 连续对话模式: 开启后,可以使对话更加连贯自然。
第四步:优化交互和性能

为了让AI助手更好地为您服务,您可以尝试以下方法:

  1. 释放系统资源: 在运行AI程序时,尽量关闭其他占用大量内存的软件,例如大型游戏、视频编辑软件等,以确保AI能够获得充足的计算资源。
  2. 拆分复杂问题: 当您遇到复杂的问题时,可以尝试将其拆分成几个更小、更具体的问题,并逐步向AI提问。这样可以帮助AI更准确地理解您的需求,并提供更精准的答案。
  3. 尝试英文关键词: 在某些情况下,使用英文关键词进行搜索或提问,可能会获得更快的响应速度和更丰富的结果。
  4. 定期重启服务: 如果您使用的是Ollama等本地部署的AI服务,建议您定期重启服务,以释放内存并清除缓存,确保AI始终保持最佳运行状态。 腾讯云部署在腾讯云 AI 代码助手,开发者可配置接入DeepSeeK R1 及其他模型的官网 API !也可接入本地 Ollama 部署的 Deepseek 大模型,结合腾讯云AI代码助手和 DeepSeek ,开发者可实现更加强大、高效、安全的 AI 编程体验。

在 Visual Studio Code 插件市场, 搜索「腾讯云AI代码助手」安装。

在腾讯云AI代码助手中配置 API key

点击腾讯云 AI 代码助手侧栏打开技术对话功能,在对话框右边有一个模型选项,默认为 hunyuan-turbo 模型。

您就可以在对话框里与 DeepSeek 大模型进行对话了。

总 结

学习 Deepseek 的部署和调用是一个非常有价值的过程,它不仅让我掌握了一项实用的技能,也为我打开了深度学习世界的大门。

下面是我们开发的案例

在数据处理和可视化领域,将Excel中的数据转换为直观的柱状图是一项常见需求。DeepSeek作为一款强大的人工智能工具,在自动化这一流程方面提供了便捷高效的解决方案。本文将详细介绍如何使用DeepSeek自动从Excel文件生成柱状图。

一、准备工作

  1. 安装相关软件和库
  2. 首先确保你的电脑上安装了Microsoft Excel或者兼容的电子表格软件
  3. 对于使用DeepSeek的接口进行操作,你可能需要安装Python(如果DeepSeek的接口是基于Python的),并且安装相关的库,如pandas用于数据处理,matplotlibseaborn用于绘图(虽然DeepSeek可能内部处理绘图,但了解这些库有助于理解数据可视化的原理)。
  4. 获取DeepSeek访问权限
  5. 注册并登录DeepSeek平台,获取必要的API密钥或者访问权限,以便能够调用其功能。

二、数据准备

  1. 整理Excel数据
  2. 在Excel文件中,确保你的数据结构清晰。例如,如果你要绘制关于不同产品销售额的柱状图,通常第一行是列标题,如“产品名称”“销售额”等,后续行是具体的数据记录。
  3. 数据应该按照逻辑顺序排列,没有缺失值或者错误值(如果有,需要先进行数据清洗)。

三、使用DeepSeek生成柱状图的步骤

(一)通过API调用(以Python为例)
  1. 导入必要的库
  2. 在Python脚本中,导入用于与DeepSeek交互的库(假设为deepseek_api,实际名称根据DeepSeek提供的接口而定),以及pandas库用于读取Excel数据。
代码语言:javascript
代码运行次数:0
运行
复制
import deepseek_api
import pandas as pd
  1. 读取Excel数据
  2. 使用pandasread_excel函数读取Excel文件中的数据。
代码语言:javascript
代码运行次数:0
运行
复制
data = pd.read_excel('your_file.xlsx')
  1. 构建请求数据
  2. 根据DeepSeek API的要求,构建包含数据和绘图参数的请求。例如,你可能需要指定数据列的名称(用于确定x轴和y轴的数据)、图表标题、坐标轴标签等。
代码语言:javascript
代码运行次数:0
运行
复制
request_data = {
    "data": data.to_dict(orient='records'),
    "chart_type": "bar",
    "x_axis": "产品名称",
    "y_axis": "销售额",
    "title": "产品销售额柱状图",
    "x_label": "产品",
    "y_label": "销售额(元)"
}
  1. 发送请求并获取图表
  2. 使用DeepSeek API发送请求,并接收生成的柱状图。这可能涉及到调用特定的函数并传递请求数据。
代码语言:javascript
代码运行次数:0
运行
复制
response = deepseek_api.generate_chart(request_data)
chart = response['chart']
  • 如果DeepSeek返回的是图表的图像数据(如base64编码的图像),你可以将其保存为图片文件。
代码语言:javascript
代码运行次数:0
运行
复制
import base64
with open('bar_chart.png', 'wb') as f:
    f.write(base64.b64decode(chart))
(二)使用DeepSeek的可视化界面
  1. 上传Excel文件
  2. 登录DeepSeek的可视化平台,找到上传文件的功能入口,将准备好的Excel文件上传到平台。
  1. 配置图表参数
  2. 在平台上找到创建柱状图的功能模块,然后根据提示配置相关参数。这包括选择x轴和y轴对应的列、设置图表标题、坐标轴标签等。
  3. 生成并下载柱状图
  4. 完成参数配置后,点击生成按钮,DeepSeek会根据你的设置自动从Excel数据中创建柱状图。你可以选择将生成的柱状图下载到本地,以便在其他文档或者报告中使用。

四、优势与注意事项

(一)优势
  1. 高效性
  2. 相比于手动在Excel中创建柱状图再进行格式调整等繁琐操作,使用DeepSeek可以快速生成高质量的柱状图,大大节省时间。
  3. 准确性
  4. DeepSeek按照预先设定的算法和参数进行绘图,减少了人为错误的可能性,确保图表的准确性。
  5. 可定制性
  6. 能够方便地根据不同的需求定制图表的样式、颜色、标签等,以满足各种数据可视化的场景。
(二)注意事项
  1. 数据格式兼容性
  2. 确保Excel文件的数据格式与DeepSeek要求的格式相匹配,否则可能会导致数据读取错误或者图表生成失败。
  3. API限制(如果通过API调用)
  4. 注意DeepSeek API的使用限制,如请求频率、数据量大小限制等,以避免出现服务不可用或者额外收费的情况。

通过以上步骤,你可以轻松地使用DeepSeek自动从Excel生成柱状图,提高数据处理和可视化的效率。无论是对于数据分析人员、业务人员还是学生等需要处理数据的群体,这都是一个非常实用的工具和方法。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 部署要求
    • 明确需求
    • 硬件要求
    • 软件要求
  • 部署逻辑:
  • 部署DeepSeek步骤
  • DeepSeek API秘钥
    • API 及定价
    • Token 用量计算
  • 本地部署
    • 第一步:环境搭建(安装Ollama)
    • 第二步:部署DeepSeek模型
    • 第三步:安装可视化界面(Chatbox AI)
    • 第四步:优化交互和性能
  • 总 结
  • 下面是我们开发的案例
  • 一、准备工作
  • 二、数据准备
  • 三、使用DeepSeek生成柱状图的步骤
    • (一)通过API调用(以Python为例)
    • (二)使用DeepSeek的可视化界面
  • 四、优势与注意事项
    • (一)优势
    • (二)注意事项
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档