自问世以来,DeepSeek迅速成为全球瞩目的焦点,这不仅归功于其卓越的技术表现,更在于其开源的开放策略和极具竞争力的低成本优势,从而在全球范围内掀起了一股AI应用的新浪潮。
DeepSeek-R1作为该系列中的明星产品,凭借其出色的推理能力,在多个权威基准测试中超越了当前顶尖的模型。这一技术上的重大突破,不仅标志着AI领域的一次显著进步,同时也为开发者提供了一个性价比极高的解决方案。特别值得一提的是,DeepSeek-R1通过大规模的强化学习训练,无需依赖传统的监督微调,即可在数学推理等高难度任务中展现出卓越的性能。
本文将详细介绍如何快速部署Deepseek。要快速部署 DeepSeek,首先需要明确 DeepSeek 的具体用途和功能。DeepSeek 可能是一个深度学习模型、工具或平台,用于特定任务(如图像识别、自然语言处理等)。以下是一个通用的步骤指南,帮助普通人快速部署 DeepSeek,快速部署 DeepSeek 的关键在于:
确定 DeepSeek 的具体用途(如文本生成、图像分类等)。
了解 DeepSeek 的输入输出格式以及所需的硬件资源(如 GPU 或 CPU)。
说明:
1、安装Ollama
Ollama 是一款功能强大的开源工具,专为在本地运行、部署和管理大型语言模型(LLMs)而设计。它提供了简洁的命令行界面,使用户能够轻松下载、运行并与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,非常适合希望在本地环境中使用 LLMs 的开发者和研究人员。
curl -fsSL https://ollama.com/install.sh | sh
2、部署DeepSeek
借助 Ollama,我们可以轻松部署 DeepSeek 大模型。以下步骤将指导您部署 deepseek-r1:1.5b 版本:
ollama run deepseek-r1:1.5b
2.开始对话: 部署完成后,您可以直接在终端与 DeepSeek 大模型进行对话。
!
3、安装ChatBox
虽然通过终端可以与 DeepSeek 进行交互,但为了获得更直观和流畅的体验,我们可以使用可视化聊天工具,例如 Open WebUI 或 ChatBox。以下步骤将指导您安装并使用 ChatBox:浏览器下载ChatBox: https://chatboxai.app/zh 进入Chatboxai点击“免费下载”按钮下载适用于您系统的安装包。
打开下载文件所在目录,右键选择“Open Terminal Here”,在终端中输入以下命令并回车:
sudo chmod +x Chatbox-1.9.8-arm64.AppImage
安装zlib 库:
sudo apt update
sudo apt install zlib1g zlib1g-dev
安装 zlib 后,使用 find 命令查找 libz.so 文件:
sudo find / -name libz.so*
设置 LD_LIBRARY_PATH:
export LD_LIBRARY_PATH=/usr/lib/aarch64-linux-gnu:$LD_LIBRARY_PATH
安装libfuse.so.2库:
sudo apt install libfuse2
运行文件,运行应用时禁用沙盒:
./Chatbox-1.9.8-arm64.AppImage --no-sandbox
配置 ChatBox
配置完成后,您就可以在 ChatBox 的对话框里与 DeepSeek 大模型进行对话了。
目前deepseek已经获得最牛的域名,AI.com
秘钥需要登录:https://platform.deepseek.com/sign_in
DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元
token 是模型用来表示自然语言文本的基本单位,也是我们的计费单元,可以直观的理解为“字”或“词”;通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。
一般情况下模型中 token 和字数的换算比例大致如下:
但因为不同模型的分词不同,所以换算比例也存在差异,每一次实际处理 token 数量以模型返回为准,您可以从返回结果的 usage
中查看。
成功在本地部署DeepSeek AI助手后,您将能够在个人电脑上畅享其强大功能,无需担忧网络延迟和隐私泄露问题。
Ollama 是一款轻量级的AI模型运行框架,兼容多种开源模型,我们将利用它来运行DeepSeek。
重要提示: 近期DeepSeek热度高涨,网络上出现了许多仿冒诈骗网站。请务必通过官方渠道下载软件,警惕任何付费或转账要求。
2. 验证安装
安装完成后,打开终端(Windows 按 Win + R
输入 cmd
,Mac 直接打开 Terminal
),然后输入:ollama list
输入以下命令:
复制
ollama list
如果终端显示类似 llama3
的模型名称,则说明安装成功。
注意事项
DeepSeek 提供了多种参数版本,我们推荐:
deepseek-r1
。ollama run deepseek-r1:8b
(如果您选择 16B 版本,将 8b
替换为 16b
)
首次运行时,系统会自动下载约 5GB 的模型文件,请耐心等待。
2.测试模型
安装完成后,在终端中输入:
说一句有趣的新年祝福
如果模型能够成功回应,则说明部署成功!
如果模型成功回应,说明部署无误!
虽然终端交互方便快捷,但如果您更倾向于使用类似ChatGPT的可视化界面,可以安装Chatbox AI。
1. 下载 Chatbox
2. 连接本地模型
3. 进阶设置(可选)
为了让AI助手更好地为您服务,您可以尝试以下方法:
在 Visual Studio Code 插件市场, 搜索「腾讯云AI代码助手」安装。
在腾讯云AI代码助手中配置 API key
点击腾讯云 AI 代码助手侧栏打开技术对话功能,在对话框右边有一个模型选项,默认为 hunyuan-turbo 模型。
您就可以在对话框里与 DeepSeek 大模型进行对话了。
学习 Deepseek 的部署和调用是一个非常有价值的过程,它不仅让我掌握了一项实用的技能,也为我打开了深度学习世界的大门。
在数据处理和可视化领域,将Excel中的数据转换为直观的柱状图是一项常见需求。DeepSeek作为一款强大的人工智能工具,在自动化这一流程方面提供了便捷高效的解决方案。本文将详细介绍如何使用DeepSeek自动从Excel文件生成柱状图。
pandas
用于数据处理,matplotlib
或seaborn
用于绘图(虽然DeepSeek可能内部处理绘图,但了解这些库有助于理解数据可视化的原理)。deepseek_api
,实际名称根据DeepSeek提供的接口而定),以及pandas
库用于读取Excel数据。import deepseek_api
import pandas as pd
pandas
的read_excel
函数读取Excel文件中的数据。data = pd.read_excel('your_file.xlsx')
request_data = {
"data": data.to_dict(orient='records'),
"chart_type": "bar",
"x_axis": "产品名称",
"y_axis": "销售额",
"title": "产品销售额柱状图",
"x_label": "产品",
"y_label": "销售额(元)"
}
response = deepseek_api.generate_chart(request_data)
chart = response['chart']
import base64
with open('bar_chart.png', 'wb') as f:
f.write(base64.b64decode(chart))
通过以上步骤,你可以轻松地使用DeepSeek自动从Excel生成柱状图,提高数据处理和可视化的效率。无论是对于数据分析人员、业务人员还是学生等需要处理数据的群体,这都是一个非常实用的工具和方法。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。