概述
文本生成是平台核心的能力之一,支持多种大语言模型,覆盖对话交互、内容创作、代码生成、推理分析等场景。平台兼容 OpenAI Completions API、Anthropic API 协议,您可以直接使用 OpenAI SDK 或任何兼容客户端接入。
模型支持的协议概览
模型名称 | model 参数值 | OpenAI Completions | Anthropic |
Hy3 preview | hy3-preview | ✅ | ✅ |
HY 2.0 Think | hunyuan-2.0-thinking-20251109 | ✅ | ✅ |
HY 2.0 Instruct | hunyuan-2.0-instruct-20251111 | ✅ | ✅ |
Hunyuan-role | hunyuan-role-latest | ✅ | ✅ |
DeepSeek-V4-Flash | deepseek-v4-flash | ✅ | ✅ |
DeepSeek-V4-Pro | deepseek-v4-pro | ✅ | ✅ |
Deepseek-v3.2 | deepseek-v3.2 | ✅ | ✅ |
Deepseek-v3.1 | deepseek-v3.1-terminus | ✅ | ✅ |
Deepseek-r1-0528 | deepseek-r1-0528 | ✅ | ❌ |
Deepseek-v3-0324 | deepseek-v3-0324 | ✅ | ✅ |
GLM-5.1 | glm-5.1 | ✅ | ✅ |
GLM-5V-Turbo | glm-5v-turbo | ✅ | ✅ |
GLM-5-Turbo | glm-5-turbo | ✅ | ✅ |
GLM-5 | glm-5 | ✅ | ✅ |
Kimi-K2.6 | kimi-k2.6 | ✅ | ✅ |
Kimi-K2.5 | kimi-k2.5 | ✅ | ✅ |
MiniMax-M2.7 | minimax-m2.7 | ✅ | ✅ |
MiniMax-M2.5 | minimax-m2.5 | ✅ | ✅ |
OpenAI API 使用
BaseURL
境内:
https://tokenhub.tencentmaas.com/v1境外:
https://tokenhub-intl.tencentmaas.com/v1请求参数
参数名 | 必选 | 类型 | 描述 |
model | 是 | String | 服务 ID,可统一从在线推理服务、服务 ID 字段查看。 对于平台默认创建的服务,服务 ID 与模型名称相同,例如: hy3-preview、deepseek-v3.2。对于用户创建的自定义服务,服务 ID 格式为: ep-xxxxxxxx,可在 在线推理服务 页面查看。 |
messages | 是 | Array | |
stream | 否 | Boolean | 是否启用流式输出。 取值范围: true / false,默认值为 false。 |
temperature | 否 | Float | 输出随机性。 取值范围: [0.0, 2.0]。 |
top_p | 否 | Float | 输出多样性(核采样)。 取值范围: [0.0, 1.0]。 |
max_tokens | 否 | Integer | 限制最大输出 Token 数。 |
stop | 否 | Array of String | 指定模型输出的停止序列。当生成结果命中任一指定序列时,模型将停止输出,且响应内容中不包含该停止序列。支持传入单个字符串或字符串数组,最多 4 个。 例如:让模型生成一个 10 条的清单,不希望它继续往下写第 11 条,此处可填写为:["11."] 。 |
tools | 否 | Array | Function Calling 工具定义列表。 |
tool_choice | 否 | String | 工具调用策略: none(关闭) / auto(自动选择) / required(强制调用)。 |
thinking | 否 | String | 取值范围: {"type": "enabled"} / {"type": "disabled"} |
reasoning_effort | 否 | String | 取值范围: low / medium / high。 |
seed | 否 | Integer | 随机种子,用于结果复现。在多次请求中使用相同的 seed 值,并且其他参数也保持一致时,模型更有可能返回一致或非常接近的结果。 |
messages 参数说明
消息数组中的每个对象包含以下字段:
字段 | 类型 | 描述 |
role | String | 角色: system(系统提示)、user(用户)、assistant(助手)、tool(工具返回) |
content | String | 消息文本内容。 |
消息顺序规则:
[system(可选) → user → assistant → user → ...],必须以 user 角色结尾。返回参数
参数名 | 类型 | 描述 |
id | String | 请求唯一标识。 |
object | String | 对象类型,固定 chat.completion。 |
created | Integer | 创建时间(Unix 时间戳)。 |
model | String | 实际使用的模型名称。 |
choices | Array | |
usage | Object | Token 消耗统计。 |
choices 数组元素
字段 | 类型 | 描述 |
index | Integer | 选项索引。 |
message | Object | 回复消息,包含 role 和 content。 |
finish_reason | String | 结束原因: stop(正常结束)、length(达到最大长度)、tool_calls(需要调用工具) |
usage 对象
字段 | 类型 | 描述 |
prompt_tokens | Integer | 输入 Token 数 |
completion_tokens | Integer | 输出 Token 数 |
total_tokens | Integer | 总 Token 数(按此计费) |
示例代码
示例:基础对话
示例:流式输出
示例:多轮对话
示例:基础对话
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY# 请在 model 字段中更换您需要体验的服务 IDcurl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\-H 'Authorization: Bearer YOUR_API_KEY' \\-H 'Content-Type: application/json' \\-d '{"model": "deepseek-v3.1-terminus","messages": [{"role": "user", "content": "你好,请介绍一下你自己"}]}'
返回示例
{"id": "5e9c7ae9-e0e4-4ec1-bbd0-22bcfda61e45","object": "chat.completion","model": "deepseek-v3.1-terminus","choices": [{"index": 0,"message": {"role": "assistant","content": "你好!很高兴见到你!😊\\n\\n我是DeepSeek,由深度求索公司创造的AI助手。让我简单介绍一下自己:\\n\\n**我的特点:**\\n- 📚 知识截止到2024年7月,是DeepSeek的最新版本模型\\n- 💬 纯文本对话模型,专注于理解和生成文字内容\\n- 📁 支持文件上传功能——可以处理图像、txt、pdf、ppt、word、excel等文件,并从中读取文字信息\\n- 🌐 支持联网搜索(需要你在Web/App中手动开启)\\n- 💾 拥有128K的上下文长度,能记住我们较长的对话内容\\n\\n**我能帮你做什么:**\\n- 回答各种问题,进行深入讨论\\n- 协助写作、翻译、分析\\n- 处理上传的文档内容\\n- 提供学习、工作、生活方面的建议\\n\\n**重要提醒:**\\n- 我完全免费使用,没有任何收费计划\\n- 目前不支持语音功能\\n- 你可以通过官方应用商店下载App使用\\n\\n我的回复风格比较热情细腻,希望能给你带来温暖的交流体验!有什么想聊的或需要帮助的,尽管告诉我吧!✨"},"finish_reason": "stop"}],"usage": {"prompt_tokens": 10,"completion_tokens": 244,"total_tokens": 254,"prompt_tokens_details": {"cached_token": 0},"completion_tokens_details": {"reasoning_tokens": 0}}}
示例:流式输出
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY# 请在 model 字段中更换您需要体验的服务 IDcurl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\-H 'Authorization: Bearer YOUR_API_KEY' \\-H 'Content-Type: application/json' \\-d '{"model": "hunyuan-2.0-instruct-20251111","messages": [{"role": "system", "content": "你是一个有帮助的 AI 助手。"},{"role": "user", "content": "计算 1+1"}],"stream": true}'
流式返回采用服务器发送事件 SSE(Server-Sent Events)格式:
data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"role":"assistant","content":"1"},"finish_reason":null}]}data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"+"},"finish_reason":null}]}data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"1"},"finish_reason":null}]}data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"="},"finish_reason":null}]}data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{"content":"2"},"finish_reason":null}]}data: {"id":"chatcmpl-abc123","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}data: [DONE]
示例:System Prompt
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY# 请在 model 字段中更换您需要体验的服务 IDcurl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\-H 'Authorization: Bearer YOUR_API_KEY' \\-H 'Content-Type: application/json' \\-d '{"model": "deepseek-v3.1-terminus","messages": [{"role": "system","content": "你是一个专业的英语翻译助手。将用户输入的中文翻译为英文,将英文翻译为中文。只返回翻译结果,不做解释。"},{"role": "user","content": "今天天气真好"}]}'
返回示例
{"id": "5d42fea3-413e-42ce-99b2-0d1595dae996","object": "chat.completion","model": "deepseek-v3.1-terminus","choices": [{"index": 0,"message": {"role": "assistant","content": "The weather is really nice today."},"finish_reason": "stop"}],"usage": {"prompt_tokens": 38,"completion_tokens": 7,"total_tokens": 45,"prompt_tokens_details": {"cached_token": 0},"completion_tokens_details": {"reasoning_tokens": 0}}}
示例:多轮对话
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY# 请在 model 字段中更换您需要体验的服务 IDcurl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\-H 'Authorization: Bearer YOUR_API_KEY' \\-H 'Content-Type: application/json' \\-d '{"model": "deepseek-v3.1-terminus","messages": [{"role": "user", "content": "请介绍一下量子计算"},{"role": "assistant", "content": "量子计算是一种利用量子力学原理进行信息处理的计算方式..."},{"role": "user", "content": "它和传统计算有什么区别?"}]}'
返回示例
{"id": "fda59c08-6a85-4514-bdbf-d77a8d68e018","object": "chat.completion","model": "deepseek-v3.1-terminus","choices": [{"index": 0,"message": {"role": "assistant","content": "好的,这是一个非常核心的问题。量子计算和传统计算的根本区别在于它们处理信息的基本单位和工作原理。\\n\\n我们可以用一个非常经典的比喻来开始:\\n\\n* **传统计算机** 像是在一个巨大的**图书馆**里,一个**图书管理员**(CPU)在一条很长的走廊(总线)上奔跑,一次只能打开一个房间(内存地址),查看一本书(一个比特的数据),然后做出决定。\\n* **量子计算机** 则像是让**所有图书管理员**(量子比特)同时进入**所有房间**,并在一瞬间阅读**所有书籍的每一种可能的组合**,然后告诉你最终的结果。\\n\\n下面我们从几个关键维度进行详细对比:\\n\\n### 1. 基本信息单位:比特 vs. 量子比特\\n\\n| 特征 | 传统计算(比特) | 量子计算(量子比特) |\\n| :--- | :--- | :--- |\\n| **状态** | **二进制**:只能是 **0** 或 **1**。就像一盏灯,要么开,要么关。非常确定。 | **叠加态**:可以**同时**是0和1,或者说是0和1的任意概率组合。就像一盏同时处于开和关状态的“量子灯”。 |\\n| **表示方式** | 一个明确的、离散的值。 | 一个状态向量,用狄拉克符号表示为:\\\\|ψ⟩ = α\\\\|0⟩ + β\\\\|1⟩,其中α和β是复数,且\\\\|α\\\\|² + \\\\|β\\\\|² = 1。 |\\n| **核心差异** | **确定性**:每个比特在任何时刻都有明确的值。 | **概率性**:测量量子比特时,它会以 \\\\|α\\\\|² 的概率坍缩为0,以 \\\\|β\\\\|² 的概率坍缩为1。 |\\n\\n### 2. 工作原理:逻辑门 vs. 量子特性\\n\\n| 特征 | 传统计算 | 量子计算 |\\n| :--- | :--- | :--- |\\n| **操作方式** | 使用**逻辑门**(如与门、或门、非门)对比特进行运算。一次操作改变一个或一组比特的状态。 | 使用**量子逻辑门**对量子比特进行操作。这些操作是**可逆的**,并能利用叠加态进行**并行计算**。 |\\n| **核心优势** | **串行处理**:任务被分解为一系列步骤,按顺序执行。对于简单、逻辑清晰的任务效率极高。 | **量子并行性**:由于量子比特处于叠加态,一次量子操作可以**同时作用于所有可能的输入**。这是量子加速的根源。 |\\n| **独特现象** | 无 | **量子纠缠**:两个或多个量子比特可以形成一种神秘的关联,无论它们相距多远,对一个量子比特的测量会瞬间决定另一个的状态。这允许量子计算机将不同量子比特的状态紧密联系起来,进行高度协同的计算。 |\\n\\n### 3. 性能与适用领域\\n\\n| 特征 | 传统计算 | 量子计算 |\\n| :--- | :--- | :--- |\\n| **擅长任务** | - **通用计算**:办公软件、网页浏览、游戏<br>- **逻辑控制**:操作系统、应用程序逻辑<br>- **大部分数据处理**:数据库管理、电子表格 | - **特定领域的指数级加速**:<br> - **密码学**:破解RSA等加密算法(Shor算法)<br> - **材料模拟**:精确模拟分子和材料的量子性质<br> - **优化问题**:物流路线规划、金融投资组合优化<br> - **人工智能**:加速机器学习训练 |\\n| **计算复杂度** | 对于某些复杂问题(如大数分解),传统算法需要**指数级**增长的时间。 | 对于特定问题,量子算法可将复杂度降至**多项式**级别,实现“量子优越性”。 |\\n| **输出结果** | 精确、确定的结果。 | 通常是**概率性**的结果。由于需要测量,我们得到的是一个可能正确的答案,因此算法通常需要多次运行以提高置信度。 |\\n\\n### 4. 物理实现与挑战\\n\\n| 特征 | 传统计算机 | 量子计算机 |\\n| :--- | :--- | :--- |\\n| **硬件基础** | 基于**晶体管**(半导体),技术成熟,可大规模集成(如CPU有数十亿晶体管)。 | 需要能保持量子态的物理系统,如:超导电路、离子阱、光量子等。技术尚在早期。 |\\n| **主要挑战** | 功耗、散热、晶体管尺寸接近物理极限(摩尔定律放缓)。 | **量子退相干**:量子态极其脆弱,极易受环境(如热、振动)干扰而失去量子特性。需要极低温(接近绝对零度)和高度隔离的环境。 |\\n| **错误纠正** | 错误率极低,纠错相对简单(如奇偶校验)。 | 错误率很高,需要复杂的**量子纠错码**,用多个物理量子比特来编码一个逻辑量子比特,开销巨大。 |\\n\\n### 总结表格\\n\\n| 对比维度 | 传统计算 | 量子计算 |\\n| :--- | :--- | :--- |\\n| **基本单位** | 比特 (0 或 1) | 量子比特 (叠加态:0和1的叠加) |\\n| **操作方式** | 逻辑门(串行) | 量子门(并行) |\\n| **核心原理** | 布尔逻辑 | 叠加、纠缠、干涉 |\\n| **结果输出** | 确定性 | 概率性 |\\n| **擅长领域** | 通用任务、逻辑控制 | 特定复杂问题(如模拟、优化、密码破译) |\\n| **技术成熟度** | 非常成熟,广泛应用 | 早期阶段,主要用于研究和特定计算 |\\n| **与用户关系** | **替代关系**:量子计算机**不是**用来取代你的手机或笔记本电脑的。它更像一个**专用加速器**,用于解决传统计算机在可预见未来内都无法解决的特定难题。未来,我们可能通过云端访问量子计算机,让它处理最复杂的部分,而传统计算机负责日常任务和用户交互。 |\\n\\n简单来说,传统计算机是“精准的快枪手”,而量子计算机是“能同时探索所有可能性的先知”。它们各有千秋,将在未来很长一段时间内协同工作。"},"finish_reason": "stop"}],"usage": {"prompt_tokens": 32,"completion_tokens": 1321,"total_tokens": 1353,"prompt_tokens_details": {"cached_token": 0},"completion_tokens_details": {"reasoning_tokens": 0}}}
示例:Function Calling(工具调用)
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEY# 请在 model 字段中更换您需要体验的服务 IDcurl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \\-H 'Authorization: Bearer YOUR_API_KEY' \\-H 'Content-Type: application/json' \\-d '{"model": "deepseek-v3.1-terminus","messages": [{"role": "user", "content": "北京今天天气怎么样?"}],"tools": [{"type": "function","function": {"name": "get_weather","description": "获取指定城市的天气信息","parameters": {"type": "object","properties": {"city": {"type": "string","description": "城市名称,如:北京"}},"required": ["city"]}}}],"tool_choice": "auto"}'
当模型决定调用工具时,返回:
{"choices": [{"message": {"role": "assistant","content": null,"tool_calls": [{"id": "call_abc123","type": "function","function": {"name": "get_weather","arguments": "{\\"city\\": \\"北京\\"}"}}]},"finish_reason": "tool_calls"}]}
将工具执行结果返回模型,继续对话:
{"model": "deepseek-v3.2","messages": [{"role": "user", "content": "北京今天天气怎么样?"},{"role": "assistant", "content": null, "tool_calls": [{"id": "call_abc123", "type": "function", "function": {"name": "get_weather", "arguments": "{\\"city\\": \\"北京\\"}"}}]},{"role": "tool", "tool_call_id": "call_abc123", "content": "{\\"temperature\\": 22, \\"weather\\": \\"晴\\", \\"humidity\\": 45}"}]}
示例:使用 Python SDK
from openai import OpenAIclient = OpenAI(# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEYapi_key="YOUR_API_KEY",base_url="https://tokenhub.tencentmaas.com/v1")# 基础对话response = client.chat.completions.create(# 请在 model 字段中更换您需要体验的服务 IDmodel="deepseek-v3.1-terminus",messages=[{"role": "system", "content": "你是一个有帮助的助手。"},{"role": "user", "content": "请用一句话解释什么是大语言模型"}])print(response.choices[0].message.content)
示例:使用 Node.js SDK
import OpenAI from 'openai';const client = new OpenAI({// 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEYapiKey: 'YOUR_API_KEY',baseURL: 'https://tokenhub.tencentmaas.com/v1',});async function main() {const response = await client.chat.completions.create({// 请在 model 字段中更换您需要体验的服务 IDmodel: 'deepseek-v3.1-terminus',messages: [{ role: 'system', content: '你是一个有帮助的助手。' },{ role: 'user', content: '请用一句话解释什么是大语言模型' },],});console.log(response.choices[0].message.content);}main();
Anthropic API 使用
BaseUrl
境内:
https://tokenhub.tencentmaas.com境外:
https://tokenhub-intl.tencentmaas.comHTTP Headers
字段 | 支持状态 | 说明 |
anthropic-beta | 忽略 | 不处理此头部 |
anthropic-version | 忽略 | 不处理此头部 |
x-api-key | 完全支持 | 用于身份验证 |
请求参数
字段 | 支持状态 | 说明 |
model | 支持 | |
max_tokens | 完全支持 | 最大输出令牌数 |
container | 忽略 | 不处理此字段 |
mcp_servers | 忽略 | 不处理此字段 |
metadata | 忽略 | 不处理此字段 |
service_tier | 忽略 | 不处理此字段 |
stop_sequences | 完全支持 | 停止序列 |
stream | 完全支持 | 流式响应 |
system | 完全支持 | 系统消息 |
temperature | 完全支持 | 温度参数 (0.0-2.0) |
thinking | 忽略 | 不处理此字段 |
top_k | 忽略 | 不处理此字段 |
top_p | 完全支持 | Top-p 采样 |
工具支持
tools
字段 | 支持状态 | 说明 |
name | 完全支持 | 工具名称 |
input_schema | 完全支持 | 输入参数模式 |
description | 完全支持 | 工具描述 |
cache_control | 忽略 | 不处理此字段 |
tool_choice | 字符串格式 | 完全支持 |
tool_choice | 对象格式 | 完全支持 |
tool_choice.disable_parallel_tool_use | 忽略 | 不处理此字段 |
tool_choice
字段 | 支持状态 |
none | 完全支持 |
auto | 完全支持 |
any | 完全支持 |
tool | 完全支持 |
disable_parallel_tool_use | 忽略 |
消息字段支持
字段类型 | 变体 | 子字段 | 支持状态 |
content | string | - | 完全支持 |
content | array, type="text" | text | 完全支持 |
content | array, type="text" | cache_control | 忽略 |
content | array, type="text" | citations | 忽略 |
content | array, type="image" | - | 不支持 |
content | array, type="document" | - | 不支持 |
content | array, type="search_result" | - | 不支持 |
content | array, type="thinking" | - | 忽略 |
content | array, type="redacted_thinking" | - | 不支持 |
content | array, type="tool_use" | id | 完全支持 |
content | array, type="tool_use" | input | 完全支持 |
content | array, type="tool_use" | name | 完全支持 |
content | array, type="tool_use" | cache_control | 忽略 |
content | array, type="tool_result" | tool_use_id | 完全支持 |
content | array, type="tool_result" | content | 完全支持 |
content | array, type="tool_result" | cache_control | 忽略 |
content | array, type="tool_result" | is_error | 忽略 |
注意:
1. 忽略的字段:某些 Anthropic 特有的字段会被忽略,但不会报错。
2. 工具并行调用:disable_parallel_tool_use 参数被忽略。
3. 缓存控制:所有 cache_control 相关字段都被忽略。
示例代码
# 请将 YOUR_API_KEY 替换为您在前面步骤创建的 API KEYcurl https://tokenhub.tencentmaas.com/v1/messages \\-H "Content-Type: application/json" \\-H "x-api-key: 'YOUR_API_KEY'" \\-d '{"model": "minimax-m2.7","max_tokens": 1000,"stream": true,"system": [{"type": "text","text": "You are a helpful assistant."}],"messages": [{"role": "user","content": [{"type": "text","text": "Hi, how are you?"}]}]}'
示例返回
data: {"content_block":{"text":"","type":"text"},"index":1,"type":"content_block_start"}event: content_block_deltadata: {"delta":{"text":"Hey","type":"text_delta"},"index":0,"type":"content_block_delta"}event: content_block_deltadata: {"delta":{"text":"! I'm doing well, thanks for asking! I'm","type":"text_delta"},"index":0,"type":"content_block_delta"}event: content_block_deltadata: {"delta":{"text":" here and ready to help with whatever you need.","type":"text_delta"},"index":0,"type":"content_block_delta"}event: content_block_deltadata: {"delta":{"text":" How are you doing today? Is there something I","type":"text_delta"},"index":0,"type":"content_block_delta"}event: content_block_deltadata: {"delta":{"text":" can assist you with?","type":"text_delta"},"index":0,"type":"content_block_delta"}event: content_block_stopdata: {"index":1,"type":"content_block_stop"}event: message_deltadata: {"delta":{"stop_reason":"end_turn","stop_sequence":null},"type":"message_delta","usage":{"output_tokens":57}}event: message_stopdata: {"type":"message_stop"}
将模型接入 Claude Code
安装 Claude Code
安装或更新 Anthropic Claude Code,运行以下命令:
npm install -g @anthropic-ai/claude-code
配置环境变量
export ANTHROPIC_BASE_URL=https://tokenhub.tencentmaas.comexport ANTHROPIC_AUTH_TOKEN=${API_KEY}export API_TIMEOUT_MS=600000export ANTHROPIC_MODEL=${MODEL_NAME}export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
注意:
设置 API_TIMEOUT_MS 是为了防止输出过长,触发 Claude Code 客户端超时,这里设置的超时时间为 10 分钟,使用者可自行设置。
执行 claude 命令
进入项目目录,执行 claude 命令,即可开始使用。
cd my-projectclaude
其他
图像生成接口,请参见 图像生成。
视频生成接口,请参见 视频生成。
3D 生成接口,请参见 3D 生成。
多模态理解接口,请参见 多模态理解。