Loading [MathJax]/jax/input/TeX/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >开发者如何利用Perplexity的Sonar大型语言模型

开发者如何利用Perplexity的Sonar大型语言模型

作者头像
云云众生s
发布于 2025-02-05 01:25:19
发布于 2025-02-05 01:25:19
37500
代码可运行
举报
文章被收录于专栏:云云众生s云云众生s
运行总次数:0
代码可运行

对于开发者而言,Perplexity 的 Sonar 提供了一个构建创新型应用程序的机会,这些应用程序可以利用实时 AI 搜索的强大功能。

译自 How Developers Can Take Advantage of Perplexity’s Sonar LLMs,作者 Janakiram MSV。

Perplexity,这家AI搜索初创公司,已经开发了Sonar系列大型语言模型 (LLMs)。这些模型通过提供对互联网信息的实时访问来改变AI搜索能力。它们旨在克服传统语言模型的关键限制,例如信息过时和潜在的幻觉

了解Sonar模型

Sonar有两个版本:Sonar(基础版)和Sonar Pro。这些模型通过利用实时互联网连接与传统的LLMs区别开来,使它们能够提供基于最新信息的响应。与受训练数据限制的传统LLMs不同,Sonar的实时网络访问确保提供的信息始终是最新的和相关的,这使得它成为搜索增强型LLMs领域的一项重大进步。

Sonar是一个轻量级且经济实惠的选项,针对速度和基本查询进行了优化,使其成为简单问答和直接集成的理想选择。另一方面,Sonar Pro专为需要更深入理解和上下文保留的复杂多步骤查询而设计。

Sonar模型支持结构化输出,使开发人员能够以适合各种应用程序的有组织的格式接收响应。

这些Sonar模型的一个关键特性是扩展的上下文窗口,能够处理大量的输入数据,同时保持长时间交互的一致性。此外,Sonar模型在其响应中提供内置引用,确保透明度并允许用户验证信息来源。此外,它们支持结构化输出,使开发人员能够以适合各种应用程序的有组织的格式接收响应。

开发者为什么要关注

对于开发者来说,Sonar提供了一个独特的机会,可以使用实时AI搜索的功能来构建创新型应用程序。以下是一些主要好处:

  • 实时信息:Sonar模型访问网络上的最新信息,确保您的应用程序始终提供最新的结果。
  • 更高的准确性:通过将响应建立在现实世界的数据上,Sonar降低了幻觉的风险并提供更可靠的信息。
  • 内置引用:Sonar模型会自动为其响应生成引用,使您可以构建透明且值得信赖的应用程序。
  • 灵活的API:Perplexity API提供了一种简单有效的方法,可以将Sonar模型集成到您的项目中。
  • 可定制的输出:Sonar支持结构化输出,使您可以根据您的特定需求定制响应。

仔细看看这些模型

Perplexity的Sonar Pro模型旨在处理需要深入理解和上下文保留的复杂多步骤任务。这些模型特别适用于需要全面信息检索和细致入微的响应的应用程序。

Sonar Pro的一些关键特性包括:

  • 增强的复杂性处理:Sonar Pro模型针对复杂查询进行了优化,与标准Sonar模型相比,它提供更深入的答案和更多引用。
  • 高级信息检索:这些模型执行多次网络搜索以收集和综合信息,确保响应全面且周到。
  • 更大的上下文窗口:通过扩展的上下文窗口,Sonar Pro模型在更长时间的交互中保持一致性,使其成为详细讨论的理想选择。

Sonar和Sonar Pro之间的主要区别在于它们的复杂性、引用量和信息检索方法。虽然标准Sonar模型专为简单的查询而设计,但Sonar Pro模型专门用于处理更复杂的任务,提供更深入的见解和更全面的答案。此外,Sonar Pro模型提供的引用数量大约是标准Sonar模型的两倍,大大提高了信息的透明度和可验证性。

在信息检索方面,标准Sonar模型通常依赖于单次网络搜索。相比之下,Sonar Pro模型会进行多次搜索以收集不同的观点和数据点,从而产生更细致入微且全面的响应。

Sonar 提供灵活的定价方案,以满足各种需求和预算。基本的 Sonar 模型是一种经济高效的选择,价格为每 1000 次搜索 5 美元,另外每 750,000 个输入或输出单词收取 1 美元,使其成为轻量级集成和基本查询的理想选择。对于更苛刻的应用,Sonar Pro 的价格为每 750,000 个输入单词 3 美元,每 750,000 个输出单词 15 美元。

通过 API 探索 Sonar 模型

让我们深入研究一些代码示例,这些示例演示了如何将 Sonar 模型用于引用和结构化输出。

虽然代码看起来很熟悉,几乎与调用任何 LLM 的聊天完成 API 相同,但 Sonar 的独特之处在于能够根据在线和实时搜索结果获取最新信息。响应牢牢基于搜索结果,增强了用户的信心。

Sonar 的另一个关键方面是引用。API 响应包含用于引用的 URL 列表。

下面的代码片段打印搜索结果以及引用。请注意,查询基于近期新闻。API 不仅返回正确的响应,还引用用于聚合它的实际来源。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import requests

def get_results_citations(api_key, query):
    """Retrieves citations from the Perplexity Sonar API for a given query.

    Args:
        api_key: Your Perplexity API key.
        query: The question you want to ask Sonar.

    Returns:
        A list of citations (URLs).
    """
    url = "https://api.perplexity.ai/chat/completions"
    headers = {
        "Authorization": f"Bearer {api_key}",
        "Content-Type": "application/json"
    }
    payload = {
        "model": "sonar-pro",
        "messages": [{"role": "user", "content": query}]
    }
    response = requests.post(url, json=payload, headers=headers)
    response.raise_for_status()
    return response.json()

# Example usage
api_key = "YOUR_API_KEY"
query = "Who are the prominent tech CEOs that attended Trump's inauguration?"
response = get_results_citations(api_key, query)

# Extract content and citations
content = response['choices'][0]['message']['content']
citations = response['citations']

# Print the results
print("Content:\n", content)
print("\nCitations:")
for i, citation in enumerate(citations, start=1):
    print(f"[{i}] {citation}")

输出同时包含内容和指向结果的引用。

Sonar 使用 JSON Schema 支持结构化输出。您可以在 API 请求的 response_format 字段中指定所需的输出格式。

例如,以下查询检索正确的响应(特朗普担任总统的任期数)并将其格式化为 JSON。这对于将 Sonar 与自主工作流程集成非常有用。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import requests
from pydantic import BaseModel

class AnswerFormat(BaseModel):
    first_name: str
    last_name: str
    year_of_birth: int
    num_seasons_in_nba: int

url = "https://api.perplexity.ai/chat/completions"
headers = {"Authorization": "Bearer YOUR_API_KEY"}
payload = {
    "model": "sonar",
    "messages": [
        {"role": "system", "content": "Be precise and concise."},
        {"role": "user", "content": (
            "Tell me about Donald Trump."
            "Please output a JSON object containing the following fields: "
            "first_name, last_name, year_of_birth, num_times_as_president. "
        )},
    ],
    "response_format": {
        "type": "json_schema",
        "json_schema": {"schema": AnswerFormat.model_json_schema()},
    },
}
response = requests.post(url, headers=headers, json=payload).json()
print(response["choices"][0]["message"]["content"])

这将打印以下输出:

Perplexity 的 Sonar 模型为寻求将其应用程序集成到高级 AI 驱动的搜索功能的开发人员提供了强大的工具。凭借实时网络访问、扩展上下文窗口、内置引用和结构化输出等功能,这些模型增强了信息检索的质量和可靠性。使用 Perplexity API,开发人员可以无缝地整合这些功能,为用户提供准确和最新的信息,以满足他们的需求。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
不用框架也能做:手搓一个属于自己的DeepResearch
看着这些大厂的产品,是不是也想实现一个小型DeepResearch?前几天笔者看到一个文章,https://www.newsletter.swirlai.com/p/building-deep-research-agent-from,笔者基于这个文章进行完善,实现一个DeepResearch,实现了中文版本以及streamlit应用的创建,这个代码可以帮助我们从底层手撸一个属于自己的深度研究Agent。
致Great
2025/07/12
2990
不用框架也能做:手搓一个属于自己的DeepResearch
👾打开 RAG 对接大模型的黑盒 —— 9 大隐藏问题
前一段时间,各个大模型在争斗:谁能携带更长、更大的上下文 Prompt,比如 Kimi 说 200 万字,阿里通义千问又说自己能达 1000 万字;大家都知道 Prompt 很重要,但是 RAG 和 长的上下文文本携带 是两个不同的技术方向。
掘金安东尼
2024/04/04
5290
👾打开 RAG 对接大模型的黑盒 —— 9  大隐藏问题
5 分钟内搭建一个免费问答机器人:Milvus + LangChain
答案是 5 分钟。只需借助开源的 RAG 技术栈、LangChain 以及好用的向量数据库 Milvus。必须要强调的是,该问答机器人的成本很低,因为我们在召回、评估和开发迭代的过程中不需要调用大语言模型 API,只有在最后一步——生成最终问答结果的时候会调用到 1 次 API。
Zilliz RDS
2023/12/26
1.9K0
5 分钟内搭建一个免费问答机器人:Milvus + LangChain
Gemini开源项目DeepResearch:基于LangGraph的智能研究代理技术原理与实现
在人工智能快速发展的今天,如何构建一个能够进行深度研究、自主学习和迭代优化的AI系统成为了技术前沿的重要课题。Gemini开源的DeepResearch一周收获7.9k Star,Google的开源项目Gemini DeepResearch技术通过结合LangGraph框架和Gemini大语言模型,实现了一个具备自主研究能力的智能代理系统。本文将深入分析这一技术的核心原理和具体实现方式。
致Great
2025/06/11
4300
Gemini开源项目DeepResearch:基于LangGraph的智能研究代理技术原理与实现
LangChain 完整指南:使用大语言模型构建强大的应用程序
嗨,你好!让我向你介绍LangChain,这是一个非常棒的库,它能让开发者利用大型语言模型(LLMs)和其他计算资源来构建强大的应用。在这份指南中,我将快速概述LangChain的工作原理,并探讨一些很酷的使用案例,例如问答系统、聊天机器人和智能代理。我还会带你走过一个快速启动指南,帮助你开始使用。让我们开始吧!
山行AI
2023/06/14
3.6K0
LangChain 完整指南:使用大语言模型构建强大的应用程序
开源支撑下的Perplexity不止于OpenAI套壳
Perplexity CEO Aravind Srinivas 是谷歌创始人Larry Page的忠实粉丝。但是他认为自己找到了一种方法,不仅能与谷歌搜索竞争,还能与OpenAI的通用预训练transformer(GPT)竞争。
云云众生s
2024/03/28
9470
开源支撑下的Perplexity不止于OpenAI套壳
Gemini-2.5-Pro 开发者指南:5种优化 API 接入的关键方法
Google DeepMind 于 2025年3月发布的 Gemini 2.5 Pro 是目前功能最强大的多模态AI模型之一。相比前代产品,新版本在多个维度实现了显著提升,特别是在推理能力和多模态处理方面表现突出。
AI小智哥
2025/07/22
7840
Gemini-2.5-Pro 开发者指南:5种优化 API 接入的关键方法
六个理由说明为什么企业需要专属大型语言模型
为公司或产品运行一个大型语言模型有许多好处,但最根本的是能提供针对实际情景的即时数据。
云云众生s
2024/03/28
2120
六个理由说明为什么企业需要专属大型语言模型
使用Chainlit、Qdrant和Zephyr构建用于文档问答的大型语言模型应用程序
该博客介绍了一种利用Zephyr-7B Beta模型作为大型语言模型的应用,以及Langchain和Chainlit。在这里,我将调查它们各自的能力,并展示它们在开发交互式聊天应用程序中的潜力。我将概述用户界面(UI)的设计,后端处理的建立,以及创建一个完全可操作的问答应用程序所涉及的无缝集成过程。
山行AI
2023/11/23
1.9K0
使用Chainlit、Qdrant和Zephyr构建用于文档问答的大型语言模型应用程序
大模型开发实战:(二)使用 LangChain 构建本地知识库应用
检索增强生成(Retrieval-Augmented Generation,RAG)是一种优化大型语言模型输出的方法,允许模型在生成回答前,从外部知识库中检索相关信息,而非仅依赖模型内部训练的知识。通过引用外部知识库的信息来生成更准确、实时且可靠的内容,并解决知识过时和幻觉的问题。下面将介绍使用 LangChain 和 Ollama 实现一个本地知识库应用。
张高兴
2025/05/21
1.3K0
大模型开发实战:(二)使用 LangChain 构建本地知识库应用
如何用利用deepseek的API能力来搭建属于自己的智能体-优雅草卓伊凡
上一篇文章我们已经介绍了智能体和大模型AI的区别,现在我们开始搭建自己的智能体进行工作
卓伊凡
2025/06/01
6370
使用Llama-3生成PowerPoint
在企业界,幻灯片无处不在,它通常被用作传达想法和成就的一种方式。过去 4 年,我一直在为大型跨国公司工作,制作幻灯片是大多数人每周都会做的事情。
云云众生s
2024/04/30
7950
使用Llama-3生成PowerPoint
AI 大模型企业应用实战(10)-LLMs和Chat Models
来看两种不同类型的模型--LLM 和聊天模型。然后,它将介绍如何使用提示模板来格式化这些模型的输入,以及如何使用输出解析器来处理输出。
JavaEdge
2025/06/01
1540
如何使用语义路由器和LLM工具构建AI代理
在本 AI 代理教程中,我们使用语义路由器来选择从 OpenAI LLM 和其他 AI 工具检索信息的最佳方式。
云云众生s
2024/10/13
2220
如何使用语义路由器和LLM工具构建AI代理
AIOps系列 | 大模型入门实战
!! 大家好,我是乔克,一个爱折腾的运维工程,一个睡觉都被自己丑醒的云原生爱好者。
没有故事的陈师傅
2025/07/16
2680
AIOps系列 | 大模型入门实战
大模型 API 调用从 0 到 1 (以智谱 AI 为例)
在 NoteBook 中,我们可以通过虚拟环境安装指定版本的 Python,具体教程请参考:ModelArts codelab 创建虚拟环境切换 Python
胡琦
2025/05/20
6410
大模型 API 调用从 0 到 1 (以智谱 AI 为例)
FreshLLM论文如何启发了Perplexity的在线LLM
我们深入探讨Perplexity Copilot背后的技术,这一灵感来自于提出搜索引擎增强LLMs的FreshLLMs论文。
云云众生s
2024/03/28
2720
FreshLLM论文如何启发了Perplexity的在线LLM
AI大模型企业应用实战(10)-LLMs和Chat Models
聊天模型通常由 LLM 支持,但专门针对会话进行调整。提供者 API 使用与纯文本补全模型不同的接口。它们的输入不是单个字符串,而是聊天信息列表,输出则是一条人工智能信息。
JavaEdge
2024/08/15
2210
AI 发展 && MCP
在2024.11月之前,AI 技术虽然日新月异,但是 AI 应用层的开发并没有多少新的东西,大体还是Prompt、RAG(Retrieval Augmented Generation)、Agent。
寻求出路的程序媛
2025/07/13
760
AI 发展 && MCP
《书生大模型实战营第3期》进阶岛 第6关: MindSearch CPU-only 版部署
MindSearch是一个开源的人工智能搜索引擎框架,其性能与Perplexy.AI Pro相当。部署你自己的困惑.ai风格的搜索引擎!
流川疯
2024/08/24
4040
《书生大模型实战营第3期》进阶岛 第6关: MindSearch CPU-only 版部署
推荐阅读
相关推荐
不用框架也能做:手搓一个属于自己的DeepResearch
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验