Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >使用 MRKL 系统跨越神经符号鸿沟

使用 MRKL 系统跨越神经符号鸿沟

作者头像
张善友
发布于 2023-05-23 09:25:34
发布于 2023-05-23 09:25:34
7530
举报
文章被收录于专栏:张善友的专栏张善友的专栏

本文展示了自然语言处理的下一步发展——模块化推理、知识和语言( the Modular Reasoning, Knowledge and Language,简称为MRKL)系统以及LangChain和Semantic Kernel的实现。 MRKL 系统包括一个或多个语言模型,并通过外部知识源和符号推理专家来增强它们,这些专家可以处理神经模型无法处理的任务。

什么是 MRKL 系统?

ChatGPT、GPT-4 等超级模型确实令人惊叹,并开启了令人兴奋的机会。 但这些模型也有内在的局限性。 例如无法访问公司的数据库,无法访问当前信息(例如,最新的 天气 或美元兑欧元汇率),无法推理(例如,他们的算术能力无法与之媲美1970 年代的 HP 计算器),更新成本高得令人望而却步。 像 LangChain的Agent (https://github.com/hwchase17/langchain/tree/master/langchain/agents/mrkl) 和Semantic Kernel的 Planner(https://github.com/kaza/sk-iterative-planner)这样的 MRKL 系统享有大型语言模型的所有优点。 以下是它的工作原理,参见:https://learnprompting.org/zh-Hans/docs/advanced_applications/mrkl

当然,要完成所有这些工作还有很多细节和挑战 ,比如训练离散专家、平滑他们与神经网络之间的接口、在不同模块之间进行路由等等。 要更深入地了解 MRKL 系统、它们如何适应技术领域以及实施它们时遇到的一些技术挑战,请参阅MRKL 论文。论文地址:https://arxiv.org/pdf/2204.10019.pdf

以下是它提供的一些功能。

  • 以自由语言阅读和更新您的数据库
  • 人工智能辅助时事内容生成
  • 执行简单和复杂的数学运算。
  • 分解多步问题
  • 访问不断变化的信息(天气、货币汇率)
  • 透明度和信任
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-05-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Jurassic-X: 让神经模型学会符号推理
解读 | Antonio 编辑丨陈彩娴 近期,一家以色列NLP研究机构AI21 Labs开发了一个名叫Jurassic-X的算法系统,它基于该实验室提出来的MRKL(它与miracle谐音)系统。Jurassic-X的前身是对标GPT-3的Jurassic-1,然而却克服了它们不擅于推理、更新昂贵、不能有效处理时序数据等缺点。 论文地址:https://arxiv.org/pdf/2204.10019.pdf 1 MRKL系统 MRKL的全称是模块化推理、知识和语言系统(Modular Reasoning
AI科技评论
2022/05/06
4540
Jurassic-X: 让神经模型学会符号推理
基于LangChain的优秀项目资源库
在AI盛起的当下,各类AI应用不断地出现在人们的视野中,AI正在重塑着各行各业,LangChain是从事AI应用开发的人员或多或少都会接触到的框架。LangChain是一个令人惊叹的框架,可以在极短的时间内完成LLM项目,其生态系统正在快速发展。
山行AI
2023/06/26
2.9K0
基于LangChain的优秀项目资源库
下一代语言模型范式LAM崛起!AutoGPT模式席卷LLM,三大组件全面综述:规划、记忆和工具
由ChatGPT掀起的这波AI浪潮已经将我们带入了人工智能时代,语言模型已经成为日常生活中不可或缺的工具。
新智元
2023/08/07
1.3K0
下一代语言模型范式LAM崛起!AutoGPT模式席卷LLM,三大组件全面综述:规划、记忆和工具
如何基于OpenAI大模型搭建提示词工程
前言:这是一篇很好地讲解了提示词工程的文章,提示词是fine tune大模型的一种比较经济适用的方式,基于提示词搭建一套agent可能是能形成未来生产力的关键一环。
山行AI
2023/09/08
9750
如何基于OpenAI大模型搭建提示词工程
【LangChain系列6】【Agent模块详解】
总结: LangChain是一个用于开发由LLM支持的应用程序的框架,通过提供标准化且丰富的模块抽象,构建LLM的输入输出规范,主要是利用其核心概念chains,可以灵活地链接整个应用开发流程。(即,其中的每个模块抽象,都是源于对大模型的深入理解和实践经验,由许多开发者提供出来的标准化流程和解决方案的抽象,再通过灵活的模块化组合,才得到了langchain)
知冷煖
2025/01/13
6570
一文详尽之LLM-Based Agent
知乎链接:https://zhuanlan.zhihu.com/p/13905150871
Datawhale
2025/02/05
6240
一文详尽之LLM-Based Agent
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周重要论文包括:RSS 2022 和 NAACL 2022 各项获奖论文。 目录: Solving Quantitative Reasoning Problems with Language Models  Human Action Recognition from Various Data Modalities: A Review FNet: Mixing Tokens with Fourier Transfor
机器之心
2022/07/04
4730
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题
【论文解读】LLaVA 多模态大模型,微软首创用GPT-4生成多模态指令数据集进行指令微调
在本文中,我们首次尝试使用仅基于语言的GPT-4生成多模态语言-图像指令跟随(instruction following)数据。通过对这些生成数据进行指令调整,我们介绍了LLaVA:Large Language and Vision Assistant,这是一个端到端训练的大型多模态模型,将视觉编码器与LLM连接起来,用于通用目的的视觉和自然语言理解。
唐国梁Tommy
2023/09/01
3K0
【论文解读】LLaVA 多模态大模型,微软首创用GPT-4生成多模态指令数据集进行指令微调
RAG的10篇论文-2024Q1
在大型模型的研究与工程应用领域,变化之迅猛令人瞠目,用“日新月异”来形容似乎都显得有些保守。即便是针对其中的RAG技术,自2024年伊始至今,学界就已经涌现出了很多高质量的研究论文。在这里,老码农挑选了十篇具有代表性的作品,以期对大家的探索和实践提供有益的参考与启示。
半吊子全栈工匠
2024/04/22
2K0
RAG的10篇论文-2024Q1
用检索增强生成让大模型更强大,这里有个手把手的Python实现
本文首先将关注 RAG 的概念和理论。然后将展示可以如何使用用于编排(orchestration)的 LangChain、OpenAI 语言模型和 Weaviate 向量数据库来实现一个简单的 RAG。
机器之心
2023/11/22
1.1K0
用检索增强生成让大模型更强大,这里有个手把手的Python实现
「长文」可能是目前最全的LangChain AI资源库之一
本文是对之前整理过的一版LangChain资源库的更新版本,原整理的地址为:基于LangChain的优秀项目资源库
山行AI
2023/09/08
2.8K0
「长文」可能是目前最全的LangChain AI资源库之一
7 Papers & Radios | Meta「分割一切」AI模型;从T5到GPT-4盘点大语言模型
机器之心 & ArXiv Weekly  参与:楚航、罗若天、梅洪源 本周论文包括 Meta 发布「分割一切」AI 模型;国内 20 余位研究者联合撰写大型语言模型综述等。 目录 Segment Anything Dynamic Prompt Learning via Policy Gradient for Semi-structured Mathematical Reasoning A Survey of Large Language Models HuggingGPT: Solving AI Tasks
机器之心
2023/04/11
4190
7 Papers & Radios | Meta「分割一切」AI模型;从T5到GPT-4盘点大语言模型
AAAI 2020学术会议提前看:常识知识与常识推理
Joint Commonsense and Relation Reasoning for Image and Video Captioning(联合常识和关系推理用于图像和视频描述)
机器之心
2020/02/25
7820
来了!10个构建Agent的大模型应用框架
随着生成式人工智能(GenAI)的蓬勃发展,基于大型模型的应用已经悄然融入我们的日常工作和生活,它们在诸多领域中显著提升了生产力和工作效率。为了更便捷地构建这些基于大模型的应用程序,开源社区和产品开发者们正以前所未有的速度进行创新。
半吊子全栈工匠
2025/03/24
7.9K0
来了!10个构建Agent的大模型应用框架
初识langchain[1]:Langchain实战教学,利用qwen2.1与GLM-4大模型构建智能解决方案[含Agent、tavily面向AI搜索]
大模型三大重点:算力、数据、算法,ReAct (reason推理+act行动)–思维链
汀丶人工智能
2024/07/25
1.5K0
初识langchain[1]:Langchain实战教学,利用qwen2.1与GLM-4大模型构建智能解决方案[含Agent、tavily面向AI搜索]
DeepMind最新发现!神经网络的性能竟然优于神经符号模型
按照之前的常识,结合了算法和符号推理技术的神经符号模型(Neurosymbolic Models),会比神经网络更适合于预测和解释任务,此外,神经符号模型在反事实方面表现更好。
新智元
2021/01/07
4930
学界 | 伯克利 AI 实验室博客发布首篇文章:让神经网络自行选择模块,实现动态推理
深度神经网络虽然在图像,语音,机器人等方面取得了巨大的成功,但是这些成功通常局限在识别任务或者生成任务中,对于推理任务,常规的神经网络通常是无能为力的。伯克利AI实验室近期开通了博客,该博客的第一篇文章针对推理任务,提出了神经模块网络,通过训练多个神经网络模块完成推理任务,每个神经网络模块负责一个推理步骤,对于不同的推理任务,动态的组合这些模块,以生成针对不同问题的新网络结构。 该文章的作者为 Jacob Andreas , AI 科技评论了解到,他是伯克利 NLP 四年级博士生,也是 BAIR 实验室成员
AI科技评论
2018/03/13
8150
学界 | 伯克利 AI 实验室博客发布首篇文章:让神经网络自行选择模块,实现动态推理
7 Papers & Radios | 因果研究大佬B Schölkopf论因果表示学习;OpenAI DALL·E官方论文
论文 1:Towards Causal Representation Learning
机器之心
2021/03/15
5700
7 Papers & Radios | 因果研究大佬B Schölkopf论因果表示学习;OpenAI DALL·E官方论文
多步推理碾压GPT-4o,无需训练性能提升10%!斯坦福开源通用框架OctoTools
大型语言模型(LLMs)目前仍然很难处理需要多步骤推理、特定领域知识或外部工具集成的复杂任务,有研究工作探索了使用预先构建的外部工具来增强LLMs处理复杂任务的能力,但这些方法需要对模型进行微调或额外训练以实现工具的集成,在不同任务之间难以灵活适应。
新智元
2025/03/12
800
多步推理碾压GPT-4o,无需训练性能提升10%!斯坦福开源通用框架OctoTools
7 Papers & Radios | 谷歌大牛Jeff Dean撰文深度学习的黄金十年;扩散模型生成视频
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周论文包括谷歌大牛 Jeff Dean 发文探索深度学习发展的黄金十年;Google Research 的研究者们提出了一种称为「自洽性(self-consistency)」的简单策略,显著提高了大型语言模型的推理准确率。 目录 A Golden Decade of Deep Learning: Computing Systems & Applications  Domain Generalization via
机器之心
2022/04/18
4850
7 Papers & Radios | 谷歌大牛Jeff Dean撰文深度学习的黄金十年;扩散模型生成视频
推荐阅读
Jurassic-X: 让神经模型学会符号推理
4540
基于LangChain的优秀项目资源库
2.9K0
下一代语言模型范式LAM崛起!AutoGPT模式席卷LLM,三大组件全面综述:规划、记忆和工具
1.3K0
如何基于OpenAI大模型搭建提示词工程
9750
【LangChain系列6】【Agent模块详解】
6570
一文详尽之LLM-Based Agent
6240
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题
4730
【论文解读】LLaVA 多模态大模型,微软首创用GPT-4生成多模态指令数据集进行指令微调
3K0
RAG的10篇论文-2024Q1
2K0
用检索增强生成让大模型更强大,这里有个手把手的Python实现
1.1K0
「长文」可能是目前最全的LangChain AI资源库之一
2.8K0
7 Papers & Radios | Meta「分割一切」AI模型;从T5到GPT-4盘点大语言模型
4190
AAAI 2020学术会议提前看:常识知识与常识推理
7820
来了!10个构建Agent的大模型应用框架
7.9K0
初识langchain[1]:Langchain实战教学,利用qwen2.1与GLM-4大模型构建智能解决方案[含Agent、tavily面向AI搜索]
1.5K0
DeepMind最新发现!神经网络的性能竟然优于神经符号模型
4930
学界 | 伯克利 AI 实验室博客发布首篇文章:让神经网络自行选择模块,实现动态推理
8150
7 Papers & Radios | 因果研究大佬B Schölkopf论因果表示学习;OpenAI DALL·E官方论文
5700
多步推理碾压GPT-4o,无需训练性能提升10%!斯坦福开源通用框架OctoTools
800
7 Papers & Radios | 谷歌大牛Jeff Dean撰文深度学习的黄金十年;扩散模型生成视频
4850
相关推荐
Jurassic-X: 让神经模型学会符号推理
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档