Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >自然语言处理的神经网络模型初探

自然语言处理的神经网络模型初探

作者头像
花落花飞去
发布于 2018-02-05 07:52:28
发布于 2018-02-05 07:52:28
2.8K0
举报
文章被收录于专栏:人工智能人工智能

深度学习(Deep Learning)技术对自然语言处理(NLP,Natural Language Processing)领域有着巨大的影响。

但作为初学者,您要从何处开始学习呢?

深度学习和自然语言处理都是较为广阔的领域,但每个领域重点研究些什么?在自然语言处理领域中,又是哪一方面最受深度学习的影响呢?

通过阅读本文,您会对自然语言处理中的深度学习有一个初步的认识。

阅读这篇文章后,您可以知道:

  • 对自然语言处理领域影响最为深远的神经网络结构。
  • 综观那些可以通过深度学习成功解决的自然语言处理任务。
  • 密集词表示(Dense word representations)的重要性以及可以用于学习它们的方法。

现在,让我们开始本次学习之旅。

自然语言处理的神经网络模型入门
自然语言处理的神经网络模型入门

图片作者 faungg ,部分版权保留。

概览

本文将遵循相关论文的结构而分为 12 个部分,分别是:

  1. 关于论文(简介)
  2. 神经网络架构
  3. 特征表示
  4. 前馈神经网络
  5. 词嵌入
  6. 训练神经网络
  7. 级联和多任务学习
  8. 结构化输出预测
  9. 卷积层
  10. 循环神经网络
  11. 循环神经网络的具体架构
  12. 树型建模

我想给大家介绍一下本文的主要部分和风格,以及高层次的话题介绍。

如果你想继续深入研究,我强烈推荐阅读全文或者一些最近出版的的书

1.关于论文

论文的题目是:“A Primer on Neural Network Models for Natural Language Processing ” (自然语言处理的神经网络模型入门)。

这篇论文可以免费在 ArXiv 上获取,最新一次提交则是在 2015 年。它不只是一篇论文,更像是一篇技术报告或教程,并且文中还提供了针对学生与研究人员的,关于自然语言处理(NLP)中的深度学习方法的比较全面的介绍。

本教程从自然语言处理研究的角度对神经网络模型进行了相关研究,力图令自然语言领域的研究人员能跟上神经网络技术的发展速度。

这篇入门论文是由 NLP 领域研究员 Yoav Goldberg 撰写的,他曾在 Google Research 担任研究科学家。虽然 Yoav 最近引起了一些争议,但我不会因此反对他。

这是一份技术报告,大概共有 62 页,其中约有 13 页是参考文献列表。

这篇文章非常适合初学者,其原因有二:

  • 它对于读者的要求并不高,只需要您对这一主题有一定的兴趣,并且了解少数关于机器学习与(或者)自然语言处理相关的知识即可。
  • 它涵盖了广泛的深度学习方法和自然语言问题。

在本教程中,我尝试给 NLP 从业人员(以及新人)提供基本的背景知识,术语,工具和方法,使他们能够理解神经网络模型背后的原理,并将其应用到自己的工作中。 ... 本文的受众,是那些有兴趣使用现存的有用技术,并以实用且富有创造性的方式将其应用到他们最喜欢的 NLP 问题中的读者。

通常,关键的深度学习方法通过语言学或自然语言处理的术语或命名法重新建立,这(在深度学习与自然语言处理之间)提供了一个有用的桥梁。

最后值得一提的是,这篇 2015 年的入门教程已在 2017 年出版,名为 “Neural Network Methods for Natural Language Processing” (自然语言处理中的神经网络方法)。

如果你喜欢这篇入门教程并且想深入研究,我强烈推荐您继续阅读 Yoav 的这本书。

2.神经网络架构

本小节简要介绍了各种不同类型的神经网络架构,在后面的章节中对它们进行了一些交叉引用。

全连接(Fully connected)前馈神经网络是非线性学习器,在大多数情况下,它可以替换到使用了线性学习器的任何地方。

小节内容涵盖了四种神经网络架构,并重点介绍了各种应用和引用的例子:

  • 全连接前馈神经网络,如多层感知器网络(Multilayer Perceptron Networks)。
  • 具有卷积和池化层(Pooling Layers)的网络,如卷积神经网络(Convolutional Neural Network)。
  • 递归神经网络(Recurrent Neural Networks),如长短期记忆(LSTM,Long Short Term Memory)网络。
  • 循环神经网络(Recursive Neural Networks)。

如果您只对其中一种特定网络类型的应用感兴趣,并想直接阅读相关文献,本节则提供了一些很好的来源。

3.特征表示

本节重点介绍了如何将稀疏表示过渡转化为密集表示,然后再运用到深度学习模型训练中。

当把输入的稀疏线性模型转变为基于神经网络的模型时,最大的变化大概就是不再将每个特征表示为一个唯一的维度(所谓的单一表示 [One-hot Representation]),而是将它们表示为密集向量(Dense Vector)。

本节中介绍了 NLP 分类系统的一般结构,可总结如下:

  1. 提取一组核心语言特征。
  2. 为每个向量检索对应的向量。
  3. 组合成为特征向量。
  4. 将组合的矢量馈送到一个非线性分类器中。

这个公式的关键在于使用了密集特征向量而不是稀疏特征向量,并且用的是核心特征而非特征组合。

请注意,在神经网络设置中的特征提取阶段,仅仅处理核心特征的提取。这与传统的基于线性模型的 NLP 系统大相径庭,因为在该系统中,特征设计者不仅必须手动地指定感兴趣的核心特征,而且还需要手动指定它们之间的相互作用。

4.前馈神经网络

本节是前馈人工神经网络的速成课。

带有两个隐藏层的前馈神经网络,摘自 “A Primer on Neural Network Models for Natural Language Processing”。
带有两个隐藏层的前馈神经网络,摘自 “A Primer on Neural Network Models for Natural Language Processing”。

网络是通过大脑启发的隐喻与数学符号来呈现的。常见的神经网络主题包括如下几种:

  • 表示能力(例如通用逼近性 [Universal approximation])。
  • 常见的非线性关系(例如传递函数)。
  • 输出变换(例如 softmax)。
  • 词嵌入(例如内置的学习密集表示)。
  • 损失函数(如 Hinge-loss 和对数损失)。

5.词嵌入

在自然语言处理中,词嵌入表示(Word Embedding Representations)是神经网络方法的关键部分。本节则扩展了这个主题,并列举了一些关键的方法。

神经网络方法中的一个主要组成部分是使用嵌入 - 将每个特征表示为低维空间中的向量

本节中介绍了关于词嵌入的以下几个主题:

  • 随机初始化(例如,从统一的随机向量开始训练)。
  • 特定的有监督任务的预训练(例如,迁移学习 [Transfer Learning])。
  • 无监督任务的预训练(例如,word2vec 与 GloVe 之类的统计学方法)。
  • 训练目标(例如,目标对结果向量的影响)。
  • 上下文的选择(例如,每个单词受到附近的单词的影响)。

神经词嵌入起源于语言建模领域,其中训练所得的网络则用于基于先前词的序列来预测下一个词。

6.训练神经网络

这个较长的章节是为神经网络新手而写的,它着重于训练神经网络的具体步骤。

神经网络的训练,是通过运用基于梯度的方法将训练集上的损失函数最小化来完成的。

本节重点介绍随机梯度下降法(还有相似的如 Mini-batch 这样的方法)以及训练过程中的一些重要主题,比如说正则化。

有趣的是,本节还提供了神经网络的计算图形透视图,为诸如 Theano 和 TensorFlow 这样的符号化数值计算库提供了一个引子,而这些库则是当前流行的用于实现深度学习模型的基础。

一旦图形被构建,就可以直接运行正向计算(计算计算结果)或者反向计算(计算梯度)

7.级联和多任务学习

在前一节的基础上,本节总结了级联 NLP 模型和多语言任务学习模型的作用。

级联模型(Model cascading):利用神经网络模型计算图的定义来使用中间表示(编码)开发更复杂的模型。

例如,我们可能有一个前馈网络,它用于根据词的相邻词和(或)构成它的字符来预测词的词性。

多任务学习(Multi-task learning):有一些相互关联的自然语言预测任务,它们不会相互影响,但它们各自的信息可以跨任务共享。

用于预测块边界、命名实体边界和句子中的下一个单词的信息,都依赖于一些共享的基础句法语义表示

这两个先进的概念都是在神经网络的背景下描述的,它允许模型或信息在训练(误差反向传播)和预测期间具有连通性。

8.结构化输出预测

本节关注的是使用深度学习方法进行结构化预测的自然语言任务,比如说序列、树,以及图。

典型的例子是序列标记(例如词性标注 [Part-of-speech tagging]),序列分割(分块,NER [Named-entity Recognition,命名实体识别])以及句法分析。

本部分涵盖了基于贪心思想和基于搜索的结构化预测,重点关注后者。

常用的自然语言结构化预测方法,是基于搜索的方法。

9.卷积层

本节提供了卷积神经网络(CNN,Convolutional Neural Networks)的速成课程,以及阐述了这一网络对自然语言领域的影响。

值得注意的是,当下已经证明了 CNN 对诸如情感分析(Sentiment analysis)这样的分类 NLP 任务非常有效,例如学习寻找文本中的特定子序列或结构以进行预测。

卷积神经网络被设计来识别大型结构中的指示性局部预测因子(Indicative local predictors),并且将它们组合起来以产生结构的固定大小的向量表示,从而捕获这些对于预测任务而言最具信息性的局部方面(Local aspects)。

10.循环神经网络

与前一节一样,本节重点介绍了在 NLP 中所使用的特定网络及其作用与应用。在 NLP 中,递归神经网络(RNN,Recurrent Neural Networks)用于序列建模。

递归神经网络(RNN)允许在固定大小的向量中表示任意大小的结构化输入,同时也会注意输入的结构化属性。

考虑到 RNN,特别是 NLP 中的长短期记忆(LSTM)的普及,这个较大的章节介绍了各种关于循环神经网络的主题与模型,其中包括:

  • RNN 的抽象概念(例如网络图中的循环连接)。
  • RNN 训练(例如通过时间进行反向传播)。
  • 多层(堆叠)RNN(例如深度学习的 “深度” 部分)。
  • BI-RNN(例如前向和反向序列作为输入)。
  • 用于表示的 RNN 堆叠。

我们将在 RNN 模型结构或结构元素上花费一定的时间,特别是:

  • 接受器(Acceptor):完整的序列输入后,它计算输出的损失。
  • 编码器(Encoder):最终向量用作输入序列的编码器。
  • 转换器(Transducer):为输入序列中的每个观测对象创建一个输出。
  • 编码器 - 解码器(Encoder-Decoder):输入序列在被解码为输出序列之前,会编码成为固定长度的向量。

11.循环神经网络的具体架构

本章节基于上一节的内容,介绍了具体的 RNN 算法。

具体包括如下几点:

  • 简单的 RNN(SRNN)。
  • 长短期记忆(LSTM)。
  • 门控循环单元(GRU,Gated Recurrent Unit)。

12.树型建模

最后一节则重点关注一个更复杂的网络,我们称为学习树型建模的递归神经网络。

树,可以是句法树,话语树,甚至是由一个句子中各个部分所表达的情绪的树。我们希望基于特定的树节点或基于根节点来预测值,或者为完整的树或树的一部分指定一个质量值。

由于递归神经网络保留了输入序列的状态,所以递归神经网络会维持树中节点的状态。

递归神经网络的例子,摘自 “A Primer on Neural Network Models for Natural Language Processing”。
递归神经网络的例子,摘自 “A Primer on Neural Network Models for Natural Language Processing”。

扩展阅读

如果您正在深入研究,本节将提供更多有关该主题的资源。

总结

这篇文章介绍了一些关于自然语言处理中的深度学习的入门知识。

具体来说,你学到了:

  • 对自然语言处理领域影响最大的神经网络结构。
  • 对可以通过深度学习算法成功解决的自然语言处理任务有一个广泛的认识。
  • 密集表示以及相应的学习方法的重要性。
评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【专著】神经网络彻底改变 NLP 面貌,但远非终极解决方案
【新智元导读】Bar-Ilan University 计算机科学系的高级讲师 Yoav Goldberg 在他的专著《 NLP 的神经网络方法》中,不仅比较全面细致地介绍了神经网络模型在自然语言处理中的应用情况,并且在详尽梳理之后,明确指出:神经网络方法的引入已经成为 NLP 的变革力量,彻底改变了包括机器翻译在内的多项自然语言处理任务的面貌,但神经网络不是自然语言理解和生成的终极解决方案。虽然比前一代基于统计学的 NLP 技术提高了很多,然而核心问题仍然存在:语言是零散且模糊的,我们对其工作原理的理解并不
新智元
2018/03/27
7020
【专著】神经网络彻底改变 NLP 面貌,但远非终极解决方案
独家 | 阿里智能音箱发布前夕,首次公布自然语言处理成果
机器之心报道 机器之心编辑部 阿里巴巴AI Labs 将在7月5日发布第一款智能音箱设备的消息引发了国内极大的关注,但读者们不仅不熟悉阿里巴巴AI Labs,对阿里自然语言处理方面的成果是不是也不理解?这篇文章介绍了阿里巴巴被国际数据挖掘顶会KDD2017收录的一篇自然语言处理(NLP)的相关论文《一种新的语义编码模型及其在智能问答及分类中的应用》。 上周,关于阿里巴巴成立 AI Labs 的消息不胫而走。事实上,该机构在 2016 年低调成立,主要负责阿里巴巴集团旗下消费级 AI 产品研发,与 iDST
机器之心
2018/05/09
8320
独家 | 阿里智能音箱发布前夕,首次公布自然语言处理成果
资源 | 初学者指南:神经网络在自然语言处理中的应用
选自machine learning mastery 机器之心编译 参与:刘晓坤、蒋思源 深度学习正在给自然语言处理带来巨大的变革。但是,作为一个初学者,要从哪里起步才好呢?深度学习和自然语言处理都是很宽泛的领域。哪些方面才是最重要的,还有,深度学习又是从哪个层面深刻影响了 NLP 呢? 看完这篇文章之后,你将会知道: 给自然语言处理领域带来最深刻影响的神经网络结构; 深度学习可以对自然语言处理的各个层面制定学习任务; 密集词汇表示的重要性和学习表示的方法。 让我们开始吧。 概览 这篇文章将分成 12
机器之心
2018/05/08
6420
资源 | 初学者指南:神经网络在自然语言处理中的应用
学习自然语言处理前,必知这7种神经网络知识
什么是神经网络?它是如何工作的?现在有哪些神经网络?有哪几种类型的神经网络可以用于自然语言处理?下面我们会一一解答这些问题。
商业新知
2019/04/01
1.3K0
学习自然语言处理前,必知这7种神经网络知识
一文读懂 Transformer 神经网络模型
自从最新的大型语言模型(LLaM)的发布,例如 OpenAI 的 GPT 系列、开源模型 Bloom 以及谷歌发布的 LaMDA 等,Transformer 模型已经展现出了其巨大的潜力,并成为深度学习领域的前沿架构楷模。
Luga Lee
2023/09/22
41.4K1
一文读懂 Transformer 神经网络模型
CMU2018春季课程:神经网络自然语言处理课程(附PPT和代码)
【导读】我们之前介绍了一系列卡耐基梅隆大学的课程,今天,我们又带来了CMU 2018春季最新的课程“Neural Networks for NLP”介绍,该课程是CMU语言技术学院和计算机学院联合开课,主要内容是教学生如何用神经网络做自然语言处理。本文中,我们梳理了该课程的主要内容:神经网络、词向量、语言模型、CNNs和RNNs在NLP中的应用等等,课程涉及几乎全部NLP问题,内容非常全面,强烈推荐给从事NLP研究的读者。 专知内容组附上上一次CMU2018和CMU2017年课程:深度学习的内容: 1. C
WZEARW
2018/04/13
1.4K0
CMU2018春季课程:神经网络自然语言处理课程(附PPT和代码)
漫谈图神经网络模型(GNN):从图到图卷积
笔者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好。同时,很多教程只讲是什么,不讲为什么,也没有梳理清楚不同网络结构的区别与设计初衷(Motivation)。
算法进阶
2023/08/28
1.3K0
漫谈图神经网络模型(GNN):从图到图卷积
【Manning主讲】斯坦福CS224n深度学习与NLP课程全部视频、PPT
【新智元导读】斯坦福大学CS224n(全称:深度学习与自然语言处理)是自然语言处理领域很受欢迎的课程,由 Chris Manning 和 Richard Socher 主讲。本课程所有教学视频和课程材
新智元
2018/03/22
1.4K0
【Manning主讲】斯坦福CS224n深度学习与NLP课程全部视频、PPT
深度学习与自然语言处理 主要概念一览CS224d-Day 1:
---- CS224d-Day 1: 要开始系统地学习 NLP 课程 cs224d,今天先来一个课程概览。 课程一共有16节,先对每一节中提到的模型,算法,工具有个总体的认识,知道都有什么,以及它们可以做些什么事情。 ---- 简介: 1. Intro to NLP and Deep Learning NLP: Natural Language Processing (自然语言处理)的目的,就是让计算机能‘懂得’人类对它‘说’的话,然后去执行一些指定的任务。 这些任务有什么呢? Easy: • S
杨熹
2018/04/02
7900
深度学习与自然语言处理 主要概念一览CS224d-Day 1:
深度学习在自然语言处理中的应用
原文:Diving Into Natural Language Processing https://dzone.com/articles/natural-language-processing-adit-deshpande-cs-unde 作者:Adit Deshpande 编译:KK4SBB 欢迎人工智能领域技术投稿、约稿、给文章纠错,请发送邮件至heyc@csdn.net 自然语言处理是研究和实现人与计算机之间用自然语言进行有效通信的各种理论和方法。本文主要介绍深度学习在自然语言处理中的应用。
用户1737318
2018/06/06
1.1K0
自然语言处理中的深度学习发展史和待解难题
王小新 编译自 sigmoidal 量子位 出品 | 公众号 QbitAI 自然语言处理(NLP)是指机器理解并解释人类写作与说话方式的能力。近年来,深度学习技术在自然语言处理方面的研究和应用也取得了显著的成果。 技术博客Sigmoidal最近发布了一篇文章,作者是机器学习工程师Rafal。 这篇文章讨论了自然语言处理方法的发展史,以及深度学习带来的影响。量子位编译如下: 在深度学习时代来临前 在2006年Hinton提出深度信念网络(DBN)之前,神经网络是一种极其复杂且难以训练的功能网络,所以只能作为一
量子位
2018/03/28
1.1K0
自然语言处理中的深度学习发展史和待解难题
基于大数据与深度学习的自然语言对话
作者:李航、吕正东、尚利锋 前言 我们在日常生活中经常使用自然语言对话系统,比如苹果Siri。现在的对话系统多数只能做单轮对话,可以帮助用户完成一些简单的任务,如问天气,查股票(如果做多轮对话,也是在单轮对话的基础上加一些简单处理)。实现这些自然语言对话系统的基本技术可以分为两大类,基于规则的和基于数据的。你也许想知道对话系统的基本原理是怎样的?特别是如何用数据驱动的方式构建一个对话系统? 最近基于数据的自然语言对话技术取得了突破性的进展。我们发现,利用深度学习和大数据,可以很容易地构建一个单
用户1737318
2018/06/06
7560
卷积神经网络在自然语言处理的应用
当我们听到卷积神经网络(Convolutional Neural Network, CNNs)时,往往会联想到计算机视觉。CNNs在图像分类领域做出了巨大贡献,也是当今绝大多数计算机视觉系统的核心技术,从Facebook的图像自动标签到自动驾驶汽车都在使用。 最近我们开始在自然语言处理(Natural Language Processing)领域应用CNNs,并取得了一些引人注目的成果。我将在本文中归纳什么是CNNs,怎样将它们应用于NLP。CNNs背后的直觉知识在计算机视觉的用例里更容易被理解,因此我就先
用户1737318
2018/06/05
1.1K0
自然语言处理终极方向:深度学习用于自然语言处理的5大优势
【新智元导读】在自然语言处理领域,深度学习的承诺是:给新模型带来更好的性能,这些新模型可能需要更多数据,但不再需要那么多的语言学专业知识。 在自然语言处理领域,深度学习的承诺是:给新模型带来更好的性能,这些新模型可能需要更多数据,但不再需要那么多的语言学专业知识。 关于深度学习方法有很多炒作和大话,但除了炒作之外,深度学习方法正在为挑战性问题取得最先进的结果,特别是在自然语言处理领域。 在这篇文章中,您将看到深度学习方法应对自然语言处理问题的具体前景。看完这篇文章后,你会知道: 1. 自然语言处理深度学习的
新智元
2018/03/22
1K0
从语言学到深度学习NLP,一文概述自然语言处理
本文从两篇论文出发先简要介绍了自然语言处理的基本分类和基本概念,再向读者展示了深度学习中的 NLP。这两篇论文都是很好的综述性入门论文,希望详细了解自然语言处理的读者可以进一步阅读这两篇论文。 首先第一部分介绍了自然语言处理的基本概念,作者将 NLP 分为自然语言理解和自然语言生成,并解释了 NLP 过程的各个层级和应用,这一篇论文很适合读者系统的了解 NLP 的基本概念。 第二描述的是基于深度学习的 NLP,该论文首先描述了深度学习中的词表征,即从 one-hot 编码、词袋模型到词嵌入和 word2ve
小莹莹
2018/04/24
9580
从语言学到深度学习NLP,一文概述自然语言处理
学习资料参考:从深度学习到自然语言处理
注意:本文已经更新,新版结合深度学习简介和发展历程,给出了更详尽的学习资料参考。新版链接:深度学习简介与学习资料参考(http://peteryuan.net/deep-learning-intro/) 本文主要介绍一些与神经网络和自然语言处理相关的经典教程、资料,以便初学者能有个比较清晰的学习参考。 从机器学习到深度学习 深度学习脱胎于神经网络,而神经网络又是一种机器学习的经典算法。因此,如果希望从理论上更深刻地掌握深度学习,建议了解相关的机器学习知识。 机器学习 Andrew Ng.(吴恩达)的机器学习
用户1332428
2018/03/09
7830
深度学习基础之前馈神经网络
深度学习中的前馈神经网络(Feedforward Neural Network, FNN)是一种基本且广泛使用的神经网络模型。其核心思想是将输入数据传递给网络的输入层,然后通过一系列全连接的隐藏层进行处理,最终在输出层得到结果。
用户11315985
2024/10/16
2500
深度学习基础之前馈神经网络
自然语言处理(NLP)学习路线总结
NLP是自然语言处理(Natural Language Processing)的缩写,它是计算机科学领域中专注于研究如何使计算机理解、生成和处理人类语言的学科。NLP涉及的技术包括但不限于分词、词性标注、句法分析、语义分析、机器翻译、情感分析、信息抽取、文本生成等。通过NLP,计算机可以处理和分析大量的文本数据,帮助人们更好地理解和应用语言信息。
机器学习AI算法工程
2024/07/04
1.2K0
自然语言处理(NLP)学习路线总结
NLP神经网络技术发展方向
导读: 这篇文章中作者尝试将 15 年的自然语言处理技术发展史浓缩为 8 个高度相关的里程碑事件,不过它有些偏向于选择与当前比较流行的神经网络技术相关的方向。我们需要关注的是,本文中介绍的许多神经网络模型都建立在同时代的非神经网络技术之上。在文章的最后,作者强调了这些有影响力的技术成果,它们为以后的 NLP 方法发展奠定了基础。
商业新知
2019/07/22
6300
NLP神经网络技术发展方向
自然语言处理顶级会议 EMNLP 最佳论文出炉,聚焦神经网络 (下载)
【新智元导读】自然语言处理顶级会议 EMNLP2016 今天公布了本届大会最佳论文。本文介绍会议概况,节选主旨演讲、讲座及Workshop 等亮点介绍,最后给出最佳论文。 2016 年自然语言处理(NLP)领域的顶级会议——自然语言处理实证方法大会(Empirical Methods in Natural Language Processing,EMNLP)将于11月 1 日至 5 日在美国德克萨斯州奥斯汀市举行。今年网上报名时间10月22日截止,因此本届大会参会人数暂时还无法确定。不过,去年和前年的 EM
新智元
2018/03/26
1.1K0
自然语言处理顶级会议 EMNLP 最佳论文出炉,聚焦神经网络 (下载)
推荐阅读
相关推荐
【专著】神经网络彻底改变 NLP 面貌,但远非终极解决方案
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档