前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【NLP】机器如何生成文本?

【NLP】机器如何生成文本?

作者头像
yuquanle
发布于 2020-04-25 06:06:32
发布于 2020-04-25 06:06:32
4.6K0
举报
文章被收录于专栏:AI小白入门AI小白入门

写在前面

最近,由于在大规模语料集上训练的大型Transformer-based语言模型的兴起(如著名的OpenAI-GPT2模型),社区对开放式语言生成的兴趣日益增加。GPT2、XLNet、CTRL这些开放式语言生成的结果令人印象深刻,除了得益于优化的transformer架构和大量无监督的训练数据外,「更好的解码方法」也发挥了重要作用。

这篇文章我们简要概述了不同的解码策略,更重要的是代码演示了如何使用huggingface开源的「transformers库」轻松实现它们!

语言模型

自回归(auto-regressive)语言生成是基于这样一个假设,即整个序列的概率分布可以分解为下一个词条件分布的乘积,

其中 为初始上下文序列, 为你想要生成序列的长度(可调整)。

接下去我们将会详细介绍目前主流的解码方法,包括

  • Greedy search
  • Beam search
  • Top-K sampling
  • Top-p sampling

此外,为了防止枯燥的原理讲解,我们还会给出对应的实践代码。那就先让我们加载模型吧,这里以GPT2为例,

Greedy Search

「贪婪搜索」简单地选择具有最高概率的单词作为它的下一个单词,在每一步考虑,

下面的示意图清晰展示了贪婪搜索的工作原理,

从单词「The」开始,该算法贪婪地选择下一个概率最高的单词「nice」,依此类推,最终生成的单词序列为 { “ The”,“ nice”,“ woman”},其总体概率为 。

接下去我们以初始上下文,("I", "enjoy", "walking", "with", "my", "cute", "dog")为例,来看看GPT2的贪婪解码效果。

haha,仅仅使用两行代码我们就可以利用GPT2生成一个简短文本。从生成结果可以看到,根据上下文生成的单词是合理的,但是模型很快就会开始重复。一般来说,这是语言生成中一个非常普遍的问题,尤其是在greedy search和beam search中。如果你想更深入了解,可以参考

  • Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models[1]
  • Generating High-Quality and Informative Conversation Responses with Sequence-to-Sequence Models[2]

贪婪搜索的主要缺点是,它直接忽略了隐藏在低概率词后面的高概率词,如上图所示:

具有高条件概率0.9的单词{“ has”}隐藏在单词{“ dog”}后面,后者仅具有第二高的条件概率,因此贪婪搜索错过单词序列{“ The”,“ dog”,“ has”}。

为了缓解上面这个问题,我们可以使用beam search!

Beam Search

「Beam Search」 通过在每个时间步保留最可能的几个假设数,并最终选择总体概率最高的一组假设,从而降低了丢失隐藏的高概率单词序列的风险。举个栗子,我们设定num_beams = 2:

  • 当 ,除了最可能的假设 {“ The”,“ woman”}外,beam search还跟踪第二个最可能的{“ The”,“ dog” };
  • 当 ,beam search发现单词序列{“ The”,“ dog”,“ has”}的概率为 ,比{ “ The”,“ nice”,“ woman”}的概率大。

beam search将始终找到比greedy search具有更高概率的输出序列,但不能保证找到最可能的输出。让我们看看如何在transformers中使用beam search,

可以看出,虽然结果相较于greedy search更流畅,但输出仍包含重复的相同单词序列。

一种简单可用的补救方法是引入「n-gram penalty」 。最常见的「n-gram penalty」 是通过将可能创建已经看到的n-gram的下一个单词的概率设置为0,来确保没有n-gram出现两次,可以参考

  • OpenNMT: Open-Source Toolkit for Neural Machine Translation[3]
  • A Deep Reinforced Model for Abstractive Summarization[4]

让我们通过设置no_repeat_ngram_size = 2来尝试一下,以免2-gram重复出现:

Nice,看起来好多了!我们可以看到重复序列没有再出现。但是,必须谨慎使用「n-gram penalty」,例如在生成有关New York相关的文章不应使用「2-gram penalty」,否则城市名称在全文中只会出现一次。

beam search的另一个重要功能是,我们可以比较生成后的所有top beams序列,并选择最适合我们要求的已生成序列。

transformers中,我们只需将参数num_return_sequences设置为应返回的最高得分序列的数量即可。确保num_return_sequences <= num_beams

从结果可以看出,五个生成序列彼此之间只有些许不同,这在仅使用num_return_sequences=5时并不奇怪。

在开放式生成任务中,beam search可能并不是最佳选择,主要有以下几个原因:

  • beam search在机器翻译或摘要生成任务中表现较好,这是因为这些任务所生成的长度或多或少可预测的。但是,对于开放式生成任务而言,情况并非如此,在这种情况下,所需的输出长度会发生很大变化,例如对话和故事生成;
  • 我们已经看到,beam search严重受到重复生成的困扰。这很难用n-gram或其他惩罚来控制,因为要在强制的“不重复”和相同n-gram的重复循环之间找到良好的trade off,需要进行很多微调;
  • 在ICLR2019的一篇论文The Curious Case of Neural Text Degeneration[5]指出,高质量的人类语言不会遵循高概率的下一个单词的分布。换句话说,作为人类,我们希望生成的文本使我们感到惊讶,而不是无聊或者可预测的,作者通过绘制概率图很好地证明了这一点。

哈哈,既然这样,那让我们停止无聊并加入一些随机性!

Sampling

「采样」意味着随机选择下一个单词,主要考虑其条件概率分布:

以上面的示例为例,下图是采样时语言生成的可视化。

很明显,使用采样生成语言已不再是确定的了, 从条件概率分布 中采样单词出单词“ car”,然后从 中采样出单词“ drives”。

transformers中,我们设置do_sample = True并通过top_k = 0停用Top-K采样(稍后会详细介绍)。在下文中为了方便说明,我们设置random_seed = 0,可以随意更改random_seed来尝试不同的生成效果。

尝试读一遍文本,会发现似乎还不错,但是仔细观察时,这并不太连贯和通顺。(怎么突然就"kill anybody"了,害怕) 在对单词序列进行采样时,会有一个大问题:这些模型经常产生语无伦次的胡言乱语,参考ICLR2020的一篇论文The Curious Case of Neural Text Degeneration[6]。

一个技巧是使分布 通过降低softmax temperature来提高锐度,即增加高概率单词的可能性并降低低概率单词的可能性。

对上面示例添加temperature后的可视化如下图,

让我们来看看代码吧,

看到了吗,奇奇怪怪的n-gram变少了,现在输出更加连贯了。使用temperature可以使分布的随机性降低,当将temperature设置为0 时,温度缩放的采样将等于贪婪解码,并且将遭受与以前相同的问题。

Top-K Sampling

来自FAIR的论文Hierarchical Neural Story Generation[7]介绍了一种简单但十分有效的采样策略,称为Top-K Sampling。在Top-K Sampling中,将挑选出K个最有可能的下一个单词,并且仅在这K个下一个单词之间重新为它们分配概率。GPT2就是采用了这种采样方案,这也是其生成故事效果不错的原因之一。

我们将上面示例中两个采样步中使用的单词范围从3个扩展到10个,以更好地说明Top-K采样。

上述设置 ,将采样最有可能的6个单词,记为 。在第一步采样中, 包含了整体的2/3,第二步采样则包含了几乎全部,但是有效地去除了一些奇奇怪怪的单词。

哇!这个结果可以说是我们一路下来最真实的文本生成。但是在使用Top-K采样时需要注意的一个问题是,它不会动态适应从下一个单词概率分布 。这可能是有问题的,因为某些单词可能是从非常尖锐的分布中采样的(上图右侧的分布),而另一些单词则是从更平坦的分布中采样的(上图左侧的分布)。

  • 在第一步采样中,Top-K Sampling策略排除了对 {“ people”,“ big”,“ house”,“ cat”}进行采样的可能性 ,这些似乎是合理的候选单词;
  • 另一方面,在第二步采样中,在单词样本池中包括可能不合适的下一个单词{“down”,“ a”}。因此,将样本池限制为固定大小 可能会危害模型以产生乱序的尖峰分布,并限制模型用于平坦分布的创造力。这一motivation激发了Top-p-samplingnucleus-sampling,来自论文The Curious Case of Neural Text Degeneration[8]。

Top-p (nucleus) sampling

在Top-p采样中,不是从仅最可能的K个单词中采样,而是从其累积概率超过一个阈值 的最小可能单词集中进行选择,然后将这组单词重新分配概率。这样,单词集合的大小(也就是集合中单词的数量)可以根据下一个单词的概率分布动态地增加或减少。上面的介绍有点枯燥,让我们来看看可视化图。

上图示例设置 ,定义为 ,所有单词累计概率超过0.92的最小单词子集。在第一步采样中,包括了9个最有可能的单词,而在第二步采样中,只需选择前3个单词即可超过92%。其实很简单!上述过程可以看成,当下一个单词的可预测性不确定时,保留了较多的单词,例如 ;而当下一个单词看起来比较可预测时,只保留几个单词,例如 "car")。

Okay,code time!

从理论上讲,Top-p似乎比Top-K更为优雅,但两种方法在实践中均能很好地work, Top-p也可以与Top-K结合使用,这可以避免排名很低的单词,同时可以进行一些动态选择。让我们来看看综合使用Top-K和Top-P的生成效果,

随便唠唠

  • 从我们上述实验看起来,Top-K和Top-P采样的方式似乎比传统的greedy search和beam search在开放式语言生成上效果要好;
  • 不过,有研究表明NEURAL TEXT DEGENERATION WITH UNLIKELIHOOD TRAINING[9],greedy search和beam search的明显缺陷(产生重复的单词序列)主要是由模型训练方式而不是由解码方法引起的,当调整模型训练目标后,beam search可以生成比Top-P更流畅的文本;
  • 在论文Consistency of a Recurrent Language Model With Respect to Incomplete Decoding[10]中指出,Top-K和Top-P采样策略也会存在生成重复序列的缺陷;
  • 最后,开放语言生成是一个快速发展的研究领域,通常情况下没有一种千篇一律的方法,因此必须了解哪种方法在特定的用例中最有效。

本文参考资料

[1]

Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models: https://arxiv.org/abs/1610.02424

[2]

Generating High-Quality and Informative Conversation Responses with Sequence-to-Sequence Models: https://arxiv.org/abs/1701.03185

[3]

OpenNMT: Open-Source Toolkit for Neural Machine Translation: https://arxiv.org/abs/1701.02810

[4]

A Deep Reinforced Model for Abstractive Summarization: https://arxiv.org/abs/1705.04304

[5]

The Curious Case of Neural Text Degeneration: https://arxiv.org/abs/1904.09751

[6]

The Curious Case of Neural Text Degeneration: https://arxiv.org/abs/1904.09751

[7]

Hierarchical Neural Story Generation: https://arxiv.org/pdf/1805.04833.pdf

[8]

The Curious Case of Neural Text Degeneration: https://arxiv.org/abs/1904.09751

[9]

NEURAL TEXT DEGENERATION WITH UNLIKELIHOOD TRAINING: https://arxiv.org/pdf/1908.04319.pdf

[10]

Consistency of a Recurrent Language Model With Respect to Incomplete Decoding: https://arxiv.org/abs/2002.02492

- END -

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-04-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI小白入门 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
智能肛珠作弊案反转:19岁小将告世界冠军诽谤索赔7亿
于是在网上引起了轩然大波。不少人认为,尼曼正是将棋局信息给了“肛珠型”超级计算机,利用它强大的AI能力,分析棋局从而帮助他击败了世界冠军。
量子位
2022/12/08
3050
智能肛珠作弊案反转:19岁小将告世界冠军诽谤索赔7亿
智能肛珠作弊引热议/ 特斯拉超大电池起火/ 韦布公布首张火星照片...今日更多新鲜事在此
日报君 发自 凹非寺 量子位 | 公众号 QbitAI 大家好! 今天是9月21日周三,最受关注的肯定是英伟达40系列—— 巴特!下面几条新鲜事同样不可错过,一起来看看! 王永东升任微软亚太研发集团主席,洪小文国内不再担任职务 来自AI科技评论信息,原微软亚太研发集团CTO王永东,已于近日升任为集团主席。原集团主席洪小文已卸任,且在国内不再担任任何职务。 微软亚太研发集团由微软亚洲研究院(MSRA)、微软亚洲工程院、微软中国研发集团战略合作部,以及多个城市产品研发机构组成,集团负责统一和协调微软在中国的研
量子位
2022/09/22
2940
智能肛珠作弊引热议/ 特斯拉超大电池起火/ 韦布公布首张火星照片...今日更多新鲜事在此
AI术士炼肛记:程序员开源「肛珠作弊」代码,在线寻找天选之子亲自体验
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 程序员要“肛”起来,真是没谁了。 事情还得从前几天国际象棋界曝出的惊天丑闻说起。 当时,世界冠军Magnus Carlsen(老卡哥)直播对战19岁新秀Hans Niemann(小汉斯),结果败了。 随后老卡哥选择退出比赛,并发推文暗指小汉斯在比赛过程中作弊。 而小汉斯在此之前确实有过线上比赛的作弊史,于是网络上“靠肛珠作弊”的声音甚嚣尘上。 就连马斯克也一度参与到讨论中,暗有所指地来了句“it’s in ur butt”。 然后这件事引发了一位荷兰程
量子位
2022/09/28
3910
AI术士炼肛记:程序员开源「肛珠作弊」代码,在线寻找天选之子亲自体验
19岁美国男孩击败国际象棋世界冠军,被指利用AI作弊!
大数据文摘出品 作者:Caleb 10月初的一场国际象棋比赛,让19岁的Hans Niemann一跃成名。 相信大家都还记得,这场比赛也让Niemann直接打破了多年位居世界第一Magnus Carlsen在此之前创下了53场“西部不败”的记录。 是的,在所有人看来,这本来是一场没有任何悬念的比赛。 随后,大家都开始怀疑Niemann在比赛中作弊。 毕竟这也不是他第一次了。Niemann也亲口承认了曾在两次比赛中有过作弊行为,他解释说,这是因为他十分想与顶级棋手比赛,于是将作弊视为一条捷径,这是“他一
大数据文摘
2023/04/10
3300
19岁美国男孩击败国际象棋世界冠军,被指利用AI作弊!
从“陪练”到“赢家”:人机博弈的六十年
作者:常丽君 摘自:网易科技、科技日报 自上世纪五十年代第一个博弈类计算机程序诞生以来,人机之间的博弈从未终止。60多年的博弈和反复超越,成为反映人类智慧的一面镜子,也引发许多人对人工智能发展的担忧。 ◆ ◆ ◆ 从“陪练”到“赢家” 1952年,英国计算机科学家克里斯托弗·斯特拉奇编写出第一个西洋跳棋程序。在50年代中期和60年代初,IBM的亚瑟·塞缪尔开发出了第一个能够“学习”的西洋跳棋程序,已经可以挑战具有相当水平的业余爱好者,并在1963年击败了美国康涅狄格州的跳棋大师罗伯特·尼尔利。1989年加
大数据文摘
2018/05/22
7710
围棋选手比赛用AI作弊!协会判罚:取消成绩,禁赛一年
---- 新智元报道   编辑:David 袁榭 好困 【新智元导读】在著名棋手被棋迷揣测用AI作弊的公众声浪中,中国棋协首次处罚了在职业比赛中使用AI作弊的低段位选手。 人类的围棋比赛,不许用狗! 目前的围棋AI大都发端于著名的AlphaGo,所以在比赛中使用AI作弊,在圈内被称为「遛狗」(狗与GO谐音)。 狗子:「我也不想的」 3月15日,中国围棋协会公布了关于刘睿智初段使用AI作弊的处理通知。 通知提到,刘睿智初段比赛期间有多次违规行为。 经核实,刘睿智初段违反本次比赛「严禁使用人工智能」规
新智元
2022/03/21
1K0
又一棋坛AI崛起:AlphaZero自学4小时击败最强国际象棋程序,8小时击败AlphaGo
谷歌旗下人工智能公司DeepMind将围棋AI转战国际象棋和日本将棋领域——无须人类智慧加持,已胜券在握。 AlphaZero是由谷歌旗下DeepMind研发的通用棋类AI,以不到四小时的自学击败了世界最强的国际象棋程序。 重新改进的人工智能程序AlphaZero曾多次击败世界顶级围棋选手,并扩大到学习其他棋类项目。它从零开始学习国际象棋,仅用4小时,就在100盘比赛中击败了世界顶级国际象棋程序 Stockfish 8。 据在康奈尔大学图书馆的arXiv上发表的一篇未经同行评审的研究论文称,在这100场
企鹅号小编
2018/03/05
1.4K0
又一棋坛AI崛起:AlphaZero自学4小时击败最强国际象棋程序,8小时击败AlphaGo
被AI击败的“第一代李世石”卡斯帕罗夫:我和机器和解了!
2月24日消息,据外媒报道, 国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)也许是历史上最伟大的棋手。在1985年成为世界冠军后的近20年里,他经常采取大胆弃子、疾进反击的策略赢得比赛,几乎成为这项棋牌运动的主宰者。
数据猿
2020/03/04
1.2K0
AI再乱围棋圈:“食言之战”柯洁落败;首例素人作弊引风波
去年12月底,曾经放言不再与AI进行正式比赛的柯洁,公开宣布“食言”。现在,这场柯洁的“实验之战”胜负已分。
量子位
2018/07/24
6170
AI再乱围棋圈:“食言之战”柯洁落败;首例素人作弊引风波
观点 | 精通国际象棋的AI研究员:AlphaZero真的是一次突破吗?
选自 Medium 机器之心编译 参与:路雪、 刘晓坤 近日,Jose Camacho Collados 在 Medium 上发表了一篇题为《Is AlphaZero really a scienti
机器之心
2018/05/10
9920
人工智能会取代人类棋手吗?棋王卡斯帕罗夫告诉你……
小编看到了一个很有趣的访问--Alpla Go之父Demis Hassabis与前国际象棋棋王卡斯帕罗夫一起讨论关于人工智是否能取代人类棋手的话题,于是特地翻译成中文,让大家围观一下两个天才之间的对话。 他们之间还有个小插曲。 早在20多年前他们就见过面,不过当时Demis还是个十几岁的毛头小伙,还有点狂妄自大,没想到一转眼他成了万众瞩目的人工智能界新星。所以,千万不要小看你身边不起眼的年轻人哦~ 1 20年前有一个自大的小伙子 很多年前卡斯帕罗夫在伦敦举办了一个小型家庭聚会, 晚饭时曾偶然和一个小伙子
企鹅号小编
2018/01/31
7770
人工智能会取代人类棋手吗?棋王卡斯帕罗夫告诉你……
DeepMind AI只需要4个小时的自我训练即可成为国际象棋霸主
企鹅号小编
2017/12/29
6140
DeepMind AI只需要4个小时的自我训练即可成为国际象棋霸主
无需大量算力训练,通过“读”解说员的评论,AI也能学会国际象棋
20世纪90年代后期,IBM深蓝(Deep Blue)研究了一系列的国际象棋算法,期望于打败当时的世界冠军加里•卡斯帕罗夫(Garry Kasparov)。
大数据文摘
2019/08/23
6440
无需大量算力训练,通过“读”解说员的评论,AI也能学会国际象棋
AlphaZero登上Science封面:从小白开始制霸多个游戏
此前不久,DeepMind 还推出了 AlphaFold,成功地根据基因序列预测出蛋白质的 3D 形状,将人工智能技术应用在了科学研究领域。
机器之心
2018/12/25
5780
AlphaZero登上Science封面:从小白开始制霸多个游戏
不只是围棋!AlphaGo Zero之后DeepMind推出泛化强化学习算法AlphaZero
选自arXiv 作者:David Silver等 机器之心编译 在 DeepMind 发表 Nature 论文介绍 AlphaGo Zero 之后,这家公司一直在寻求将这种强大算法泛化到其他任务中的可能性。昨天,AlphaGo 研究团队提出了 AlphaZero:一种可以从零开始,通过自我对弈强化学习在多种任务上达到超越人类水平的新算法。据称,新的算法经过不到 24 小时的训练后,可以在国际象棋和日本将棋上击败目前业内顶尖的计算机程序(这些程序早已超越人类世界冠军水平),也可以轻松击败训练 3 天时间的 A
机器之心
2018/05/09
7580
不只是围棋!AlphaGo Zero之后DeepMind推出泛化强化学习算法AlphaZero
门罗盘点:2017年那些AI击败人类的瞬间
1997年5月11日在计算机挑战人类的历史上,是被载入史册的一天。当天,IBM的计算机程序“深蓝”在正常时限的国际象棋比赛中,以2.5:3.5的比分击败了当时世界排名第一的棋手卡斯帕罗夫,震惊了全世界。 但在上世纪末,计算机程序还未上升到人工智能这一高度。而到了本世纪,尤其是近几年,人工智能这项技术已经发展到了令人惊叹的高度。 因此人工智能开发者开始转向一系列更为复杂的游戏,在几乎所有人类设计的游戏中,经过训练的人工智能都毫不费力的击败了人类玩家,从古老的围棋到互动的德州扑克,再到更为复杂的DOTA。不
企鹅号小编
2018/01/17
1.2K0
门罗盘点:2017年那些AI击败人类的瞬间
人机大战简史:AI如何在20多年中一次次赶超人类
△ 1996年2月卡斯帕罗夫与深蓝的首场对决 量子位 | 若朴 编译整理 二十一年前的2月,国际象棋人机大战上演。 IBM的超级电脑深蓝,因与国际象棋世界冠军卡斯帕罗夫的对阵而名声大噪。虽然深蓝最终没有赢下比赛,但在这个过程中仍然赢下的两局比赛。这也被认为是此后人工智能(AI)与人类的一系列博弈游戏中,一长串胜利的开端。 然而,深蓝其实并不是在博弈游戏中击败人类的第一个人工智能。这不重要。重要的是从第一次获胜迄今,AI已经在众多人机大战中击败人类,例如围棋和扑克。 人机大战似乎不像一个测试AI的正经方式
量子位
2018/03/21
3.7K0
人机大战简史:AI如何在20多年中一次次赶超人类
翻译 | 深度学习机器72小时自学国际象棋达到大师水平
本文在腾讯云+社区人工智能专栏首发, 为原创翻译文章. 文章正文部分以引用格式给出原文 导读 英文原文发布于2015年9月, 当时 Google 旗下 DeepMind公司 的 AlphaGo(即 阿尔法围棋)尚未战胜人类的职业围棋选手. 今天, 我们已经知道旧版战胜李世石和柯洁的 AlphaGo(包括后来的 AlphaGoMaster)都以深度学习作为技术基础, 而新版的 AlphaGoZero是在没有人类知识的条件下以神经网络为技术基础自学成才的机器. 本文介绍的下棋机器原理与Alpha Go相似
benny
2018/03/06
1K0
翻译 | 深度学习机器72小时自学国际象棋达到大师水平
1:2,李世石最后一战被AI击败,唯一战胜过AlphaGo的人退役了
12 月 21 日,全罗道新安郡曾岛 EI dorado 度假村,李世石在第 181 手投子认输。这是与 Handol 退役赛对战的最后一局,前两局,李世石一胜一负。最后一盘棋,还是惜败于 AI。
机器之心
2019/12/26
5610
1:2,李世石最后一战被AI击败,唯一战胜过AlphaGo的人退役了
工控界也需要战略家
2023国际棋联世界冠军赛4月7日开始在哈萨克斯坦阿斯塔纳举办,4月30日晚传来喜讯:中国棋手丁立人经过快棋加赛,最终以总比分9.5:8.5战胜俄罗斯棋手涅波姆尼亚奇,从而成为国际象棋历史上第17位男子个人世界冠军,这也是中国男队获得的第一个男子个人世界冠军。
剑指工控
2023/08/31
2170
工控界也需要战略家
推荐阅读
智能肛珠作弊案反转:19岁小将告世界冠军诽谤索赔7亿
3050
智能肛珠作弊引热议/ 特斯拉超大电池起火/ 韦布公布首张火星照片...今日更多新鲜事在此
2940
AI术士炼肛记:程序员开源「肛珠作弊」代码,在线寻找天选之子亲自体验
3910
19岁美国男孩击败国际象棋世界冠军,被指利用AI作弊!
3300
从“陪练”到“赢家”:人机博弈的六十年
7710
围棋选手比赛用AI作弊!协会判罚:取消成绩,禁赛一年
1K0
又一棋坛AI崛起:AlphaZero自学4小时击败最强国际象棋程序,8小时击败AlphaGo
1.4K0
被AI击败的“第一代李世石”卡斯帕罗夫:我和机器和解了!
1.2K0
AI再乱围棋圈:“食言之战”柯洁落败;首例素人作弊引风波
6170
观点 | 精通国际象棋的AI研究员:AlphaZero真的是一次突破吗?
9920
人工智能会取代人类棋手吗?棋王卡斯帕罗夫告诉你……
7770
DeepMind AI只需要4个小时的自我训练即可成为国际象棋霸主
6140
无需大量算力训练,通过“读”解说员的评论,AI也能学会国际象棋
6440
AlphaZero登上Science封面:从小白开始制霸多个游戏
5780
不只是围棋!AlphaGo Zero之后DeepMind推出泛化强化学习算法AlphaZero
7580
门罗盘点:2017年那些AI击败人类的瞬间
1.2K0
人机大战简史:AI如何在20多年中一次次赶超人类
3.7K0
翻译 | 深度学习机器72小时自学国际象棋达到大师水平
1K0
1:2,李世石最后一战被AI击败,唯一战胜过AlphaGo的人退役了
5610
工控界也需要战略家
2170
相关推荐
智能肛珠作弊案反转:19岁小将告世界冠军诽谤索赔7亿
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档