首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >伯特是否只对蒙面的代币进行预训练?

伯特是否只对蒙面的代币进行预训练?
EN

Data Science用户
提问于 2020-07-06 03:05:28
回答 1查看 65关注 0票数 -1

我对伯特预科训练中蒙面语言模型的细节有点困惑。该模型是仅为预训练的目的预测蒙面标记,还是对所有标记进行预测?

EN

回答 1

Data Science用户

回答已采纳

发布于 2020-07-07 07:04:41

简而言之,他们只预测蒙面记号。

根据第3.1节中的

为了训练深度双向表示,我们只需随机地掩蔽一定百分比的输入标记,然后预测这些掩蔽标记。我们将这一程序称为“蒙面LM”(MLM),尽管它在文献中经常被称为完形任务(Taylor,1953)。在这种情况下,与掩码令牌对应的最终隐藏向量被输入到词汇表上的输出softmax中,就像标准LM中的那样。在我们所有的实验中,我们在每个序列中随机掩蔽了15%的WordPiece标记。相对于去噪自动编码器(文森特等人,2008年),我们只预测蒙面词,而不是重建整个输入。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/77206

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档