首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >腾讯广告部门一面-自然语言处理方向

腾讯广告部门一面-自然语言处理方向

作者头像
故事尾音
发布2019-12-18 16:57:28
发布2019-12-18 16:57:28
7180
举报

今天上午10点突然接到面试的电话,面完之后感觉不怎么好,还是总结一下吧。

Pool的作用

池化层是一个采样的过程。

Word2Vec的损失函数

ElMo的损失函数

预训练部分

在 EMLo 中,他们使用的是一个双向的 LSTM 语言模型,由一个前向和一个后向语言 模型构成,目标函数就是取这两个方向语言模型的最大似然。 前向部分

反向部分

合起来部分如下,也就是损失函数

微调部分(用于下游任务)

在进行有监督的 NLP 任务时,可以将 ELMo 直接当做特征拼接到具体任务模型的 词向量输入,具体来说就是把这个双向语言模型的每一中间层进行一个求和得到动态的词向量表示。 提取词向量的过程如下:对于第K个Token,使用L层的双向ELMo可以得到的表示如下:

对于下游任务来说,得到表示就是各层双向LSTM的表示的加权和

快速排序的复杂度计算

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019-07-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Pool的作用
  • Word2Vec的损失函数
  • ElMo的损失函数
    • 预训练部分
    • 微调部分(用于下游任务)
  • 快速排序的复杂度计算
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档