前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【MIT博士论文】控制神经语言生成

【MIT博士论文】控制神经语言生成

作者头像
数据派THU
发布2022-09-08 13:40:48
1770
发布2022-09-08 13:40:48
举报
文章被收录于专栏:数据派THU
代码语言:javascript
复制
来源:专知本文为论文介绍,建议阅读5分钟本文探讨了柔性序列模型和弱监督方法来执行各种控制生成任务。

大规模的神经语言模型在自然语言生成方面取得了令人印象深刻的进展。然而,典型的模型以一种从左到右的、不受约束的方式运行,对生成的内容的控制有限。本文探讨了柔性序列模型和弱监督方法来执行各种控制生成任务。我们预计这些技术将广泛应用于其他领域,如图像、分子和生物序列的生成。

我们首先介绍了一类称为空白语言模型(BLMs)的序列模型,它通过动态创建和填充空白来生成序列。给定带有一个或多个空格的部分指定文本,BLM将使用与上下文一致的可变数量的标记来填充这些空格。我们的模型非常适合各种文本编辑和重写任务,并在文本填充、古代文本恢复和情感迁移方面证明了有效性。

接下来,我们研究文本自动编码器及其通过潜在空间操作控制生成的用途。我们建立了一个理论,如何塑造一个有意义的潜在空间几何离散文本数据。在此基础上,我们开发了一系列去噪文本自动编码器,通过简单的矢量算法展示了属性修改(例如,时态,情感等)的潜力。

最后两章讨论了在没有监督数据的情况下的语言风格迁移。我们首先将非并行风格迁移的任务形式化,并讨论学习问题的可行性。我们提出了一种利用潜在表示的分布对齐来执行样式传输的方法。然后,我们研究了混杂因素,并表明通过将数据分为两组不同的风格,每组中的集合说明了我们不希望改变的变化,我们可以利用不变性来隔离混杂因素,并向所需的方向转移文本。

https://dspace.mit.edu/handle/1721.1/144561

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-09-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据派THU 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档