前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >我是如何编写了一个可以自动编辑新年祝福语的小程序

我是如何编写了一个可以自动编辑新年祝福语的小程序

原创
作者头像
在下科劳德-
发布于 2021-12-31 13:08:10
发布于 2021-12-31 13:08:10
1.4K0
举报
文章被收录于专栏:在下科劳德在下科劳德

实现说明:

步骤一:构建一个人工智能模型才能让机器学会像人一样说话,在这里,使用python语言编写脚本,基于堆叠Transformer(神经网络中一个模块,使用自注意力机制用来实现句子中词和词的关联性)的解码器模块构建的GPT-2模型,采用了BERT的分词器(划分句子里面的词语)构建了一个大型的深度学习模型。

步骤二: 构建模型之后,输出结果还是会有一些Bug出现。

这个时候需要让计算机算法学习如何像人一样说话, 意味着要用很多数据给他训练(学习一下如何说话),我们先采用了100GB的中文语料CLUECorpus2020数据(涵盖互联网上搜集的各种文字材料)进行预训练,再利用超过10万首中文歌词上训练(见多识广才能说得好),然后搜集各种新年祝福语录,对模型进行微调(fine-tune - 符合语境)

步骤三:训练好后的模型就可以输出人工智能写出的结果啦,这个结果还存在一些问题,但都是小问题,需要对字符串进行一些切割和格式化处理。

步骤四: 处理好后,可以看到黑框框打印出来的例子,但这个例子还不够用户友好,而且只有一个人能用,如何才能让大家也能在自己的电脑上用呢,需要把它变成一个所有人都能访问的东西。

步骤五:所以我用了腾讯云的GPU服务器,在腾讯云服务器上进行了一通配置。 把我们编写的人工智能程序变成了一个大家都可以访问的web服务,就是从世界各地请求它,要求他输出东西,他都能返回一个结果了。

步骤六: 但这还不够轻松愉快,我们使用vue框架编写了一套人机交互界面,调用刚刚写好的web接口,然后导出结果。

步骤七:然后我们要发布我们的人机交互界面,在腾讯云上进行了又一番配置,我们的网站终于上线了!所有人都可以轻松愉快地访问并可以在微信进行分享了。

最后德仔还想说,自然语言生成离不开各种科研人员的在近年来的优秀工作,当前用人工智能生成不一样的话(“基于人工智能去创作而不是词表的简单组合”)已经变成了可能。

用到的科研成果:

Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training.

Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.

Xu, L., Zhang, X., & Dong, Q. (2020). CLUECorpus2020: A large-scale Chinese corpus for pre-training language model. arXiv preprint arXiv:2003.01355.

Ethayarajh, K. (2019). How contextual are contextualized word representations? comparing the geometry of BERT, ELMo, and GPT-2 embeddings. arXiv preprint arXiv:1909.00512.

Developer:

Tianrun Chen(神经网络算法) Zhengjie Zhang(web人机交互页面)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
一文探索“预训练”的奥秘!
2022年下半年开始,涌现出一大批“大模型”的优秀应用,其中比较出圈的当属AI作画与ChatGPT,刷爆了各类社交平台,其让人惊艳的效果,让AI以一个鲜明的姿态,站到了广大民众面前,让不懂AI的人也能直观地体会到AI的强大。大模型即大规模预训练模型,本文就和大家聊一聊 预训练模型的起源与发展。
Datawhale
2023/01/10
1.3K0
一文探索“预训练”的奥秘!
首次利用半监督注入知识,达摩院推出新型预训练对话模型,取得显著提升
机器之心专栏 作者:戴音培、李永彬 团队:达摩院-自然语言智能实验室-对话智能团队 如何将人类先验知识低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种基于半监督预训练的新训练范式,通过半监督的方式将对话领域的少量有标数据和海量无标数据一起进行预训练,将标注数据中蕴含的知识注入到预训练模型中去,新提出的半监督预训练对话模型(Semi-Supervised Pre-trAined Conversation ModEl)SPACE 1.0 版本在剑桥 MultiWOZ2.0,亚马逊 MultiW
机器之心
2022/04/13
6800
首次利用半监督注入知识,达摩院推出新型预训练对话模型,取得显著提升
夺得WSDM Cup 2020大赛金牌的这份参赛方案,速来get!
近日,在美国休斯敦闭幕的第13届网络搜索与数据挖掘国际会议(WSDM 2020)上,华为云语音语义创新Lab带领的联合团队,摘得WSDM Cup 2020大赛“论文引用意图识别任务”金牌(Gold Medal)。
AI科技大本营
2020/02/26
5660
7 Papers | 清华天机芯片;非侵入式脑机接口;ACL 2019论文
1. 标题:Towards artificial general intelligence with hybrid Tianjic chip architecture
机器之心
2019/08/06
6400
7 Papers | 清华天机芯片;非侵入式脑机接口;ACL 2019论文
WSDM Cup 2019自然语言推理任务获奖解题思路
美美导读:美团团队在刚刚结束的WSDM Cup 2019比赛“真假新闻甄别任务”中获得了第二名的好成绩。本文将详细介绍他们本次获奖的解决方案,里面用到了很多黑科技比如BERT哦。
美团技术团队
2019/03/21
1.3K0
WSDM Cup 2019自然语言推理任务获奖解题思路
ChatGPT在教育领域的应用:改变学习方式的前沿技术
本文探讨了ChatGPT在教育领域的应用,着重介绍了这一前沿技术如何改变学习方式。首先,我们了解了ChatGPT的背景和基本工作原理,确保读者对其有基本了解。然后,我们深入探讨了ChatGPT在教育中的潜在应用领域,包括个性化学习、辅助教学和学生评估,分析了这些应用对学习效果和教学效率的积极影响。同时,我们也意识到了ChatGPT在教育领域应用所面临的优势与挑战,如即时反馈和智能辅导的优势,以及隐私问题和算法偏见的挑战,并探讨了解决这些问题的方法。此外,通过介绍在教育领域取得成功的ChatGPT项目或平台,我们展示了ChatGPT在实际应用中的潜力。本文还倡导合理使用ChatGPT技术,避免滥用或完全取代传统教学方法,并强调人工智能与人类教师的合作模式。最后,我们展望了ChatGPT在教育领域的未来发展,鼓励持续关注并投资该领域的研究,以实现更智能、个性化的学习体验。
猫头虎
2024/04/08
6530
ChatGPT在教育领域的应用:改变学习方式的前沿技术
对话摘要技术在美团的探索(SIGIR)
总第512篇 2022年 第029篇 随着互联网产生的文本数据越来越多,文本信息过载问题日益严重,对各类文本进行一个“降维”处理显得非常必要,而文本摘要就是其中一个重要的手段。 本文首先介绍了经典的文本摘要方法,随后分析了对话摘要的模型,并分享了美团在真实对话摘要场景中面临的挑战。同时基于实际的场景,本文提出了阅读理解的距离监督Span-Level对话摘要方案(已发表在SIGIR 2021),该方法比强基准方法在ROUGE-L指标和BLEU指标上提升了3%左右。 1. 对话摘要技术背景 2. 文本摘要与对
美团技术团队
2022/05/27
1K0
对话摘要技术在美团的探索(SIGIR)
MT-BERT在文本检索任务中的实践
基于微软大规模真实场景数据的阅读理解数据集MS MARCO,美团搜索与NLP中心提出了一种针对该文本检索任务的BERT算法方案DR-BERT,该方案是第一个在官方评测指标MRR@10上突破0.4的模型。
美团技术团队
2020/08/28
1.6K0
MT-BERT在文本检索任务中的实践
融合自训练和自监督方法,让文本丝般顺滑!|EMNLP 2020
文本顺滑(Disfluency Detection)的目的是删除自动语音识别(ASR)结果中的不顺滑的词,从而得到更自然和通顺的句子。
AI科技评论
2020/10/27
1.3K0
融合自训练和自监督方法,让文本丝般顺滑!|EMNLP 2020
Transformer结构及其应用详解——GPT、BERT、MT-DNN、GPT-2
为了缓解传递间的梯度和遗忘问题,设计了各种各样的RNN cell,最著名的两个就是LSTM和GRU了
新智元
2023/08/05
7200
Transformer结构及其应用详解——GPT、BERT、MT-DNN、GPT-2
大规模、高性能,清华、聆心智能推出中文开放域对话预训练开源模型OPD
自从二十世纪五十年代著名的图灵测试提出将人机对话能力作为衡量机器智能的重要指标后,对话系统便成为自然语言处理领域的重要研究方向,受到学术界和工业界的广泛关注。随着近期预训练技术的发展,对话系统的能力得到了显著提升,众多开源开放、性能优异的英文对话预训练基座模型也成为了对话系统相关研究和应用的基石。
机器之心
2022/12/16
9340
大规模、高性能,清华、聆心智能推出中文开放域对话预训练开源模型OPD
ICLR 2025|小米新一代Kaldi语音识别算法CR-CTC,纯CTC性能实现SOTA
新一代 Kaldi 团队是由 Kaldi 之父、IEEE fellow、小米集团首席语音科学家 Daniel Povey 领衔的团队,专注于开源语音基础引擎研发,从神经网络声学编码器、损失函数、优化器和解码器等各方面重构语音技术链路,旨在提高智能语音任务的准确率和效率。
机器之心
2025/02/08
1350
ICLR 2025|小米新一代Kaldi语音识别算法CR-CTC,纯CTC性能实现SOTA
未来十年:人工智能的巨大飞跃与挑战
在未来十年,人工智能技术预计将迎来巨大飞跃,引领着各行各业的革命性变革。从更智能的自动化系统到高度个性化的服务,人工智能将为我们带来前所未有的便利与创新。然而,伴随着这些进步,我们也将面临着诸多挑战,如隐私保护、失业风险等。在探索人工智能的未来应用的同时,我们必须谨慎思考如何平衡发展与社会利益,以确保人工智能的持续健康发展。
默 语
2024/11/20
1050
未来十年:人工智能的巨大飞跃与挑战
预训练语言模型(PLM)必读论文清单(附论文PDF、源码和模型链接)
[ 导读 ]近两年来,ELMO、BERT等预训练语言模型(PLM)在多项任务中刷新了榜单,引起了学术界和工业界的大量关注。
数据派THU
2019/10/10
1.7K0
预训练语言模型(PLM)必读论文清单(附论文PDF、源码和模型链接)
达观数据:AIGC用于智能写作的技术综述
智能写作指使用自然语言处理技术来自动生成文本内容。这种技术通过分析给定语料库,学习文本的结构和语法,然后利用这些信息来生成新的文本。智能写作可以用来快速生成高质量的文本内容,并且可以用来完成诸如文章写作、报告生成和摘要提取等任务。
用户10103085
2022/12/28
9260
达观数据:AIGC用于智能写作的技术综述
检索式对话系统在美团客服场景的探索与实践
在传统的客服、IM等场景中,坐席需要花费大量时间回答用户的各种咨询,通常面临答案查询时间长、问题重复、时效要求高等挑战。因而,使用技术手段辅助坐席快速、准确、高效地回答用户的各类问题非常有必要。
美团技术团队
2022/12/16
1.2K0
检索式对话系统在美团客服场景的探索与实践
阅读笔记|Language Models are Few-Shot Learners
info: T. B. Brown et al., “Language Models are Few-Shot Learners,” 2020, doi: 10.48550/ARXIV.2005.14165.
Ranlychan
2023/10/15
5530
一文看懂!百度对话系统PLATO家族
PLATO是百度Siqi Bao等人在2020年-2021年针对NLP对话领域提出的一系列预训练模型,具体包括PLATO,PLATO-2,PLATO-XL,前两篇分别发表在ACL2020和ACL-IJCNLP2021,PLATO-XL则是今年9月在arxiv上预印。
NewBeeNLP
2021/11/12
2.3K0
一文看懂!百度对话系统PLATO家族
如何向大模型注入知识?达摩院通义对话模型SPACE系列探索
机器之心专栏 作者:李永彬、惠彬原、黄非 团队:达摩院-自然语言-对话智能团队 如何将人类先验知识低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种基于半监督预训练的新训练方式,将对话领域的少量有标数据和海量无标数据一起进行预训练,从而把标注数据中蕴含的知识注入到预训练模型中去,打造了 SPACE 1/2/3 系列模型。 SPACE-1:注入对话策略知识,AAAI 2022 长文录用; SPACE-2:注入对话理解知识,COLING 2022 长文录用,并获 best paper award
机器之心
2022/10/11
1.8K0
如何向大模型注入知识?达摩院通义对话模型SPACE系列探索
大幅提升ASR系统识别准确率:云从科技语义纠错模型解析
近些年来,随着自动语音识别(ASR)技术的发展,识别准确率有了很大的提升。但是,在ASR转写结果中,仍然存在一些对人类来说非常明显的错误。我们并不需要听音频,仅通过观察转写的文本便可发现。对这类错误的纠正往往需要借助一些常识和语法知识,甚至推理的能力。
AI科技评论
2021/04/16
1.3K0
大幅提升ASR系统识别准确率:云从科技语义纠错模型解析
推荐阅读
相关推荐
一文探索“预训练”的奥秘!
更多 >
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文