腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
我还不懂对话
有些文章会乱码,原文见:https://www.zhihu.com/people/aaronchou_820/posts,公众号:百川NLP
专栏成员
举报
84
文章
85144
阅读量
14
订阅数
订阅专栏
申请加入专栏
全部文章(84)
神经网络(23)
机器学习(18)
深度学习(17)
编程算法(16)
NLP 服务(14)
人工智能(12)
https(12)
网络安全(11)
http(9)
github(8)
对话机器人(8)
python(7)
git(7)
linux(7)
serverless(6)
tensorflow(5)
腾讯云测试服务(5)
网站(4)
开源(4)
数据库(3)
大数据(3)
数据分析(3)
对象存储(2)
html(2)
sql(2)
缓存(2)
正则表达式(2)
监督学习(2)
推荐系统(2)
keras(2)
迁移学习(2)
聚类算法(2)
chatgpt(2)
prompt(2)
编码(2)
模型(2)
数据(2)
LLM(2)
数据挖掘(1)
java(1)
javascript(1)
jquery ui(1)
css(1)
云数据库 SQL Server(1)
oracle(1)
api(1)
maven(1)
spring(1)
文件存储(1)
日志服务(1)
卷积神经网络(1)
强化学习(1)
numpy(1)
面向对象编程(1)
决策树(1)
无监督学习(1)
数据结构(1)
腾讯云开发者社区(1)
学习方法(1)
absolute(1)
aigc(1)
channel(1)
cs(1)
data(1)
error(1)
gps(1)
gpt(1)
layer(1)
mean(1)
metrics(1)
precision(1)
state(1)
sum(1)
tracking(1)
wifi(1)
xgboost(1)
论文(1)
网络(1)
系统(1)
营销智能推荐(1)
搜索文章
搜索
搜索
关闭
【多干预多响应】Uplift模型如何做因果推断结果分析?
营销智能推荐
Uplift模型有很多介绍的文章,也有一些评估方式,例如AUUC、 十分位柱状图、累计增益曲线Qini Curve等,但是如果模型结果好或者不好,我们需要怎么进一步分析,却少有文章介绍,本问以Interpretable multiple treatment revenue uplift modeling这篇论文的方法介绍模型分析以及可解释性的方法。
百川AI
2024-10-20
91
0
「LLM天花板」如何利用神奇咒语让语言模型超越人类
LLM
chatgpt
prompt
即在询问模型答案之前,让模型认真思考等prompt,输出结果真的就要好。 这里有一个问题点:不同的模型神奇咒语是不一样的,怎么针对一个新的模型搜索出神奇咒语呢,如果有少量样本,怎么在few-shot上效果更好呢?见还在手写Prompt,自动Prompt搜索超越人类水平
百川AI
2024-04-22
237
0
【多轮对话】多轮对话状态追踪综述
数据库
编码
模型
数据
系统
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:
百川AI
2024-04-09
422
0
AI评论生成,如何既相关又多样?
模型
数据
网络
编码
论文
当前开放域的评论生成常常产生重复且无趣的回复。作者认为原因是直接使用真实用户评论会带入大量的噪音,比如同一篇文章会有多个、且可能相互矛盾的评论,并且由于检索方法会比较刻板,最终导致生成的结果问题。因此文章提出了结合检索和生成的方法,利用已有用户评论和检索出相关评论,训练一个打分器scorer(怎么训练呢?)。然后利用这些评论和文章,作为copy机制生成模型的训练数据。
百川AI
2024-04-09
148
0
「论文阅读」还在手写Prompt,自动Prompt搜索超越人类水平
prompt
LLM
手写prompt确实很费脑筋,但其实本身大语言模型就是一个很好的自动prompt工具,APE文章提出自动prompt工程(Automatic Prompt Engineer),利用语言模型+蒙特卡洛搜索 自动的寻找最优的Prompt样例,最终在多项任务的效果几乎达到人类水平。
百川AI
2024-04-07
402
0
「AIGC」- ChatGPT可以怎么玩?
chatgpt
aigc
gpt
chatGPT这么火,这几天一番体验之后,除了惊叹,同时也引发了作为程序员的担忧:我的工作是否会被AI取代?
百川AI
2023-04-02
2.8K
0
【论文阅读】- 怎么快速阅读ML论文?
机器学习
机器学习的论文很多,怎么从Arxiv上泛滥的文章中选择论文阅读,那么我们就需要快速地了解论文内容概要,从而决定是否精读。那么怎么快速阅读呢,作者提出只需要阅读过程中只需要回答出以下5个简单问题即可:
百川AI
2022-10-07
552
0
【自学习】- 怎么让对话机器人越来越强?
对话机器人
对话机器人如果能够检测到服务失败的case,再强一点,最好还能够自动纠正,就和人一样,在学习中成长,在成长中学习,越来越强。理想和美好,那么怎么做呢?怎么学习呢?
百川AI
2022-07-18
1.3K
0
【问答对话】kbqa?开放域问答怎么有知识地生成
NLP 服务
问答是对话的重要任务之一,封闭的垂直领域可以构建问题库,通过检索召回、排序的方式回答,然而到了开放域,怎么既利用外部知识,又能够应对多样的问题,前有kbqa,利用结构化的知识库和语义链接,然而这是最优的么?而最近流行的大模型,如GPT-3也在开放域问答上有一定的能力,那么如何在大的语言模型基础上融合知识呢,其实主要面临两个问题,1)检索什么知识,怎么检索。2)怎么讲检索知识加入。
百川AI
2022-07-11
1.2K
0
【评论生成】AI生成评论,如何既相关又多样?
NLP 服务
当前开放域的评论生成常常产生重复且无趣的回复。作者认为原因是直接使用真实用户评论会带入大量的噪音,比如同一篇文章会有多个、且可能相互矛盾的评论,并且由于检索方法会比较刻板,最终导致生成的结果问题。因此文章提出了结合检索和生成的方法,利用已有用户评论和检索出相关评论,训练一个打分器scorer(怎么训练呢?)。然后利用这些评论和文章,作为copy机制生成模型的训练数据。
百川AI
2022-05-29
2.4K
3
Fine-tuning过时啦,NLG生成任务如何Tuning?
NLP 服务
Fine-tuning范式大家肯定都再熟悉不过,微调所有语言模型参数,而从gpt3出现之后提出的in-context learning,还是越来越火的prompt,fine-tuning 已经out of state了。而这篇文章就提出prefix-tuning的nlg训练方法。
百川AI
2022-05-16
1.3K
0
『 DSSM』A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems
对象存储
推荐系统
https
网络安全
编程算法
MULTI-VIEW-DNN联合了多个域做的丰富特征,使用multi-view DNN模型构建推荐,包括app、新闻、电影和TV,相比于最好的算法,老用户提升49%,新用户提升110%。并且可以轻松的涵盖大量用户,解决冷启动问题。
百川AI
2022-05-15
1K
0
『 论文阅读』XGBoost原理-XGBoost A Scalable Tree Boosting System
编程算法
缓存
serverless
大数据
看了LightGBM的论文之后,在从头看XGBoost论文,之前虽然看过,现在对比看的时候又有不同。
百川AI
2022-05-15
1.5K
0
【任务型对话】任务型对话中的自然语言生成
对话机器人
任务型对话中,一般包含ASR、语义理解、多轮状态追踪、会话策略、自然语言生成(NLG)模块,那么任务型对话中都有哪些生成的方法呢?
百川AI
2022-04-17
1.4K
0
【多轮对话】多轮对话状态追踪技术综述
NLP 服务
对话机器人
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:任务型多轮对话数据集和采集方法
百川AI
2022-02-28
4.2K
3
NER的过去、现在和未来综述-未来
NLP 服务
命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。
百川AI
2022-01-04
1.7K
1
学习让机器学会学习-Meta Learning课程笔记-2
机器学习
神经网络
深度学习
人工智能
来源于李宏毅老师机器学习课程,笔记是其中meta learning部分,few-shot learning学习也可以观看此部分课程。
百川AI
2022-01-04
198
0
NLP数据增强方法-动手实践
https
网络安全
github
git
开源
图像中可以通过旋转、翻转变换、rgb转灰度、加入白噪声等方式增强数据,其语义不会发生改变,但是NLP中却往往发生语义改变,针对NLP的一些数据增强方法进行了探索。
百川AI
2022-01-04
745
0
BERT+实体-百度ERNIE优化了啥
神经网络
深度学习
人工智能
如何将知识(knowledge)信息融入到模型训练中,一种方式是将知识信息作为输入,成本是其他人使用的时候也要构建知识库,并且fine-tune和pre-train的知识库分布不一致,fine-tune也会出现问题。
百川AI
2022-01-04
612
1
NLP数据增强方法-(一)
NLP 服务
https
网络安全
github
git
问题:对于每个句子,短句相比于长句,吸收同样的n个词噪音,更可能导致类别标签发生变化。
百川AI
2022-01-04
790
0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档