Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI自动化标注崛起,数据标注员要失业了?

AI自动化标注崛起,数据标注员要失业了?

作者头像
科技云报道
发布于 2024-01-29 03:41:56
发布于 2024-01-29 03:41:56
4280
举报
文章被收录于专栏:科技云报道科技云报道

数据标注行业流行着一句话:“有多少智能,就有多少人工”。

由于需要标注的数据规模庞大且成本较高,一些互联网巨头及一些AI公司很少自己设有标注团队,大多交给第三方数据服务公司或者数据标注团队来做。

这也衍生出了专为AI而生的人力密集型的数据标注产业链。

例如,众包平台Mechanical Turk上的20万名AI数据标注员,就分布在人力成本低廉的非洲和东南亚。印度甚至涌现了不少数据标注村,他们为美国、欧洲、澳洲和亚洲的AI公司服务。

在中国,上百万名 AI 数据标注员分布在贵州、山西、山东、河南等省份的二三线城市,并逐步向人力成本更低的县城渗透。

但讽刺的是,数据标注员正在被自己服务的AI所替代,已经有企业开始采用AI进行数据标注。

据彭博社1月14日报道,苹果公司将关闭圣地亚哥一个与人工智能业务相关的121人团队,这将导致数据标注员面临被解雇的风险。

那么,人工数据标注能否真的被AI全面替代,我们又是否会进入“AI训练AI”的时代呢?

AI自动化标注崛起

训练一个高效的大模型必不可少的是高质量的数据。OpenAI正是借助基于人类标注的数据,才一举从众多大模型企业中脱颖而出,让ChatGPT成为了大模型竞争中阶段性的胜利者。

但同时,OpenAI也因为使用非洲廉价的人工进行数据标注,被各种媒体口诛笔伐。

对于数据标注,一定需要找到一个新的方法,才能避免大量使用人工标注带来的包括道德风险在内的其他潜在麻烦。

因此,全球各大AI巨头和大型独角兽,都在进行数据标注自动化的探索。

苏黎世大学研究发现,ChatGPT平均每个标注成本低于0.003美元,比众包平台便宜20倍;在相关性、立场、主题等任务中,ChatGPT也是以4:1的效率优势“碾压”人类。

来自卡耐基梅隆大学、耶鲁大学和加州大学伯克利分校的一组研究人员更是发现:GPT-4在数据集标注表现上优于他们雇用的最熟练的众包员工。

这一突破为研究人员节约了超过50 万美元和2万个工时。

论文发出后,有网友评论称“这是直接端了平台工作者的饭碗”。

目前在自动驾驶领域,已经有车企开始采用AI进行自动化标注。

例如,特斯拉一直在积极推进自动化标注的进展,从2018至今,特斯拉的标注经历了4个阶段:

第1阶段(2018):只有纯人工的二维的图像标注,效率非常低;

第2阶段(2019):开始有3D label,但是是单趟的人工的;

第3阶段(2020):采用BEV空间进行标注,重投影的精度明显降低;

第4阶段(2021):采用多趟重建去进行标注,精度、效率、拓扑关系都达到了极高的水准。

2022年6月,特斯拉裁撤了200名为特斯拉标注视频以改进辅助系统的美国员工。

目前,特斯拉的自动标注能力大幅改善,标注10000个不到60秒的视频,大模型只需要运行一周即可,而同样的工作量人工标注却需要几个月的时间。

在国内,理想汽车董事长兼CEO李想曾在2023年4月份举行的一场论坛上表示,当理想汽车使用软件2.0的大模型,通过训练的方式进行自动化标定,过去需要用一年做的事情,基本上3个小时就能完成,效率是人的1000倍。

不仅如此,自动化标注工具也在飞速发展。

国外AI初创公司refuel推出了一个名为Autolabel的开源工具,可以使用市面上主流的大模型来对数据集进行标注。

该公司的测试结果称,Autolabel的标注效率相比人工标注提高了100倍,成本仅为人工成本的1/7。

国内一家名为视智未来的公司也在打造标注大模型。他们表示,有些项目已经用GPT交付了,准确率方面达到了80%多,与人工接近。

不得不说,在AI面前,无论成本还是效率,人类可以说是毫无优势。

RLAIF:AI标注训练方法

话说回来,ChatGPT是怎么抢了数据标注员的“饭碗”的?

以往数据标注员要干的事情,是将标注好的数据用作AI模型的训练集或评估标准,这个过程叫做RLHF(Reinforcement Learning from Human Feedback),即基于人类反馈的强化学习

RLHF也是被ChatGPT、Bard和LLaMA等新兴大模型带火的模型训练方法,它最大的好处就在于能够将模型和人类的偏好对齐,让大模型给出更符合人类表达习惯的回答。

不过发布在arXiv的一份论文表明,这份看起来只有人类能做的工作,也能被AI取代。AI取代了RLHF中的“H”,诞生了一种叫做“RLAIF”的训练方法。

这份由谷歌研究团队发布的论文显示,RLAIF能够在不依赖数据标注员的情况下,表现出能够与RLHF相媲美的训练结果——

如果拿传统的监督微调(SFT)训练方法作为基线比较,比起SFT,1200个真人“评委”对RLHF和RLAIF给出答案的满意度都超过了70%(两者差距只有2%);另外,如果只比较RLHF和RLAIF给出的答案,真人评委们对两者的满意度也是对半分。

具体而言,研究人员主要就“根据一段文字生成摘要”这一任务,展示了RLAIF的标记方法。

首先是序言(Preamble),用来介绍和描述手头任务的说明。给定一段文本和两个可能的摘要,输出1或2来指示哪个摘要最符合上述定义的连贯性、准确性、覆盖范围和整体质量。

其次是样本示例(1-Shot Exemplar)。给到一段文本,接着给到两个摘要,以及“摘要1更好”的偏好判断,让AI学着这个示例对接下来的样本做标注。

再次就是给出所要标注的样本(Sample to Annotate),包括一段文本和一对需要标记的摘要。

最后是结尾,用于提示模型的结束字符串。

就像人类标注员会给不同的回答打分一样(比如满分5分),AI也会依据偏好给每个摘要打分,这也是AI和人类标注员发挥作用的关键环节,主要是用于训练奖励模型(RM)并生成反馈内容。

论文介绍到,为了让RLAIF方法中AI标注更准确,研究者也加入了其他方法以获取更好的回答。

譬如为了避免随机性问题,会进行多次选择,其间还会对选项的顺序进行交换;此外还用到了思维链(CoT)推理,来进一步提升与人类偏好的对齐程度。

需要说明的是,谷歌的这篇论文也是第一个证明了RLAIF在某些任务上能够产生与RLHF相当的训练效果的研究。这意味着不用人类指点,AI也能训练自己的同类了。

该论文的发布很快收获了不少关注。比如有从业者评论道,等到GPT-5可能就不需要人类数据标注员了。

尽管这项工作凸显了RLAIF的潜力,但依然有一些局限性:

首先,这项研究仅探讨了摘要总结任务,关于其他任务的泛化性还需要进一步研究。

其次,研究人员没有评估LLM推理在经济成本上是否比人工标注更有优势。

此外,还有一些有趣的问题值得研究,例如RLHF与RLAIF相结合是否可以优于单一的一种方法,使用LLM直接分配奖励的效果如何,改进AI标注器对齐是否会转化为改进的最终策略, 以及是否使用LLM与策略模型大小相同的标注器可以进一步改进策略(即模型是否可以“自我改进”)。

重人力转向重技术

尽管AI自动化标注技术在快速发展,但第三方数据标注服务商并没那么乐观。

河南一家众包平台的项目经理认为,自动化标注还不能取代60%以上的标注需求,只能作为辅助标注工具处理单一或特定数据,提升人效。

另一家数据标注公司的产品经理认为,自动化标注只能过滤简单的基础数据,还不能像人一样从复杂有争议的场景中精确识别物体。

如果说简单的标注可以用AI来完成,那么人工参与的将是难度更高的数据筛选和标准工作,这也意味着数据标注行业的门槛将会不断提高。

作为对照,早在ChatGPT走红前,OpenAI就组建十几位博士生来“打标”。

而百度在海口的数据标注基地拥有数百名专职大模型数据标注师,标注师的本科率达到100%,需要具备一定的知识储备和逻辑分析能力。

不过大家也认同,未来的数据标注将从重人力转向重技术的趋势。

一家众包平台的创始人在和同行交流时说,未来不能堆人力,要有研发能力。也有从业者认为,人工标注对于泛化仍然极其重要,而RLHF+RLAIF混合方法比任何单一方法都要好。

总之,不是被同行“卷死”,就是被技术“卷死”。数据标注公司已做好了随时裁员的准备,同时向做自动化标注工具的方向发展。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-01-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 科技云报到 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景
RLHF 通过学习人类偏好,能够在难以手工设计奖励函数的复杂决策任务中学习到正确的奖励引导,得到了很高的关注,在不同环境中选择合适的人类反馈类型和不同的学习方法至关重要。
机器之心
2024/04/12
1490
ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景
GPT-4终结人工标注!AI标注比人类标注效率高100倍,成本仅1/7
大模型满天飞的时代,AI行业最缺的是什么?毫无疑问一定是算(xian)力(ka)。
新智元
2023/09/19
1.3K0
GPT-4终结人工标注!AI标注比人类标注效率高100倍,成本仅1/7
大模型RLHF不必非得靠人,谷歌:AI反馈效果一样好
RLHF,即基于人类反馈的强化学习,无论是ChatGPT还是开源的LLaMA都离不开它。
量子位
2023/09/08
3680
大模型RLHF不必非得靠人,谷歌:AI反馈效果一样好
清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来?
此次测评,还增加了Llama 3-8b 和Llama 3-70b两个最近炙手可热的模型。
新智元
2024/05/06
2880
清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来?
RLHF vs RL「AI」F,谷歌实证:大模型训练中人类反馈可被AI替代
根据人类反馈的强化学习(RLHF)是一种对齐语言模型与人类偏好的有效技术,而且其被认为是 ChatGPT 和 Bard 等现代对话语言模型的成功的关键驱动因素之一。通过使用强化学习(RL)进行训练,语言模型可以优化用于复杂的序列级目标 —— 使用传统的监督式微调时,这些目标不是轻易可微的。
机器之心
2023/09/08
6580
RLHF vs RL「AI」F,谷歌实证:大模型训练中人类反馈可被AI替代
对标ChatGPT,新AI助手Claude来了
导语| ChatGPT 自11月30日发布后,其令人惊艳的对话能力,引发业界对通用人工智能的讨论热潮。截至发文, OpenAI 一直保持遥遥领先,且并未透露更多的技术细节。近日新的 AI 助手 Claude 发布, ChatGPT 迎来强有力的竞争对手。来自腾讯的肖求根和杨帆将介绍 Claude 背后的技术,欢迎各位开发者一起讨论~
腾讯云开发者
2023/02/13
3.3K1
对标ChatGPT,新AI助手Claude来了
RLHF再也不需要人类了!谷歌团队研究证明,AI标注已达人类水平
谷歌团队的最新研究提出了,用大模型替代人类,进行偏好标注,也就是AI反馈强化学习(RLAIF)。
新智元
2023/09/09
4270
RLHF再也不需要人类了!谷歌团队研究证明,AI标注已达人类水平
【NLP】深入浅出,解析ChatGPT背后的工作原理
ChatGPT 是 OpenAI 发布的最新语言模型,比其前身 GPT-3 有显著提升。与许多大型语言模型类似,ChatGPT 能以不同样式、不同目的生成文本,并且在准确度、叙述细节和上下文连贯性上具有更优的表现。它代表了 OpenAI 最新一代的大型语言模型,并且在设计上非常注重交互性。
黄博的机器学习圈子
2023/01/10
1.4K0
【NLP】深入浅出,解析ChatGPT背后的工作原理
无需人工标注,自生成指令框架打破ChatGPT等LLM的成本瓶颈
机器之心报道 编辑:小舟 当前,大型语言模型的性能已经达到了很高的水平,除了进一步挖掘其潜力,我们还应该关注到模型背后的人工标注成本。 ChatGPT 是今年年底 AI 圈的新晋顶流,人们惊叹于它强大的问答语言能力和掌握的编程知识。但越是强大的模型,其背后的技术要求也就越高。 ChatGPT 是在 GPT 3.5 系列模型的基础上,引入「人工标注数据 + 强化学习」(RLHF)来不断微调预训练语言模型,旨在让大型语言模型(LLM)学会理解人类的命令,并学会根据给定的 prompt 给出最优的答案。 这种技术
机器之心
2023/03/29
6230
无需人工标注,自生成指令框架打破ChatGPT等LLM的成本瓶颈
无需人类反馈即可对齐!田渊栋团队新作RLCD:无害型、有益性、大纲写作全面超越基线模型
随着大模型的能力越来越强,如何低成本地让模型的输出更符合人类的偏好以及社会的公共价值观,就显得尤为重要。
新智元
2023/09/09
2690
无需人类反馈即可对齐!田渊栋团队新作RLCD:无害型、有益性、大纲写作全面超越基线模型
LLM成功不可或缺的基石:RLHF及其替代技术
在讨论 LLM 时,我们总是会涉及一个名为「使用人类反馈的强化学习(RLHF)」的过程。RLHF 是现代 LLM 训练流程中不可或缺的一部分,因为它可以将人类偏好整合到优化图景中,从而提升模型的有用性和安全性。
机器之心
2023/10/08
7990
LLM成功不可或缺的基石:RLHF及其替代技术
ChatGPT又添劲敌?OpenAI核心员工创业,新模型获一片叫好
机器之心报道 编辑:泽南、张倩 在 ChatGPT 巨人的肩膀上又有了改进。 ChatGPT 给 AI 领域带来的变革,可能正在催生一个新产业。上周末,有消息称 AI 初创公司 Anthropic 即将获得大约 3 亿美元的新融资。 Anthropic 由 OpenAI 前研究副总裁 Dario Amodei、GPT-3 论文一作 Tom Brown 等人在 2021 年共同创立,目前已筹集了超过 7 亿美元的资金,最新一轮的估值达到了 50 亿美元。他们开发了一种对标老东家知名产品 ChatGPT 的人工
机器之心
2023/03/29
3260
ChatGPT又添劲敌?OpenAI核心员工创业,新模型获一片叫好
ChatGPT发展历程、原理、技术架构详解和产业未来
去年12月1日,OpenAI推出人工智能聊天原型ChatGPT,再次赚足眼球,为AI界引发了类似AIGC让艺术家失业的大讨论。
边缘计算
2023/02/23
1.3K0
ChatGPT发展历程、原理、技术架构详解和产业未来
RLAIF:一个不依赖人工的RLHF替代方案
LLM可以标记人类偏好数据,用于强化学习吗?尽管之前有一些类似的研究,但从没有人系统地对比RLHF和RLAIF的性能。今天,我们为大家带来一项Google最新的研究,来看看LLM是否懂得人类的偏好。
zenRRan
2023/09/11
1.5K0
RLAIF:一个不依赖人工的RLHF替代方案
2023 年 AI 与开源行业:今年第一篇盘点文章出炉了
我们正一步步迈向 2023 年的终点,也许是时候对这一年来 AI 研究、行业动态以及开源领域发生的主要变化做一番简要回顾了。当然,这篇文章不可能面面俱到。我们只挑干货,一同审视这风云变幻的一年中都有哪些大事值得回味。
深度学习与Python
2023/11/01
3670
2023 年 AI 与开源行业:今年第一篇盘点文章出炉了
解读ChatGPT中的RLHF
无论是 ChatGPT 还是 GPT-4,它们的核心技术机制之一都是基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)。这是大型语言模型生成领域的新训练范式,即以强化学习方式依据人类反馈优化语言模型。那么,什么是 RLHF 呢?
半吊子全栈工匠
2023/09/02
1.6K0
解读ChatGPT中的RLHF
教会羊驼说话:Instruction Tuning的最新进展
大型语言模型(LLM),凭借其数十亿的参数和数万亿token的庞大训练数据,展现了强大的功能。为了成为一种全能的任务解决工具,LLM必须学会根据用户指令作出连贯且有益的回应,而不仅仅是重复网络上的语言模式。基于此,开放式指令调整open-ended instruction tuning[1]应运而生。这种方法对LLM进行微调,使其能够按照用户的指令作出有用、诚实和无害的回应。随着ChatGPT取得巨大成功,人们对这种方法的兴趣日益浓厚。开放式指令调整通常包括两个阶段:
zenRRan
2023/12/15
4920
教会羊驼说话:Instruction Tuning的最新进展
深度学习大牛权威预测2024年AI行业热点,盘点开源AI趋势!
知名人工智能研究人员SEBASTIAN RASCHKA在进入2023年尾声的时候,对几年行业的发展进行了一个全面的回顾。
新智元
2023/12/05
8210
深度学习大牛权威预测2024年AI行业热点,盘点开源AI趋势!
解密prompt25. RLHF改良方案之样本标注:RLAIF & SALMON
上一章我们主要唠了RLHF训练相关的方案,这一章我们主要针对RLHF的样本构建阶段,引入机器标注来降低人工标注的成本。主要介绍两个方案:RLAIF,和IBM的SALMON。
风雨中的小七
2024/03/20
5430
解密prompt25. RLHF改良方案之样本标注:RLAIF & SALMON
RLHF何以成LLM训练关键?AI大牛盘点五款平替方案,详解Llama 2反馈机制升级
在ChatGPT引领的大型语言模型时代,一个绕不过去的话题就是「基于人类反馈的强化学习」(RLHF),不仅提升了语言模型的性能,也将人类社会的价值观注入到模型中,使得语言模型能够帮助用户解决问题,提高模型的安全性。
新智元
2023/09/19
9590
RLHF何以成LLM训练关键?AI大牛盘点五款平替方案,详解Llama 2反馈机制升级
推荐阅读
相关推荐
ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档