前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌·Bard“史诗级”更新:定制化的中文服务,开放图像分析功能

谷歌·Bard“史诗级”更新:定制化的中文服务,开放图像分析功能

作者头像
大数据文摘
发布2023-08-08 10:56:33
3360
发布2023-08-08 10:56:33
举报
文章被收录于专栏:大数据文摘

大数据文摘出品

今年三月份,谷歌宣布生成式AI Bard推出Beta测试版,当时的版本只面向美国和英国用户开放公测,且暂时只支持英语。

图注:Bard已经有专属中文界面!堪称定制化的中文服务

今天,Bard发布重大更新!Bard 支持的语言目前新增了 40 多种,包括阿拉伯语、中文(简体/繁体)、德语、印地语、西班牙语等。

同时,谷歌还增加了推出 Bard 的地区,包括欧盟的 27 个国家/地区和巴西。不过仍然没包含中国。

对于此次更新,称之为“史诗级”:‍Today we’re announcing Bard’s biggest expansion to date.

1.Bard 支持 Google 智能镜头:与 Bard 对话时,你可以上传图片及文字,并要求Bard提供有关图片的信息,相关功能暂时只支持英语。

2.Bard 可以朗读回答内容了:在 Bard 中添加了文字转语音功能。该功能支持 40 多种语言,包括印地语、西班牙语和英语(美国)。

3.固定对话和近期对话:可以随时返回之前与 Bard 的对话继续互动,还可根据需要整理对话。

4.与他人分享 Bard对话:利用可分享的链接,让其他人只需轻轻一点,即可轻松流畅地查看你的 Bard 对话内容和相关信息来源。

图注:修改回答

5.修改 Bard 的回答:推出了 5 个新选项,可用来修改 Bard 的回答。只需点按相应的选项,即可让回答内容变得更加简单一点、详尽一点、简短一点、专业一点或随意一点。

6.将 Python 代码导出至 Replit:除了 Google Colab 之外,还可以将 Python 代码导出到 Replit。

关于谷歌的Bard计划

目前Bard 是一个实验项目,由Google 的 PaLM 2 模型提供支持,让用户能够与生成式 AI 协同合作。

自从OpenAI在2022年11月发布ChatGPT后,Google似乎一直在努力迎头赶上其AI的发展。

2023年5月的Google I/O年度大会有了实质性的动作。在长达两小时的主题演讲中,谷歌CEO Sundar Pichai和其他高管演讲者,更是多达140次以上提到了“生成式AI”。

谷歌全力投入到科技潮流中。尽管Bard的用户数未能达到ChatGPT的水平,但近期增长显著,今日的更新可能进一步推动其增长。

相比ChatGPT,Bard的最大优势是巨大的信息资源,他们可以依托谷歌的搜索工具获取最新信息,根据自己的梳理给出答案。此前ChatGPT的训练数据最新只到2021年,无法回答2022年之后的信息咨询。此外,Bard的回复速度也明显快于ChatGPT。

Bard可以联网搜索信息,意味着用户可以直接询问今天的体育比赛比分、股价价格走势、系列新闻动态。

文摘菌试了一下,搜索中文资料的功能,感觉非常差。

图注:Bard的中文搜索功能

不过,有网友表示,Bard的精准识图功能异常强大:更新后的Google Bard能够查看我的手表的照片,正确识别手表的特定品牌和型号,并从手表表面读取数据。

谷歌人工智能现状:骨干研究员“出逃”

从体验上可以看出,谷歌Bard的功能在生成文本,理解内容方面不如GPT-4;在上下文窗口容纳方面没“卷”过Claude。虽然新增了“精准识图”功能,但能释放的生产力肯定不如前者。

似乎谷歌的AI之路这两年总是慢了半拍。究其原因,除了犹豫是否发布与ChatGPT类似的聊天机器人的“墨迹”的性格,可能还和“留不住人”的企业文化有关。彭博社消息,Transformer合作者Llion Jones将于本月底离开谷歌。

Transformer来源于论文“Attention is All You Need”,这篇开山之作奠定了今天生成式AI和大模型的基石。算上Llion Jones,当时署名的6位谷歌研究员,已经全部离职。

Ashish Vaswani在Google Brain工作了五年后离职,创办了Adept(生成性AI工具);

Noam Shazeer在Google工作了21年,现在是Character.AI的首席执行官;

Niki Parmar在Google工作后与Vaswani一起创立了Adept,但后来她也离开了Adept创立了新的公司;

Jakob Uszkoreit在Google工作13年,现在他是Inceptive的联合创始人;

Aidan Gomez现在是Cohere的联合创始人和首席执行官;

Lukasz Kaiser离开Google后加入了OpenAI,他对OpenAI的GPT-4做出了重要贡献;

Illia Polosukhin在Google工作三年后创立了NEAR,致力打造Web3系统。

此外,还有一些重磅论文的重要作者也离开谷歌。例如:提出通用的端到端的序列学习方的论文“Sequence to Sequence Learning with Neural Networks”。

Ilya Sutskever著名论文“序列-to-序列”的第一作者,在谷歌待了3年,于2015年离开谷歌,目前是OpenAI的首席科学家。

Google的首个聊天机器人Meena 的技术论文“Towards a Human-like Open-Domain Chatbot”,被认为是大语言模型的又一个重要里程碑,论文提出了一种想法,即创建一个大型语言模型,对任何问题生成像人一样的回应,无需硬编码(hard-coded)训练。

但里面的两个研究员Daniel De Freitas和Romal Thoppilan都已经离职,前者在Google Brain工作了五年,后者工作了七年,现在两者共同成立了Character.AI。

论文“LaMDA: Language Models for Dialog Applications”是Bard聊天机器人的技术基础,比Meena更强大,目前LaMDA的几位主要研究人员已经离开谷歌,加入了Character.AI,包括前面提到的:Noam Shazeer、Daniel De Freitas。此外,在谷歌工作了四年的Alicia Jin也已经加入了Character.AI。

BERT是一种基于Transformer模型的自然语言处理工具,它通过预测隐藏或"掩码"的词来更好地理解文本。例如,如果你查询"你能否为别人在药店买药",它会理解到"别人"是查询的关键部分。自2019年Google将BERT纳入搜索以来,它已经极大地提高了搜索的准确性。这篇论文由Jacob Devlin领导,他曾短暂在OpenAI工作,但最近又回到了Google。

论文“Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer”提出了著名的T5架构,这篇论文的主导者Colin Raffel,也在2021年离开Google Brain。Raffel现在是北卡罗来纳大学教堂山分校的助理教授,并在Hugging Face每周担任一天的研究员,用户可以在那里共享大型语言模型和数据集。

论文“Chip placement with deep reinforcement learning”和“A graph placement methodology for fast chip design” 能利用AI在芯片设计中达到最大性能,同时减少面积和电力使用。这些发现帮助Google设计了专为机器学习任务的TPU芯片。论文的两位重要作者Mirhoseini和Goldie在2022年离开Google,加入了开发大型语言模型和名为Claude的聊天机器人的Anthropic。

至于离职的原因,有员工表示,在AI发展如此激动人心的时刻,初创公司为研究人员提供了机会,让他们拥有更多的自主权,并可能产生更大的影响。

换句话说,在谷歌推出新的想法 “太难了”,因为一旦失败会对大公司声誉造成非常大的影响。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-07-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档