大数据文摘出品
今年三月份,谷歌宣布生成式AI Bard推出Beta测试版,当时的版本只面向美国和英国用户开放公测,且暂时只支持英语。
图注:Bard已经有专属中文界面!堪称定制化的中文服务
今天,Bard发布重大更新!Bard 支持的语言目前新增了 40 多种,包括阿拉伯语、中文(简体/繁体)、德语、印地语、西班牙语等。
同时,谷歌还增加了推出 Bard 的地区,包括欧盟的 27 个国家/地区和巴西。不过仍然没包含中国。
对于此次更新,称之为“史诗级”:Today we’re announcing Bard’s biggest expansion to date.
1.Bard 支持 Google 智能镜头:与 Bard 对话时,你可以上传图片及文字,并要求Bard提供有关图片的信息,相关功能暂时只支持英语。
2.Bard 可以朗读回答内容了:在 Bard 中添加了文字转语音功能。该功能支持 40 多种语言,包括印地语、西班牙语和英语(美国)。
3.固定对话和近期对话:可以随时返回之前与 Bard 的对话继续互动,还可根据需要整理对话。
4.与他人分享 Bard对话:利用可分享的链接,让其他人只需轻轻一点,即可轻松流畅地查看你的 Bard 对话内容和相关信息来源。
图注:修改回答
5.修改 Bard 的回答:推出了 5 个新选项,可用来修改 Bard 的回答。只需点按相应的选项,即可让回答内容变得更加简单一点、详尽一点、简短一点、专业一点或随意一点。
6.将 Python 代码导出至 Replit:除了 Google Colab 之外,还可以将 Python 代码导出到 Replit。
关于谷歌的Bard计划
目前Bard 是一个实验项目,由Google 的 PaLM 2 模型提供支持,让用户能够与生成式 AI 协同合作。
自从OpenAI在2022年11月发布ChatGPT后,Google似乎一直在努力迎头赶上其AI的发展。
2023年5月的Google I/O年度大会有了实质性的动作。在长达两小时的主题演讲中,谷歌CEO Sundar Pichai和其他高管演讲者,更是多达140次以上提到了“生成式AI”。
谷歌全力投入到科技潮流中。尽管Bard的用户数未能达到ChatGPT的水平,但近期增长显著,今日的更新可能进一步推动其增长。
相比ChatGPT,Bard的最大优势是巨大的信息资源,他们可以依托谷歌的搜索工具获取最新信息,根据自己的梳理给出答案。此前ChatGPT的训练数据最新只到2021年,无法回答2022年之后的信息咨询。此外,Bard的回复速度也明显快于ChatGPT。
Bard可以联网搜索信息,意味着用户可以直接询问今天的体育比赛比分、股价价格走势、系列新闻动态。
文摘菌试了一下,搜索中文资料的功能,感觉非常差。
图注:Bard的中文搜索功能
不过,有网友表示,Bard的精准识图功能异常强大:更新后的Google Bard能够查看我的手表的照片,正确识别手表的特定品牌和型号,并从手表表面读取数据。
谷歌人工智能现状:骨干研究员“出逃”
从体验上可以看出,谷歌Bard的功能在生成文本,理解内容方面不如GPT-4;在上下文窗口容纳方面没“卷”过Claude。虽然新增了“精准识图”功能,但能释放的生产力肯定不如前者。
似乎谷歌的AI之路这两年总是慢了半拍。究其原因,除了犹豫是否发布与ChatGPT类似的聊天机器人的“墨迹”的性格,可能还和“留不住人”的企业文化有关。彭博社消息,Transformer合作者Llion Jones将于本月底离开谷歌。
Transformer来源于论文“Attention is All You Need”,这篇开山之作奠定了今天生成式AI和大模型的基石。算上Llion Jones,当时署名的6位谷歌研究员,已经全部离职。
Ashish Vaswani在Google Brain工作了五年后离职,创办了Adept(生成性AI工具);
Noam Shazeer在Google工作了21年,现在是Character.AI的首席执行官;
Niki Parmar在Google工作后与Vaswani一起创立了Adept,但后来她也离开了Adept创立了新的公司;
Jakob Uszkoreit在Google工作13年,现在他是Inceptive的联合创始人;
Aidan Gomez现在是Cohere的联合创始人和首席执行官;
Lukasz Kaiser离开Google后加入了OpenAI,他对OpenAI的GPT-4做出了重要贡献;
Illia Polosukhin在Google工作三年后创立了NEAR,致力打造Web3系统。
此外,还有一些重磅论文的重要作者也离开谷歌。例如:提出通用的端到端的序列学习方的论文“Sequence to Sequence Learning with Neural Networks”。
Ilya Sutskever著名论文“序列-to-序列”的第一作者,在谷歌待了3年,于2015年离开谷歌,目前是OpenAI的首席科学家。
Google的首个聊天机器人Meena 的技术论文“Towards a Human-like Open-Domain Chatbot”,被认为是大语言模型的又一个重要里程碑,论文提出了一种想法,即创建一个大型语言模型,对任何问题生成像人一样的回应,无需硬编码(hard-coded)训练。
但里面的两个研究员Daniel De Freitas和Romal Thoppilan都已经离职,前者在Google Brain工作了五年,后者工作了七年,现在两者共同成立了Character.AI。
论文“LaMDA: Language Models for Dialog Applications”是Bard聊天机器人的技术基础,比Meena更强大,目前LaMDA的几位主要研究人员已经离开谷歌,加入了Character.AI,包括前面提到的:Noam Shazeer、Daniel De Freitas。此外,在谷歌工作了四年的Alicia Jin也已经加入了Character.AI。
BERT是一种基于Transformer模型的自然语言处理工具,它通过预测隐藏或"掩码"的词来更好地理解文本。例如,如果你查询"你能否为别人在药店买药",它会理解到"别人"是查询的关键部分。自2019年Google将BERT纳入搜索以来,它已经极大地提高了搜索的准确性。这篇论文由Jacob Devlin领导,他曾短暂在OpenAI工作,但最近又回到了Google。
论文“Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer”提出了著名的T5架构,这篇论文的主导者Colin Raffel,也在2021年离开Google Brain。Raffel现在是北卡罗来纳大学教堂山分校的助理教授,并在Hugging Face每周担任一天的研究员,用户可以在那里共享大型语言模型和数据集。
论文“Chip placement with deep reinforcement learning”和“A graph placement methodology for fast chip design” 能利用AI在芯片设计中达到最大性能,同时减少面积和电力使用。这些发现帮助Google设计了专为机器学习任务的TPU芯片。论文的两位重要作者Mirhoseini和Goldie在2022年离开Google,加入了开发大型语言模型和名为Claude的聊天机器人的Anthropic。
至于离职的原因,有员工表示,在AI发展如此激动人心的时刻,初创公司为研究人员提供了机会,让他们拥有更多的自主权,并可能产生更大的影响。
换句话说,在谷歌推出新的想法 “太难了”,因为一旦失败会对大公司声誉造成非常大的影响。