Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >对话算想未来创始人赵亚雄:希望做“为中国 AI 经济而生的 AWS”

对话算想未来创始人赵亚雄:希望做“为中国 AI 经济而生的 AWS”

作者头像
数据派THU
发布于 2023-05-18 03:11:10
发布于 2023-05-18 03:11:10
37800
代码可运行
举报
文章被收录于专栏:数据派THU数据派THU
运行总次数:0
代码可运行
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
本文约9000字,建议阅读10+分钟“全球最聪明的人都在大模型创业,没人会禁受得住它的诱惑。”

ChatGPT爆火,引得全世界为之疯狂,恍惚中一夜之间,人人都在讨论ChatGPT,所有大佬和资本纷纷涌进大模型。

上一次如此热闹还是Web 3,不过相对前者是少部分人的自娱自乐,大模型则像魔法,引得全民为之着迷,短短 2 个月内 ChatGPT 就收获 1 亿用户,币圈甚至认为过去3个月内AI创造的价值,超过了虚拟货币历史上创造价值的总和。而创业者和投资人对大模型更狂热,更加充满信念感,坚信大模型的历史意义将不亚于电力的发明;而争夺大模型技术的领导地位,则像“研发核武器”。

“全球最聪明的人都在大模型创业,没人会禁受得住它的诱惑。”前极狐(GitLab)创始人陈冉这样对AI科技评论说。

一个资深技术极客赵亚雄博士亦是如此。2019年从工作了六年的谷歌离职后,便一直奔赴在创业前线,最初加入创业公司Pixie小试牛刀,2022年他决定回国,因为国内涌现出的创业机会深深吸引着他——中国正在发展独立自主技术体系,中国要做自己的IT技术栈,发展自己的技术生态。对他来说,脑海中有无数诱人的技术创新点子,但是在美国成熟的技术生态中,这些想法都显得过于激进。

对他这样一个在国外科技大厂经受过近十年技术训练的人来说,这是一个难能可贵的机会。从2008年到2019年的十年里,赵亚雄博士分别在Amazon、Google工作,在基础软件领域已经成为一名资深的技术极客。

懂技术有国际视野还心怀一腔热情,这是支撑他在人生的舒适期,从大厂离职出来完成自己创业梦想的基础。

2022 年 10 月回国后,赵亚雄博士获得奇绩创坛创始人 CEO 陆奇博士的天使轮投资,开始了每周工作 100 小时以上的硬核模式。他长期关注 OpenAI 及硅谷创投生态,看到在自动驾驶长期无法获得突破、AI 创业领域一片低迷的情况下,ChatGPT从 11 月底横空出世后,重新激发了全球范围内对 AI 的狂热。

“未来一定是AI的世界”,赵亚雄博士的商业猜想转移到大模型。但他的商业方案“算想未来”不直接参与做大模型,而是要做大模型和AI应用的基础设施。未来“算想未来”要做AI的基础设施—— AI IaaS Cloud,区别于传统的云计算厂商,即一个以AI为导向的云计算厂商。

赵亚雄博士基于自己长期在Google 为 Google Brain、DeepMind 构建的大规模高性能机器学习计算平台上的经验,敏锐地意识到中国大模型的研发,受制于基础设施软件薄弱、人才稀缺、以及 GPU 芯片禁售的风险。他坚信,接下来将迎来大模型大爆发,对算力的需求随之会暴涨,“算想未来”就是要承接住大模型带来的这部分机会。

以下是AI科技评论与赵亚雄博士的对话,讲述了他对大模型的认知,对国内云计算、SaaS产品发展的分析以及“算想未来”的规划。

要做大模AI的基础设施

提问:是什么时候关注的大模型?

赵亚雄:2018 年我们就关注到来自 OpenAI 的博客 “AI and Compute”(https://openai.com/research/ai-and-compute)的一个结论:大模型的算力需求每 3.4 个月翻一番。我还在 Google 时,Google就一直保持对大规模机器学习、深度学习的投入,我这边所在的 Borg 团队一直有专门的小组支持 Google Brain、DeepMind ,负责在大规模 GPU、TPU 集群上的资源管理和调度。

我们一直关注Transfomer、GPT 的进展,但是 ChatGPT 的诞生确实完全出乎意料,的确完全超出了我们之前脑海中固化的“线性发展”的能力曲线。也从前同事了解到ChatGPT对Google的冲击,感到非常震撼。

2018 年我们尝试了 GPU Cloud 的创业方案,2020 年又尝试了 Compute Infra with AI Chips,都没有成功。当时最大的阻力在于,大规模的 AI 算力需求仍然只是头部大厂的小众需求,市场空间有限。真正重新唤起我们对 AI 基础设施的热情,是在 3 月 27 日陆奇博士在奇绩创坛得宣讲会上,他认为大模型已经带来划时代得变革。

3月 27 号那天,陆奇博士召开了一个奇绩创坛内部成员企业的转型研讨会,主要是有关AI、大模型。我们都知道陆奇博士他对AI领域的贡献:作为AI的一名布道者,他很早就参与过 OpenAI 的早期工作,在微软也一直在做搜索及人工智能方面的技术管理,百度的“All in AI ”战略也是他制定的。

在这个研讨会上,通过陆奇博士的视角,让我从整个人类社会经济历史、社会发展以及大模型带来的机会,对大模型有了更加深刻的认识。

我们意识到 AI 基础设施软件,对中国大模型团队追赶 OpenAI 至关重要。基于我们跟 OpenAI 基础设施团队过往的交流,我们认为中国没有可以匹敌 OpenAI 的基础设施软件技术团队,这是“算想未来”的起点。

提问:也就是我们要做AI的云,但是现在国内公有云竞争已经是一片红海了。

赵亚雄:传统 Cloud 市场确实是红海。但是大模型和 AI 应用的需求,完全不同于传统 Cloud 所服务的软件系统。在大模型和 AI 应用领域,大家的技术积累没有质的差别。

首先我们看到中国现在有个最大的机会,就是中国正在发展独立自主技术体系,也就是常说的国产替代,从政府到公众、以及企业都推动。如此一来,从芯片,到服务器等基础设施,再到上面的模型应用,都有机会完全独立自主。每个层面都有全新的机会。

另外,因为 AI 大模型带来的AI算力的需求,包括AI的训练和AI的应用研发,这些场景衍生出来的公有云需求,会持续快速增长。我们有一个非常有名的统计数据——OpenAI 在 2018 年写的 AI and compute 的一个blog,里面介绍了他们统计的每个时间阶段最大的深度学习模型,它训练所需要的算力总额,每3.4个月就要翻一翻。那可想而知,随着未来 AI 持续地被更多人使用,算力以及从算力衍生出来的大数据还有 AI 应用研发,对基础设施的需求会很快地超过传统的云计算。

提问:能具体讲讲怎么做AI、大模型的基础设施吗?

赵亚雄:我们要做一个操作系统,或者说一个管理 AI超级计算机的基础设施软件平台。

这个操作系统将 GPU(以及其他定制化的AI芯片)的算力,充分释放给上层的 AI训练和推理,特别是大模型的训练。我们现在要做的这个 GPU 计算平台软件,实际上就是让大模型训练,可以高效地扩展到GPU集群所能允许的最大规模,提升训练过程中对硬件的使用效率,加速大模型训练的迭代速度,最终达到快速追赶 OpenAI 的目标。

通过扩大规模来提高硬件使用效率,缩短模型训练的时间周期,原来可能要两个月训练,我们现在可以三个星期完成,快速地进行模型研发、迭代,从而加速去追赶 OpenAI ,尽早达到OpenAI  GPT 3.5 或者  GPT 4 的能力。

“算想未来”第一阶段关注提升分布式大模型训练的规模;第二阶段,我们会寻求国产 AI算力的硬件,即GPU和其他 AI芯片的合作,为大模型及AI应用提供最具性价比的AI推理算力,并推出算想未来自己的AI算力基础设施解决方案,来为大中型企业建立私有AI云。

“算想未来”的最终目标,是在第三阶段,集合大数据、训练、推理以及其他 AI 计算相关的基础设施能力和服务,立足中国、服务全球,成为中国领先的 AI IaaS 云服务提供商。

提问:上面提到超级计算机,是类似Meta的RSC(https://ai.facebook.com/blog/ai-rsc/)

赵亚雄:AI 超算的这个概念,现在指的是一类专门来服务大规模机器学习和深度学习,还有其他 AI 训练的一类集群式的计算平台。我们说的超算跟你提到Meta的RSC,其它的系统还有Google TPU Pod(https://cloud.google.com/tpu)、Tesla Dojo ExaPod(https://www.tesla.com/AI)这些都是同一类型的硬件系统。

AI超算的硬件之上还有软件层,那这个软件层我们可以把它想象成, AI超级计算机的操作系统,它最核心的是要提供一种能力:可以把底层硬件的算力资源,通过软件的 API 形式,更容易地让模型这些框架性的软件高效率地对接起来,从而让机器学习和人工智能的研究人员和 AI 应用的开发者,可以用尽量小的研发投入,来使用 AI 超级计算机下面的硬件计算能力。

提问:国内做AI公有云的,有百度百舸、火山引擎,我们是对标他们吗?

赵亚雄:是的。百度百舸,是针对客户自有硬件之上的私有化部署的软件产品。“算想未来”在第二阶段推出的私有 AI 基础设施解决方案,就会包含一个与百舸类似的软件平台。而火山引擎中针对 AI 的基础设施云服务,包括网络,相关大数据产品,也是我们未来要尝试的方向。“算想未来”的优势在于,拥有来自硅谷一线大厂中核心 AI 基础设施团队,从事 AI 超算系统研发的实践经验。

另一个区别在于大家聚焦点不同,“算想未来”平台聚焦底层硬件资源的管理、优化、调度。而以上的产品专注在提供软件工具来帮助机器学习研究者、AI 应用开发者,来更快速完成机器学习模型代码和AI 应用代码的编写。换言之,“算想未来”关注的是如何将硬件资源以软件 API 的形式呈现给机器学习研究者、AI 应用开发者,让模型训练、AI 应用能更高效地使用硬件资源。

此外,我们的平台将聚焦在支持国产 GPU,目标是基于国产 GPU 构建媲美 nVidia 芯片的算力平台解决方案。以上百舸、火山引擎也支持其他非 nVidia GPU,但只是将其作为补充、并非核心。从技术独立自主这个角度看,百舸、火山引擎并没有优势。

大模型的未来

提问:前面提到“算想未来”是基于大模型做基础设施,提供公有云服务,那您怎么看待国内这群做大模型的人和公司?我们听到的有一种观点是,目前国内这些做大模型的企业大多都是白费力气,他们用的都是很老的算法,您为什么不直接切入做大模型,而是要做大模型的基础设施?

赵亚雄:首先我认为这些投资和大模型团队的出现都是非常好的,对中国的AI发展有积极作用。

这一次,在人工智能方面,中国和美国的差距通过 ChatGPT 放大出来。以前官方报道的中国人工智能的水平,很多是通过专利、论文,还有毕业工程师和博士的数量等等,这种量化指标来体现。那这些量化指标有个很大的缺陷,就是没有关注AI 理论研究的实际水平,以及支持 AI 理论研究和应用软件系统的基础设施(包括硬件、软件)的能力, AI 应用实际落地的商业闭环和对 Ai 技术生态的飞轮效应。

ChatGPT让我们看到美国整个生态是有更深的“内功”,以前不过是发“大招”之前的蓄力,看上去平平常常,一爆发就震惊世界。

当然差距没有想象中那么大。相比之前各个轮次的创业热点来说,这次的热点是一个完全由技术驱动的创业热潮。上一轮技术驱动的热潮是无人车,但当时的问题是它是以美国的团队为核心,像小马智行、文远知行等,实际上都是美国的人才在美国的土地上来做这件事情,虽然接受了大量中国风投的资金,但是它整个还是美国公司。

这一次大模型的创业有一个非常好的变化,就是中国本土的人员搭上本土的资金,然后也是完全关注中国本土市场,而且完全由技术驱动。

以技术驱动的创业,最后能取得好的商业成果的概率都是很低的。这是毋庸置疑的。但是,技术驱动的创业所积累下来的技术成果,在未来都是有更大机会在新的场景下发挥价值,这跟以往的商业模式驱动的同质化创业竞争区别就在这儿。商业模式同质化竞争的失败者,他所积累的东西本身几乎没有复用价值,至多就是提供给后来者如何规避商业竞争中的同类风险。

“算想未来”的信心在于,我们能搭建一个世界一流的工程团队,拥有在硅谷头部企业研究团队中实践大模型训练的技术经验,根据我们在美国的技术经验和技术的实践成果,把这些技术能力转移到国内来做第一批早期客户。

我们最近也是跟国内的大模型团队,还有其他的历史更长的一些人工智能公司做交流。我们很明显地感觉到,大家对基础设施方面有一些共性的技术问题,都是我们之前在 Google 还有其他的公司都已经解决过的。所以在技术解决能力上我们很有信心。

提问:您说我们正在跟很多大模型团队有过讨论,能透露一下接触过哪些团队吗?

赵亚雄:所有中国过去一段时间出现的大模型团队,我们都在接触中。另外还有一些传统的 AI 应用厂商,大家耳熟能详企业,我们也在积极地做业务拓展,具体的信息在“算想未来”后期有了阶段性成果之后,肯定会公布出来。

提问:既然您同意国内大模型创业公司只有30+家,竞争激烈,后期活下来的也不会很多。那么,“算想未来”闯进AI的基础设施领域,市场空间有多大?

赵亚雄:首先要明确一点,我们的AI IaaS Cloud只是从服务大模型团队做切入,实际上我们的愿景是AI 基础设施的云服务,它无论是大模型、中模型,还是小模型,甚至是边缘的,甚至是嵌入式移动端的,都会有相应的需求。我们会为所有的企业提供相应的训练、推理,还有大数据以及其他支撑性的软件服务,像 MLOPs、AI 应用框架、Serverless AI 等等这些。

目前大模型创业,是争夺大模型市场的领导地位,其中绝大多数企业都会在竞争中被淘汰,从而消失,或者只享有极小的市场份额。但是这不意味着未来只有极少数几家大模型团队。实际上在主流投资圈关注的视野之外,有很多大模型团队都在默默地自由生长着。最后的格局应该是少数几家头部,后面跟了大量长尾的大模型团队服务各个行业客户。

另一个方面,大模型训练也不是少数企业才会有的需求。因为大模型开启了 AI 经济的序幕,意味着一般意义上的 AI 模型即将被大多数消费者、软件厂商所接受。

此外,虽然大模型与传统手工编写的软件,采用了完全不同的生产方式,但大模型仍然是一种软件,仍然需要在使用过程中不断进行重新训练、微调来满足用户的具体需求,这导致需求会源源不断。

正如用户在使用开源软件,都或多或少会进行相应的定制,因此不会出现由少数几个大模型公司垄断模型训练、推理的情况。

综上,我们认为以大模型训练为开端,逐步扩大和深入的国内AI经济,将会是一个多元多维度不断发展的市场,不会是单一的,也不会是停滞的市场。

提问:大模型会给中国软件产业带来什么样的影响?

赵亚雄:鉴于中国经济的独特结构,国有企业主导的、以公有制主体的经济格局,要有美国模式的 SaaS 产品出现,成本太高了。

大模型的出现意味着以 AI 为主体的软件服务,会给中国软件产业带来跳跃式发展。如同中国跳过 PC 互联网的成熟而直接进入移动互联网,中国的软件服务业也会跳过 SaaS 进入 AiaaS 阶段,这意味着绝大部分软件应用都会用AI 模型来支持其功能,也意味着更广泛的 AI 算力需求,这正是“算想未来”最关注的市场空间。

如此一来,国内的 AI 基础设施市场有机会出现一个“为中国 AI 经济而生的 AWS”,在AI云上也随之能长出如Netflix这样的现象级SaaS应用。这是“算想未来”的机会和目标。

但国内这些以大模型为核心的公司,不会成为像AWS那样的大公司。我们当然是希望王慧文这样的成功创业者,能走出一条出人意料的商业化路径,这也是我们愿意跟所有的大模型团队,一起来琢磨在更大的集群上跑更大的模型的办法,首先完成对 OpenAI 的追赶,然后大家再厮杀角逐出最强的团队,跑出最好的商业模式。

提问:为什么国内这批以大模型为核心的创业公司,不会成为像AWS那样的大公司?

赵亚雄:假设这些大模型公司,打算以大模型构建公有云平台,那这意味着大模型要具有广泛的应用能力,来为其他 AI 应用团队提供一种等同于(现有公有云上的)IaaS 能力,换句话说,AI 应用团队要能够使用大模型来搭建自己的 AI 应用。

这就存在两个问题:

1、大模型的泛化能力有待验证。现在仅仅依靠文本语言作为媒介的大模型,虽然表现出了类人的能力,但是难以想象这种能力如何作为基础能力,来嵌入其他应用,即商业化场景模糊。

2、大模型的技术壁垒有限。LLaMA开源之后,其能力已经接近、或部分超越 GPT3,虽然 GPT4 的能力大幅提升。但是在大厂之间,模型的能力差距在 3 年之内(以两者发布时间为对比, llama 2023年对比 GPT3 2020 年),并且这个差距是在 meta 等企业无意持续扩大模型和训练数据规模的情况下产生的。OpenAI 尚且可以凭借先发优势,保证市场主导地位,而国内公司由于均处于同一出发点,而且在技术路线上完全跟踪 OpenAI,因此并不存在一家独大的现实基础。

当然一切仍需由市场、时间给出答案。美团诞生之初,恐怕也很难以预测其能成长为 O2O 的统治者吧。

国内SaaS的机会?

提问:回到“算想未来”,名字是您取的吗?有什么样的含义或者寄予了怎样的意义?

赵亚雄:一开始项目名字叫初芯,大概意思就是说 AI 的计算,但是很多人反映听上去像一个做芯片的公司,就换成了“算网”。

因为我们是一个云计算公司,这是“网”代表的含义。那“算”则是对计算需求的体现。算网加在一起,代表我们就是一个做计算的、一个云的提供商。因为在未来比较长一段时期里面,我们相信AI算力需求会成为人类所有的算力需求里面最主流的、最重要的这一部分。算网这个阶段正是要服务 AI 计算的需求。

我们觉得“算网”非常顺口,但很快因为这个名字注册不到公司和商标。团队一起头脑风暴后有了“算想未来”这个名字。

“算想未来”表达了我们对未来 AI 算力需求的愿景,算、想这两个字代表以计算为基础,通过 AI 技术服务人们的想象力、创造力。“算想未来”代表用计算将人们想象中的未来,变成现实的使命。

提问:以前的职业生涯对您此次创业有什么启发和帮助?

赵亚雄:我在 Amazon Kinesis 待了 1 年不到,Google 做了快 6 年,后来以早期员工身份加入 Pixie 并被 New Relic 收购。这些年里我一直在做云基础设施、AI基础设施相关的工作,积累了很多经验。

例如,参与过Amazon一个很有名的云产品 Kinesis;2015年加入Google的Borg团队,负责 Google 内部所有服务器集群,它类似一个 K8S 的平台;2018 年之后,以我为主在Borg内部开启了一个新项目,即让 Borg 上面的应用开发者,可以更容易地开发管理他自己的业务,这个系统用到了机器学习来优化集群管理和资源调度,同时也提高了Borg 平台上的底层硬件资源的使用效率。

Borg后期的工作,主要的重点都是来支持机器学习和人工智能,就像网络层的话,我们给机器学习这些算力芯片都专门设计了高性能的网络。我也直接参与和领导了 Google 内部全球化 GPU 算力池的项目,目的是让 Brain、DeepMind 的 AI 研究者和工程师,非常容易地把机器学习训练任务跑在全球各地的数据中心里。

2019 年作为第四号员工,正式加入 Pixie初创公司,这个公司的软件工程体系是我跟创始人一起,按照 Google 的实践经验来搭建的。

具体来说,Pixie算是我第一次正式创业,它是一家硅谷初创公司,产品是面向 Kubernetes 的微服务观测平台,创新点是用 eBPF(Linux 内核中的可观测性 API)实现无侵入式的数据采集。Pixie 曾获得顶级 VC Benchmark & GV的投资,并于 2020 年 12 月被应用性能监控领域的老牌厂商,同时在纽约证券交易所上市公司 New Relic 收购。

其实,Amazon和Google的经历,除了让我在技术上得到历练和积累,更多的是对我创业精神的影响。Amazon和Google都是极具创业文化的公司,在Amazon,内部每个团队都可以作为一个小的创业公司,来定位自己的业务方向;而Google鼓励员工创业,在员工离职创业后,想要再加入Google并不需要面试,这给了员工很大的心理保障和激励。

提问:作为初创公司,我们怎么与百度百舸、火山引擎这些大厂的产品来竞争?

赵亚雄:对于这个问题,我有四个观点可以回答。

第一,也是最重要的点,初创企业胜在小而精悍!初创公司整个团队凝成一股劲之后的战斗力,是很多大厂比不了的。大厂有钱有资源,也无法弥补文化和团队精神上的绵软和懈怠;毕竟人不是机器,不是老板说一句大家要拼,就能拼得起来。对此我在Pixie深有感触。这也是“算想未来”的最大的动力和信心来源。

举个例子,当遇到一个非常难的一个技术问题的时候,创业公司往往整个团队更加执着,以及整个团队的紧密合作最后得出来的解决方案,其质量远高于大厂。

这可以用“木刀”和“钢刀”来比喻大厂和初创企业,相比木头,钢铁更锋利是因为它的元素更紧密地贴合在一起,密度大。大厂更像是一个木质的机构,自然会面临组织能力涣散、退化。所以“算想未来”要解决的就是如何长期拧成一股绳,保持高战斗力,跟大厂对抗,如何能始终保持这种凝聚力,这是我们最核心、最关键要考虑的问题。

第二,我们有技术上的后发优势。怎么理解呢?从技术发展角度来看,每次出现一次巨大技术变革之后,新入局的玩家共同具有的一个优势,就是可以很容易规避之前的发展进程中的弯路和各类无效的投入。说白了就是相对于更大、更成熟的厂商,初创公司从一开始就能花小钱办大事儿。

第三,在大模型带来的 AI 计算需求之前,在所有主流平台上的AI需求都不是主流的需求,所以大家对该问题的研究都是很有限的。换句话,今天我们跟他们其实是处在同一个起跑线上。

具体到正在做的事情。我们的核心团队成员都是来自国际大厂的infra技术专家,同时我们能时常与 OpenAI、 MSR 、Google、DeepMind这些AI先进团队保持密切交流、合作,从而从各个层面了解世界前列对 AI 的趋势判断。这是国内以业务驱动的 AI 团队所不能比拟的,因为我们所了解的信息始终比他们要高一个层次。

第四,我们更多是把AI作为一种改变世界的技术手段,而不是服务某项特定业务的技术能力来看待。所以我们能看到中国的SaaS实力不足,过去中国经济发展实际上没有办法支持,如美国那么大规模的 SaaS 企业,只有AI这样的技术工具出现,我们才能以更高效的方式来实现软件服务。

最基本的逻辑是美国的 SaaS,现在都是以公有云为支撑的数据的搬运和处理,那它对数据本身的大小处理并没有实质性的变化。有了大模型之后,就可以把上TB的数据浓缩到几百G的模型里面,再加上模型还有自学习能力,实际上便可以大大降低软件服务在交付功能过程中,对数据的这个依赖程度,如此就能大大提升软件服务的效率。

这也是为什么中国的 SaaS 在国内反而发展不起来,因为市场给它的空间很有限,但对它的效率要求又非常高,又没有一个技术手段,能用更高效率来实现这些软件服务。现在有了大模型后,我们意识到在技术上用 AI 的通用手段来实现软件服务,会比传统的SaaS模式效率更高,而且是可行的。

我们把公司的名字叫做 “算想未来”,体现的就是我们用 AI + 计算来实现人们想象中的未来世界的愿景,我们对AI 价值的认知,比我们接触到的国内这些大厂或者是其他创业公司,要走在更前面。我们这个团队人员来自中国大陆、日本、美国,既有金融背景在高盛待过的投资人、硅谷大厂的技术专家、清华基础科学班毕业的人工智能专家,都是围绕在我们对 AI 经济未来的认知上的,才能把天南海北、各行业的顶尖专家聚拢起来。

最后总结一下的话,毫不夸张地说,我每天睡觉之前都反复拷问自己你问的这个问题;我们创始团队每次都会专门花时间来一起思考这个问题。头脑风暴啊、假想场景啊等等,大家的共识就是,困难很大,但是我们这个团队,就只喜欢做最具挑战性的事儿。

提问:我们的团队筹备情况如何?

赵亚雄:李静是我们的COO,她之前在高盛做投后管理,我们的首席科学家和CTO,他们分别都是在日本和美国AI 研究和应用领域知名的研究机构供职,但现在不方便透露他们的具体身份。

目前我们正在加速筹备完整的团队,同时也已经开始跟很多大模型团队做业务探讨。我们已经在推进与国内知名的语言类 AI 产品供应商的合作,来推进帮他们如何提升大模型训练,即 GPU的使用效率。

总体上来说,我们是一个进展非常快的团队,因为机会很重要,我们一直是以成为中国 AI IaaS Cloud领导者的目标来快速推进。像我的话,基本上从去年 10 月份到现在,每天都是 997 的工作节奏。

提问:您认为未来国内SaaS会如何发展?

赵亚雄:因为Netflix它是传统云计算上的一个杀手级应用,是伴随着 AWS 的成长逐渐长出来一个SaaS产品代表。我们希望未来在“算想未来”的平台上,也可以生长出一个能颠覆现在各类 To C 互联网企业的,一个全新的,以 AI为核心的一个消费者应用。

编辑:黄继彦

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-05-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据派THU 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
AI正在淘汰“中间层”!昆仑万维方汉:要么冲进前10%,要么学会“向下兼容”
过去一年,全球科技巨头都把宝押在了 AI 上。像 Meta、微软、亚马逊、谷歌 这些大公司,今年光是在 AI 基础设施上就打算砸 3,250 亿美元,秉持“先烧钱、后吃肉”的战略,推动大模型技术快速发展。在这一波浪潮中,DeepSeek 等企业在大模型上的创新,更是把各路玩家卷得不行,甚至逼得 OpenAI 都打起了价格战。
深度学习与Python
2025/06/23
930
AI正在淘汰“中间层”!昆仑万维方汉:要么冲进前10%,要么学会“向下兼容”
干货 | 赵亚雄:大模型、AI经济和AI基础设施
大家好,我是算想未来的创始人CEO赵亚雄。今天非常高兴到母校来做简短的分享。我们最近会几乎是被ChatGPT、OpenAI等等话题各类的信息轮番轰炸。我希望借助这个机会,把自己这一段时间来思考的有关AI基础设施还有AGI再到大模型等内容,从相对抽象的概念到与大家关系密切的、具体到各个层面的部分内容串联起来。整个的脉络会沿着一个相对宏观,然后再具体到计算机科学、计算机产业、软件产业的发展角度来描述有关联性的事件和事件背后的因果关系,以及一些思考的框架和方式。 我们首先从智能的定义开始。无论是从牛津的词典还是
数据派THU
2023/05/11
4190
干货 | 赵亚雄:大模型、AI经济和AI基础设施
中国信通院栗蔚:云计算与AI加速融合,如何开启智算时代新纪元?
在大模型的促进下,千行万业的智能化转型愈演愈烈,而云化算力作为灵活高效、性价比极高的算力资源获取方式,正在成为各AI厂商新的算力底座。如果说芯片是智能时代的“石油”,那云化算力就是AI发展的“新能源”。
科技云报道
2025/03/04
1660
中国信通院栗蔚:云计算与AI加速融合,如何开启智算时代新纪元?
对话上千位AI专家:我看见了风暴
本文作者谭婧:《我看见了风暴:人工智能基建革命》一书作者,科技和科普题材作者,“亲爱的数据”公众号创始人。香港浸会大学硕士,曾负责中国节能集团控股企业战略管理,多年管理咨询经验,曾加入AI人脸识别创业公司创始团队。观察者网特约作者,虎嗅认证作者,36kr特邀作者。
博文视点Broadview
2023/08/10
3300
对话上千位AI专家:我看见了风暴
对话李开复:如果美国形成AGI霸权,我们应该怎么办?
“如果AGI必然发生,假设是7年以后,到了那天OpenAI‘一统天下’的时候,它想要来碾压我们,我们至少还有抵抗的余地。”
小腾资讯君
2024/11/05
2190
ChatGPT 标志着 AI 进入 iPhone 时刻 | 开谈
整理 | 禾木木     责编 | 梦依丹 出品 | CSDN(ID:CSDNnews) 5 天注册用户超 100 万,60 天用户破亿,引得国内外大厂纷纷追随 AIGC 步伐,史上增速最快的消费级应用程序 ChatGPT 更是引领 AI 在科技圈一路“狂飙”。 2 月 8 日,在谷歌宣布实验性 AI 服务 Bard 后,微软就正式推出由 ChatGPT 支持的最新版本 Bing(必应)搜索引擎和 Edge 浏览器。除此之外,百度在 2 月 7 日官宣推出类 ChatGPT 应用、自然语言处理大模型新项目
AI科技大本营
2023/04/06
4470
ChatGPT 标志着 AI 进入 iPhone 时刻 | 开谈
蓝振忠也发「英雄帖」,中国版 ChatGPT 明星公司寻找 CEO
「打造中国OpenAI」,「西湖心辰」这家创立时间不到两年的小公司怎么敢夸下海口? 相比于国内的其他创业团队,心辰具有以下几大优势: 1.在大模型的研究和商业化落地要早一年。积累了超过百万的用户,并训练出了匹敌GPT3.5的模型RIO。 2.创始人蓝振忠曾在Google主导研发了大模型ALBERT(学术引用4300+),在大模型领域颇有影响力,也让他和AI风云人物们建立了紧密合作,比如Transformer作者、Character.ai创始人Noam Shazeer。 3.初步组建了一支高人才密度的团队,覆
AI科技评论
2023/02/23
5000
蓝振忠也发「英雄帖」,中国版 ChatGPT 明星公司寻找 CEO
没有这些,别妄谈做ChatGPT了
大数据文摘授权转载自夕小瑶的卖萌屋 文|卖萌酱 ChatGPT破圈爆火后,越来越多人开始问: “啥时候出现中国版的ChatGPT?” 国内学术界和工业界,都纷纷躁动起来——百度、阿里、字节等大厂纷纷喊口号,一众创业公司也开始争做中国版OpenAI;学术界也在用行动来表明战斗力,比如前些天复旦大学推出的MOSS模型,一经开放试用,便冲上热搜。 一时间眼花缭乱,让人生疑。 有钱就能训出模型? 以美团大佬带资入组为代表,很多创业者和投资人盯上了ChatGPT,作为一个NPLer,我乐见其成,相信不用几个月,
大数据文摘
2023/04/10
4830
没有这些,别妄谈做ChatGPT了
新火种AI|在AI赛道上,这家中国初创总是和OpenAI“不期而遇”
在春节假期尚未过完的时候,OpenAI再次效仿去年ChatGPT的火爆,展示了自家AI视频生成模型Sora,不仅打了国内外AI相关人士一个措手不及,也让众多的中国网民直呼“中美AI之间的差距越来越大”。
新火种
2024/03/09
1320
新火种AI|在AI赛道上,这家中国初创总是和OpenAI“不期而遇”
毕啸南专栏 | 对话澜亭资本创始人刘炯:2018 AI创投领域如何“去伪存真”
2016—2017,中国人工智能领域风生水起,尤其是在创投界,似乎不提人工智能就已然被时代所淘汰。然而究竟什么是好的人工智能项目?人工智能投资是否有独特的逻辑和规律?人工智能创业者和投资者应该避免哪些“火坑”?这些是投资人、创业者必须务实面对的问题。
量子位
2018/07/24
4400
毕啸南专栏 | 对话澜亭资本创始人刘炯:2018 AI创投领域如何“去伪存真”
大模型叙事下的百度智能云:比创新更重要的,是创新的扩散
短短一个多月里,大模型的能力上限不断被刷新,“落地”已然成为产业上下游的普遍共识。
Alter聊科技
2025/03/13
840
大模型叙事下的百度智能云:比创新更重要的,是创新的扩散
对话潞晨科技尤洋:AI 大模型没有知识产权,只有开源才能走得更远丨AGI 十人谈
作为一家创业公司,潞晨科技这个名字可能还不被大家所熟知,但是其创始人尤洋却凭借“ACM SIGHPC杰出博士论文奖、NUS校长青年教授、亚洲福布斯30岁以下精英榜”等多个头衔,被业界熟知。
AI科技评论
2023/08/08
5260
对话潞晨科技尤洋:AI 大模型没有知识产权,只有开源才能走得更远丨AGI 十人谈
中国 VC 谈大模型:AGI 是「理想国」,还是「乌托邦」?
再深入追问,概括起来就是一句话,「大环境变了」。主要体现在两方面,一方面是「中国市场没钱了」,另一方面是「美元基金逐渐退出中国市场、即使投也会变得非常挑剔」。
AI科技评论
2024/06/03
2360
中国 VC 谈大模型:AGI 是「理想国」,还是「乌托邦」?
出发,去东南亚市场搞AI
正在举行的北京冬奥会上,有众多黑科技被搬到台前:AI 裁判、视觉追踪特效、物流机器人、炒菜机器人等等,它们成为了比赛的重要组成部分。随着技术的进步,人工智能正逐渐进入生活的各个方面。
机器之心
2022/02/24
5020
出发,去东南亚市场搞AI
独家 | 关于吴恩达加盟和无人车未来,对话Drive.ai创始人和投资人
李根及分身 发自 两岸三地 量子位报道 | 公众号 QbitAI 全球自动驾驶明星创业公司中,Drive.ai绝对是最受关注的一个。 昨天,这家打算以“工具包”解决方案实现L4自动驾驶的公司,宣布了B
量子位
2018/03/29
6250
独家 | 关于吴恩达加盟和无人车未来,对话Drive.ai创始人和投资人
AIGC创投现状:激情与焦虑同行 | 圆桌论坛@中国AIGC产业峰会
明敏 萧箫 整理自 AIGC峰会 量子位 | 公众号 QbitAI AIGC热得发烫,不跟上就会被淘汰。 这是当下创投圈最直观的感受。 但“跟上”并不是一件容易的事:怎么跟?朝什么方向跟? 一不留神,就可能与风口错过。 对初创公司而言,如今AIGC技术发展过快,即便从应用层出发创业,公司PPT也不一定能活过一次OpenAI技术迭代; 对投资方来说,短时间内出现的AI新技术和新创业方向太多,从0开始学习很可能与潜力股擦肩而过。 技术狂欢之下,关于国内外大模型创业差异、大模型未来发展方向和AIGC创新性的体现,
量子位
2023/05/06
2080
AIGC创投现状:激情与焦虑同行 | 圆桌论坛@中国AIGC产业峰会
对话原钉钉 VP 张斯成:生成式 AI,能否避免「中式 SaaS 」的陷阱?丨AGI 十人谈
“如果单指Gen-AI(生成式AI)的创业热潮,中美两地都在共享盛宴。如果指大模型本身,可能只是国内一片热火朝天,”谈到中美大模型发展热潮,AI观察者张斯成如是说。
AI科技评论
2023/09/07
2800
对话原钉钉 VP 张斯成:生成式 AI,能否避免「中式 SaaS 」的陷阱?丨AGI 十人谈
李开复首次深谈AI生态全景布局:共享单车式的补贴逻辑不再适用于 AI 2.0
进入2024年,大模型竞争已经进入一个新的阶段,行业已经从“模型能力秀肌肉”,到不仅关注模型能力的逐渐提升,而更强调商业生态、PMF及用户的增长:从模型能力上看,GPT-4作为一个黄金指标,似乎已经成为模型公司可以探索后续应用的先决条件,如何有公信力地证明模型能力已经达到标准?另外,在未来的商业化道路上,究竟如何考虑开源和闭源?大模型提供的能力同质化,如何找到差异化竞争优势?这些问题都是摆在大模型公司面前最急需解决的问题。
小腾资讯君
2024/05/13
2800
AI+云计算共生共长,能否解锁下一个高增长空间?
然而,随着AI大模型深入到千行百业中,市场开始意识到通用大模型虽然功能强大,但似乎并不能完全满足不同企业的个性化需求。
科技云报道
2023/09/04
2700
AI+云计算共生共长,能否解锁下一个高增长空间?
对话宇树创始人王兴兴:做机器人,中国缺乏AI人才
与往年人形机器人被“关”在实验室不同,2024年不少厂商开始将人形机器人搬到工厂“打工”,比如,优必选透露他们正与东风柳汽、一汽大众青岛有合作,马斯克让擎天柱在特斯拉工厂“自己造自己”,而宝马集团斯帕坦堡工厂使用Figure测试机器人在工厂的应用。但逛一圈世界机器人大会之后会发现,人形机器人距离成为真正的“打工人”还有不小的一段距离。
小腾资讯君
2024/08/23
3030
推荐阅读
AI正在淘汰“中间层”!昆仑万维方汉:要么冲进前10%,要么学会“向下兼容”
930
干货 | 赵亚雄:大模型、AI经济和AI基础设施
4190
中国信通院栗蔚:云计算与AI加速融合,如何开启智算时代新纪元?
1660
对话上千位AI专家:我看见了风暴
3300
对话李开复:如果美国形成AGI霸权,我们应该怎么办?
2190
ChatGPT 标志着 AI 进入 iPhone 时刻 | 开谈
4470
蓝振忠也发「英雄帖」,中国版 ChatGPT 明星公司寻找 CEO
5000
没有这些,别妄谈做ChatGPT了
4830
新火种AI|在AI赛道上,这家中国初创总是和OpenAI“不期而遇”
1320
毕啸南专栏 | 对话澜亭资本创始人刘炯:2018 AI创投领域如何“去伪存真”
4400
大模型叙事下的百度智能云:比创新更重要的,是创新的扩散
840
对话潞晨科技尤洋:AI 大模型没有知识产权,只有开源才能走得更远丨AGI 十人谈
5260
中国 VC 谈大模型:AGI 是「理想国」,还是「乌托邦」?
2360
出发,去东南亚市场搞AI
5020
独家 | 关于吴恩达加盟和无人车未来,对话Drive.ai创始人和投资人
6250
AIGC创投现状:激情与焦虑同行 | 圆桌论坛@中国AIGC产业峰会
2080
对话原钉钉 VP 张斯成:生成式 AI,能否避免「中式 SaaS 」的陷阱?丨AGI 十人谈
2800
李开复首次深谈AI生态全景布局:共享单车式的补贴逻辑不再适用于 AI 2.0
2800
AI+云计算共生共长,能否解锁下一个高增长空间?
2700
对话宇树创始人王兴兴:做机器人,中国缺乏AI人才
3030
相关推荐
AI正在淘汰“中间层”!昆仑万维方汉:要么冲进前10%,要么学会“向下兼容”
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档