00:05
各位线上的朋友们大家好,欢迎参加腾讯云企业创新在线学堂系列的直播活动,我是本次会议的主持人Lisa。腾讯云企业创新在线学堂是围绕企业的业务需求,聚焦在企业数据管理、AI安全、办公协同的8大数字化需求场景推出的系列直播课程,携手腾讯云,创新驱动无限可能,共同开启企业成长的新篇章。随着AIGC应用的急速发展,GPU算力啊已然成为了我们市场竞争的焦点,不仅大型的企业和大型的创业公司对算力有着迫切的需求,那么我们众多的企业和个人用户啊同样存在着较为旺盛的使用需求。腾讯云的高性能应用服务high立足于开源的社区生态,以简单、快捷、易用的GPU云服务产品满足用户多样化的需求。本期课程呢就将为大家通过多角度去详解爱产品能力、应用场景以及前沿的技术创新,手把手的带您5分钟去开发一款AI应用,让每家企业都能够轻松的拥抱AIG。
01:18
那本次直播呢?将由四位讲师为大家带来主旨为5分钟打造专属AI应用嗨,助力每家企业都能用上AIGC的分享。好了,那首先就有请我们今天的第一位分享嘉宾,来自中国信息通信研究院人工智能研究中心平台与工程部业务主管刘新晨。刘老师负责AI技术及产业研究工作,研制大模型训练平台、金融业人工智能平台、机器学习平台等多项AI领域标准。负责人工智能产业发展联盟AI inra工作组组的产业生产工作、产业生态工作。今天刘老师的分享主题是AI技术产业趋势解读,有请。
02:07
好的,谢谢主持人,那各位朋友大家好,我是中国信通阅览人工智能研究中心的刘星辰,那今天呢,非常荣幸的跟大家一起分享一下IGC技术产业的趋势解读。那我的分享呢,会从以下三方面进行,首先呢,介绍一下AGC的技术发展趋势,然后呢,跟大家一起聊一聊AHGC的产业发展情况,最后呢,再跟大家一起探讨一下AHC在发展过程中面临的挑战以及相应的对策。那首先呢,近些年随着以transformer架构为基础的大模型技术出取得了一些突破式的进展,那不少业界的企业也在不断的去增大模型的参数量、计算量以及训练的数据量,那随着带来的其实就是模型性能的一个持续的提升,那终于呢,在去年年初,以拆GPT为代表的这种交互式对话机器人让大模型技术彻底的出圈了,那除了拆GPT之外呢,大模型技术目前也非常广泛的应用于自动驾驶、气象机器人、动物化学以及视频生成等各行各业,那目前的话呢,大模型技术正在成为人工智能新的一个操作系统,在引领呃产业的一个不断的创新。
03:24
那在大模型引领人工智能走向新的这个范式变迁的背后呢,其实产业也演涌现出了几种不同的技术发展趋势,那首先第一种的话呢,其实就是算法的一个更新迭代,那目前的话呢,面向通用智能的这个典型任务的能力一直在不断的提升,那大家可以从左图这个呃图片可以看出来,呃蓝色和黄色分别代表着闭源模型和开源模型在基准测试上的一个测试表现,那我们可以看到这两条线是非常笔直的,那随着时间的推移,这个呃,模型的一个性能一直在持续不断的攀升,那我们也可以看到黄色的这个。
04:06
线一直在逼近蓝色的这个线,那其实也在说明开源模型在不断的去呃迭代演进,然后不断的去追赶闭源模型的一个效果,那另外一个方面的话呢,其实就是产业的一个生态构建,那目前大模型的创新应用非常的活跃,那无论是开源模型还是闭源模型,其实都呃涌现出了一种非常好的一种发展的生态,那首先在闭源模型里面的话呢,主要是以像BAT为主的这个头部主呃头部的企业为主,在核心的布局,那包括比如说腾讯的这个会员大模型,其实它的参数规模已经达到了万亿的规模,整体的这个呃模型的表现效果还是非常好的。那开源模型这里的话呢,主要是呈现着一种百花其他齐放的这样的一个发展态势,它的这个呃,技术扩散的门槛也在不断的降低,所以整体的话呢,正在呈现出一种家族化的发展趋势。
05:04
那为什么大模型的效果可以得到这样持续快速的提升呢?其实背后支撑它的主要是有三点因素,那第一点因素的话呢,主要就是吃这个规模扩展的红利,那在人工智能领域的话呢,其实有一个非常重要的一个定律叫做scanning law, 就是随着我们去训练更大的这种参数规模,更高的计算量以及投位更丰富的数据,模型的这个效果包括它的泛化能力,以及它的任务的表现性能就会不断持续的提升。那其实这个因素其实是使大模型性能提升的一个最核心的因素,但是模型的规模吧,它不可能无限量的去拓展,它总会有自己的一个天花板。那而且特别是到了这个集群规模比较大的时候,这个通知性强的一些问题也会呃不断的涌现出来,那第二点去驱动模型效果提升的,其实就是呃算法方面的一些能力提升,包括涌现出一种呃混合专家模型的这样的一种模型的发展的趋势,那混合多专家模型,它主要是呃动态的组合了多种子模型来去提高呃推理计算的效率以及模型的能力,那比如说像拆GPT4其实用的就是这样的一种模型的方式,那它可以达到呃16个千亿的这种参数,专家的模型每次推理只需要2800亿个参数。
06:31
所以其实它还是可以帮助我们去一定程度上呃达到模型的一个降本增效的,那第三点因素的话呢,其实就是呃多模态的这个能力,那多模态的话呢,主要是通过呃多模态对齐来去提升跨模态的这种复杂推理以及生成的能力,那之前的话呢,我们用transformer的这种架构只去处理文本,那在多多模态的能力之后的话呢,我们不仅可以处理文本,还可以处理图片以及视频等各种更丰富的那种形态,那比如说目前市面上像GT4呀,谷歌的Jimmy啊,然后以及通1000万都是用的这样的一种能力。
07:11
那除了算法创新之外呢,另外一个推动大模型性能不断提升的秘密武器,其实就是工程上的创新,那工程上的创新主要集中在训练、推理以及应用开发三个方面,那首先在训练侧呢,随着模型规模不断的一个扩展,其实它对分布式的训练,以及他对集群规模如何去管理这种超大集群也提出了更高的要求,那比如说在分布式训练这里,其实产业也衍生出了去提升异构硬件统筹管理调度能力,包括去支持呃数据并行,模型并行,流水线并行这样多种并行能力的这种呃技术的发展方向,那在集群方向的话呢,呃,我们呃业界也不断的去衍生一些新的技术,包括无损的网络,网络与计算一体化部署的相应的一些能力。
08:04
那同时呢,针对于大模型这种呃特殊的计算方式,其实在芯片方面的话呢,也针对于大模型正在做定向的一个定制优化,进一步的帮助去降低仿存的开销,那就在工程侧进行不断创新的,这个背后的话呢,呃,从这个叉GPT3它是呃3000多P的这样的一个算力规模,经过一整年的迭代,呃,其实到了谷歌的这个Jimmy,它的一个力规模已经可以达到了26000多P,其实这这个可以看出来,业界的这种顶尖的集群,它的算力规模已经衍生呃提升了整体的8倍,其实这个演进的速度还是非常快的。那另外的话呢,在推理方向,技术的一个主要的发展方向就是去降低推理的成本,然后并且提升它的一个兼容性,那主要表现的方向,呃,包括像算法方面,我们去通过支持这个高效压缩的一个能力来提升算法的能力,那在框架方面的话呢,去兼容多种推理的后端,那芯片方面的话呢,我们去呃呃加强这个推理加速的一个性能。
09:15
那另外的话呢,就是应用开发方面的一个创新,那应用开发方面的创新,通过我们不断的去完善工具链,也可以去降低各个企业去应用大模型的一个门槛。那首先从最底层来看的话呢,在模型开发的这个整个过程中,目前主要的云厂商,包括腾讯云这边已经提供了标准化的套件的服务,呃,可以去覆盖从数据处理呀,呃,训练开发呀,一直到部署推理的这样的一个全生命周期的过程。那再往上的话呢,在应用开发的过程中呢,呃,目前产业里面也衍生出了更加完备的上层应用开发的这种部署工具链。去降低企业开发的门槛,那再往上在agent这里的话呢,呃,Agent也是目前呃新兴的一种呃非常主流的技术,它可以去整合搜索、记忆、控制以及工具调度相应的一些能力,去针对一些定向的任务有更好的表现效果,那agent他也有望成为大模型未来的一种主要的应用形态。
10:17
那接下来呢,给大家去介绍一下AIGC的产业发展的情况,那目前的话,其实IIGC还处于一个产业的发展初期,那未来其实它的市场空间会是非常巨大的,那比如说德勤这边就预测到,呃,到了2032年,全球生成是人工智能的市场规模将会达到2000亿美元,也就是说未年未来十年里面市场规模将会每两年就翻一番,那其实这个增长速度还是非踌场快的。那产业的它的这个发展阶段,总体呢,会呈现三个阶段,那首先目前我们所处的这个阶段呢,就是一个培育的摸索期,那目前的话呢,其实产业相对来说封闭一些,然后呃,主要的玩家其实还处于一个探索期,那等到明年一直到呃二七年的话呢,产业会进入一个应用的蓬勃期,那这个阶段的话呢,人机共创将会被行业更加普遍的去应用,那也会有越来越多的玩家入场,呃市场也会呈现出一种百花齐放的一种呃发展的状态,那等到二八年之后的话呢,整体的产业会进入到一个整体的加速期,那AIGC也会在个性化、实时化以及自主迭代方面得到更加充分的发挥,然后它的这个产业链也会更加的完善。
11:37
那说到AIGC的这个市场空间呃这么的巨大,那具体IGC主要会应用到哪些领域呢?那麦克西这边作为一个统计,就是未来生成式人工智能将会在客户运营,营销和销售啊,软件工程以及研发这几大领域核心的去释放价值。那首先在客户运营方面的话呢,呃,IGC的机器人将会对呃复杂的一些查询去提供更加实时个性化的响应,那同时呢,也可以帮我们去生成更加个性化的建议指导,那在营销和销售的这个环节中的话呢,IGC不仅可以帮助我们去收集市场的趋势呃去起草一些营销的信息,那同时呢,也可以去定制更加全面深入的这个预估画像来去呃促留存,呃这个保转化。
12:28
啊,然后在产品研发的过程中的话呢,I jc可以帮助我们去协助呃产出一定的这个市场报告以及解解决方案的起草,那同时的话呢,也可以去优化这个产品测试的一个过程,那最后是软件工程的一个呃应用的领域,那在软件工程里面的话呢,AGC可以帮助我们去写代码啊同时的话呢,也会呃提高在测试以及维护方面的一个效率。那目前的话呢,IGC的产业链其实已经形成了一个非常全面的布局,像腾讯为主的这些互联网大厂,其实已经全面的布局到了IGC的上游、中游以及下游,那在上游的话呢,主要会由包括腾讯在内的这种云服务厂商以及数据服务厂商去组成,那中游的话呢,主要是由互联网公司以及AI厂商去布局相应的一些大模型的用软件能力。那在下游的话呢,会包括内容资讯、影视传媒、游戏、电子商务等各行各业的更加丰富的一些应用。
13:36
那接下来的话呢,给大家介绍一下AHC在发展过程中的一些挑战以及相应的对策。那因为AIGC不管是训练还是推理过程中,其实它都需要大量的一个底层的支持,那这个就不仅包括硬件方面算网存的一个资源,也包括软件,软件设施方面,它需要更加高效以及更加稳定的软件能力,那所以其实a jc对于大模型的这种基础设施的需求还是非常高的,而目前产业里面,其实呃,这方面的发展还有待进一步的去推动,那其实中国信通院目前也在致力于大模型基础设施方面的发展,在做一些推进的工作。
14:17
那其次的话呢,就是知识产权这里,那ATC的作品,其实它既存在着被他人侵犯的风险,同时也存在着侵犯他人权利的一个可能性,那在前一段时间,其实国外有一个网站叫做a station, 然后这个网站的话呢,掀起了一些画师们,他们集体去抵制IGC应用的这样的一个活动,那其实这个来源也是来自于呃,不管是AI还是作品,呃,还是人类作家,他的这个呃,知识产权没有被充分的保护起来,那所以在知识产权方面,其实也是未来IGC发展过程中亟待解决的一个问题。那然后呢,就是安全的挑战,安全的挑战这里的话呢,也也比较的严峻,那因为大模型它不可避免的会产生一些幻觉的一些问题,那这也会导致一些错误的信息,呃,充斥到这个内容平台中,那同时的话呢,也会有一些不法的分子,利用AIGC去合成诈骗,色情诽谤的相相应的一些不法的行为,危害着公民的一些财产安全,那所以其实AGC的安全问题也是亟待解决的。
15:27
那另外一个核心的问题其实就是环境方面的挑战,那在AIGC的训推过程中,其实是需要大量的算力支持的,它的碳排放量还是非常惊人的,那之前看到一组数字,说是拆GPD3,它在模型训练过程中的这个二氧化碳的排碳排放量都可以达到552吨,那可见大范围的这个训练过程其实对环境也会产生很大的影响,那所以我们怎么去呃充分的提高算力的利用率,也来去降低对环境的影响,也是未来亟待解决的一个重要问题。
16:04
那针对于以上的这些挑战呢,其实中国信通院也一直在致力于推动agc产业的一个高质量发展,那我们不仅体系化的去布局在了呃大模型的这个体系化的研究标准,包括布局了基础大模型,领域大模型到行业大模型的整体的标体系化的标准,那同时的话呢,为了更好的去支撑大模型的一个应用落地,我们目前也在呃就是着力去聚焦于大模型基础设施方面的一个呃基础产业的研究,那这里的话呢,我们主要会呃分别聚焦包括呃硬件设施,这里主要去关注呃大模型,呃算力方面的一些标准以及应用实践,那以及呃大模型软件方面,从数据处理到呃训练开发到推理部署,呃这个全生命周期,它过程中的一些标准以及建技术研究工作,那我们是希望通过这种体系化的研究工作,帮助产业去梳理出一些最佳的时。
17:04
组件来去促进,呃,AIGC更好的一个应用落地。那我们主要的工作呢,会分为研究、标准以及生态三方三方面,那在研究方面的话呢,我们不仅会进行体系化的一些产业研究,来去支撑部委关于人工智能基础设施方面的一些政策,那同时在标准方面的,我们也体系化的去布局了,包括人工智能开发平台,大模型平台,以及一些行业应用平台方面的一些标准,那同时呢,我们也会基于标准及提供一些呃那个产品的一些评测服务,来帮助企企业去呃提升产品开发以及交付的一个能力,那同时呢,我们也会做一些生态方面的活动,包括去组织系列的沙龙,以及产业的一些呃论坛,这样的话呢,帮助大家去促进供需的一个对接。那最后呢,想整体展望一下IGC未来的一个发展,那随着IGC不断的去,呃,深入我们的生活,改变我们的生活,那我是觉得未来我们的工作方式其实也会一定程度上被IGC所改变,那IGC会加速人机协同的一个时代的到来,包括呃,像医疗啊,教育啊等各行各业,其实随着AGC的一个到来,都会去提升我们的一个工作效率,那同时呢,IGC的这种超个性化也将成为企业的一个核心的驱动力。
18:33
那最后想说的是,虽然目前我们距离这种多模态无处不在跨领域的AI还有很长的路要走,但是呢,大模型的种子正在让我们不断的去接近AG的入口。呃,那我也非常期待在呃不久的将来,呃,AIGC可以进一步的去改善我们的生活,然后帮我们带来更加便利精彩的生活,那最后呢,非常感谢大家的一个聆听,那也欢迎有志同大合的朋友们,以及对中国新通院工作比较感兴趣的企业伙伴们加我的微信进行交流,那目前呢,我们也正在体系化的去研制大模型平台,包括大模型算力平台,呃大模型基础设施相关的一些工作,那非常欢迎呃这个感兴趣的朋友们一起交流学习。那以上就是我的分享,也非常感谢腾讯云,谢谢大家。
19:23
嗯,好的好的,非常感谢刘老师给我们带来的精彩分享啊,那接下来就让我们有请今天的第二位分享嘉宾,来自腾讯云易购计算高级产品经理黄洋。黄老师呢,有着5年多互联网与云计算产品策划与运营的经验,先后参与了腾讯视频、腾讯课堂、腾讯云计算等项目,在传统应用转型AI应用方面有一定的实战经验,目前负责腾讯云易购计算产品商业化及高性能应用服务high的产品落地,推动GPUNPU等异构新建在公有云上的规模化应用。
20:00
欢迎黄老师给我们带来再小的个体也能实现自己的AI想法,主题分享,有请。好,谢谢主持人啊,大家好,那个我是来自腾讯云的呃,黄洋啊,然后非常感谢刚刚信通院刘老师的一个分享,刚刚刘老师更多的是从这个比较宏观的角度给我们带来了这个AIGC的发展的趋势,还有一个现状让我们呃深受启发,那其实我后面更想分享的是呢啊,我们作为一个中小企业,如何在这样的这个浪潮之下呢,我们能够抓住这个机会,迎接这个挑战啊,那其实对于腾讯云来说,其实我们一直以来都会跟各种各样的客户打交道,包括像头部的一些模型厂商,包括像头部的这个泛互联网的厂商啊,那其实我们也也会与很多中小企业,还有甚至开发者,其实有蛮多的这个这个交集的,那其实我们沟通下来会发现啊,其实这个AIGC,它现在我们来看的话,它不仅仅是这个,呃,大厂或者说这种模型厂。
21:08
厂商的一个专属,更多的是啊,我们认为啊,中小企业和开发者,他未来的这个机会也是非常大的,那么今天我可能会从这个角度会跟大家有更多的一些交流。那今天的分享呢,我主要分为两部分呢,那一部分的话呢,是呃呃,会跟大家分享一下中小企业以及开发者在拥抱这个AI的时候有哪些痛点,那另外的话呢,是我们目前腾讯云提供的一个,呃。针对AIGC应用部署的这么一个方案,那么我们叫他快速部署AI应用的一个新方式,这里也会给大家做一个简单的介绍,然后我等我介绍完之后,咱们也会有两位同学会给大家呃,演示一下我们目前DEMO,还有目前还有目前的一些啊,我们比较有突破性,或者说我们认为比较有意思的一些点,会给大家做一些深入的剖析。
22:01
那说到AIGC啊,那就要讲一讲整个AI区AIGC以及大模型的这整一个的产业链是怎么样的了,那我们其实可以看到左边这张图啊,那其实从最底下的话是咱们整个AI的这个基础设施层,那基础设施层呢,它更多的是咱们的这个3DAI服务器,那么主要来自于云厂商,或者说咱们的硬件厂商,那硬件厂商呢啊,大家应该都比较熟知,像英伟达啊,这个股票最近已经飞飞涨了啊,对吧,那个英伟达是一个比较有代表性的这个提供GPU易购计算芯片的这么一个厂商,那像国内的话也有,像腾讯自己也有在做相关的芯片,还有包括像华为啊,以及一些创业的这种,呃,芯片厂商都有提供一些一些高性能的这个加速计算芯片,那其实呃,光有这些算力芯片其实是远远够的,那云厂商诞生的意义呢,就是。把这一些呃算力能够更好的让我们大家用起来,因为单纯的堆叠这个硬件其实是没办法实现一个算力的增长的,然后因为我们之前实测下来也会发现啊,就是呃,咱们如果单纯的去堆这个呃GPU,那其实会发现很多时候网络和存储的性能如果跟不上,会造成这个呃算力的这个漏损的,就是呃可能会出现说在训练过程中,我们的这个算力在等这个存储和网络把这个数据传过来,那其实对于咱们就会有一个比较大的一个成本的损耗了,那这那有云厂商的出现呢,我们提供一个高性能和网络和存储的配套呢,可以帮助大家啊,实现一个这种高性能算力的一个线性增长,实现一个更高的加速比。
23:40
那再往上层呢,我们可以看到是这个模型层,那模型层呢,现现在主要呃,就以这种科技巨头以及模具厂商为代表了,这里比较有有意思的一个点,就是模型厂商一般去做这个AI应用呢,它都是先把模型做出来,再去挖掘这个具体的应用场景,那这里的话呢,会会有两个问题啊,一个是这有会有一个比较高的一个研发的壁垒,那比如说啊,这种高质量的数据对于一般的企业是比较难获取到的,或者说获取这个数据会有一些各种各样的合规的问题,那另外的话就是在前期训练模型的过程中呢,其实会消耗大量的这个人力成本和资金的成本,那主要是就是这个算力的成本比较高,那想必大家应该也都知道,现在目前像这种专门做训练的,呃呃英伟达的H100 H800这种系列,它是什么样的一个价格,这个这个我就不在这里做分享了,那另外的话就是呃还有一点就是呃,这个模型训练出来以后呢,它其实后续的一个推理的维护成本也是非常。
24:40
非常高的,那这里我们以这个券GBT为例啊,也是二维数据的一个报告,那么它每年的一个推理成本大概是9.1~45.6亿美金的这么一个金额,那也是这个也不是一般的的这个企业或者说创业公司能够负担起的一个一个金额。那。
25:00
除了这个模型层以外呢,最上层的话,我们叫它应用层,那应用层呢,其实我们会看到它的这个未来的机会会更大的,那么也是更适合咱们的中小企业开发者,在这一层有一些这个创新和这个发展啊。好,那这里的话,这一层的话呢。特点相相比于刚刚讲到的模型层有一个比较大的差异,就是在应用层我们会发现更多的是我们会去我我们的这些中小企业和开发者,他更多的会去先找到应用场景,再去找合适的模型,那这块的话一般会我们会把这个应用分成两种啊,按照腾讯的分法就会分成消费级的呃应用以及产业级的应用,消费级的应用的话呢,更多的像是一些C端的各类的AIGC应用,那那它的这个关键竞争力主要来源于先发的优势生态,还有包括这个模型的能力,那另外另外一趴呢,就是这个产业级的应用了,那这里的话可能更多的是在一些B端的场景下,我们去帮帮助客户去做降本增效,那比如说像像做一些这个呃,内部材料的分析,或者说做一些这个搜索,搜索结果的增强,这些都是在B端可能会用的比较多的场景,那这一块的关键竞争力呢,主要是来源于呃,这个产业及应用,这个团队本身,他对于这个行业的理解。
26:19
还有包括他后续的一个服务能力和他所掌握的一些行业数据啊,这个这个这个是主要的关键那。包括前段,呃,前几天那个李彦宏在发布会上的时候也有提到,其实模型更多提供的是给大家提供一个工具,那最终产生价值的呢,其实往往还是在我们的这个应用层,那么所以我们也是更推荐咱们更多的中小企业开发者在应用层上能够更多的有一些发展,那这里也举几个应用层的例子啊,就呃比如说像我们熟知的这个微软,它呃,它因为它有这个强大的这个软件生态,包括像Microsoft office啊之类的一系列的这种软件,那么他在做了这个全站软件智能化的转型之后呢,目前市实已经超越了苹果啊,达到了一个全球第一的水平。
27:05
那另外的话就是设计师朋友们可能会比较了解的这个平台journey啊,他的这个目前是40名的员工,呃,在这个AI应用的这个这个项目的推动下呢,目前年入已经达到了2亿美金的一个水平。那最后一个呢,比较新啊,也是也是近几个月出现的这个AI视频生成平台,它只有仅仅只有四名员工就已经目前估值是2亿美金了,那这三个呢,都是一个比较典型的这个应用层的一些例子。那。那说完说完这个应用层啊,那具体实现应用层的,目前业内主要有有这几种这个实现的方式啊,那比如说像这个这个大模型厂商,可能他自己做应用的话,他可能更多的会是用这种咨询链的模式,但这种咨询链的模式呢啊,它会随之而来带来更高额的这个成本,还有包括它的这个部署难度也会变得更高,这个可能在业内现在。
28:06
就那种纯应用层的企业用这种方式的比较少,那用的更多的可能会是做这种用这种API调用,API调用呢,它其实也也会有几个几个优势啊,就是它相比自己做这个模型的训练呢,呃,成本可以实现更低,因为它是。根据API计费,随用随取的这么一个计费模式,那它也会可以,呃,我们做一个应用,它也可以去做更多的这种模型的选择,比如我们可以把多个厂商的模型合到一起,做一个比较有意思的这个应用,那所以它的模型多样性其实也是可以得到保障的,那部部署难度基本上就不用部署了,这个就是调调这个模型厂商的API的一个一个流程,但是随之而来它也会有会有暴露两个问题啊,一个是这个模型的定制性,一个是这个数据的安全性,可能相对来说会偏弱的,因为这个毕竟不是掌握在我们自己手中,那API调用的这个这个这个呃方式出现以后呢,其实我们也会发现有的客户他会选择用这种本地私有化的方式来做这个AI应用,会会把这个模型拿拿到自己的手里,部署在自己的机房,那这样的话就可以保证这个模型稳定性和安全性,然后也不用自己去去训练模型,成本也相对来说会比自己去训练会更低一点,但是这里还是会有。
29:23
会会有一些问题的,就是这个像部署难度,还有包括成本还是相对来说较高的,那呃,我们作为云云厂商呢,就是希望帮助大家去解决这样的问题,那我们提出了一个叫云上私有化的这么一种部署模式,我们认为这个会是一个呃,节省成本和过度竞争力的一个最佳的选择,因为我们可以看到它是兼顾上面的所有的优点的,比如说像在成本方面和部署,部署难度方面呢,其实我们可以做到更低,但是在模型的定制和数据安全,实际上我们又可以可以可以到更高,然后基于基于云上,因为本身腾讯云就有跟各种各样的这种模型厂商合作,我们其实会把他们的模型拿过来给到大家去做一个一键的部署,那其实大给到大家的这个模型选择的多样性也是可以保障的。
30:16
那云上私有化部署的一整个流流程,我们是该怎么做的呢?那这里这里举了一个比较简单的例子啊,那主要可能我们会把它划分为四步,那前三步的话呢,主要主要可能会去做一些开发测试,或者说大家没有想着这个批量化部署的话,可能就自己做,想用自己用的话,其实前三步就够用了。那第4步的话是一个业务部署,可能会牵扯到一些生产环境的部署,那如果我们自己去做这一整套流程的话呢,其实我们会发现,呃,在每一步中可能都会遇到各种各样的难题卡着我们啊,那比如说在选择选择这个合适的模型的时候,因为我们是需要去选择一个更匹配自己业务的模型的,很多时候我们可能都会发现这个模型并不适合我们的业务,或者说这个模型我们选过来会担心它各种各样的这个版权问题,我们还得去跟模型原厂去做更多的沟通,那这个其实是会有比较高的成本在的,那另外的话,在在选好合适的模型之后呢,我们自己就去做的话,其实还要。
31:16
去关心说搭建一个高性能的这个计算环境,那这一步的话又会遇到,比如说像我们的成本高,或者说我们自己选的这种易购芯片不合适啊,啊还有就是我们的这个驱动安装比较困难啊,各种各样的这种软件不兼容的问题,都是在这个搭建啊环境的时候会比较高频遇到的,那搭建完之后呢,呃,我们我们要总要是对这种模型去做一些这个调整嘛,比如说我们自己可能有些数据想做一些做一些翻train,或者说做一些调整,让这个模型跟适配我们的业务,那这里又会牵扯到一些,比如说我们要进入Linux的这个操作系统,要去在里面去做一些操作,那可能我们我们需要有一个运维团队,对于这一套特别熟悉,或者说我们的AI团队在这一块会比较缺少数据集和监控数据,那这个都是我们在这个模型优化和调整这个步骤可能会遇到的一些难点。
32:09
那假设我们前三步都做完了,我们开发和测试都通过了,那我们到业务部署的时候又会遇到又会遇到一些问题啊,比如说像这个集群部署,因为集群部署本身和这种呃,单节点的部署,它又是完全两套不同的这种技术体系的,那可能我们我们之前的这个开发团队,他可能之前对于之前的这种开发测试的环境比较了解之后,但但在业务部署的时候并不一定能够快速的熟悉,这里也是会有一定的成本在的,那另外的话就是包括后续的一些扩容啊,延展性啊,还有包括我们这个呃,模型推理服务的这个迭代管理,其实啊,都会存在各种各样的挑战。那这里可以给跟大家举一个比较详细的例子,可能更生动一点啊,就是啊,很多做AI的这个企业的朋友都跟我们说啊,我们希望是说把这个啊,把这个AI应用做起来,可能就就跟这个用photosshop,或者说用micro Microsoft office这一套组件这么简单,但实际上并不是这么样,这样的理想和现实还是总是有差距的,一个买家秀,一个买家秀,对现实中呢,其实我们自己要去做这一套云原生的AI应用呢,其实要去做GPU的选型啊,驱动安装库打安装这一系列的这种这种管理,那除此之外呢,还要去关心各种云架构的这种搭建啊,其实都是都是比较繁琐的,那右边这个其实是一个比较简单的一个架构图了,那个这如果我们自己搭建的话,其实就需要关心这么多的东西。
33:35
那我们呃,作为作为这个,作为这个我们其实一直定位自己是一个帮助客户成长,或者说跟客户一起成长的这么一个一个角色啊,那其实我们就在想,有没有可能我们围绕应用为中心啊,降低这个云原生AI应用的落地门槛,那这里其实我们当时就脑爆了几个点啊,比如说我们有没有可能去提供一些这种常见的主流应用,把它放到应用中心啊,可视化的界面,还有包括是说,呃,我们能不能帮客户把GPU都选型好,不用关心刚刚提到那些问题,还有就是在这个运维部署的这个环节,我们我们可能帮客户做好,那就是另最后一点就是可能客户可能比较关多,比较多的就是这个降本增效的问题,怎么样把这个成本降到最低,因为本身大家现在这个这个创业,其实其实成本都是大家关心的这个第一要素啊对,所以所以说呃,我们就在想有没有可能做一个这样的产品。
34:33
那呃,基于刚刚那个想法呢,呃,腾讯云的高性能应用服务h hii就在这个背景下诞生了,那因为本身我们是易购计算产产品团队啊,我们之前其实也有十几年的一个一个腾讯云服务这个自研业务的一些这个云架构的经验呢,我们拿着我们之前的一些经验,那还有结合我们现在的这个丰富的呃合作的这个AI客户,还有这个开源生态社区里的一些应用啊,那我们把它呃整个的这个呃打包在一起,那么交付给我们的客户,形成了这么一个高性能应用服务hi的实例,那么大家呃,如果去购买一台h hi的这个实例的话呢,其实可以发现你们记带的GPU的环境,又又已经帮大家把这个AI作画,或者说LM啊,数据科学这一些环境已经预装好了,就实现这么一个即差即用的一个一个产品体验。
35:29
那这里的话呢,呃,我们主要的面向的客户呢,其实其实是两方面啊,一一块的话是这个研发型的用户,那这一块的话我们认为是呃主要以这个中小企业开发者为主啊,这一块的话,呃,就是技术能力比较强的,相对于来说比较强的客户了,那他可能自己会有一些这个呃自己的业务所在,比如说他自己可能有一些场景想跟AI模型去做结合的,那他就完全可以用a hi来实现它的一个呃传统应用智能化转型,那除此之外呢,呃。
36:04
除除了这种中小企业开发者之外呢,其实我们也希望是说能够把这个产品做的呃,覆盖面更广一些啊,设计师,数据科学家,学生也能够在这个呃,整个AIGC的浪潮下,能够更好的接触到这个AI,实现他们自己的一个AI想法。那这里也拎了几个产品能力给大家简单介绍一下,因为后续我们同事会有演示,我就不详细展开讲了,比如说像我们的这个一键部署呢,它是可以呃支持咱们选择好这个你想要部署的这个AI应用或者模型之后呢,会帮你自动的去构建这个依赖的环境,可能目前的话15分钟就可以完成这整个环境的搭建了,目前我们会支持像一些主流的AI环境,包括模型啊,呃,加速框架啊,或者说AI的开发框架,这些都是我们目前所支持的。另外的话,我们现在也支持了这个Windows的系统,可能有的有的同学他可能用Windows更习惯一点,那也可以用Windows去去做一些这个他想要的这个AI应用。
37:10
除此之外,我们还会支持这个,呃,未来还会支持这个外部的镜像导入啊,然后目前的话是已经支持大家会把自己自定义的这个,呃。做好了这个环境可以存下来,到后续可以继续的使用。那第二个比较比较有意思的就是我们其实也去帮帮大家,已经把这个呃,最适合的易购芯片已经做好了这个智能匹配啊,就比如说我们选择了一个拉玛13B的这个AI模型的时候,其实我们会去给大家展示这个它只能支持呃,支持这个拉玛13B的这个算力套餐,那这里这里。就可以帮大家解决一个这个GPU选型的问题,你不需要再关心这个GPU上的相关的参数,因为GPU参数本来就比较多,可能会看,可能大家会看到啊,各种FP8FP16,各种各样的这个算力精度,它所代表的算力又不一样,然后还有包括它的这个显存。
38:05
决定了这个模型的大小,这些大家都不需要关心了,另外就是我们也帮也把这个可用区域以及VPC的概念也给也给屏蔽掉了,那大家也不需要关心太多的这个云上的这种复杂的概念啊。另外的话就是我们其实是已经把存储跟网络已经内置到了咱们这个套餐,都会会给大家直接提供一个以这种以GPU为为核心的一个套餐组合。另外一点就是这个也也是比较受大家欢迎的,就是这个可视化的界面,目前我们会提供像notebook web UI以及云端的IDE给到大家去做各种各种方式的这个算,我们把它叫做算链接入方式啊,因为本质上传统的这个云服务器,可能大家更多的是用terminal的方式去去连接,或者SSI驱动方式去连接,那其实呃,很多时候使用起来是不太方便的,特别是像这种AI的这种环境,那么其实我们针对AI环境呢,AI传统的这种AI开发环境呢,更多可以推荐大家使用的ebook,因为notebook本来就是一套这个AAI开发者或者说数据科学开发者可能常用的一一套这个在线的编码工具,他可以在上面去做一些编码运行和注释的工作,那另外呢,这个外BI呢,就是呃,大家可以看到我这个。
39:28
界面啊,就是我们会提供一个界面给大家,直接输入这个提示词就能够啊,生成一些图片,类似于类似于提供给大家一个这种模型预览的这么一个工具,可以帮助大家去做更快的这种模型推理的调试和管理。那另外的另外的话就是我们现在也在跟腾讯云自己的自己的一些产品做打通啊,比如说跟Co studio啊,大家用过的应该知道,它是一个web IDE的一个软件,那么我们会,我们应该就会在近期会做一个发布会去呃保留呃,会去支持大家使用这个云端的IDE去实现这个原生的terminal,或者说跟咱们本地IDE类似Vs code的一样的一个原生体验,满足这个更高阶的开发者他自定义环境的一个需求。
40:18
那在计费层面的话呢,其实我们也是也是这个做了很多工作啊,因为在刚刚刚刚提到的像账本增效其实也是大家比较关心的一个问题,那我这里举了两个场景啊,一个是这个弹弹性的场景,那我们现在的话,Hi是能够支持一个关机不计费的,就是如果大家在这个算力闲置的情况下,是可以把这个实例关机,那么在15天80g的这个呃条件下呢,我们会给大家做一个免费的保留,那另外的话,面向这个长稳的场景,我们现在也在腾讯官网会推出了这种现金券,那现金券的话呢,大家提前购买现金券再去使用hi的话,能够去更大的节省费用,那么可以享受到更低的折扣啊啊另外的话,可能有一些提前开票的这种,这种这种诉求也可以使用现金券去满足啊,这个这个详细的大家可以通过咱们的腾讯云的官网可以有一些更更多的了解。
41:16
那除此之外,可能大家比较关心的就是这个产品的价格,因为价格我不好一列在这里,但是这里可能就给大家展示几个大家比较核心的几个点吧,呃,这里举了两个例子啊,一个是T4级别的GPU,目前的话呢,H hi是一块2元每小时,那V百级别的这个GPU呢,我们是可以呃做到3.6元每小时的,这个开例价大家可以直接在上面,直接在官网上就可以购买的,这个价格也是也也是我们会把。目前腾讯云的这个整个的技术红利都已经全面的释放出去了,那除此之外呢,我们还提供了这个呃,免费的系统盘啊,出入带宽啊,还有刚刚提到的这个免费保留的数据,那另外的话,可能有的客户他想绑定域名,或者说他希望有一些呃对外服务的,那可能他会用到公网IP,那这个其实公网IP其实我们相对于呃这个市场上的其他产品也是一个额外的增值服务啊,我们也会去把这个公网IP免费给提供给大家。
42:18
呃,因为AI呢,它是在去年年底和今年年初左右才正式上线的,那么其实虽然这个时间不长啊,那我们也是积累了一些这个客户案例的,那我这里举几个例子,比如说在在一些客户他在。这种AI作画的场景下,希望去做一些快速的应用部署,来做一些,做一些这种SD场景的绘画生成,那这种场景下呢,可能我们会有看到像。这种字头的,呃,政府单位还有这种企业,比如说像。呃,中央广播电视台,中国日报目前都是H的客户,那除此之外可能还有一些做课题研究的这种这种这种,呃,高校呢,也在用到我们的这个产品啊,比如说像清华大学,中科院大学这些都是目前我们的客户,那另外的话就是在一些教学场景可能用的也比较多,因为现在其实AAI的课程也比较。
43:17
腾讯云学霸啊,都是我们目前的客户,那右边这些呢,其实就是呃,整个腾讯云的易,呃,腾讯云易购计算产品的一些客户,客户list子啊,这些可能可能更多的是呃,用了我们的一整套的这个解决方案,那么也在这里给大家大概介绍一下。那最后呢,呃,我也用呃乔布斯的一句话来总结一下,呃,我今天的分享,那其那那其实啊,这句话是引用引用引用大脑的,那技术不是为工程师而生,而是为应用而生的,那么我们我们也是更希望说看到更多的中小企业和开发者能够在AI应用的这个领域能够蓬勃发展,那么我腾讯云也是会全力的支持好大家啊,与大家一起共生长。
44:05
啊,那我今天的分享呢,就到这里,然后呢啊,这里有两个二维码,如果感兴趣的同学的话,可以跟扫码跟我们有一个进一步的交流啊,左边的是我一个个人的微信,然后大家如果有什么问题的话,可以随时找我,右边的话呢,是咱们的一个a hi的用户群,如果大家想跟我们的整个产品团队面对面的交流的话,可以加一下右边的这个企微二维码,那后续续的话,如果有更多的交流,或者说意见,或者说产品使用上的问题啊,都可以随时随时来联系我们啊,那最后介绍一下我自己,我是黄洋,然后来自腾讯云易购计算产品团队,主要负责的是这个易购计算的这个商业化以及hi hi的产品啊。感谢黄老师给我们带来的精彩分享,好,那我们接下来就有请今天的第三位分享嘉宾,来自腾讯云高性能应用服务嗨产品经理严玉成老师。杨老师负责腾讯云高性能应用服务hi的产品设计工作,参与hi从0~1的产品建设建设,对于AIGC部署方案中常为开发者生态的有着深入的见解,欢迎严老师给我们带来嗨玩转AIGC应用场景,带来主题分享,有请。
45:18
好的,感谢主持人哈,呃,刚才黄老师已经把高性能用氟氦这个产品的主要功能给大家做了一个非常详细的介绍,接下来的话,我会给大家介绍一下在这个高性能用for这个产品里面主要都有哪些应用场景,然后通过应用场景的介绍呢,来给大家一个更具象的认知。那今天的介绍主要会从三个角度展开,首先的话会去做一个应用场景的概述,给大家讲一下使用高性能服务,还究竟能做哪些应用,其次的话呢,会以civil,就是AI作画这个场景为例,去做一个下钻,去展示一下在AI绘画这个场景下的一些具体的落地时间。
46:00
然后最后的话呢,会以两个实操案例,一个是AI换装,一个是AI视频,这两个案例去给大家做一个介绍。那首先来到第一部分就是应用场景的介绍,那这块的话,大家最近肯定都会看到各种新闻啊,媒体啊,然后各种公众号啊,每天时不时的都会出来说说啊,今天AI又颠覆了哪一个行业,每天又出来了哪一个非常牛的模型啊,但是大家看到这些东西之后,其实并不知道具体应该怎么去用这些东西,能不能拿这个钱,能不能把这个合到自己的这个业务里面去啊,那其实呢,现在这个生成市AI这波浪潮主要会分成两派,一派是远派,一派是开源派。啊,那这块现在目前基本上是各分了半壁江山的状态,那高能用服务主要是面向开源这个场景,也就是说大家从giitbing face等等的这些网站上去看到的这些开模型,都可以拿到我们高性能用服里面去做一个快速的部署。那这块的话,我们目前主要是看到了这么四个比较主流的场景,那首先的话呢,就是最火的这个AI绘画,也就是以为首,然后可能它会牵连到比如说像control ne Yi等等各种的这些交互的界面,比如说像各种新的插件啊,那这是AI作画的场景,那在这个场景下呢,可能会衍生出来像AI换装,然后AI制作视频,AI制作这个虚拟主播等等的一系列的应用。
47:26
然后其次一类比较火的场景呢,是AI对话和写作这块大家可能最熟悉的是像GBT或者kimi这种,呃,B元的大圆模型,但是除了园的原模型以外,其实还有很多非常好用的开源的模型可以去做本地化的部署,比如说像质谱的China grm啊,然后Facebook的拉码等等啊,那大家可以去比方face上下载一个拉的模型给它放到里面去做一个私有化的部署。那其次呢,还有一类场景比较多用到的是AI的音频生成。这块儿呢,可以去比如说把自己的声音去做一个克隆,或者说是把自己喜欢的一个角色的声音去做一个克隆,克隆好之后可以拿它去做数字人,或者说是偶合前面两个场景,比方后去先生成一些图片,然后去用AI作画生成一个文案,然后再拿这个生成出来的音频去把这个文案读出来,然后结合着作画出来的图片去生成一个比较炫酷的视频,对,然后那除此以外的话,最后一类就是一些其他的比较小众的场景,比如说像我们可以去用这个呃排拖去部署一个换脸的框架,或者说我们去做一些底层的基础的这些应用开发。
48:34
对,那刚才提到的其实是一些比较大的呃,比较宽泛的这个应用场景啊,那这块的话还会再具体的从AI绘画这个场景给大家做一个展开,就比如说AI作画个场景,究竟它到最末端有哪些应用的案例呢?这块据我们观察的话,主要会分以下几类,这块给大家做一个快速的介绍啊,那首先一类的话是在泛娱乐产业,他这块的话就像是抖音啊,快手啊,小红书啊,B站啊等等的这些内容平台啊,其实一在过去的一年时间里面,已经出现了大量的AIG介入的这种图文和短视频的内容啊,与此同时的话,就是越来越多的这种自媒体博主会选择主动的去借助AIGC来提高自己的这个内容创作的质量和效率啊。那右边的话是举了一个简单的场景的例子,那这个其实就是小红书上的一个AI生成的虚拟博主。
49:25
就这个人其实不存在的,但是呃,他的这个整个脸啊,包括背景啊,包括全身其实都是AI生成的。那这一类的话流量会比较高啊,因为比较有科技感啊,这是泛娱乐,然后呢,在影视和传媒领域的话呢,会有很多越来越多的去借助controll ne的和各种AI视频的技术,然后比如Di s VD等等的这些技术去生成AI视频,赋能传统的这个传媒行业。啊,那这块的话,像前一阵子其实央视去带头搞了一个叫AI我中华爱我中华的一个短片出来,那这个短片当时也是引起了一个小小的热度,然后它的话相当于就是全部的视频的内容都是用AI的技术去生成的啊,那然第三类的话就是营销啊,那这块的话就是superion去赋能这个广告设计,使用像control net Laura train等等的这些方式去生成一些符合品牌调性,同时呢又具备AIGC科技感和时代感的这些广告的营销作品。那右边的话,这块展示的是呃,学中高的一个冰棍的广告,那叫萨萨这个广告,那它的这个无论是文字文案,营销文案,还是说它的这个图片啊,都是用AIC,也就是我们的这个CD是SD生图去生成出来的。
50:39
然后那接下来的话是在服装这个领域,那这块的话呢,是会有越来越多的这种做服装电商的同事,可能他们会去使用AI文生图去呃,产出很多适用于服装设计的真人模型控制插件,从而大幅的去优化服装行业的成本结构啊,因为其实在做这个服装电商的时候,其实很大一部分成本都是被这个模特。
51:03
去拍摄等等的这些就吃掉了一个模特,在义乌那边我了解到可能需要2000多块钱一个小时的成本,其实成本是很高昂的,那通过这种方式呢,可以去取代真人模特,实现这个图片去你的服装的图片到真实穿上的效果,一键换装,这块的话待会儿也会给大家做一个具体的展示,那最后一类的话呢,还有像家装和设计行业。这块的话,其实是可以通过家装行业的一些垂类的AI绘画模型去提升一个设计的效率,相当于客户来跟你聊这个方案的时候,不需要再去让设计师去吭哧吭哧搞好几天就把这个图做出来了,可以直接拿到客户想要的一些效果,然后把图片上传上去,然后一瞬间就把设计图给做出来。对,那以上的话呢,是我们观察到的一些呃,比较火的已经实际落地的这个AI绘画的应用场景,那除此以外的话,其实还有很多在这块没有具体去提到哈,比如说像啊,通过AI绘画去做这个换脸,或者说是去做一些呃这个的视频等等的。
52:06
然后那接下来的话就是会给大家展示一个具体的实操案例,就是光说不练假把式嘛,就刚才其实是讲了到底有哪些应用可以在海上去用,大家究竟怎么用呢?呃,这一页的话会给大家做一个展示。啊,那首先的话呢,是呃,大家可以去创建出一台实例,然后创建出来呢,需要去这个open art下载一个合适的工作流,并且导入环境,然后之后进入到环境里面去把缺失的这个插件和模型安装好,然后上传一个照片就可以了,那这块介绍的比较简单哈,我现在切到我们这个产品的控制台,给大家做一个更直观的讲解。对,那呃,现在进入到这个页面呢,是已经创建出来的一台hide实例的页面,这块具体的购买的流程我就不给大家再去做赘述了,这块儿其实很简单,大概两三分钟大家就可以进入到这个页面了,进入到这个页面之后呢,我们可以去通过comp UI或者lab两种方式进入到算里面。啊,比如说像我现在点击com UI.
53:04
那这块的话呢,是会进入到一个默认的界面里面去。然后默认的界面的话,它会有一个默认的工作流,那同时的话,我们其实已经给大家预装好了一些这种基础的模型文件,然后包括一些常用的插件都给大家预装好了,那在这个环境里面呢,我们可以去呃生成图片了。比如说像我现在点这个添加提示词队列。好了,很快图片就生成出来了,然后另外的话,我们也可以进入片lab,就是其实它就是一个类似SSH远程连接的这么一个界面,我们可以在这个里面去看我们的这个生成的记录。比如说像我们现在进入这个。Let me know.进入con。对,我们可以在这块儿去看我们图片生成的一个后台的记录,但是呢,这个工作流太简单了,就是大家可能没法拿这个工作流去做任何实际的商业化的落地,那接下来应该怎么办呢?啊,这块有两种选择,一种选择是大家技术水平很强,然后对s sta这一套生态非常了解,那我们其实就可以自己去新建节点,去把整个的工作流搭建出来了,当然这个门槛是比较高的。那还有一种更快捷的方式呢,是去网上找到这种类似开源的呃,工作流的分享平台,那这个社区里面会有很多大神在上面去共享自己已经做好的工作流。
54:30
啊,然后这些工作流是会分成各种各样不同的场景的,比方说像这块有这种换装场景的工作流,然后有这种制作视频的工作流,然后有这种把你的。照片去生成大头贴的工作流。有这种视频转会的工作量。大家可以去选择满足或者说符合自己业务场景的工作流,然后去把这个工作流下载下来,其实它本质上就是一个Jason格式的文件啊,那我们把它下载下来之后呢,就可以在康FUI的这个环境里面去给它做一个。
55:02
上传,我们可以把它import导入到这个环境里面去,那这块我之前已经导入过了,然后直接给大家展示一下导入之后的状态。啊,那这个工作流导入出来之后之后,进来之后呢,其实不是像我现在给大家展示的这种已经完成完全搞定了的状态,可能还会有一些插件的缺失,模型的缺失,但是这块的话,因为我们已经把这个管理器这个节点给大家安装好了,大家只要点击进来,然后可视化的去,呃,把缺失的节点安装好,把缺失的模型安装好啊安装完成之后,这个工作流就可以转起来了,那比方说像这块我给大家展示的其实是一个换装的工作流啊,那这个工作流实现的效果呢,就是我们可以在这块儿上传一个模特的照片啊,比如说我在网上随便找了一个模特的照片,然后去上传一下自己想要去售卖的这个服装的图片,比如啊这块我上传一个白色的短袖。然后一个蓝色的这个牛仔裤。然后点击生成,生成等待一段时间之后,它就可以把这个图片给生成出来了,那可以看到其实原图里面这个模特是穿着裙子的,那我们生成出来的图其实很接近我上传的这个照片的,比如说它是一个白色的短袖,然后它有一个牛仔裤,当然这个工作流还会有一些瑕疵,这个瑕疵的话大家其实就可以下去啊,自己再在一个工作流的基础上去做一些DIY,比方说像他可能会用到这个control net, 但是control ne它可能只用了一层啊,比方是不是可以加一层con ne, 让它的控制效果变得更好,比如说像提示词这块,目前用的是反推,那这块是不是可以把这个流给取消掉,然后我们按我们图片实际的内容去手动的输入提示词,来达到更精准的控制效果啊,那最后的话,这个工作流言还做了一个换脸,就相当于是说在上面我们可以去上传一个自己想要的这个面部的效果,然后他最后的话呢,可以生成出来一个换过,就是相当于面部是和我们上传的这个照片一致的,这么一个模特的试传效果出来。
56:55
对,那这是呃,一个简单的介绍,就是说在这个AI换装这个场景下,那除此以外的话,这边还给大家展示了一个在视频转会的场景下的工作流,那这块其实是类似的,相当于我们也是在这个开源的社区上面找到一个work flow, 把它下载到本地,然后上传到这个环境里面去啊上传环境的话好之后呢,我们就可以去随便找一个比方说视频,然后把它给转成。
57:20
这种舞蹈的效果,呃,这块的话,大家也有非常高的非常灵活的一个自定义的。使用的这个方式就是你可以去自定义用的这个基础模型,可以去自定义你的提示词啊,那在不同的基础模型,不同的提示词的这个输入之下,它最后产出的这个效果是截然不同的,那这块的话,我其实是用呃两个不同的模型,一个是二次元的模型,一个是真人的模型,然后同样的提示词去生成了两个视频,大家可以看一下这块的对比效果。对,那这个其实也是一个比较简单的操作,我相当于相当于就是把这个开源的工作流直接拿下来直接用了,我也没有做太多的修改,那如果大家要去商用的话,其实可以在他的基础上去做一些简单的调整,去做一些调试,然后就可以对外去,呃,给C端用户,或者给自己内部的设计师团队去使用了。
58:17
好,那以上的话呢,是在civil这个场景下,基于com UI的一些应用部署的实战的这个展示,那除此以外的话呢,还其实还支持各种各样的这个环境,预装的环境,比方说呢,我们其实也支持像susion y这种大家可能用起来比较简单的,呃,环境就是B,可能大家有人说啊,太复杂了,看不太懂,那YB的话就这种完全大家点选式的这种交互,我们也是支持的,这块的话,只要在购买的时候去选择到YB的这个环境就OK,然后另外的话,像的JRM这种语言模型啊,比方GM3 GM2,然后另外的话,像他们都是支持这种Y推理等等一系列的东西,另外的话呢,相当于就是我们既支持这种可视化的交互,然后同时呢,也支持大家去使用API的模式启动这个服务,然后用API调用的方式来给自己的外部用户提供一个中常委的部署,那这块儿我们现在已经有一些客户在实际的按这个方式去使用了。
59:17
相当于是会开出来,比方说10台20台机器,然后他去部署好web或者civilusion的这个环境,然后他自己做了一个API的调用。给线下的这些用户去做一个实际的体验,然后这块确实在线下客户,终端客户的反馈那边效果还是不错的。对,那以上的话呢,就是我今天主要的介绍内容啊,然后大家就可以看到,呃,其实就是我们目前主流的这些开源的模型,都是可以在hi上面去做一个快速部署的,那这块儿呢,其实会有更灵活的一些使用方式,我刚才呢,只是介绍了单纯的使用AI绘画这个场景能怎么用,那比方说像我们之前有客户,他可能是把呃叉M就是语言模型加上AI绘画,加上呃音频合成在一起,然后他就做了一个成语。
60:12
猜成语的小程序出来,然后在那个小程序里面呢,你可以就是他会用AI绘画先生成一个图片,然后他需要用户去选择这个图片到底对应的是哪一个成语啊,然后这整个这一套流程都是通过AIGC实现的,然后这一套流程也都是在海上去做的部署。对,所以大家也可以去呃展开想象力,然后去做一些更有意思的这个部署尝试出来,另外的话呢,就是大家在使用应用的过程中,或者说是大家对哪一类应用有比较强的使用诉求,也都欢迎大家加入我们的这个用户群,大家可以把自己想用的模型提出来,然后我们呢会呃根据情况把它给制作成。一个公共环境,让更多的人更好的去使用,比方说我们近期也在计划去把像SOS这种音频合成的模型啊,包括像Laura train这种环境都打包做成我们的公共环境,让更多人能更好的去使用。对,然后感谢大家观看。
61:08
谢谢。嗯,谢谢杨老师,谢谢您带来的精彩分享,那接下来呢,就有请我们今天的最后一位分享嘉宾,来自腾讯云高性能应用服务嗨工程师唐先智老师,唐老师负责腾讯云高性能应用服务hi的技术开发工作,参与了hi的整个技术方案设计与后台开发,对于虚拟机容器、K8S、云上存储等技术有着深入的研究和开发经验,在大模型推理和微调方面有一定的技术积累,欢迎唐老师啊,给我们带来为开发者打造AI的助推器技术路线与新特性介绍主题分享,有请。呃,大家下午好,呃,我是腾讯云易购计算研发工程师唐先智。而我这边给大家分享的主题是,呃,为开发者打造AI开发助推器。
62:02
呃,汉语技术能力和这个新特性的一个介绍。呃,首先给大家分享的是。呃,咱们高性的应用服务,还有这个产品的一些技术能力。高性能应用服务这边的一个亮点呢,是给大家提供了一个开箱即用的AIGC环境。啊,向开发者上手一个AI应用。最开始的工作呢,就是先要完成应用的A相关的技术环境。包括像。啊,AI模型和AI框架啊,AI模型比如说现在呃热门的stableus还char gm3呃AI框架比如主流的PAO,还有attention flow这些。啊,这些环境呢,都内置了基础的啊,嗯嗯,英伟达的这个显卡驱动,还有库达这些的。
63:06
啊,软件支持包括像修PI lab这样啊,能够便捷呃科学计算的这样的一些开发工具啊,在嗨上线的这几个月里呢,我们也收到了用户的反馈说。是,可能部分用户对Linux操作系统不是很熟悉啊,所以我们也近期在啊上线了一款Windows server的一个基础开发环境,来方便大家的使用。啊,AIGC应用呢,也在不断的更新迭代,像各种新功能新特性的应用呢,啊,在这边也会持续的更新迭代上架。这边的团队啊,会去调研开源社区门的一些用,对需要上架的这些应用做环境部署啊,包括A。
64:03
前期的排坑的一些操作。来确保咱们AI应用呢啊,能够以正常的训练和推理的性能运行在特定的呃,GPU卡型上。啊,并且产研团队还会为AIG应用编写使用指引啊,提供AIGC服务啊,拉起或者是重启的一系列的服务操作指引。帮助我们的这个客户快速上手IC应用的一些使用。完成以上这4工作,上传到的应用模板市场上面,供客户的使用。啊,环境的环境的一个这个创建交付速度,也是我们还这边的一个亮点啊,还这边可以做到2分钟内为用户完成。
65:08
AIGC应用的一个交付啊,一般来说呢,AIGC应用存储空间的占用会比较大啊,会包含像前面提到的大模型的模型文件和软件依赖,一般动看都需要20GB以上的这样的一个存储空件啊,如果我们用传统的网络下载软件依赖和模型文件这种方式来给用户交付环境的话,这个速度肯定是没有办法忍受的。啊,因此我我们高性能应用服务害呢,使用了腾讯云上,腾讯云上的一个这个啊,云盘快照技术,一个AIGC应用镜像会在我们内部啊,被制作成一个云上数据快做持久化的存储。啊,用户呢,在购买实力的时候,我们的后台会基于呃,用户选定的应用类型去找到对应的快照文件。
66:00
然后呢,用这个快照文件啊,速去创建一块云上数据,并挂载给我们的这个用户使用,采用这种方式呢,啊加速了整个应用交付的一个时间。呃,云上环境保存也是这这边非常重要的一个技术能力,呃,如果用户暂时不需要这个这边的云上算力的话啊,可以通过关机不收费这样的方式去释放算力。用户的数据会保存在我们云上的数据盘中啊,关机时不会销毁,会为客户保留,在下一次用户再次开机的时候,会直接将这块之前使用的啊数据盘挂在使用。啊,如果用户呢,希望将整个亥实力销毁的话。我们也提供了一个叫做应用存档的功能啊,用户可以对应用制作存档来以备未来再次使用这个创需要创建或使用实力的时候,可以直接之前的应用存档去还原啊,之前保存的这个环境不用再重新的去做之前已经做过了配置。
67:15
啊,后台呢,对用户环境呃,制作这个云上快照存储,可以确保这个用户变更数据的一个持久化,同时呢,我们还支持啊,这个应用存档的一个地域拷贝的一个能力,这边的算力资源呢,是具有这个地域属性的,所以我们呃也有用户反馈说可能出现。啊,广州地域的这个资源不足。没有办法购买,但其实上海地域的算力资源是充沛的,希望去上海地域去购买,那这个时候呢就可以,呃,使用我们的这个跨地域考贝位的能力,在对广州的这个实力做。应用存档之后,将这个应用存档跨低于拷贝到上海,然后啊在上海再用这个应用存档去创建一台新的实力,这样就实现了一个呃这样一个数据的一个跨地域的同步。
68:13
呃,此外呢,Hi作为这个呃,腾讯云云上产品矩阵的一员,它的优势呢,也在于能够和腾讯云上的其他优秀的产品做联动。啊,AI的开发者通常。会有这个大量的模型和数据存储的一个需求啊,在使用高性能应用服务的时候呢,啊,是可以结合这个腾讯云的对象存储来存储自己的这个海量的数据和模型文件的。呃,像用户在完成的这个腾讯云上面,呃,对象存储统创建之后,可以在海上将自己微调好的模型文件上传到啊对象存储桶中保存。那这样的话也方便去通过对象存储的方式共享给,嗯,像自己的小伙伴,或者给共享给自己公司内的其他同事,也方便后续的一个在上使用模型的一个下载。
69:15
啊,还比方说又害用户假如已经在本地啊,下载好某个模型文件,也可以从本地啊把这个模型上传到自己的对象中啊,后续呢啊也可以在实地上面拉取中的文件,这种方式呢,会走的是腾讯内部的一个内网流量速度,它通常可以达到啊3GPS以上这样的带宽啊,这个网速还是非常可观的,能够加载,能够加速一下这个模型下载的速度。呃,除此之外呢,我呃还这边还可以和腾讯云上另一个产品叫cloud studio做一个这样呃联动的配合使用,像我们大部分的开发者应该都有这个使用IDE去做啊代码开发的习惯。
70:08
腾讯的这款产品呢,为用户提供的一个云上使用IDE的这个能力。呃,高新的应用服务去配合CS啊,我们的相当于是我们的hi去提供云算力啊,Cloud studio提供一个这个代码开发的这个云端IDE,直接就可以在整个云上闭环AIGC的一个开发和部署的流程。啊,以大模型的应用开发为例子啊,大家可以在cloud studio上下载啊,开源模型呃,开源项目chat GPT web这样的一个呃,前端项目来去充当。大圆模型和用户交互的一个前端页面,呃,然后呃,以这个运行在high实力上的这个chat g RM的大模型作为服务的后端。
71:04
啊,实现这个大语言模型啊,聊天交互应用的一个快速开发。啊,目前hi呢的实力内部已经内置了cloud studio的这样的一个算力连接的方式啊,用户呃就拥有了自己独立的一个云IDE的开发空间,可以直接对环境中的代码文件啊做修改和调试,这个功能呢当前还在啊产品的一个内测阶段,功能稳定后会啊近期会向全用户去开放这个功能。这边呢,同时也预告一下这边后续的一些啊特的进啊,这边后续一个技术。啊,这也是因为目前我们得到一些啊客户使用的反馈,所希望能够在亥实力上面,假如完成了自己的应用开发之后,可以直接创建出呃应用的这样的一个呃推理集群去对外提供服务啊,因此hi的产研团队呢,呃计划推出害推理集群服务这样的一个能力。
72:17
那经过内部调研,我们发现大部分的开发者都苦于像呃传统的K8S这些复杂的这个云,呃云上的这些概念和和这个繁琐的一个运维工作,嗯比较难在短时间内快速去实现自己推理集群的这样的一个部署。呃,这边的推理集群服务呢,将会去简化,呃,K8S复杂的这个运维概念,不用去节点管理啊。呃,具备的这个算题卡数,就可以快速一键拉起一个对外服务的AIGC弹性集群。
73:05
啊,除此之外呢,我们也会提供一些热门AIGC应用的推理模板啊,例如像stableusion web UI啊,用户只需要告知我们需要多少的算力需要,呃,使用stable diion web UI底层的哪一些主流的模型文件啊,剩余的运维工作我们都可以帮用户去屏蔽管理掉。啊,AIGC推理集群这块我们还会支持极速创建的特性啊,帮助用户对应用的容器镜像去做一个缓存的加速,去加速的一个拉速度,并且持一还有GPUCPU利用率等指标来对呃进行节点做一个弹性库存龙的策略。啊,也支持用户手动去调节算节点的数量啊,支持去监控集群的整体的一个利用率。
74:07
嗯,以上就是我这边全部的分享内容,也感谢大家今天下午的观看啊,如果大家在产品使用上有任何的这个技术上的问题和体验上的建议啊,欢迎扫码去加入这个害呃用户群,来跟我们产品团队做这个面对面的沟通。感谢大家的观看。谢谢,谢谢唐老师,也再次感谢我们今天四位老师带来的精彩分享,那我们的时间过得很快,本期的活动也进入到了尾声,再一次感谢大家对于我们的参与和关注,我们下期活动再见。
我来说两句