Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >腾讯云总监手把手教你,如何成为 AI 工程师?

腾讯云总监手把手教你,如何成为 AI 工程师?

原创
作者头像
贺嘉
修改于 2017-06-19 11:10:48
修改于 2017-06-19 11:10:48
17.5K2
举报
文章被收录于专栏:贺嘉的专栏贺嘉的专栏

作者:朱建平 腾讯云技术总监,腾讯 TEG 架构平台部专家工程师

1.关于人工智能的若干个错误认知

工智能是 AI 工程师的事情,跟我没有什么关系

大数据机器学习( AI ) 是解决问题的一种途径和手段,具有通用性,是一个基础的技能。当前我们工作中还有很多决策,是基于经验和预定的规则,未来这部分决策可以通过 AI 让我们做得更合理更好一些。

工智能太厉害了,未来会取代人类

随着人工智能的发展,特别去年谷歌的 AlphaGo 围棋战胜代表人类的顶级棋手李世石,更是引爆了整个互联网。于是,网上不少人开始了很多担忧:机器人取代人类,有些人甚至在孩子高考填志愿时要求孩子填报艺术创作类似的方向,以避开未来与机器人或人工智能的竞争。

实际上,虽然目前人工智能在语音识别,图片识别近年来取得了突破,但人工智能还远未完善: 数学理论尚不完备,“智能”的取得建立在大量的人工前期工作基础上,缺乏无监督学习。

2. 传统开发 转行 AI 工程师的障碍

2.1 急于求成的心态

LR, SVM , 决策树, DNN , CNN , AlexNet , GoogleNet , Caffee , TensorFlow , 智能驾驶, AlphaGo , 个性化推荐, 智能语音, GPU , FPGA ......

晕了没? 没晕再来一波......

这里面的水很深,不要太急躁很快能搞懂,事实上由于数学理论不完备,有些东西还真解释不清楚,比如在图像识别上ResNet 比 GoogleNet 识别率更高,ResNet 是怎么推导出来的?

梳理好这些概念,结合实际应用,化整为零逐步理解和吸收,有的放矢,不可操之过急。   

2.2 自底往上的学习方法,想要从基本概念学习

建议结合应用场景先动手实践,再逐步细化。

推荐《机器学习》 周志华 清华大学出版社。

3.AI 工程师的知识结构- 机器学习的基础知识

3.1 人工智能、 机器学习、 深度学习的关系

这是现在大家经常混淆的概念,什么叫做人工智能?什么叫做机器学习?什么叫做深度学习?人工智能是最大的范畴,只要你用计算机做了一点智能的事情都可以称为做了人工智能的工作。真正的人工智能应该是让机器拥有人的智能,让机器跟人一样能看、能听、能说,能用自然语言跟人进行交流。这个涉及到计算机视觉、语音识别、自然语言处理人机交互语音合成等等,是常规的我们研究讨论的人工智能的主要发力点,在互联网公司有着广阔应用场景的。

机器学习可能是人工智能目前最火的领域,深度学习可能又是机器学习最火的子领域。什么时候需要用人工智能?直觉上来讲数据越复杂,深度学习越可能起作用;数据很简单很明确,深度学习可能就不怎么起作用了。比如搜索领域,目前只有 Google 宣称他们用深度学习 double 了用户点击率,是指他们将深度学习运用在用户浏览过、搜索过的信息上,那是非常庞大非常复杂的数据。   

3.2 机器学习解决问题的基本步骤

一般应用机器学习解决实际问题分为4个步骤:

1)定义目标问题

目前还没看到有一个机器学习模型适用于解决所有问题,不同问题有各自适用的模型,如图像相关问题有深度学习、推荐相关问题有专门的推荐算法、安全相关问题有异常检测模型等。脱离具体问题去讨论模型是没有意义的。 2 ) 收集数据和特征工程

机器学习是面向数据编程,数据是机器学习的基础。训练模型时,一般会把样本数据拆成两部分,其中大部分(约7成)数据用于训练模型,称其为训练集;另外少部分数据用于测试“模型的好坏”(也称“泛化能力”),称其为测试集。

同一个机器学习算法,好的数据能让其表现更好,差的数据会让模型毫无用处。什么是“好的数据”?并没有统一定义,从结果看,能让模型表现良好的数据就是“好的数据”。一个可行的办法是想象“人”在解决该问题时,会依据哪些数据和特征做决策,然后挑选这些数据和特征作为机器学习模型的输入数据,这个过程就是特征工程。在应用机器学习时,可能需要反复做多次特征工程,特征工程是个试错的过程。 3 ) 训练模型和评估模型效果 

利用标注数据,训练模型数据,而一般的步骤是:

a. 从底层存储读取数据

b. 对训练数据进行前向计算

c. 计算训练误差

d. 反向计算梯度,更新网络参数

e. 重复a - d 步,直到模型收敛

测试模型效果,一般测试数据集远小于训练集,这里主要是快速前向计算,一般合并在第一步中。 4 ) 线上应用和持续优化

模型在训练集上性能达标,但在线上环境性能不达标,这一现象被称为“过拟合”。通常的原因是用于训练模型的数据中特征的分布与线上数据偏差太大,此时需提取更具代表性的数据重新训练模型。

模型在线上应用后,需持续跟踪模型的性能表现,机器学习是面向数据编程,如果线上系统上的数据出现了不包含在训练集中的新特征,需要补充新样本,重新训练迭代模型以保证预测效果。 3.3 机器学习的相关概念

模型用途:分类、回归、聚类

主要区分在于 output 的描述是什么性质:分类是指 output 是整数(即多个类别标签);回归是指 output 是一个实数,例如预测股票的走势,input 是时间,output 就是股票价格;聚类一般都是应用于非监督的状态下,对 output 完全不知道,只能对 input 数据本身进行统计分析,比如用户画像,通过数据之间的关系如关联程度将数据分成好几簇。   

训练过程: 监督、半监督和非监督

机器学习是一个用数据训练的过程;监督是指 input 的每个数据样本,我们明确知道它的 output (如类别标签)是什么;半监督是指我们只知道 input 数据样本中一小部分的 output ,另外大部分不知道;非监督是指所有 input 的数据样本,我们完全不知道它们的 output 是什么。   

学习模型:LR/SVM/决策树(传统的分类和聚类)DNN(深度神经网络)CNN(卷积神经网络)

常用CNN模型:AlexNet , GoogleNet , ResNet

浅层和深层,以前的机器学习方法大都是浅层,浅层学习模型是从六十年代发展到现在;深层学习模型过去不怎么work,自2010年迄今有了非常大的突破,深层模型在大量(至少百万级别)的有标签的数据驱动下将input端到output端之间的映射做的更深更完善。   

开源框架&平台:Caffee, TensorFlow( Google ),Torch ( Facebook )

为什么有这么多深度学习框架,参考《 Deep Learning System Design Concepts 》

4.入门成为 AI 工程师的可行路径

虽然从垂直领域讲有语音识别,图像视觉,个性化推荐等业务领域的AI工程师,但从其所从事的研发内容来看,从事AI研发的工程师主要分为3类:

1 ) AI 算法研究

这类人大都有博士学历,在学校中积累了较好的理论和数学基础积累,对最新的学术成果能较快理解和吸收。这里的理论是指比如语音处理,计算机视觉等专业知识。

AI算法研究的人主要研究内容有 样本特征,模型设计和优化,模型训练。样本特征是指如何从给定的数据中构建样本,定义样本的特征,这在个性化推荐领域中就非常重要。模型设计和优化是设计新的网络模型,或基于已有的模型机型迭代优化,比如CNN网络模型中 AlexNet , GoogleNet v1/v2/v3, ResNet 等新模型的不断出现,另外就是比如模型剪枝,在损失5%计算精度情况下,减少80%计算量,以实现移动终端的边缘计算等等。模型训练是指训练网络,如何防止过拟合以及快速收敛。

2)AI 工程实现

这类人主要提供将计算逻辑,硬件封装打包起来,方便模型的训练和预测。比如:

  • 精通Caffee/TensorFlow等训练框架源码,能熟练使用并做针对性优化;
  • 构建机器学习平台,降低使用门槛,通过页面操作提供样本和模型就能启动训练;
  • 通过FPGA实行硬件加速,实现更低延时和成本的模型预测;
  • 在新模型验证完成后,实现在线平滑的模型切换。    3)AI 应用

侧重验证好的模型在业务上的应用,常见语音识别,图像视觉,个性化推荐。当然这也包括更多结合业务场景的应用,比如终端网络传输带宽的预测,图片转码中参数的预测等等。

5.DNN 和 CNN 网络

5.1 DNN 原理

DNN深度神经网络是模拟人脑的神经元工作机制构建的计算处理模型。

激活函数常用的有:sigmoid,ReLU等,比如 典型的sigmoid函数

多个神经元分层组织起来构成了一个网络,早期神经元网络仅能做到浅层,在训练方法和计算能力获得突破后,深层神经网络DNN得到了更广泛研究和应用。   

5.2 CNN 原理

简化的计算过程:

上图展示了一次卷积计算: 一个6×6的图片I 使用卷积核 F 进行卷积,得到输出图片 O 。输入图片中在 patch 范围内的元素和卷积核中对应的元素相乘,最后乘积结果相加。

真实的计算过程:

上图是三维卷积的展示,对于第一层来说卷积核是11x11x3,在输入立方体227x227x3上进行滑动,对应图表 2中的k=11,N=227,D=3.卷积算法就是卷积核11x11x3和立方体227x227x3的重叠的每个值做乘运算,再把乘的结果做累加,最后得到一个值,数学公式为 y = x[0] × k[0]+ x[1] × k[1]+…+x[362] × k[362],因为卷积核11x11x3共有363个值,所以我们可以看成一个1x363的矩阵乘以363x1矩阵。   

6.AI 开发的典型场景

训练采用 caffee 单机框架,单机2卡K80 GPU,为充分发挥 GPU,采用了数据并行,一次一个 batch 256张图片输入,alexnet 网络分为前5层卷积层,后3层为全连接层,主要的计算在卷积计算,我们将其用 FPGA 实现,全连接层采用 CPU实现。

海量准确的样本也是个细致活,需要不断运营。

腾讯云GPU云客户案例

中国香港理工项目

该实验项目是基于美国气象局提供的10年的气象数据,包括温度,湿度,风向,风速,降雨量,云层厚度,云图,空气浑浊度,日照等数据,对未来一段时间的天气进行预测。在该项目中,我们使用 Google 进行基于神经网络深度学习的 Tensorflow 框架,用 Python2.7 进行开发,并且在 GPU 上对深度神经网络进行训练。

7.CPU、GPU、FPGA 区别

大多数人可能有个大致的认识: 训练用 GPU, 预测用 CPU 或者 FPGA

CPU 开发门槛低,未来主要承载 高性能网络,计算分拆出来的逻辑复杂,不适合并行计算的部分。

GPGPU 最新的P40,P100系列,采用16nm工艺,因其 Cuda 开发环境比较成熟,学习成本低,灵活性高,将继续在AI的模型训练阶段发挥关键作用。

FPGA 最新的YV9P(16nm) FPGA,之前强调节能,单 FPGA 在数据中心的部署也是一个全新的课题,未来可能会加强 HBM2 片上 DDR 内存容量和带宽的增长。未来在在线模型预测方面发挥重要作用,但 IP 不足,开发周期长是一个瓶颈。 FPGA 卡,驱动开发,IP 实现导致使用门槛较高,未来会在 FPGA 云上消除这些应用障碍。

8. 腾讯云的 GPU 云、FPGA 云进展

8.1 腾讯云 Skylake CPU

2017年2月,腾讯云宣布在国内率先使用英特尔下一代至强®处理器(代号 Skylake),推出国内最新一代云服务器。新一代云服务器在计算性能、内存带宽、网络时延等方面拥有显著优势,最高可提供96 vCPU,可满足企业对云服务器高规格高配置的广泛需求,尤其在人工智能等高性能计算领域将发挥更大价值。据介绍,目前腾讯云官网已开放新一代云服务器的试用申请,客户将花费更低的购买价格,享受到更高性能计算服务。

与过往采用至强系列处理器的云服务器相比,内置 Skylake 至强®处理器的新一代云服务器具有更高计算性能、更大内存带宽、更强存储 I/O 性能、更低网络时延等优势,能满足游戏行业、视频行业、金融行业等领域的更高计算需求。具体而言,Skylake 至强®处理器具备的更优特性主要包括:

Skylake 至强®处理器支持 AVX-512 指令, 可支持更大数据宽度处理,能加速多媒体编解码、加解密数值运算,在机器学习、科学计算和金融分析等需要顶尖的浮点运算功能的场景提供更优质的处理性能。

Skylake至强®处理器支持 Omni-Path 互联架构,有助于提供更快的数据访问效率、更低的延时服务。

8.2 腾讯云 GPU

腾讯云推出基于 NVIDIA 最新企业级产品(M40和P40)的云产品 GPU 云服务器和 GPU 黑石服务器,其中,基于M40的 GPU 云服务器已于2016年底正式上线。今年上半年,腾讯云还将推出1机8卡的 GPU 云服务器,单机多卡整机性能更高,可以满足超大数据量超大规模机器学习算法需求,最大化提升计算效率。

G2 实例最多可提供 2 个 NVIDIA M40 GPU、56 个 vCPU 和 120GB 主机内存,以及双卡 48GB 的GDDR5 显存。GPU云服务器拥有高达6144个加速核心、单机峰值计算能力突破14T Flops单精度浮点运算,0.4T Flops 双精度浮点运算。 在视频渲染、虚拟化桌面、深度学习等对计算能力要求极高的场景中,腾讯云 GPU 云服务器以及 GPU 黑石服务器都有广泛的应用前景,同时还能满足图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学、渲染等领域对基础设施的高要求,且极具性价比。

目前腾讯GPU云服务器已开放官网申请。

8.3 腾讯云 FPGA

腾讯云在年前宣布推出国内首款高性能异构计算基础设施“ FPGA 云服务器”。已于2017年1月内测上线,以云服务方式将大型公司才能长期支付使用的FPGA推广到更多企业。 腾讯云和业界厂商有良好的关系,提供了基于 Intel 和 Xilinx 两家的硬件平台和软件开发工具,方便开发者选择自己熟悉的开发模式,避免切换平台。

1)硬件平台

腾讯云即将发布基于 Intel 和 Xilinx 的单机4卡 FPGA 云服务器,推出多种规格的 FPGA 实例供您选择。单机多卡整机性能更高,可以满足超大数据量超大规模机器学习算法需求。也可选择单卡可节省计算效率,轻资产开发,降低项目研发期间的投入成本。

2) 腾讯云官方 FPGA IP

Alexnet 网络模型预测加速(已上线)— 用于图片鉴黄的粗筛

Googlenetv1 网络模型预测加速(今年上半年)— 用于图片鉴黄的精选

同步开放的还有内部使用的图片压缩IP。   

3)FPGA 生态建设

我们通过IP市场,以开放合作的心态引入更多第三方成熟的 AI IP进来,为 FPGA 生态的发展注入新的生机。

Q&A:机器学习对于模仿人的思考是怎么做到的?

现在机器学习模仿人的思考做的比较原始。目前主要还是提取人做某项决策时考虑的主要因素,在机器学习中我们叫样本特征来告诉模型,当遇到类似特征时应该输出什么。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
2 条评论
热度
最新
好东西,再次谢谢老板
好东西,再次谢谢老板
回复回复点赞举报
好东西,谢谢老板。
好东西,谢谢老板。
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
专访 | 腾讯云机器学习平台技术负责人黄明,详解 DI-X 深度学习平台
机器之心原创 作者:高静宜 3 月 28 日,腾讯云宣布推出深度学习平台 DI-X(Data Intelligence X),为机器学习、深度学习用户提供一站式服务,为其在 AI 领域的探索降低门槛并提供最流畅的体验。DI-X 平台基于腾讯云的大数据存储与处理能力,集成 Caffe、TensorFlow、Torch 主流深度学习框架,主打行云流水的拖拽式操作,具备强大的业内开源及腾讯自研算法库和模型库。DI-X 平台的推出是腾讯在 AI 领域长线布局中不可缺少的一环,也宣告腾讯云在 AI 布局的全面加速。
机器之心
2018/05/07
2K0
专访 | 腾讯云机器学习平台技术负责人黄明,详解 DI-X 深度学习平台
30 倍效率,4 成费用,创业公司拥抱 AI 的另一个选择
本文介绍了 FPGA 在深度学习领域的应用,包括基于 FPGA 的硬件加速、基于 FPGA 的数据中心、基于 FPGA 的边缘计算以及基于 FPGA 的智能视频分析。同时,文章还介绍了腾讯云 FPGA 云服务,该服务可帮助用户快速部署 FPGA 加速,提高应用程序性能,降低成本。
腾讯云计算产品团队
2017/01/22
1.8K0
英特尔人工智能,助力全球领先云服务供应商
微软Project Brainwave是一个基于FPGA的低延迟深度学习云平台。微软创新地使用了英特尔提供的Stratix10 FPGA,创新的硬件赋予了这一深度学习云平台强大的计算性能。随着英特尔在人工智能领域的投入不断深化,越来越多的云服务提供商通过英特尔架构获取更高的性能,以及更可控的基础设施构建和运维成本。
IT阅读排行榜
2018/08/17
5230
英特尔人工智能,助力全球领先云服务供应商
Python 分析231份招聘需求,如何成为 AI 工程师?
本文介绍了人工智能工程师的薪酬、岗位要求、职业前景、创新工场等,认为AI领域的门槛正在降低,人人都可以成为AI工程师,同时AI工程师的薪酬和地域、行业有关。
贺嘉
2017/03/23
1.9K0
Python 分析231份招聘需求,如何成为 AI 工程师?
2016年人工智能技术进展大盘点
如果说2015年大家还在质疑深度学习、人工智能,认为这是又一轮泡沫的开始,那么2016年可以说是人工智能全面影响人们生活的一年。从AlphaGo到无人驾驶,从美国大选到量子计算机,从小Ai预测“我是歌手”到马斯克的太空计划,每个焦点事件背后都与人工智能有联系。纵览2016年的人工智能技术,笔者的印象是实用化、智能化、芯片化、生态化,让所有人都触手可及。下面我们以时间为坐标,盘点这一年的技术进展。
CSDN技术头条
2018/02/12
1.8K0
2016年人工智能技术进展大盘点
AI规模化落地,英特尔至强的七重助力
当今时代,各行各业与人工智能(AI)加速融合,通过智能化创新来寻求业务转型升级。与为数不多的顶级AI研发公司相比,大多数传统行业或企业有着更丰富的 AI 应用场景,推动着规模化的AI应用落地,其AI应用更具有实践意义。然而,在智能化技术架构和平台选择上,它们又往往面临着“拿着钉子到处找锤子”的尴尬局面。
AI科技大本营
2019/08/20
7430
AI规模化落地,英特尔至强的七重助力
AI芯片的历史和现状
人的思维活动是否能用计算机来替代,从图灵的论文《计算机器与智能》和图灵测试,到最初级的神经元模拟单元——感知机,到现在多达上百层的深度神经网络,对人工智能的探索就没有停止过。在八十年代,多层神经网络和反向传播算法的出现给人工智能行业点燃了新的火花。反向传播的主要创新在于能将信息输出和目标输出之间的误差通过多层网络往前一级迭代反馈,主要目的是通过逐层的反馈调节系统参数来将最终的输出收敛到某一个目标范围内。
刘盼
2018/07/26
1.2K0
AI芯片的历史和现状
腾讯云什么产品可以满足大型语言模型的开发需求?
腾讯云提供了多种产品和服务,可以满足大型语言模型的开发需求,以下是一些常用的产品和服务:
gavin1024
2023/05/18
1K0
【数据揭秘】AI工程师真的能拿到百万年薪吗?
近年来,人工智能技术在各行各业中的应用越来越普及,相关专业技术人才也是供不应求,各大公司或是创业公司不惜重金招募AI人才。最近一项统计显示,人工智能相关职位平均年薪达到30万元-60万元,从业时间长的甚至能达到年薪百万。 2017年,人工智能产业正在爆发 今年的两会上,政府工作报告指出要加快培育壮大包括人工智能在内的新兴产业,人工智能首次被写入了政府工作报告。 不仅政府重视,BAT企业更是投入重金。百度已经将人工智能列为核心发展战略,腾讯也广招人才,成立AI实验室等部门。 再加上云计算等配套计算环境的成熟与
钱塘数据
2018/03/06
1K0
【数据揭秘】AI工程师真的能拿到百万年薪吗?
【玩转 GPU】GPU开发实践:聚焦AI技术场景应用与加速
本文将探讨GPU开发实践,重点关注使用GPU的AI技术场景应用与开发实践。首先介绍了GPU云服务器在AIGC和工业元宇宙中的重要作用,然后深入讨论了GPU在AI绘画、语音合成等场景的应用以及如何有效地利用GPU进行加速。最后,总结了GPU并行执行能力的优势,如提高算力利用率和算法效率,卷积方式处理效率更高,现场分层分级匹配算法计算和交互,超配线程掩盖实验差距,以及tensor core增加算力峰值等。
疯狂的KK
2023/05/27
1.2K0
【玩转 GPU】GPU开发实践:聚焦AI技术场景应用与加速
给 AI 换个“大动力小心脏”之通用 CNN 加速设计
本文介绍了基于FPGA的通用CNN加速设计,可以大大缩短FPGA开发周期,支持业务深度学习算法快速迭代。通用CNN FPGA加速架构能够支持业务快速迭代持续演进中的深度学习模型,包括Googlenet/VGG/Resnet/ShuffleNet/MobileNet等经典模型以及新的模型变种。FPGA预测性能略强于Nvidia的GPU P4,但延时上有一个数量级的优化。在云端,2017年初,我们在腾讯云首发了国内第一台FPGA公有云服务器,我们将会逐步把基础AI加速能力推出到公有云上。AI异构加速的战场很大很精彩,为公司内及云上业务提供最优的解决方案是架平FPGA团队持续努力的方向。
腾讯架构师
2017/10/25
3K0
给 AI 换个“大动力小心脏”之通用 CNN 加速设计
腾讯云发布第三代云服务器矩阵,开放更强计算力赋能产业智能化
腾讯云计算产品团队
2017/09/27
4.7K0
腾讯云发布第三代云服务器矩阵,开放更强计算力赋能产业智能化
Google TPU云可能会与英伟达合作
英伟达首席执行官黄仁勋坚持认为,用于训练机器学习模型的开发工具的处理能力和云计算能力,使得人工智能在计算平台和数据框架中无处不在。黄预测说,这场人工智能革命的一个后果将是“AI的寒武纪大爆发”,从数十亿的设备联网设备到无人驾驶汽车。 除了在今年GTC大会上发布的一系列与AI相关的产品和方案外,黄仁勋在5月24日的博客文章了,介绍了Google最新版本的TensorFlow机器学习框架——Tensor云计量处理单元,也就是TPU 。 黄先生表示:英伟达的新Volta GPU架构和谷歌的TPU结合在一起,说明
GPUS Lady
2018/04/02
6620
手机也能直接玩机器学习了?来,让大神手把手教你
对于各种热门的机器学习、深度学习课程,你一定了解过不少了。 但上课之后,如何把学出来的这些新方法用在你的工作项目?如何让你的移动应用也能具备机器学习、深度学习的能力? 具体做这事的话: 你是该自己训练模型,还是用现成的模型? 你是该用自己的电脑训练,还是在云端上训练? 你是需要深度学习部署在云端,还是移动端? 本文将对这些问题作出具体的解答。 作者 | Matthijs Hollemans 编译 | AI100 面对时下大热的机器学习和深度学习,是时候来加强你的移动应用了! 可你有什么好主意吗?
AI科技大本营
2018/04/27
2.5K0
手机也能直接玩机器学习了?来,让大神手把手教你
加速AI应用落地,英特尔AI 2.0的进阶之道
人工智能模型的复杂度不断增加,对内存的需求也越来越大。深度学习的进一步发展需要解决内存限制问题,而当前的解决方案无法利用所有可用计算,业内人士逐渐意识到需要专用芯片来支持深度学习训练和推理。
AI科技大本营
2019/07/11
1K0
加速AI应用落地,英特尔AI 2.0的进阶之道
DI-X平台发布:云上的深度学习,助力接入AI快车道
本文介绍了DI-X平台,它是一个一站式深度学习平台,致力于让中小企业快速、低成本地接入人工智能。DI-X平台通过使用腾讯云对象存储(COS)和云服务器(CVM)等基础设施,结合腾讯云的DI-X组件,为中小企业提供了快速部署、训练和预测一站式深度学习服务。它主要包含六边形数据节点、长方形算法节点和圆形模型节点,支持在线预测、离线训练和模型管理等功能。DI-X平台旨在降低人工智能的门槛,推动人工智能的普及,为中小企业提供快速、低成本接入人工智能的能力,让它们能够更好地创新和发展。
腾讯云开发者社区
2017/06/22
3.4K0
DI-X平台发布:云上的深度学习,助力接入AI快车道
业界 | 微软推出深度学习加速平台「Project Brainwave」:FPGA驱动实时人工智能
选自微软博客 机器之心编译 参与:路雪、黄小天、蒋思源 近日在 Hot Chips 2017 上,微软团队推出了一个新的深度学习加速平台,其代号为脑波计划(Project Brainwave),机器之心将简要介绍该计划。脑波计划在深度学习模型云服务方面实现了性能与灵活性的巨大提升。微软专为实时人工智能设计了该系统,它可以超低延迟地处理接收到的请求。云基础架构也可以处理实时数据流,如搜索查询、视频、传感器流,或者与用户的交互,因此实时 AI 变的越发重要。 近来,FPGA 对深度学习的训练和应用变得越来越重要
机器之心
2018/05/08
1.1K0
业界 | 微软推出深度学习加速平台「Project Brainwave」:FPGA驱动实时人工智能
重磅推荐:AI芯片产业生态梳理
AI芯片作为产业核心,也是技术要求和附加值最高的环节,在AI产业链中的产业价值和战略地位远远大于应用层创新。腾讯发布的《中美两国人工智能产业发展全面解读》报告显示,基础层的处理器/芯片企业数量来看,中国有14家,美国33家。本文将对这一领域产业生态做一个简单梳理。
辉哥
2018/08/10
1.1K0
重磅推荐:AI芯片产业生态梳理
研学社·系统组 | 实时深度学习的推理加速和持续训练
机器之心原创 作者:Yanchen Wang 参与:蒋思源、李亚洲 作者 Yanchen 毕业于普林斯顿大学机器学习方向,现就职于微软Redmond总部,从事大规模分布式机器学习和企业级AI研发工作。在该篇文章中,作者介绍了实时深度学习的推理加速和持续性训练。 引言 深度学习变革了许多计算机视觉和自然语言处理(NLP)领域内的任务,它为越来越多的消费者和工业产品提供更强大的智能,并潜在地影响了人们在日常经验和工业实践上的标准流程。从理论上来说,深度学习和其他基于统计机器学习方法的自动化系统十分类似,它们都可
机器之心
2018/05/08
8300
【愚公系列】软考高级-架构设计师 113-人工智能
人工智能(Artificial Intelligence,AI)是一种模拟人类智能思维和行为的技术和系统。人工智能的目标是让计算机系统能够执行类似人类智能的任务,如学习、推理、感知、理解语言和解决问题等。人工智能的发展旨在使计算机系统能够模仿人类的认知能力,以便更好地处理复杂的任务和情境。
愚公搬代码
2024/08/17
3640
推荐阅读
相关推荐
专访 | 腾讯云机器学习平台技术负责人黄明,详解 DI-X 深度学习平台
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档