前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >使用Faster-Rcnn进行目标检测(实践篇)

使用Faster-Rcnn进行目标检测(实践篇)

作者头像
GavinZhou
发布于 2018-01-02 07:52:02
发布于 2018-01-02 07:52:02
2.6K00
代码可运行
举报
运行总次数:0
代码可运行

原理

上一篇文章,已经说过了,大家可以参考一下,Faster-Rcnn进行目标检测(原理篇)

实验

我使用的代码是python版本的Faster Rcnn,官方也有Matlab版本的,链接如下:

py-faster-rcnn(python)

faster-rcnn(matlab)

环境配置

按照官方的README进行配置就好,不过在这之前大家还是看下硬件要求吧

For training smaller networks (ZF, VGG_CNN_M_1024) a good GPU (e.g., Titan, K20, K40, …) with at least 3G of memory suffices

For training Fast R-CNN with VGG16, you’ll need a K40 (~11G of memory)

For training the end-to-end version of Faster R-CNN with VGG16, 3G of GPU memory is sufficient (using CUDNN)

我的是环境是Ubuntu 14.04 + Titan X(12GB) + cuda 7.0 + cudnn V3

1 Caffe环境配置

Caffe环境需要python layer的支持,在你的Caffe的Makefile.config中去掉以下的注释

WITH_PYTHON_LAYER := 1

USE_CUDNN := 1

2 安装python库依赖

cython,python-opencveasydict

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install cython
pip install python-opencv
pip install easydict

3 克隆py-faster-rcnn源代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git

4 编译cython模块

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cd $FRCN_ROOT/lib
make 

5 编译Caffepycaffe

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cd $FRCN_ROOT/caffe-fast-rcnn
make -j8 && make pycaffe

-j8的选项是进行多核编译,可以加速编译过程,推荐使用

数据集

参考VOC2007的数据集格式,主要包括三个部分:

JPEGImages

Annotations

ImageSets/Main

JPEGImages —> 存放你用来训练的原始图像

Annotations —> 存放原始图像中的Object的坐标信息,XML格式

ImageSets/Main —> 指定用来train,trainval,val和test的图片的编号

这部分非常重要,数据集做不好直接导致代码出现异常,无法运行,或者出现奇怪的错误,我也是掉进了很多坑,爬上来之后才写的这篇博客,希望大家不要趟我趟过的浑水!每一个部分我都会细说的!

JPEGImages

这个没什么,直接把你的图片放入就可以了,但是有三点注意:

编号要以6为数字命名,例如000034.jpg

图片要是JPEG/JPG格式的,PNG之类的需要自己转换下

图片的长宽比(width/height)要在0.462-6.828之间,就是太过瘦长的图片不要

0.462-6.828是我自己实验得出来的,就我的数据集而言是这个比例,总之长宽比太大或者太小的,你要注意将其剔除,否则可能会出现下面我实验时候出的错:

Traceback (most recent call last): File “/usr/lib/python2.7/multiprocessing/process.py”, line 258, in _bootstrap self.run() File “/usr/lib/python2.7/multiprocessing/process.py”, line 114, in run self._target(*self._args, **self._kwargs) File “./tools/train_faster_rcnn_alt_opt.py”, line 130, in train_rpn max_iters=max_iters) File “/home/work-station/zx/py-faster-rcnn/tools/../lib/fast_rcnn/train.py”, line 160, in train_net model_paths = sw.train_model(max_iters) File “/home/work-station/zx/py-faster-rcnn/tools/../lib/fast_rcnn/train.py”, line 101, in train_model self.solver.step(1) File “/home/work-station/zx/py-faster-rcnn/tools/../lib/rpn/anchor_target_layer.py”, line 137, in forward gt_argmax_overlaps = overlaps.argmax(axis=0) ValueError: attempt to get argmax of an empty sequence

Google给出的原因是 Because the ratio of images width and heights is too small or large,这个非常重要

Annotations

faster rcnn训练需要图像的bounding box信息作为监督(ground truth),所以你需要将你的所有可能的object使用框标注,并写上坐标,最终是一个XML格式的文件,一个训练图片对应Annotations下的一个同名的XML文件

参考官方VOC的Annotations的格式:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<annotation>
    <folder>VOC2007</folder> #数据集文件夹
    <filename>000105.jpg</filename> #图片的name
    <source> #注释信息,无所谓有无
        <database>The VOC2007 Database</database>
        <annotation>PASCAL VOC2007</annotation>
        <image>flickr</image>
        <flickrid>321862192</flickrid>
    </source>
    <owner> #注释信息,无所谓有无
        <flickrid>Eric T. Johnson</flickrid>
        <name>?</name>
    </owner>
    <size> #图片大小
        <width>500</width>
        <height>333</height>
        <depth>3</depth>
    </size>
    <segmented>0</segmented>
    <object> #多少个框就有多少个object标签
        <name>boat</name> #bounding box中的object的class name
        <pose>Frontal</pose>
        <truncated>1</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>22</xmin> #框的坐标
            <ymin>1</ymin>
            <xmax>320</xmax>
            <ymax>314</ymax>
        </bndbox>
    </object>
    <object>
        <name>person</name>
        <pose>Frontal</pose>
        <truncated>1</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>202</xmin>
            <ymin>71</ymin>
            <xmax>295</xmax>
            <ymax>215</ymax>
        </bndbox>
    </object>
    <object>
        <name>person</name>
        <pose>Frontal</pose>
        <truncated>1</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>170</xmin>
            <ymin>107</ymin>
            <xmax>239</xmax>
            <ymax>206</ymax>
        </bndbox>
    </object>
</annotation>

这里有一个非常好用的工具VOC框图工具,可以自动帮你生成需要的XML格式,实际中发现格式基本无误,只有小的地方需要改动下,大家对比下就知道怎么改了,我是在linux下借助sed修改的,这个不难

Imagesets/Main

因为VOC的数据集可以做很多的CV任务,比如Object detection, Semantic segementation, Edge detection等,所以Imageset下有几个子文件夹(Layout, Main, Segementation),我们只要修改下Main下的文件就可以了(train.txt, trainval.txt, val.txt, test.txt),里面写上你想要进行任务的图片的编号

将上述你的数据集放在py-faster-rcnn/data/VOCdevkit2007/VOC2007下面,替换原始VOC2007的JPEGIMages,Imagesets,Annotations

原始VOC2007下载地址: VOC20007数据集

代码修改

工程目录介绍

caffe-fast-rcnn —> caffe框架

data —> 存放数据,以及读取文件的cache

experiments —>存放配置文件以及运行的log文件,配置文件

lib —> python接口

models —> 三种模型, ZF(S)/VGG1024(M)/VGG16(L)

output —> 输出的model存放的位置,不训练此文件夹没有

tools —> 训练和测试的python文件

修改源文件

faster rcnn有两种各种训练方式:

Alternative training(alt-opt)

Approximate joint training(end-to-end)

推荐使用第二种,因为第二种使用的显存更小,而且训练会更快,同时准确率差不多,两种方式需要修改的代码是不一样的,同时faster rcnn提供了三种训练模型,小型的ZFmodel,中型的VGG_CNN_M_1024和大型的VGG16,论文中说VGG16效果比其他两个好,但是同时占用更大的GPU显存(~11GB)

我使用的是VGG model + alternative training,需要检测的类别只有一类,加上背景所以总共是两类(background + captcha)

1 py-faster-rcnn/models/pascal_voc/VGG16/faster_rcnn_alt_opt/stage1_fast_rcnn_train.pt

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: 'data'  
  type: 'Python'  
  top: 'data'  
  top: 'rois'  
  top: 'labels'  
  top: 'bbox_targets'  
  top: 'bbox_inside_weights'  
  top: 'bbox_outside_weights'  
  python_param {  
    module: 'roi_data_layer.layer'  
    layer: 'RoIDataLayer'  
    param_str: "'num_classes': 2" #按训练集类别改,该值为类别数+1  
  }  
}  
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: "cls_score"  
  type: "InnerProduct"  
  bottom: "fc7"  
  top: "cls_score"  
  param { 
  lr_mult: 1.0
  }  
  param {
  lr_mult: 2.0 
  }  
  inner_product_param {  
    num_output: 2 #按训练集类别改,该值为类别数+1  
    weight_filler {  
      type: "gaussian"  
      std: 0.01  
    }  
    bias_filler {  
      type: "constant"  
      value: 0  
    }  
  }  
}  
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: "bbox_pred"  
  type: "InnerProduct"  
  bottom: "fc7"  
  top: "bbox_pred"  
  param { 
  lr_mult: 1.0 
  }  
  param { 
  lr_mult: 2.0 
  }  
  inner_product_param {  
    num_output: 8 #按训练集类别改,该值为(类别数+1*4,四个顶点坐标  
    weight_filler {  
      type: "gaussian"  
      std: 0.001  
    }  
    bias_filler {  
      type: "constant"  
      value: 0  
    }  
  }  
}  

2 py-faster-rcnn/models/pascal_voc/VGG16/faster_rcnn_alt_opt/stage1_rpn_train.pt

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: 'input-data'  
  type: 'Python'  
  top: 'data'  
  top: 'im_info'  
  top: 'gt_boxes'  
  python_param {  
    module: 'roi_data_layer.layer'  
    layer: 'RoIDataLayer'  
    param_str: "'num_classes': 2" #按训练集类别改,该值为类别数+1  
  }  
}  

3 py-faster-rcnn/models/pascal_voc/VGG16/faster_rcnn_alt_opt/stage2_fast_rcnn_train.pt

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: 'data'  
  type: 'Python'  
  top: 'data'  
  top: 'rois'  
  top: 'labels'  
  top: 'bbox_targets'  
  top: 'bbox_inside_weights'  
  top: 'bbox_outside_weights'  
  python_param {  
    module: 'roi_data_layer.layer'  
    layer: 'RoIDataLayer'  
    param_str: "'num_classes': 2" #按训练集类别改,该值为类别数+1  
  }  
}  
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: "cls_score"  
  type: "InnerProduct"  
  bottom: "fc7"  
  top: "cls_score"  
  param { 
  lr_mult: 1.0 
  }  
  param { 
  lr_mult: 2.0 
  }  
  inner_product_param {  
    num_output: 2 #按训练集类别改,该值为类别数+1  
    weight_filler {  
      type: "gaussian"  
      std: 0.01  
    }  
    bias_filler {  
      type: "constant"  
      value: 0  
    }  
  }  
}  
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: "bbox_pred"  
  type: "InnerProduct"  
  bottom: "fc7"  
  top: "bbox_pred"  
  param { 
  lr_mult: 1.0
  }  
  param { 
  lr_mult: 2.0 
  }  
  inner_product_param {  
    num_output: 8 #按训练集类别改,该值为(类别数+1*4,四个顶点坐标  
    weight_filler {  
      type: "gaussian"  
      std: 0.001  
    }  
    bias_filler {  
      type: "constant"  
      value: 0  
    }  
  }  
}  

4 py-faster-rcnn/models/pascal_voc/VGG16/faster_rcnn_alt_opt/stage2_rpn_train.pt

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: 'input-data'  
  type: 'Python'  
  top: 'data'  
  top: 'im_info'  
  top: 'gt_boxes'  
  python_param {  
    module: 'roi_data_layer.layer'  
    layer: 'RoIDataLayer'  
    param_str: "'num_classes': 2" #按训练集类别改,该值为类别数+1  
  }  
}  

5 py-faster-rcnn/models/pascal_voc/VGG16/faster_rcnn_alt_opt/faster_rcnn_test.pt

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
layer {  
  name: "cls_score"  
  type: "InnerProduct"  
  bottom: "fc7"  
  top: "cls_score"  
  inner_product_param {  
    num_output: 2 #按训练集类别改,该值为类别数+1  
  }  
}  

6 py-faster-rcnn/lib/datasets/pascal_voc.py

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
class pascal_voc(imdb):  
    def __init__(self, image_set, year, devkit_path=None):  
        imdb.__init__(self, 'voc_' + year + '_' + image_set)  
        self._year = year  
        self._image_set = image_set  
        self._devkit_path = self._get_default_path() if devkit_path is None \  
                            else devkit_path  
        self._data_path = os.path.join(self._devkit_path, 'VOC' + self._year)  
        self._classes = ('__background__', # always index 0  
                         captcha' # 有几个类别此处就写几个,我是两个
                      )  

line 212

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cls = self._class_to_ind[obj.find('name').text.lower().strip()]  

如果你的标签含有大写字母,可能会出现KeyError的错误,所以建议全部使用小写字母

7 py-faster-rcnn/lib/datasets/imdb.py

将append_flipped_images函数改为如下形式:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def append_flipped_images(self):  
        num_images = self.num_images  
        widths = [PIL.Image.open(self.image_path_at(i)).size[0]  
                  for i in xrange(num_images)]  
        for i in xrange(num_images):  
            boxes = self.roidb[i]['boxes'].copy()  
            oldx1 = boxes[:, 0].copy()  
            oldx2 = boxes[:, 2].copy()  
            boxes[:, 0] = widths[i] - oldx2 - 1  
            print boxes[:, 0]  
            boxes[:, 2] = widths[i] - oldx1 - 1  
            print boxes[:, 0]  
            assert (boxes[:, 2] >= boxes[:, 0]).all()  
            entry = {'boxes' : boxes,  
                     'gt_overlaps' : self.roidb[i]['gt_overlaps'],  
                     'gt_classes' : self.roidb[i]['gt_classes'],  
                     'flipped' : True}  
            self.roidb.append(entry)  
        self._image_index = self._image_index * 2  

到此代码修改就搞定了

训练

训练前还需要注意几个地方

1 cache问题

假如你之前训练了官方的VOC2007的数据集或其他的数据集,是会产生cache的问题的,建议在重新训练新的数据之前将其删除

(1) py-faster-rcnn/output (2) py-faster-rcnn/data/cache

2 训练参数

py-faster-rcnn/models/pascal_voc/VGG16/faster_rcnn_alt_opt/stage_fast_rcnn_solver*.pt

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
base_lr: 0.001
lr_policy: 'step'
step_size: 30000
display: 20
....

迭代次数在文件py-faster-rcnn/tools/train_faster_rcnn_alt_opt.py中进行修改

line 80

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
max_iters = [80000, 40000, 80000, 40000]

分别对应rpn第1阶段,fast rcnn第1阶段,rpn第2阶段,fast rcnn第2阶段的迭代次数,自己修改即可,不过注意这里的值不要小于上面的solver里面的step_size的大小,大家自己修改吧

开始训练:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cd py-faster-rcnn
./experiments/scripts/faster_rcnn_alt_opt.sh 0 VGG16 pascal_voc 

指明使用第一块GPU(0),模型是VGG16,训练数据是pascal_voc(voc2007),没问题的话应该可以迭代训练了

结果

训练完毕,得到我们的训练模型,我们就可以使用它来进行我们的object detection了,具体是: 1 将py-faster-rcnn/output/faster_rcnn_alt_opt/voc_2007_trainval/VGG16_faster_rcnn_final.caffemodel,拷贝到py-faster-rcnn/data/faster_rcnn_models

2 将你需要进行test的images放在py-faster-rcnn/data/demo

3 修改py-faster-rcnn/tools/demo.py文件

CLASSES = ('_background_', 'captcha') #参考你自己的类别写

NETS = {'vgg16': ('VGG16', 'VGG16_faster_rcnn_final.caffemodel'), #改成你训练得到的model的name 'zf': ('ZF', 'ZF_faster_rcnn_final.caffemodel') }

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
im_names = ['1559.jpg','1564.jpg']  # 改成自己的test image的name

上几张我的检测结果吧

参考

1 faster rcnn 做自己的数据集

2 faster rcnn 教程

3 使用ZF训练自己的faster rcnn model

4 一些错误的解决方法

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016-07-28 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
无人驾驶赛道大咖云集,百度开放之后创业者怎么办?
 近日,英特尔此前保密的无人驾驶实验室正式对外公布,并宣称携宝马于2021年量产iNEXT无人驾驶车型。上周,总部位于马萨诸塞州坎布里奇的汽车软件公司NuTonomy宣布与法国标致达成合作,三星电子也联手韩国现代汽车公司……这里就不再多说已经众所周知的苹果、Google。   王磊,昆士兰理工大学PhD,中国传媒大学学士。有创业经历的全栈产品老兵,曾经担任乐视车联网产品总监,负责乐视车联网产品线规划并带领团队将多条产品线从0到1。在联想研究院担任高级研究员期间负责孵化验证多个物联网项目。曾在美国常驻并就职于
BestSDK
2018/02/28
6650
瘦死的骆驼比马大!800亿美金的百度或许还有机会赶超腾讯和阿里
从最近的情况来看,百度的市值始终徘徊在800亿美金左右。相对于4000多亿美金的腾讯和阿里来说,百度显然是掉队了。不过,千万不要小看百度。毕竟,瘦死的骆驼比马大!在国内的搜索引擎领域,百度依然是绝对的霸主。自从上线信息流广告以后,百度的收入快速增长。另外,百度在人工智能和无人驾驶方面的积累也是领先于腾讯和阿里。从我个人的角度来看,百度依然拥有巨大的发展潜力。说不定,在未来的几年百度有可能会“弯道超车”,一举超过腾讯和阿里。
光荣与梦想1987
2018/11/21
4550
深度 | 十问陆奇:百度要如何赢得AI的未来?
百度正在酝酿一场反弹。 在雷锋网看来,2016年可谓是百度的“危机之年”:在2016年以前,这家位于中国互联网第一阵营的公司所遭受的所谓“危机”,其实都停留在百度的“肉”上,未伤筋骨;而2016年无论是对百度公信力和价值观的质疑的诸多事件的爆发,还是财务数据和股票市值落后于腾讯阿里的表现,对于百度可能都是致命的。 但对百度来说,这在某种程度上可能是一个机会——在危机面前,百度选择了All in下一个趋势:人工智能。而陆奇的加盟,更是加速了百度更新换代的步伐,对多项业务进行调整后,在公司运营及产品设计上发生了
AI科技评论
2018/03/13
6540
深度 | 十问陆奇:百度要如何赢得AI的未来?
百度的野心!为把无人驾驶技术推向全世界,竟与微软结盟了
2016年,百度方面曾表示,百度无人车将会在三年内实现小规模量产,五年内(也就是2021年)实现大规模商用。今天,百度似乎离这个目标越来越近了。7月18日,微软官方发布了与百度合作的消息,二者将围绕自动驾驶技术的发展与应用展开合作。 作者 | 郭敏 本文长度为1500字,建议阅读3分钟 根据知名管理咨询公司麦肯锡预测,2030 年售出的新车中,自动驾驶汽车的比例将达到 15%。2016年,百度方面曾表示,百度无人车将会在三年内实现小规模量产,五年内(也就是2021年)实现大规模商用。 今天,百度似乎离这
数据猿
2018/04/19
6640
百度的野心!为把无人驾驶技术推向全世界,竟与微软结盟了
美国人承认中国将比美国更早推动自动驾驶革命
中国已经开始为自动驾驶革命准备相关项目和城市,预计这场革命将在全球范围内产生1万亿美元的收入。 据报道,包括新疆和南京在内的近300个中国城市和地区已经引进了人工智能技术控制的“智能城市”项目,以提高人民生活水平。 智能手机利用云技术将包括交通、医疗和公共安全在内的多个行业进行整合。目前共有93个智能城市项目把重点放在交通上面,可能会利用联网基础设施制造大量无人驾驶汽车和共享驾驶模式。 除了无人驾驶汽车之外,预计到2040年时,打车服务和共享汽车服务将为全球供应商们创造1万亿美元的收入。 作为世界上最大
企鹅号小编
2018/03/02
6660
美国人承认中国将比美国更早推动自动驾驶革命
李彦宏说自动驾驶比人更安全,还认为中国用户更愿意放弃隐私
整理 | DavidZh 3 月 26 日的中国发展高层论坛上,百度 CEO 李彦宏在主旨演讲中谈及了自动驾驶和用户隐私问题。 针对最近的 Uber 自动驾驶车撞死行人事件,李彦宏再次强调自动驾驶是比人类驾驶更安全的出行方式。他举例说,在中国每天由人类驾驶汽车导致死亡的大约有 500 人,而无人驾驶车撞死一个人就会引来全世界关注,还把“人咬狗是新闻,狗咬人不是新闻”说反了。 最近三年来,自动驾驶车发生事故的新闻并不少见。 2016 年 1 月,一辆支持 L2 级别自动驾驶的特斯拉 Model S 在
AI科技大本营
2018/04/26
4930
李彦宏说自动驾驶比人更安全,还认为中国用户更愿意放弃隐私
如何评价百度开源自动驾驶平台:阿波罗计划是引爆自动驾驶的原子弹?
【新智元导读】 20日晚,一篇名为《百度扔下原子弹 炸掉全球无人驾驶数百亿美金研发投入》的文章在微信上引起热议。百度阿波罗计划如能兑现,自然对无人驾驶甚至整个人工智能行业都有巨大意义。新智元为此带来了智库专家和行业领袖的评论,从客观理性的角度分析其影响和意义。新智元认为,建设开源生态,需要更多圆融的沟通方式。 4月19 日,两年一次的上海车展开幕,不出意外,智能驾驶成为本次车展的一大看点,老牌车厂,包括大众、本田、梅赛德斯奔驰等都发布了自己的智能驾驶概念产品。另一方面,互联网公司在本次车展上也发布了一系列劲
新智元
2018/03/28
8820
如何评价百度开源自动驾驶平台:阿波罗计划是引爆自动驾驶的原子弹?
百度副总裁说,阿波罗计划就是个平台,为自动驾驶提供一个生态
不过,这个平台到底能开放到什么程度,现在还不好说。 一个月前的上海车展上,百度正式发布阿波罗计划。这个被某些“自媒体”称之为行业核武器的计划,将向汽车行业及自动驾驶领域的合作伙伴提供一个“开放、完整、
镁客网
2018/05/29
3620
开启运动模式陆奇还在猛踩油门,百度自动驾驶汽车距离量产已不远?
2017年3月1日,刚刚加盟百度不久的陆奇有了第一个大刀阔斧的动作:百度整合不同智能驾驶业务,成立智能驾驶事业群组,带着百度集团总裁和首席运营官双重身份的陆奇亲任总经理。此前,百度已经决定将人工智能列
罗超频道
2018/04/25
5800
开启运动模式陆奇还在猛踩油门,百度自动驾驶汽车距离量产已不远?
陆奇说自动驾驶会帮百度打翻身仗,凭什么如此霸气?
三个多月前,百度成立智能驾驶事业群组,陆奇亲自挂帅。这一动作可算是百度自动驾驶业务新的起点——在此之前许多人都不清楚百度自动驾驶业务将驶向何处。然而,从过去几个月的表现来看,百度自动驾驶业务思路正在变得越来越清晰,陆奇周末的一则言论更是信心满满。据《华尔街日报》报道,陆奇于周末在中国香港举办的《华尔街日报》D.Live会议上表示,百度将凭借自动驾驶技术打一场翻身仗,而Apollo(阿波罗)正是百度信心的来源。陆奇认为,“这是一场开放生态系统对抗其他单一公司的竞赛,Apollo将在三五年内超越任何封闭系统。
罗超频道
2018/04/25
6740
陆奇说自动驾驶会帮百度打翻身仗,凭什么如此霸气?
【CES Asia】百度国内首次深度学习自动驾驶,阿波罗不再只是计划
【新智元导读】从世界上首个可在真实道路上实现端到端模式的高级自动驾驶模型Road Hackers,到百度和汽车零部件厂商合作开发的车载可计算平台 BCU,从诞生之初就备受关注的“阿波罗计划”逐渐揭开了它神秘的面纱。而正如百度智能汽车事业部总经理顾维灏在主题演讲中所说,这些,不过仍是阿波罗计划的凤毛麟角。 2017年6月8日,上海 CES Asia 现场。 作为新智元特派员,我置身于上海新国际展览中心 N3 智能驾驶主题馆,被众多汽车品牌的未来炫酷车型所包围。一瞬间,仿佛回到了一个多月前同样在这里举行的上海车
新智元
2018/03/28
9020
【CES Asia】百度国内首次深度学习自动驾驶,阿波罗不再只是计划
「深度」车企挂名背后,百度通过Apollo拿到自动驾驶数据恐非易事
或许,这也将倒逼百度拿出更多的诚意。 7月5日,百度在北京国家会议中心召开百度AI开发者大会,发布了Apollo 1.0的开放细节,以及Apollo开放平台的整体战略和开放路线图。 “开放能力、共享资源、加速创新、持续共赢” 陆奇用这短短的16个字阐述了整个Apollo的战略目标。而从目前来看,除去一直宣传的软硬件服务之外,Apollo的服务平台还将提供给合作者的服务有:高精地图服务、仿真引擎、安全服务、智能化车内体验DuerOS。 而整个Apollo计划中,最吸引眼球的恐怕是让每一个开发者都有了从0到1的
镁客网
2018/05/29
5200
百度开放自动驾驶平台Apollo,陆奇表示它是一个巨大推动力的超级工程
1962年,美国总统肯尼迪对“Project Apollo(阿波罗计划)”曾说过这样一段话:“ We choose to go to the moon in this decade and do the other things, not because they are easy, but because they are hard。”自此以后,“Apollo”这个词就被赋予了非凡的意义:具备开创性,又需要汇聚众多参与者的力量,能为社会发展带来巨大推动力的超级工程。百度相信自动驾驶和智能汽车也是这样的事业。作为全球范围内第一家宣布对外开放自己技术和平台的无人车技术领先企业,我们决定选择“Apollo”作为此次计划的代号,向另一个叫做人工智能的宇宙出发!1969年,“阿波罗计划”使阿姆斯特朗在月球上迈出了人类的一大步。今天,我们希望未来可以解放双手,使每个人开车时也能自由地仰望星空。
CreateAMind
2018/07/24
3830
百度开放自动驾驶平台Apollo,陆奇表示它是一个巨大推动力的超级工程
百度发布自动驾驶平台“阿波罗”,将开放感知、规划和操作系统等代码
4月19日,百度官方微信公众号发布消息,宣布开放自动驾驶平台,发布“Apollo计划”。 以下是来自百度官方的介绍: “Apollo计划”是什么? 我们将向汽车行业及自动驾驶领域的合作伙伴提供一个开放、完整、安全的软件平台,帮助他们结合车辆和硬件系统,快速搭建一套属于自己的完整的自动驾驶系统。 “Apollo”平台的结构包括一套完整的软硬件和服务体系,包括车辆平台、硬件平台、软件平台、云端数据服务等四大部分。 我们将开放环境感知、路径规划、车辆控制、车载操作系统等功能的代码或能力,并且提供完整的开发测试工具
新智元
2018/03/28
9520
百度发布自动驾驶平台“阿波罗”,将开放感知、规划和操作系统等代码
李彦宏上五环却被交警调查?近距离探测“无人车”后真相大白
2017年7月5日,百度AI开发者大会在北京国家会议中心举行,这是中国人工智能领域最大规模的开发者大会,也是百度总裁、首席运营官陆奇首次公开亮相的百度活动。在大会上,陆奇指出,AI的本质是人们获取知识再应用知识,AI作为新一代计算平台会带来巨大的行业机遇。他表示,AI带来革命性的机会,但机会也不均等,百度AI开发者大会的目标就是让人们共享人工智能的机会。 开放AI生态成为大会最大亮点 在这个大会上,百度与英特尔等合作伙伴一起展示了大量的AI科技,例如搭载阿波罗自动驾驶平台的汽车、搭载百度DuerOS平台的
罗超频道
2018/04/16
6310
李彦宏上五环却被交警调查?近距离探测“无人车”后真相大白
百度宣布开放自动驾驶平台,陆奇的第一把火能烧起来吗?
4月19日消息,百度发布一项名为“Apollo”的新计划,将向汽车行业及自动驾驶领域的合作伙伴提供一个开放、完整、安全的软件平台,帮助他们结合车辆和硬件系统,快速搭建一套属于自己的完整的自动驾驶系统。
机器人网
2018/04/24
5740
百度宣布开放自动驾驶平台,陆奇的第一把火能烧起来吗?
【无人驾驶变局】谷歌携手Lyft奇袭Uber,百度、滴滴如何应对?
【新智元导读】谷歌无人车 Waymo 与乘车共享服务公司 Lyft 今日宣布正式达成合作,共同开发无人车,至此,谷歌已经完成从技术到车厂再到共享出行的生态线条建设。对于官司和丑闻缠身的Uber来说,这无疑是雪上加霜。新智元经过深度分析后认为,运营和调度服务是无人驾驶的关键一环,此事意味着谷歌无人车的商业化部署正在加快速度,闭环逐渐形成。谷歌的这一举动,对于不久前高调宣布“阿波罗计划”的百度、中国的滴滴以及广大车厂来说,都会产生较大影响,有一些可能还比较致命。 谷歌无人车 Waymo 与 Lyft 正式合作:
新智元
2018/03/28
1.1K2
【无人驾驶变局】谷歌携手Lyft奇袭Uber,百度、滴滴如何应对?
百度“阿波龙”下线,是否意味着自动驾驶的时代到来了? | 拔刺
在无人/自动驾驶领域,百度本次亮相的“阿波龙”意义比较有限。划时代的意义?那真是远远谈不上的。“阿波龙”充其量最多算是百度在推进无人驾驶/智能驾驶的过程中取得了阶段性成果,甚至于这次百度人工智能大会发布的“阿波罗3.0”的意义,可能都比这个看似炫酷的“阿波龙”自动驾驶车辆要大。相比于生产汽车,一套先进的控制系统对于自动驾驶的实现,具有更大的意义。
镁客网
2018/07/31
2810
百度“阿波龙”下线,是否意味着自动驾驶的时代到来了? | 拔刺
自动驾驶玩出新花招,以后老司机们就要失业了
在自动驾驶这盘大棋里,创新与合作正在逐渐改变我们对于汽车驾驶的认知,随着2018年CES展前的预热,未来,自动驾驶很快取代我们这些老司机。 恩智浦涉猎阿波罗计划 还记得之前吵得轰轰烈烈的百度阿波罗计划吗?恩智浦半导体已与百度阿波罗计划密切合作。恩智浦将向阿波罗提供毫米波雷达、V2X、安全、智能互联及车载体验等半导体产品及技术。双方宣称将利用恩智浦半导体的BlueBox研发平台。 此外,双方还将合作传感器集成及高性能处理器,旨在将上述设备用于深度学习网络中。百度旗下的DuerOS for Apol
企鹅号小编
2018/01/23
6600
自动驾驶玩出新花招,以后老司机们就要失业了
业界 | 陆奇宣布自动驾驶Apollo计划,一张图看懂百度智能汽车发展路线
机器之心报道 作者:吴欣 4 月 19 日,百度在上海正式发布「Apollo」计划,该计划面向汽车行业及自动驾驶领域,提供开放、完整、安全的软件平台,帮助其结合车辆和硬件系统,快速搭建一套属于自己的完
机器之心
2018/05/07
5650
业界 | 陆奇宣布自动驾驶Apollo计划,一张图看懂百度智能汽车发展路线
推荐阅读
无人驾驶赛道大咖云集,百度开放之后创业者怎么办?
6650
瘦死的骆驼比马大!800亿美金的百度或许还有机会赶超腾讯和阿里
4550
深度 | 十问陆奇:百度要如何赢得AI的未来?
6540
百度的野心!为把无人驾驶技术推向全世界,竟与微软结盟了
6640
美国人承认中国将比美国更早推动自动驾驶革命
6660
李彦宏说自动驾驶比人更安全,还认为中国用户更愿意放弃隐私
4930
如何评价百度开源自动驾驶平台:阿波罗计划是引爆自动驾驶的原子弹?
8820
百度副总裁说,阿波罗计划就是个平台,为自动驾驶提供一个生态
3620
开启运动模式陆奇还在猛踩油门,百度自动驾驶汽车距离量产已不远?
5800
陆奇说自动驾驶会帮百度打翻身仗,凭什么如此霸气?
6740
【CES Asia】百度国内首次深度学习自动驾驶,阿波罗不再只是计划
9020
「深度」车企挂名背后,百度通过Apollo拿到自动驾驶数据恐非易事
5200
百度开放自动驾驶平台Apollo,陆奇表示它是一个巨大推动力的超级工程
3830
百度发布自动驾驶平台“阿波罗”,将开放感知、规划和操作系统等代码
9520
李彦宏上五环却被交警调查?近距离探测“无人车”后真相大白
6310
百度宣布开放自动驾驶平台,陆奇的第一把火能烧起来吗?
5740
【无人驾驶变局】谷歌携手Lyft奇袭Uber,百度、滴滴如何应对?
1.1K2
百度“阿波龙”下线,是否意味着自动驾驶的时代到来了? | 拔刺
2810
自动驾驶玩出新花招,以后老司机们就要失业了
6600
业界 | 陆奇宣布自动驾驶Apollo计划,一张图看懂百度智能汽车发展路线
5650
相关推荐
无人驾驶赛道大咖云集,百度开放之后创业者怎么办?
更多 >
LV.0
南京市镁一刻网络科技有限公司
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档