首页
学习
活动
专区
圈层
工具
发布

采用 GPU 打造室内用的无人机

Gyongyosi 不只花了两年的时间与 BMW 的机器人研究部门合作,发展协助工厂员工进行作业的机器人系统;他也与两家新创公司合作,其中 MDAR Technologies 的研究方向为自动驾驶车 3D...不过他自己成立的 IFM Technologies,让他登上 NVIDIA GPU 科技年会的舞台。 IFM 的研究主题是可在室内安心操作的无人驾驶飞行器。...这个组合的运作表现不如预期时,他改采用 GPU,特别是现已成为车辆实体设计一部分的 NVIDIA Jetson Tegra K1。 结果不言而喻。...GPU 处理资料的速度是 CPU 的四倍,而特征追踪的速度提升了两倍,从 5.5 Hz 提高到 9.8 Hz。...这样的表现还不够亮眼的话,GPU 还提高了精确度,也为 Gyongyosi 争取到足以安装第二具摄影机的空间,以与第一具摄影机呈45度角的方式进行安装,创造出更大视野的立体视觉范围。

81930

ImageMagick 的安装及使用

大家好,又见面了,我是你们的朋友全栈君。 一、什么是Imagemagick? ImageMagick是一款免费开源的图片编辑软件。...ImageMagic的主要精力集中在性能,减少bug以及提供稳定的API和ABI上。...这里我们选择下载官方推荐的文件,也就是第一个:ImageMagick-7.0.8-12-Q16-x64-dll.exe 这个7.0版本和6点几版本有些不同,系统环境变量都是自动配置好的。...例如,原图片尺寸为1920×1200,所以可以分割出12块图片,注意如果尺寸不是目标图片的整数倍,那么右边缘和下边缘的一部分图片就用实际尺寸 在原始图像上裁剪一张指定尺寸的小图 magick img1....convert -quality 80 1.jpg 2.jpg 实例:生成缩略图: -resize,定义输出的缩略图尺寸;-quality 70,降低缩略图的质量为70%;-strip:让缩略图移除图片内嵌的所有配置文件

3.7K10
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    为智能手机VR体验而生,ARM公布最新处理器架构

    移动芯片巨头ARM最近公布了其最新的处理器架构,ARM Cortex-A73 中央处理器(CPU)和 ARM Mali-G71 图形处理器(GPU)。...今年年初的时候,NIVIDA就提出“GTX Geforce VR Ready”,这个VR Ready是由NIVIDA和其他硬件厂商共同为用户提供的符合VR电脑配置的标准。...ARM把Mali-G71定义为VR的理想之选,因为它可以支持4K分辨率、高达120HZ的刷新率(90HZ的刷新率是当前VR体验的最低标准),4ms 图形处理延迟,这些都有助于优化移动端的VR体验。...Mali-G71采用ARM第三代GPU架构Bifrost,能够使下一代高端智能手机的图形处理性能提升1.5倍,电源能效提升20%,每平方毫米性能增加40%,且配置高达32个着色器核心(shader cores...总而言之,ARM的处理器架构在性能上较上一代有大幅度提升,可以应对移动VR对手机的高要求。ARM宣称他们的新GPU能到达NIVIDA笔记本GPU的水平。

    67030

    Imagemagick邂逅Getimagesize的那点事儿

    Imagemagick是一个大而全的图片处理库,他能处理日常生活中见到的绝大多数图片格式,比如jpg、gif、png等,当然也包括日常生活中很少见到的图片格式,比如前面说的mvg和ps。...随便翻一下Imagemagick的代码,我就发现大多数文件格式的处理中,通常有一个函数,用来判断这个文件是否是对应的格式。...这也很好理解,文件头的意义就是标示这个文件是什么类型的文件。 所以,如果我们想利用Imagemagick的命令执行漏洞,必须要给他传入一个合法的mvg或ps文件,或者至少文件头要满足要求。...这和我们Imagemagick的POC差别并不大,显然是可以兼容的。 0x03 编写同时符合getimagesize与Imagemagick的POC 理论基础结束,我们来编写一下POC吧。...用存在漏洞的imagemagick+GhostScript进行测试,命令成功执行: ?

    1.3K20

    imagemagick邂逅getimagesize的那点事儿

    0x01 Imagemagick命令执行不完全回顾 Imagemagick历史上曾出现过的很多命令执行漏洞,我在vulhub里做过以下三个: CVE-2016-3714 CVE-2018-16509 CVE...Imagemagick是一个大而全的图片处理库,他能处理日常生活中见到的绝大多数图片格式,比如jpg、gif、png等,当然也包括日常生活中很少见到的图片格式,比如前面说的mvg和ps。...随便翻一下Imagemagick的代码,我就发现大多数文件格式的处理中,通常有一个函数,用来判断这个文件是否是对应的格式。...这也很好理解,文件头的意义就是标示这个文件是什么类型的文件。 所以,如果我们想利用Imagemagick的命令执行漏洞,必须要给他传入一个合法的mvg或ps文件,或者至少文件头要满足要求。...这和我们Imagemagick的POC差别并不大,显然是可以兼容的。 0x03 编写同时符合getimagesize与Imagemagick的POC 理论基础结束,我们来编写一下POC吧。

    58430

    沐曦首款采用7nm GPU即将量产,2025年推出游戏GPU

    杨建表示,今年 1 月,沐曦首款采用 7nm工艺的异构 GPU 产品已正式流片,预计很快量产。...沐曦第二款用于科学计算、数据中心弹性计算、AI 训练等的旗舰 GPU 芯片也进入研发收尾阶段,计划于 2024 年全面量产。...此外,到 2025 年,沐曦将推出融合了图形渲染的完整 GPU 产品,也就是显示和游戏用途的 GPU。...核心成员平均拥有近 20 年高性能 GPU 产品端到端研发经验,曾主导过十多款世界主流高性能 GPU 产品研发,包括 GPU 架构定义、GPU IP 设计、GPU SoC 设计及 GPU 系统解决方案的量产交付全流程...沐曦产品均采用完全自主研发的高性能GPU IP,拥有完全自主的指令集和架构,配以兼容主流GPU生态的完整软件栈(MACAMACA),具备高性能、高效能和高通用性的天然优势,能够为客户构建软硬件一体的全面生态解决方案

    2.2K10

    奇瑞采用英伟达GPU,将实现L3自动驾驶

    采埃孚ProAI自动驾驶系统,会处理多个摄像头及激光雷达的信号,整合信息后绘制出车辆周围环境的360°全景地图,并标注出车辆在地图中所在位置,帮助做出安全的行车决策。...采埃孚自动驾驶系统ProAI所采用的计算芯片是今年1月8号英伟达刚发布的DRIVE XavierAI。...英伟达也在上周的CES上公布,会和采埃孚、百度展开更深层次的合作。...英伟达的DRIVE PX 2计算平台,能够让车辆之间沟通环境信息,结合采埃孚的ProAI系统,可以汇总车队的信息流,比单个车辆的学习速度快,达到快速提升车队智能水平的目的。...奇瑞入局自动驾驶后,不仅可以保证L3自动驾驶功能最大限度触及市场,还能以大众买得起的价格推出。 奇瑞汽车的优势,就是能把科技融合到物美价廉的汽车上。

    57670

    美国斥巨资研发E级超算Frontier,中美超算竞争再度白热化!

    Frontier将会在美国橡树岭国家实验室建造,基于Cray公司的Shasta架构和Slingshot互连技术,采用AMD的EPYC CPU和Radeon Instinct GPU。...而美国在E级超级计算机的建设之路走了分散投资的路线,Frontier是Cray+AMD的组合,Aurora则是Cray+Intel,El Capitan则预计是IBM Power 10+Nivida的组合...考虑到之前,IBM和Nivida组合在Summit性能和服务上的出色表现,很多人认为Frontier也将会采用IBM Power+Nvidia GPU的组合,但是现实却是AMD完成了Frontier计算部分的通吃...和Volta GPU上完成的那样。...曙光的E级计算机则并未透露太多信息,之前有媒体报道曙光E级可能会采用中科院体系内研发的CPU和加速器(比如龙芯系列),其最终部署时间也将会在2020年以后。

    1.7K20

    启明云端分享:采用Mali-T864 GPU,兼容更多种类的显示屏

    产品概述 IDO-SBC3958是基于RK3399系列CPU开发设计的一款高性能安卓主板,双Cortex-A72大核+四Cortex-A53小核,六核64位CPU,搭载Android7.1系统(Android10...正在适配中),主频高达2.0 GHz,采用Mali-T864 GPU,支持4K、H.265硬解码。...板载有双LVDS、EDP、HDMI显示输出接口,内置通背光接口,及屏电压跳线,兼容更多种类的显示屏,性能更强,速度更快,接口更丰富。...◆ 丰富的扩展接口: 8路USB2.0接口、2路USB3.0接口、1 路 IR接口、2路RS232接口、3 路UART接口(TTL电平)、1路I2C TP接口、2路舵机接口、1路双通道喇叭接口、1路MDB...3958-V1A2.jpg 硬件基本参数列表 SoC:Rockchip 3399 , ARM 双 Cortex-A72+ 四 CortexA53 64-bit CPU,主频高达 2.0 GHz; GPU

    2.8K40

    【工具推荐】图像界的魔术师 ImageMagick

    如果说 Pandoc 里文档界的瑞士军刀,那么 ImageMagick 就是图形界的瑞士军刀。 上周在为 Growth 制作插图的时候,需要:1. 合并不同的图像;2. 对图片进行缩放。...考虑到图片的数量差不多有 30 张左右,我决定要找一个工具。。。 这个时候就找到了 ImageMagick 中的几个命令,它居然可以完成我大部分的功能。...同样的,我找到的工具也是 ImageMagick 中的: mogrify -geometry x600 *.png 这里的 x600 即是图片的高度,上面的命令会将所有的 png 缩放到高度为 600...,或写mebi和吉比像素的图像尺寸 执行:ImageMagick的是线程安全的,利用内部算法OpenMP的功能及快速的双核和四核处理器技术提供窗口优势 异构分布式处理:某些算法可以在跨越的CPU,GPU...[features]: 翻译源自 https://imagemagick.cn/ 节选自 Phodal 的工具箱:http://toolbox.phodal.com/

    2.9K60

    GPU渲染之OpenGL的GPU管线

    GPU渲染流水线,是硬件真正体现渲染概念的操作过程,也是最终将图元画到2D屏幕上的阶段。...GPU管线涵盖了渲染流程的几何阶段和光栅化阶段,但对开发者而言,只有对顶点和片段着色器有可编程控制权,其他一律不可编程。如下图: ? 简单总结GPU管线,这阶段中主要是对图元进行操作。...一, 顶点着色器 顶点着色器是一段类似C语言的程序(即OpenGL的GLSL,或只支持微软的HLSL,或Unity的Cg),由程序员提供并在GPU上执行,对每个顶点都执行一次运算。...这样设计的好处是能减少一些不必要的绘制,并减少对GPU的浪费。 回到正题,片段着色器同上述的顶点着色器,只是它作用的对象是每一片段,对其进行着色贴图。...开发过程中无法得到透明效果的原因,往往有可能是没有开启混合功能的原因。 推荐阅读: GPU的工作原理 两段小视频轻松理解CPU & GPU的工作原理 GPU内存分级

    3.7K32

    采用Dapr 的IoT 案例

    为了解决这些问题,Tempestive 采用 Dapr 和 Kubernetes 构建了一个新的架构,实现了以下优势: 模块化: Nuboj 现在可以灵活地适应不同规模和需求的系统,无需昂贵的基础设施...Tempestive 在采用 Dapr 和 Kubernetes 之前,Nuboj 的微服务架构遇到了以下可伸缩性问题: 1....资源限制: 昂贵的资源: 早期版本 Nuboj 的微服务架构需要昂贵的资源才能实现可伸缩性,这增加了运营成本并限制了其扩展能力。...环境限制: 云依赖: 早期版本 Nuboj 基于云的架构限制了其在本地环境中的部署能力,这无法满足一些客户对数据安全性和成本控制的需求。...Tempestive 在采用 Dapr 和 Kubernetes 之前,Nuboj 的微服务架构面临着资源限制、扩展复杂性、运维挑战和环境限制等问题,这些问题限制了其可伸缩性和可用性。

    26010

    Facebook推出数据并行训练算法FSDP:采用更少的GPU,更高效地训练更大数量级的模型

    尽管参数被分片到了不同的 GPU,但每个微批次数据的计算仍然是每个 GPU worker 上的本地计算。这种简洁的概念让 FSDP 更容易理解,适用于更广泛的使用场景(与层内并行和流水线并行相比)。...例如,典型的数据并行训练需要在每个 GPU 上都维护模型的冗余副本,而模型并行训练需要在 worker(GPU)之间移动激活,从而引入额外的通信成本。 相比之下,FSDP 牺牲的东西相对较少。...在 all-gather 阶段,每个 GPU 上可用的聚合梯度的分片部分可供所有 GPU 使用。...在标准数据并行训练方法中,模型的副本存在于每个 GPU 上,并且仅在数据的一个分片上评估一系列前向和后向传递。在这些本地计算之后,每个本地进程的参数和优化器与其他 GPU 共享,以计算全局权重更新。...关于使用 FSDP 在八个 GPU 上,或在单个 GPU 上使用 FSDP+CPU 卸载训练 13B 参数模型的说明,请参阅 fairseq教程。

    1.6K10

    【玩转 GPU】GPU加速的AI开发实践

    一、GPU的数据匮乏Google、Microsoft以及世界各地其他组织最近的研究表明,GPU花费了高达70%的AI训练时间来等待数据。看看他们的数据管道,这应该不足为奇。...图片如上图所示,在每个训练Epoch开始时,保存在大容量对象存储上的训练数据通常被移动到Lustre存储系统层,然后再次移动到GPU本地存储,用作GPU计算的暂存空间。...HK-WEKA将典型的GPU匮乏的“multi-hop”AI数据管道折叠成一个单一的、零拷贝的高性能AI数据平台—其中大容量对象存储与高速HK-WEKA存储“融合”在一起,共享同一命名空间,并由GPU通过...如上图所示,HK-WEKA人工智能数据平台支持英伟达的GPUDirect存储协议,该协议绕过了GPU服务器的CPU和内存,使GPU能够直接与HK-WEKA存储进行通信,将吞吐量加速到尽可能快的性能。...网络中采用了1x1、3x3和5x5的卷积核 (convolution kernel) 和3x3的最大池化(max pooling)。

    1.4K00

    GPU Mounter - 支持 GPU 热挂载的 Kubernetes 插件

    GPU 容器化与 GPU 挂载 GPU 挂载很好理解,即为容器或 Pod 挂载 GPU 资源,允许容器中的应用程序使用。在容器化的趋势席卷各个领域的今天,深度学习也同样无法 “幸免”。...各大云服务提供商,推出了自己的深度学习云平台(如国内阿里 PAI、腾讯 TI-ONE、百度 BML,国外 AWS Sagemaker 等),深度学习领域的研究者,也开始倾向于在本地采用 Docker 容器的方式构建深度学习训练环境...当前 GPU 挂载方案的不足 当前的 GPU 容器化的方案仍然存在一点不足,无法动态调整一个已经正在运行的容器或 Pod 可用的 GPU 资源。...什么是 / 为什么需要 GPU 热挂载? GPU 热挂载即调整一个运行中容器的 GPU 资源,能够增加或删除一个运行中的容器可用的 GPU 资源而无需暂停或重启容器。...在上述准备环境的过程中 GPU 实际上处于闲置状态,对用户来说需要承受昂贵的 GPU 费用,对平台而言降低了整个平台的资源利用率。

    1.6K10
    领券