首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

TensorFlow 2.0 的新增功能:第三、四部分

本章涵盖的其他主题是如何将经过训练的 TensorFlow(TF)模型转换为 TensorFlow Lite(TFLite)模型,他们之间的主要区别,以及两者的优势。...在 Edge TPU 处理器上运行 TFLite Edge TPU 是一种小型处理器,能够执行深度前馈网络,例如卷积神经网络。 但是,它仅支持量化的 TFLite 模型。...另一种量化类型是量化感知训练,它使用伪造的量化节点来模拟前向和后向模型中量化的效果; 该量化是直接估计。 这是 Edge TPU 支持的唯一量化,并允许在其上运行 TFLite 模型。...可以将其他优化技术应用于该模型,例如量化,以最小的精度权衡将 32 位浮点数转换为 8 位定点数。...TensorFlow Lite 将扩大支持的操作范围,将 TF 2.0 模型更轻松地转换为 TFLite,并扩展对 Edge TPU 和 AIY 板的支持。

2.4K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    谷歌千元级TPU芯片发布,TensorFlow更换Logo推出2.0最新版

    在移动设备运行AI模型越来越主流的今天,用于部署在边缘设备上的TensorFlow Lite终于迎来了1.0版。 下面就让我们一起来回顾这场发布会的亮点吧。...Coral中的Edge-TPU尺寸大约只有一枚硬币的1/4,拥有1GB的LPDDR4内存和8GB的eMMC存储,安装Mendel版Linux或者Android,可以进行本地的离线运算。 ?...同时,谷歌还发布了一款Coral USB加速器,体内同样包含一颗Edge TPU,可以在任何64位ARM或x86平台的Debian Linux上运行。 ?...TensorFlow团队表达了对Keras更深的爱。 用tf.keras高层API,可以有效简化TF的使用。 团队说,从前tf.keras的设定用来做小模型的,要扩大规模怎么办?...经过TF Lite的优化后,设备在CPU上的性能达到原来的1.9倍,在Edge TPU上的性能最高提升了62倍。 ?

    71020

    最新千元边缘AI芯片比拼:谷歌Coral和英伟达Jetson谁更厉害?

    Sam使用MobileNetV2作为分类器,在imagenet数据集上进行预训练,直接从Keras使用这个模型,后端则使用TensorFlow。...使用GPU的浮点权重,以及CPU和Coral Edge TPU的8bit量化tflite版本。 首先,加载模型以及一张喜鹊图像。...公式如下: 卷积 这意味着将图像的每个元素(像素)与内核的每个像素相乘,然后将这些结果相加,以创建新的“图像”(特征图)。这正是Edge TPU的主要工作。...而Edge TPU设计用于执行8位操作,并且CPU具有比完全位宽浮点数更快的8位内容更快的方法,因为它们在很多情况下必须处理这个问题。 为何选择MobileNetV2?...它曾经是不同版本的MobileNet和Inception,截至上周末,谷歌推出了一个更新,允许我们编译自定义TensorFlow Lite模型。但仅限于TensorFlow Lite模型。

    1.4K20

    一文带你众览Google IO 2019上的人工智能主题演讲

    适用于移动和物联网设备的AI:TensorFlow Lite 在前面的演讲终端设备上进行机器学习中有谈到TensorFlow Lite,这个演讲则专门围绕TensorFlow Lite而展开,从中你可以了解到...TensorFlow Lite不仅用在手机终端上,在资源更加受限的微控制器(MCU)上也可部署,可用在分布广泛的IoT设备上。...JavaScript应用程序中神奇的机器学习 本演讲介绍了TensorFlow.js,一个用于在浏览器和Node.js中训练和部署ML模型的库,用实例演示了如何将现有ML模型引入JS应用程序,以及使用自己的数据重新训练模型...演讲详细讲解了Cloud TPU和Cloud TPU Pod的技术细节,以及TensorFlow的新功能,这些功能可实现并行训练大规模的深度学习模型。...前面三项技术与模型调优有关,比较高深,Keras Tuner是用于自动选择最优超参数,TensorFlow probability一种概率编程工具箱,用于机器学习研究人员和其他从业人员快速可靠地利用最先进硬件构建复杂模型

    79020

    谷歌Edge TPU专用芯片横空出世!抢攻IoT欲一统物联网江湖

    Edge TPU是谷歌的专用ASIC芯片,专为在边缘运行TensorFlow Lite ML模型而设计。在设计Edge TPU时,我们非常注重在很小的占用空间内优化“每瓦性能”和“每美元性能”。...除了开放源码的TensorFlow Lite编程环境之外,Edge TPU最初将部署多个Google AI模型,并结合谷歌在AI和硬件方面的专业知识。...Lite, NN API;Cloud TPU可使用TensorFlow, scikit-learn, XGBoost, Keras 硬件加速器:Edge TPU包括Edge TPU, GPU, CPU...基于TensorFlow Lite的Edge ML runtime,使用预先训练过的模型执行本地ML推理,显著减少延迟并增加边缘设备的多功能性。...由于Edge ML运行时与TensorFlow Lite接口,因此它可以在网关类设备中的CPU,GPU或Edge TPU上执行ML推理,或者在终端设备(如摄像头)中执行ML推理。

    86410

    智简模型,边缘智能:AI 轻量化与边缘计算的最佳实践

    通过模型轻量化技术(如量化、剪枝和知识蒸馏),我们可以显著减少 AI 模型在边缘设备上的计算需求,提升运行效率。本篇文章将介绍 AI 模型轻量化的基本方法,并展示一个将轻量化模型部署到边缘设备的案例。...模型轻量化与优化方法模型量化通过将模型的权重和激活值从 32 位浮点数压缩到 8 位甚至更少的精度,可以大幅降低模型的存储和计算需求。...]quantized_model = converter.convert()解析: TFLiteConverter: TensorFlow 提供的一个工具,用于将原始模型转换为 TensorFlow...Optimize.DEFAULT: 这是一个优化选项,表示默认执行模型量化,将浮点权重转换为更小的整数格式(如 8 位整型)。效果: 通过量化,模型的存储大小可以减少约 4 倍,同时计算效率显著提升。...参考资料TensorFlow 官方文档 Edge AI 案例分析 AI 模型压缩与加速论文

    28411

    TensorFlow 2.0 的新功能

    TensorFlow 2.0 将专注于 简单性 和 易用性,具有以下更新: 使用 Keras 和 eager execution,轻松构建模型 在任意平台上实现生产环境的稳健模型部署 为研究提供强大的实验工具...TensorFlow 的实现包含多项增强功能,包括即时迭代和直观调试,以及 tf.data,用于构建可扩展的输入管道。.../ 协议缓冲区提供服务 TensorFlow Lite:TensorFlow 针对移动和嵌入式设备的轻量级解决方案提供了在 Android、iOS 和 Raspberry Pi 和 Edge tpu...的支持, 使 TensorFlow 2.0 成为一个易于使用、可定制和高度可扩展的平台,用于进行最先进的机器学习研究并将研究转化为生产流水线。...但是,2.0 中的更改将意味着原始检查点中的变量名称可能会更改,因此使用 2.0 之前的检查点而具有已转换为 2.0 的代码时可能无法保证正常工作。

    89510

    谷歌Edge TPU专用芯片横空出世!抢攻IoT欲一统物联网江湖

    仅用于推理,专为在边缘运行TensorFlow Lite ML模型而设计。...Edge TPU是谷歌的专用ASIC芯片,专为在边缘运行TensorFlow Lite ML模型而设计。在设计Edge TPU时,我们非常注重在很小的占用空间内优化“每瓦性能”和“每美元性能”。...除了开放源码的TensorFlow Lite编程环境之外,Edge TPU最初将部署多个Google AI模型,并结合谷歌在AI和硬件方面的专业知识。...ML框架:Edge TPU可使用TensorFlow Lite, NN API;Cloud TPU可使用TensorFlow, scikit-learn, XGBoost, Keras 硬件加速器:Edge...基于TensorFlow Lite的Edge ML runtime,使用预先训练过的模型执行本地ML推理,显著减少延迟并增加边缘设备的多功能性。

    1.2K20

    TensorFlow在移动设备与嵌入式设备上的轻量级跨平台解决方案 | Google 开发者大会 2018

    TensorFlow Lite的优化 相较于TensorFlow,TensorFlow Lite进行了如下优化: 压缩模型:缩小模型体积 量化 (Quantization):TensorFlow模型中包含大量的矩阵...,矩阵数值通常采用32bit的float数据类型,量化就是将这些32bit的浮点数采用8bit的byte表示。...构建 & 训练模型 使用TensorFlow(Estimator或Keras),构建模型,训练,取得Saved Model。...转换格式 使用TensorFlow Lite转换器转换为TensorFlow Lite可用的模型,模型转换代码如下: import tensorflow.contrib.lite as lite graph_def_file...一个Raspberry PI实现的物件检测模型,可以进行目标检测,转动摄影机始终跟随目标 ? 一个采用Google Edge TPU的系统,展现TensorFlow Lite的实时处理能力 ?

    2.2K30

    TensorFlow 2.0 新功能 | 官方详解

    TensorFlow 2.0 将专注于 简单性 和 易用性,具有以下更新: 使用 Keras 和 eager execution,轻松构建模型 在任意平台上实现生产环境的稳健模型部署 为研究提供强大的实验工具...TensorFlow 的实现包含多项增强功能,包括即时迭代和直观调试,以及 tf.data,用于构建可扩展的输入管道。.../ 协议缓冲区提供服务 TensorFlow Lite:TensorFlow 针对移动和嵌入式设备的轻量级解决方案提供了在 Android、iOS 和 Raspberry Pi 和 Edge tpu...的支持, 使 TensorFlow 2.0 成为一个易于使用、可定制和高度可扩展的平台,用于进行最先进的机器学习研究并将研究转化为生产流水线。...但是,2.0 中的更改将意味着原始检查点中的变量名称可能会更改,因此使用 2.0 之前的检查点而具有已转换为 2.0 的代码时可能无法保证正常工作。

    1.1K30

    深度学习模型推理优化指南

    硬件类型 优势 劣势 GPU 高并行计算能力 成本较高 TPU 针对深度学习优化 兼容性问题 CPU 通用性强 计算速度较慢 使用优化工具 TensorFlow Lite TensorFlow Lite...它可以将复杂的TensorFlow模型转换为更小、更高效的格式,从而提升推理速度。...import tensorflow as tf # 将模型转换为TensorFlow Lite格式 converter = tf.lite.TFLiteConverter.from_keras_model...对于高性能要求的实时应用,建议使用GPU或TPU;对于成本敏感的应用,可以考虑高性能CPU。 Q: TensorFlow Lite和ONNX哪个更好?...参考资料 TensorFlow Lite 官方文档 ONNX 官方文档 GPU 和 TPU 性能对比 希望这篇博客对你有所帮助,如果你有任何问题或建议,欢迎在评论区留言!

    17910

    官方解读:TensorFlow 2.0中即将到来的所有新特性

    TensorFlow 2.0 将专注于简洁性和易用性,主要升级方向包括: 使用 Keras 和 eager execution 轻松构建模型。 在任意平台上实现稳健的生产环境模型部署。...TensorFlow 的实现有多项增强,包括可直接迭代和直观调试的 eager execution,以及用于构建可扩展输入流程的 tf.data。...由于 TensorFlow 为一系列硬件加速器(如 CPU、GPU、TPU)提供支持,你可以将训练工作负载分配给单节点/多加速器以及多节点/多加速器配置,包括 TPU Pods。...TensorFlow Lite:TensorFlow 针对移动和嵌入式设备的轻量级解决方案提供了在 Android、iOS 和嵌入式系统(如 Raspberry Pi 和 Edge TPU)上部署模型的能力...TPU 的支持,使 TensorFlow 2.0 成为一个易于使用、可定制和高度可扩展的平台,用于展开最先进的 ML 研究并将该研究转化为生产流水线。

    78230

    官方解读:TensorFlow 2.0中即将到来的所有新特性

    TensorFlow 2.0 将专注于简洁性和易用性,主要升级方向包括: 使用 Keras 和 eager execution 轻松构建模型。 在任意平台上实现稳健的生产环境模型部署。...TensorFlow 的实现有多项增强,包括可直接迭代和直观调试的 eager execution,以及用于构建可扩展输入流程的 tf.data。...由于 TensorFlow 为一系列硬件加速器(如 CPU、GPU、TPU)提供支持,你可以将训练工作负载分配给单节点/多加速器以及多节点/多加速器配置,包括 TPU Pods。...TensorFlow Lite:TensorFlow 针对移动和嵌入式设备的轻量级解决方案提供了在 Android、iOS 和嵌入式系统(如 Raspberry Pi 和 Edge TPU)上部署模型的能力...TPU 的支持,使 TensorFlow 2.0 成为一个易于使用、可定制和高度可扩展的平台,用于展开最先进的 ML 研究并将该研究转化为生产流水线。

    83520

    边缘AI烽烟再起之三国逐鹿

    通常情况下,公司会手动优化软件,然后与竞争对手的开箱即用型号进行比较。 现在让我们将注意力转向Google Edge TPU。公司将优秀竞争对手的结果纳入其报告中是非常不寻常的。...它只支持一种机器学习框架,即Tensorflow(你知道Tensorflow是谷歌拥有的吗?)。实际上,不,从技术上讲,它被称为Tensorflow Lite,仅支持有限数量神经网络层的变体。...更糟糕的是,它甚至不支持完整的Tensorflow Lite,而只支持量化为8位整数(INT8)的模型!这与除了INT8之外还支持FP16(16位浮点)的NCS2形成对比。 这意味着什么?...您必须将量化纳入训练。这意味着您无法使用预训练的FP32 AI模型,而必须在模型中添加一些图层并从头开始训练。由于添加了层,训练也将比平时花费更长的时间。...它也适用于业余爱好者和小批量项目。 EDGE TPU 优点:性能最佳,配备Wifi和加密引擎 缺点:有限的培训资源、AI模型和软件库,例如不支持OpenCV。

    78210

    玩转TensorFlow?你需要知道这30个功能

    TF Hub 的地址是:tensorflow.org/hub/ 3)TFX 数据验证 如何自动确保用于重新训练模型的数据与最初用于训练模型的数据具有相同的格式、源、命名约定等。...hl=zh-cn 4)TFX -TensorFlow 变换 同样地,你可能希望用于重新训练的数据也能被自动进行预处理:对特定特性进行归一化、将字符串转换为数值等。...amp=1 8)TensorFlow Lite (TFLite) 用 TFLite 可以在手机和嵌入式设备上部署模型。...网址:https://cloud.google.com/edge-tpu/ 15)Magenta 作为一个音乐家,Magenta 让我高兴得不得了。...,也就是深层神经网络是怎么做出决策的,这对于道德机器学习和将深度学习用于会有显著影响的场景中是至关重要的。

    95720
    领券