首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在网格中找到边界框的占有率?

在计算机视觉和图像处理领域,边界框(Bounding Box)是一种常用的方法来表示图像中对象的位置。边界框占有率是指边界框在网格中所占的比例。以下是关于如何在网格中找到边界框占有率的基础概念、优势、类型、应用场景以及如何计算和解决问题的详细解答。

基础概念

  1. 边界框(Bounding Box):一个矩形框,通常由其左上角和右下角的坐标定义,用于包围图像中的目标对象。
  2. 网格(Grid):将图像划分为多个小的、均匀的区域或单元格。
  3. 占有率(Occupancy Rate):边界框在网格中所占的面积比例。

优势

  • 简化目标检测:边界框提供了一个简单的几何表示,便于快速的目标检测和处理。
  • 易于计算:通过坐标计算可以迅速得到边界框的位置和大小。
  • 广泛应用:在自动驾驶、视频监控、人脸识别等多个领域都有广泛应用。

类型

  • 轴对齐边界框(Axis-Aligned Bounding Box, AABB):边界框的边与坐标轴平行。
  • 旋转边界框(Rotated Bounding Box):边界框可以旋转,更紧密地包围目标。

应用场景

  • 自动驾驶:检测车辆、行人和其他障碍物。
  • 视频监控:识别异常行为或特定目标。
  • 人脸识别:定位和跟踪人脸。

计算边界框占有率的方法

假设我们有一个图像,其大小为 ( W \times H ),并且被划分为 ( m \times n ) 的网格。每个网格单元的大小为 ( \frac{W}{m} \times \frac{H}{n} )。

  1. 获取边界框坐标:假设边界框的左上角坐标为 ( (x_1, y_1) ),右下角坐标为 ( (x_2, y_2) )。
  2. 遍历网格单元
    • 对于每个网格单元,检查边界框是否与其重叠。
    • 如果重叠,计算重叠部分的面积。
  • 计算占有率
    • 累加所有与边界框重叠的网格单元的面积。
    • 将累加的面积除以总网格面积 ( W \times H ) 得到占有率。

示例代码(Python)

代码语言:txt
复制
def calculate_occupancy_rate(image_width, image_height, grid_size, bbox):
    m, n = grid_size
    cell_width = image_width / m
    cell_height = image_height / n
    
    total_occupied_area = 0
    
    for i in range(m):
        for j in range(n):
            x_start = i * cell_width
            y_start = j * cell_height
            x_end = (i + 1) * cell_width
            y_end = (j + 1) * cell_height
            
            # Check for overlap between the grid cell and the bounding box
            overlap_x_start = max(x_start, bbox[0])
            overlap_y_start = max(y_start, bbox[1])
            overlap_x_end = min(x_end, bbox[2])
            overlap_y_end = min(y_end, bbox[3])
            
            if overlap_x_start < overlap_x_end and overlap_y_start < overlap_y_end:
                overlap_area = (overlap_x_end - overlap_x_start) * (overlap_y_end - overlap_y_start)
                total_occupied_area += overlap_area
    
    occupancy_rate = total_occupied_area / (image_width * image_height)
    return occupancy_rate

# Example usage
image_width, image_height = 640, 480
grid_size = (10, 10)
bbox = (100, 100, 200, 200)  # (x1, y1, x2, y2)

rate = calculate_occupancy_rate(image_width, image_height, grid_size, bbox)
print(f"Occupancy Rate: {rate:.2%}")

可能遇到的问题及解决方法

  1. 边界框超出图像范围
    • 问题:计算时可能会出现负坐标或超出图像边界的坐标。
    • 解决方法:在计算重叠区域前,确保所有坐标都在有效范围内。
  • 浮点数精度问题
    • 问题:浮点数运算可能导致微小的误差。
    • 解决方法:使用适当的舍入方法或在比较时设置一个小的容差值。

通过上述方法和代码示例,可以有效地计算出边界框在网格中的占有率,并解决常见的计算问题。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

用于精确目标检测的多网格冗余边界框标注

每个对象的多网格单元分配背后的基本理论是通过强制多个单元在同一对象上工作来增加预测紧密拟合边界框的可能性。...为简洁起见,我们将解释我们在一个对象上的多网格分配。上图显示了三个对象的边界框,其中包含更多关于狗的边界框的细节。下图显示了上图的缩小区域,重点是狗的边界框中心。...包含狗边界框中心的网格单元的左上角坐标用数字0标记,而包含中心的网格周围的其他八个网格单元的标签从1到8。 到目前为止,我已经解释了包含目标边界框中心的网格如何注释目标的基本事实。...这种对每个对象仅一个网格单元的依赖来完成预测类别的困难工作和精确的tight-fit边界框引发了许多问题,例如: (a)正负网格之间的巨大不平衡,即有和没有对象中心的网格坐标 (b)缓慢的边界框收敛到GT...MultiGridDet在NMS之后对输入图像的最终边界框预测。

64610

​关注难易样本分布 Focaler-IoU | 提升边界框回归在目标检测中的应用性能 !

在目标检测领域,边界框回归起着至关重要的作用,而目标检测的定位精度很大程度上取决于边界框回归的损失函数。...在基于IoU的评估标准下,大多数目标检测任务的检测精度得到了进一步提高,但是IoU损失本身也存在一些缺陷,例如,当GT框和 Anchor 框之间没有重叠时,它们的梯度将消失,无法准确描述两个边界框之间的位置关系...在CIoU和DIoU中,为了加速GIoU的收敛速度,CIoU通过进一步考虑GT框和 Anchor 框的宽高比来加速收敛,而DIoU通过归一化两个边界框的中心之间的距离来加速收敛。...GIoU Metric 由于在边界框回归中,GT框和 Anchor 框之间没有重叠,因此IoU损失出现了梯度消失的问题。...对于以简单样本为主的检测任务,在边界框回归过程中关注简单样本有助于提高检测性能。对于以难以检测的样本为主的检测任务,相比之下,则需要关注难以检测样本的边界框回归。

46710
  • 什么是服务网格?在微服务体系中又是如何使用的?

    有一位粉丝问私信问我的面试题,他说“什么是服务网格”? 服务网格这个概念出来很久了,从 2017 年被提出来,到 2018 年正式爆发,很多云厂商和互联网企业都在纷纷向服务网格靠拢。...1、服务网格 我认为,服务网格是微服务架构的更进一步升级,它的核心目的是实现网络通信与业务逻辑的分离,使得开发人员更加专注在业务的实现上。...Service Mesh,我们通常把他称为第三代微服务架构,既然是第三代,那么意味着他是在原来的微服务架构下做的升级。...之所以我们称 Service Mesh 为服务网格,是因为在大规模微服务架构中,每个服务的通信都是由 SideCar 来代理的,各个服务之间的通信拓扑图,看起来就像一个网格形状。...不过,技术是在快速迭代的,有一句话叫“时代抛弃你的时候,连一句再见也不会说”,就像有些人在外包公司干了 10 多年再出来面试,发现很多公司要求的技术栈,他都不会。

    3.4K21

    手把手教你使用PyTorch从零实现YOLOv3(1)

    可以在此Github存储库中找到全部内容。...在深度上,特征图中有(Bx(5+C))个条目。B表示每个单元格可以预测的边界框的数量。根据本文,这些B边界框中的每一个都可以专门用于检测某种对象。...这与YOLO的训练方式有关,其中只有一个边界框负责检测任何给定的对象。首先,我们必须确定此边界框属于哪个单元格。 为此,我们将输入图像划分为尺寸等于最终特征图尺寸的网格。...然后,将包含对象地面真值框中心的单元格(在输入图像上)选择为负责预测对象的单元格。在图像中,标记为红色的单元格包含地面真值框的中心(标记为黄色)。 现在,红色单元格是网格第7行中的第7个单元格。...做出预测 以下公式描述了如何转换网络输出以获得边界框预测。 ? YOLO方程 bx,by,bw,bh是我们预测的x,y中心坐标,宽度和高度。tx,ty,tw,th是网络输出的内容。

    3.6K11

    仿真软件干货教程!Workbench中水流冲击桥墩仿真教学

    流固耦合在建筑工程中也会被用到,本次小编为大家带来针对水流冲击桥墩的仿真实例 image.png 首先,在Project-shematic中的左侧的Toolbox中找到对应的模块:Fluid Flow(...定义“面”的工作也可以在mesh模块中进行 image.png 退回到主界面,在fluid flow(Fluent)中找到mesh,双击该图标 image.png image.png 在左侧Outline...网格划分应该根据您的具体工作进行。...对于流体的网格,应该尽量精细划分 image.png 网格划分完成的状态 image.png 完成网格划分后回到主界面,右键mesh,在跳出的功能框内点击Update image.png 双击Fluid...最后点击Apply-close image.png 定义Outlet中的出口边界条件:双击Setup-Outlet-outlet(pressure-outlet,id=8) image.png 在弹出的工具框中

    2.9K00

    深度学习500问——Chapter08:目标检测(4)

    我们将分析FPN以理解多尺度特征图如何提高准确率,特别是小目标的检测,其在单次检测器中的检测效果通常很差。...然后我们将分析Focal loss和RetinaNet,看看它们是如何解决训练过程中的类别不平衡问题的。...先验框与ground truth的匹配遵循两个原则: (1)对图片中的每个ground truth,在先验框中找到与其IOU最大的先验框,则该先验框对应的预测边界框与ground truth匹配。...对每个边界框会预测5个值,分别是边界框的中心x,y(相对于所属网格的边界),边界框的宽高w, h(相对于原始输入图像的宽高的比例),以及这些边界框的confidence scores(边界框与ground...由此可以计算某对象 i 属于类别同时在第 j 个边界框中的得分: 每个网格有20个类条件概率,2个边界框置信度,相当于每个网格有40个得分,7x7个网格有1960个得分,每类对象有 1960/20=98

    32010

    【TechNow】ABAQUS焊接分析- Part 1:手动定义

    在本文中,将给大家展示手动设置Abaqus简单焊接示例,展示如何将热分析的结果应用于结构分析(热应力顺序耦合分析)以及如何在模型中使用生死单元。 我们首先关注热分析。...在Create Interaction中找到Model Change(图2)。 图2:Model change窗口 在分析步1去除焊料(Deactivated)。...添加边界条件 在分析步3中,在工件和焊料之间的边缘处施加一个渐增的温度边界条件,在分析步3中进行,在分析步4中移除。...可以使用上一分析的网格模型,更改单元类型和边界条件即可。 结构分析的步骤 如果在分析开始时去除焊料并在需要时添加,则周围材料可能同时发生移位。为了避免这种情况,最初的时候不去除焊料。...表1:热分析与结构分析的分析步 添加热分析的温度结果 在热分析中计算的温度被用于结构分析充当预定义场。“Edit Predefined Field”对话框(图6)用于指定应该使用哪些温度结果。

    2.2K10

    Google Earth Engine(GEE)——使用 GeoPandas 和 Uber 的 H3 空间索引进行快速多边形点分析

    大多数 GIS 软件和数据库都提供了一种机制来计算和使用数据图层的空间索引。QGIS 和 PostGIS 使用基于 R-Tree 数据结构的空间索引方案 - 它使用几何边界框创建分层树。...这个开源索引系统由 Uber 创建,使用六边形网格单元。该系统类似于另一个名为S2 的基于单元格的索引系统——它是在谷歌开发的。...在这篇文章中,我将向你展示如何创建使用点密度图geopandas和h3-py库在Python。 国家地理空间情报局的海事安全信息门户以反航运活动消息的形式提供所有海盗事件的形状文件。...这是原始点图层在 QGIS 中的可视化效果。 我们将通过在 H3 提供的六边形网格上聚合事件点来创建密度图。我们从导入库开始。...这篇文章中使用的代码和数据集可以在我的Github 存储库中找到。您还可以在 Binder 中实时运行 Jupyter Notebook 。

    36110

    用不到 30 行 Python 代码实现 YOLO

    但是在重叠的情况下,一个网格单元实际上包含两个不同对象的中心点,我们可以使用 anchor box 来允许一个网格单元检测多个对象。 ?...动态Anchor Boxes 在上图中,我们看到我们在图像中有一个人和一辆汽车重叠。因此,汽车的一部分被遮挡了。我们还可以看到,边界框,汽车和行人的中心都落在同一个网格单元中。...这些向量告诉我们一个单元格中是否有一个对象,该对象是什么类,以及该对象的边界框。由于我们使用两个 Anchor Box ,我们将为每个网格单元获得两个预测的锚箱。...在删除具有低检测概率的所有预测边界框之后,NMS中的第二步是选择具有最高检测概率的边界框,并消除其 交并比 (IOU)值高于给定的所有边界框。 IOU门槛。...这意味着将删除所有相对于最佳边界框的IOU值大于0.4的预测边界框。 ? 然后选择PC值最高的边界框,并删除与此太相似的边界框。它将重复此操作,直到每个类的所有非最大边界框都被删除为止。

    1.1K20

    卷积神经网络3.6-3.9交并比非极大值抑制Anchor boxesYOLO算法

    如何评价一个算法的好坏,即如图中假设红色框线表示 真实的对象所在边界框,紫色框线表示 模型预测的对象所在边界框.通过计算两个边界框交集和并集的比用于评价对象检测算法的好坏。 ?...非极大值抑制算法 Non-max suppression 对于如图的对象检测,使用 的网格,在进行预测的同时,两辆车中心旁的其他网格也会认为目标对象的中心点在其中。如图绿色和黄色方框中显示。...while 还有边界框剩下: 在剩下的没有被抛弃的边界框中一直挑选 最高的边界框 在剩下的边界框中将与最高 有较大 IoU( )的边界框全部抛弃 如果要检测的对象不止汽车一个,还有行人和自行车的对象...则此时边界框的目标标签可以被编码为: Note:Anchor boxes 算法处理不好的情况 两个对象的中点在同一个网格中,并且使用 同一种形状 的 Anchor Boxes 检测 有超过两个的对象的中点在同一个网格中...抛弃概率低的预测,即模型认为这个网格中什么都没有的边界框。 ? 对于三种检测目标--行人,机动车,摩托车,对于每个类别单独运行非最大值抑制。 ?

    89620

    斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

    边界框检测和特征点检测 Intersection over Union: Intersection over Union(交并比),也称为IoU,是一种量化预测边界框 ? 在实际边界框 ?...Anchor boxes: Anchor boxing是一种用于预测重叠边界框的技术。在实际应用中,网络可以同时预测多个box,其中每个box的预测被约束具有给定的一组几何特性。...在删除了概率预测低于0.6的所有框之后,在剩余框中重复以下步骤: 对于一个给定的类, 步骤1:选择具有最大预测概率的框。 步骤2:删除任何与前一个框的IoU⩾0.5的框。 ?...步骤2:对于每个网格单元,运行一个CNN网络,预测下面公式中的y: ? 其中 ? 是检测对象的概率, ? 是检测到的边界框的属性, ?...R-CNN Region with Convolutional Neural Networks (R-CNN) 是一种对象检测算法,它首先对图像进行分割以找到潜在的相关边界框,然后运行检测算法,在那些边界框中找到最可能的对象

    66830

    理解 YOLO 目标检测

    那是物体中心落入的单元格。 每个网格单元预测B边界框以及C类概率。 边界框预测具有5个分量:(x,y,w,h,置信度)。...(x,y)坐标表示相对于网格单元位置的框的中心(请记住,如果框的中心不在网格单元内,则此单元不对其负责)。 这些坐标被归一化为介于0和1之间。(w,h)框尺寸也相对于图像尺寸标准化为[0,1]。...如何计算S = 3的448x448图像中的框坐标的示例。 注意如何相对于中心网格单元计算(x,y)坐标 边界框预测中还有一个部分,即置信度分数。...,S^2)的每一个边界框预测值(j=0,...,B)的总和。? obj 定义如下: 1,如果网格单元i中存在目标,则第j个边界框预测值对该预测有效。...0,如果网格单元i中不存在目标 但是我们如何知道那个预测器对该目标负责呢?引用原论文: 对每一个网格单元YOLO预测到对个边界框。在训练时,我们对每一个目标只希望有一个边界框预测器。

    98130

    深度学习与CV教程(13) | 目标检测 (SSD,YOLO系列)

    那么可以采用 NMS 算法来实现这样的效果: 首先从所有的检测框中找到置信度最大的那个框,然后挨个计算其与剩余框的 IoU,如果 IoU 大于一定阈值(重合度过高),那么就将该框(剩余框)剔除; 然后对剩余的检测框重复上述过程...比如 A(2, 3) 是狗的中心点,那么 A 就负责来负责预测狗 ② 每个网格自身也要预测 n 个边界框 bounding box 和边界框的置信度 confidence。...论文中 b=2 边界框包含四个数据 x,y,w,h:(x,y) 框中心是相对于网格单元的坐标,w 和 h 是框相当于整幅图的宽和高。 置信度有两部分构成:含有物体的概率和边界框覆盖的准确性。...图片 每个网格都要预测 b= 2 个框,49 个网格就会输出 98 个边界框,每个框还有它的分数。每个格子最多只预测出一个物体。...对边界框预测施加了严格的空间约束,因为每个网格单元只能预测两个边界框,并且只能有一个类。

    1.7K61

    教程 | 单级式目标检测方法概述:YOLO与SSD

    我们将这个 7x7 网格关联回原输入,以了解每个网格单元相对于原图像所代表的内容。 ? 通过观察哪个网格单元包含我们的边界框标注的中心,我们还可以在粗略的(7x7)特征图中大致确定目标的位置。...这意味着我们将学习一组权重来检查所有 512 个特征图,并且确定哪些网格单元很有可能包含目标、每个网格单元很可能出现哪种类别、以及如何描述每个网格单元中可能存在的目标的边界框。 ?...当我们在训练过程中计算损失时,我们会将目标与有最高 IoU 分数的边界框预测(在同一个网格单元上)进行匹配。对于未匹配的框,我们会包含进我们的损失函数的唯一描述量是 pobj。...YOLOv2 加入了边界框先验之后,我们只需简单地将被标注出的目标分配给与该被标注目标有最高 IoU 分数的锚框(在同一个网格单元上)即可。...类别标签 最初的类别预测是在网格单元层面上执行的。这意味着单个网格单元不能预测不同类别的多个边界框。之后的修订版可以使用在类别和交叉熵损失上的 softmax 激活来预测每个边界框的类别。

    82310

    SSD(单次多盒检测)用于实时物体检测

    为了训练我们的算法,我们需要一个包含带有对象的图像的训练集,这些对象必须在它们上面有边界框。 通过这种方式学习,算法学习如何在对象上放置矩形框以及放置在何处。...我们通过调参使预测出的边界框和实际的边界框之间的误差最小,从而优化我们的模型以正确地检测对象。与 CNN 不同,我们不仅预测图像中是否存在物体,还需要预测物体在图像中的位置。...在训练期间,算法也要学习调整对象边界框中的高度和宽度。 ? 上图是我们用于目标检测的训练数据集的示例。 这些数据集必须包含在图像中标记类别的对象。...我们将输入图像划分为网格集。 然后我们围绕这些网格制作几个不同宽高比的矩形框。 我们在这些框中应用卷积来研究这些网格中是否存在对象。这里的一匹黑马在图像中更靠近摄像头。...因此,我们绘制的边界框无法识别是否是马,因为边界框没有任何可以识别马匹的特征。 ? 如果我们看上述 SSD 的架构,我们可以看到在 conv6 层之后的每个步骤中图像的大小在显著减小。

    1.5K20

    斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

    下面总结了两个主要的方法: 边界框检测和特征点检测 Intersection over Union: Intersection over Union(交并比),也称为IoU,是一种量化预测边界框 在实际边界框...Anchor boxes: Anchor boxing是一种用于预测重叠边界框的技术。在实际应用中,网络可以同时预测多个box,其中每个box的预测被约束具有给定的一组几何特性。...在删除了概率预测低于0.6的所有框之后,在剩余框中重复以下步骤: 对于一个给定的类, 步骤1:选择具有最大预测概率的框。 步骤2:删除任何与前一个框的IoU⩾0.5的框。...步骤2:对于每个网格单元,运行一个CNN网络,预测下面公式中的y: 其中 是检测对象的概率, 是检测到的边界框的属性, 是检测到的p类的one-hot representation,k是anchor boxes...R-CNN Region with Convolutional Neural Networks (R-CNN) 是一种对象检测算法,它首先对图像进行分割以找到潜在的相关边界框,然后运行检测算法,在那些边界框中找到最可能的对象

    34110

    人工智能 - 目标检测算法详解及实战

    目标检测的核心挑战在于如何在复杂的背景下准确、快速地检测多个目标。二、目标检测算法的基础原理目标检测算法通常包含两个步骤:目标的提取和目标的分类。目标提取:算法需要在图像中找到潜在的目标位置。...使用softmax层进行分类,使用回归层进行边界框回归。...YOLO将目标检测视为一个单一的回归问题,直接在整张图像上进行目标的定位和分类。其主要特点是速度快,适合实时应用。YOLO的核心思想是将输入图像划分为SxS的网格,每个网格预测目标的位置和类别。...使用全连接层和softmax层进行分类,使用回归层进行边界框回归。四、目标检测的应用场景目标检测在多个领域有广泛应用,包括但不限于:自动驾驶:检测道路上的行人、车辆、交通标志等。...五、目标检测的实现及实战数据准备目标检测的训练数据通常包含图像和对应的标注文件。标注文件记录了每个目标的类别和边界框位置。

    25200

    斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

    边界框检测和特征点检测 Intersection over Union: Intersection over Union(交并比),也称为IoU,是一种量化预测边界框 ? 在实际边界框 ?...Anchor boxes: Anchor boxing是一种用于预测重叠边界框的技术。在实际应用中,网络可以同时预测多个box,其中每个box的预测被约束具有给定的一组几何特性。...在删除了概率预测低于0.6的所有框之后,在剩余框中重复以下步骤: 对于一个给定的类, 步骤1:选择具有最大预测概率的框。 步骤2:删除任何与前一个框的IoU⩾0.5的框。 ?...步骤2:对于每个网格单元,运行一个CNN网络,预测下面公式中的y: ? 其中 ? 是检测对象的概率, ? 是检测到的边界框的属性, ?...R-CNN Region with Convolutional Neural Networks (R-CNN) 是一种对象检测算法,它首先对图像进行分割以找到潜在的相关边界框,然后运行检测算法,在那些边界框中找到最可能的对象

    40820

    从0到1 实现YOLO v3 (Part one)

    本文将详细介绍如何使用Pytorch从0到1完成YOLO v3算法,实现基于python3.5,Pytorch3.0,文中提到的所有代码都可以从Github中找到。...这与YOLO如何训练有关,只有一个边界框负责检测任何给定的对象。 首先,我们必须确定这个边界框属于哪个单元格。 为此,我们将输入图像划分成与最终特征映射相等的维度网格。...04 中心点预测 通常情况下,YOLO不预测边界框中心的绝对坐标。它预测的是偏移量,预测的结果通过一个sigmoid函数,迫使输出的值在0和1之间。例如,考虑上图中狗的情况。...因此,为了解决这个问题,输出是通过一个sigmoid函数传递的,该函数在0到1的范围内压扁输出,有效地将中心保持在预测的网格中。下面的这个公式详细展示了预测结果如何转化为最终box的预测的。 ?...例如,红色网格单元的所有3个边界框可能检测到一个对象,或者相邻单元可能检测到相同的对象。 ? 有关YOLO的原理介绍第一部分完成了, 下面将介绍YOLO的网络搭建部分。

    2.2K60

    deeplearning.ai课程笔记--目标检测

    Bounding Box预测(Bounding box predictions) 接下来要介绍如何可以得到精确的边界框,这里介绍的就是著名的 YOLO(You only look once) 算法,目前也是目标检测里很常用的一种算法...该算法的优点就是CNN 可以输、出精确的边界框,在实践中可以采用更多的网格,比如 ,即便图片中包含多个对象,但如果网格数量越多,每个格子就越小,一个格子存在多个对象的概率就会很低。...当然这里只是预测是否有汽车,那么其实可以暂时不需要分类部分,也就是每个网格输出一个 5 维向量, 以及边界框的四个坐标参数。...然后开始实现非极大值抑制算法: 去掉所有预测概率低于阈值的边界框,比如设置阈值是 0.6,那么对于 的边界框都被抛弃; 在剩下的边界框里,将预测概率最高的边界框,将其输出作为预测结果; 然后将还剩下的边界框里...,和第一步被抛弃的边界框有高 IoU 的,比如 的边界框都抛弃掉; 对所有边界框都进行处理,按照上述 3 个步骤来判断,抛弃还是作为输出结果; 4.

    54200
    领券