当前位置: 首页 > news >正文

windows 2008 网站wordpress 随机一句话

windows 2008 网站,wordpress 随机一句话,软件工程师证,羽毛球赛事在哪看摘要 目标检测#xff08;Object Detection#xff0c;OD#xff09;是计算机视觉中的一项关键任务#xff0c;多年来涌现出了众多算法和模型。尽管当前 OD 模型的性能有所提升#xff0c;但它们也变得更加复杂#xff0c;由于参数规模庞大#xff0c;在工业应用中并不…摘要 目标检测Object DetectionOD是计算机视觉中的一项关键任务多年来涌现出了众多算法和模型。尽管当前 OD 模型的性能有所提升但它们也变得更加复杂由于参数规模庞大在工业应用中并不实用。为解决这一问题2015 年知识蒸馏Knowledge DistillationKD技术被提出用于图像分类随后因其能够将复杂教师模型所学知识转移到轻量级学生模型中而被扩展到其他视觉任务。**本文对近年来基于 KD 的 OD 模型进行了全面综述旨在为研究人员提供该领域近期进展的概述。**我们深入分析了现有工作强调其优势和局限性并探索未来研究方向以启发相关任务模型的设计。我们总结了设计基于 KD 的 OD 模型的基本原理描述了相关的基于 KD 的 OD 任务包括轻量级模型的性能提升、增量式 OD 中的灾难性遗忘、小目标检测以及弱 / 半监督 OD。我们还分析了新颖的蒸馏技术即不同类型的蒸馏损失、教师和学生模型之间的特征交互等。此外我们概述了基于 KD 的 OD 模型在特定数据集如遥感图像和 3D 点云数据集上的扩展应用。我们比较和分析了不同模型在几个常见数据集上的性能并讨论了解决特定 OD 问题的有前景的方向。 Section IIThe Categorization of KD-based Object Detection (OD) Methods A. KD-based OD Methods Based on Different OD Tasks 1 Novel KD-based OD Models for Conventional OD Tasks 传统的目标检测模型主要用于检测自然图像中大量常见的目标引入知识蒸馏是为了获得性能更优的轻量级学生模型。然而人们也设计出了许多使用基于知识蒸馏的传统目标检测模型的新方法。例如一些方法采用基于对抗学习的策略使学生模型能更精准地从教师模型中学习知识而其他方法则设计了相关的损失函数来缩小学生模型与教师模型之间的差距。 (2) KD-Based OD Models to Solve Specific Problems 学术界已经提出了几种基于知识蒸馏KD的目标检测OD模型来解决特定的 OD 问题。例如为了解决小目标检测S - OD问题使用高分辨率图像在教师模型中进行知识蒸馏跨分辨率知识蒸馏为提高学生模型在低光照条件下的 OD 性能将多模态信息引入教师模型跨模态知识蒸馏。此外利用注意力机制的 KD 分支结合不同网络层之间的高分辨率图像和特征蒸馏模块来解决遥感图像中的多尺度 OD 问题。而且出现了新的类别模型更新过程中的灾难性遗忘问题也得到了考虑通过引入金字塔网络和先验知识还额外提出了相关的基于增量式 KD 的 OD 方法。 KD 也被引入到三维 OD 和基于视频的 OD 任务中取得了更好的性能。此外基于 KD 的弱监督 OD 也是一项特定的 OD 任务。虽然现有的相关工作主要关注如何使用不同的 KD 策略来提高模型性能但对模型压缩的关注较少。因此我们回顾了相关工作包括如何引入语义信息、利用未标记图像以及设计相关策略来提高相应的 OD 模型性能。除了上述基于 KD 的 OD 模型还有许多其他基于 KD 技术的扩展 OD 任务包括关系检测、人 - 物交互HOI检测、车道检测、人脸检测、人物搜索、对象分割等。 B. KD-Based OD Methods Based on Different KD Strategies 视觉任务中使用的知识蒸馏KD策略多种多样。新颖且优化的 KD 策略能够显著提升知识转移和知识学习的效果。在这些基于 KD 的目标检测OD方法中已经提出了多种先进的 KD 策略来提高 OD 模型的性能。例如一些方法通过在教师模型和学生模型的不同网络层进行特征蒸馏来转移知识并且设计了各种网络结构使教师模型和学生模型能够从多模态数据中学习特征。此外类似于人类教学活动通过设计多个教师模型共同或逐步训练一个学生模型可以提高学生模型的性能。教师模型和学生模型也可以相互学习视觉特征或者使用各种损失函数进行自特征蒸馏。最后不同类型的先验知识对象掩码、语义上下文、文本信息等可以用作训练轻量级学生模型的指导。 Section IIIKD-Based Methodologies A. The Basic Principles 知识蒸馏KD已被引入基于深度学习的目标检测OD模型中用于改进模型压缩和模型性能。一种常见的知识蒸馏方式是使用不同类型的蒸馏损失来引导学生模型学习教师模型的知识。基于知识蒸馏的目标检测模型的一般损失函数可以表示如下 其中Ldet是目标检测损失函数Ldis是KD知识蒸馏损失函数gamma是知识蒸馏的损失权重。 图2展示了基于目标检测OD的模型图。 在此教师网络的输出被用作学生网络的软标签。针对特定的 OD 任务人们已经提出了各种各样的特征蒸馏模块。然而对许多现有相关工作中所采用的模型或算法进行综述后发现基本网络框架依旧是基于 OD 模型来设计的 [49][50][51][52]。因此我们通过分析将知识蒸馏KD技术引入传统两阶段和一阶段 OD 模型所提出的方法推导出了基于 KD 的 OD 模型的基本原理。 目前两阶段 OD 模型以 Faster R - CNN 作为主流网络框架而 YOLO 和 SSD 是经典且应用广泛的一阶段 OD 模型 [16]。因此当前公开的基于 KD 的 OD 模型是在这些基础的 OD 网络上进行探索的。如公式1所示这些早期基于 KD 的 OD 模型的基本原理在于蒸馏损失函数。基于 KD 的 OD 模型在两阶段和一阶段 OD 网络上的总损失函数可总结如下 其中Lclass是分类子任务损失函数Lreg是回归子任务损失函数Lhint是特征蒸馏损失函数。 值得注意的是公式2仅呈现了蒸馏损失函数的基本形式为了解决现有基于知识蒸馏KD的目标检测OD模型所遇到的问题人们已经提出了众多不同类型的蒸馏损失函数。 此外为了提高基于 KD 的 OD 模型的性能人们还探索了各种类型的蒸馏模块、机制和策略。例如存在多种先验信息引导模块 [21]、多教师网络 [37][53][54]、多模态数据蒸馏网络 [14][35][55]、自蒸馏网络 [38][56][57][58]、弱监督 OD 网络 [28][29][59][60] 等等。本文后续将对这些内容进行更详细的阐述和讨论。 B. Challenges (1) The Balance Between Model Compression and Performance 知识蒸馏KD是一种有效的模型压缩技术有效的知识转移有助于构建轻量级网络模型这种轻量级模型更适合具有特定模型效率要求和设备性能限制的实际应用场景 [4][61][62]。复杂网络具有大规模的网络参数和较长的运行时间这使其不适合此类实际应用 [63]。然而轻量级网络从大规模复杂数据集中学习有效的视觉特征也具有挑战性 [4]。因此必须在模型压缩和模型性能提升之间取得平衡。 (2) The Imbalance Between Multi-Modal Data Features 目前大多数基于知识蒸馏KD的目标检测OD模型侧重于在图像领域内进行知识转移只有少数工作尝试从其他模态数据红外图像、深度图像、文本、指标数据等中提取额外特征 [19][35][55]。多模态特征的引入对知识蒸馏是有益的。然而一个更具挑战性的问题是如何处理多模态数据特征之间的不平衡问题。这里的 “不平衡” 是指不同模态的特征维度和语义信息存在显著差异。例如从视觉数据和指标数据中提取的特征维度就存在明显不同。此外RGB 图像的文本特征和视觉特征之间的语义特征差距也使得利用文本信息来指导学生模型的视觉特征学习变得困难。因此另一个挑战在于如何结合不平衡的多模态特征来引导学生模型进行特征学习 [19][64]需要为学生模型的学习设计新的特征融合机制或多模态信息引导机制。 (3) Designing or Selecting Superior Teacher and Student Models 知识蒸馏KD技术被用于将复杂教师模型所学的知识转移到轻量级学生模型中。一个最优的教师模型或者模型组合对引导学生模型的特征学习有着非常有利的影响。因此教师模型和学生模型的选择对最终学生模型的性能有着非常重要的贡献 [53][65]。然而由于存在许多用于目标检测OD的复杂模型和轻量级模型针对特定的 OD 问题选择合适的教师模型和学生模型是很困难的。 C. Novel KD-Based OD Models for Conventional OD Tasks 对于传统的目标检测任务研究人员试图设计出性能更优、模型结构更优化的目标检测方法 / 模型。因此知识蒸馏KD被用于简化传统的目标检测模型这些模型通常具有大量的网络参数同时仍确保高检测准确率。此外通过 KD 技术从多模态数据中提取各种类型的特征和先验知识以不断提高目标检测模型的性能。 1) Traditional OD Model Compression Using KD 目前基于卷积神经网络CNN的目标检测OD模型取得了卓越的性能并且为了提高检测性能设计出了越来越复杂、网络参数更多的网络模型。然而由于性能限制这些模型并不适合实际应用或在嵌入式设备上运行。因此知识蒸馏KD技术和能够实现可靠性能的轻量级 OD 模型是解决这些问题的不错选择。在 KD 最初被引入时很少有作品将其应用于 OD [66]。大约在 2017 年许多基于 KD 的 OD 模型开始被提出其主要动机是开发轻量级网络模型。Li等人提出了一种特征模仿架构feature mimic architecture这可以被视为基于 KD 的 OD 框架的一种特殊情况 [49]。这些早期方法中的大多数旨在通过教师模型和学生模型之间的特征蒸馏或软标签蒸馏来获得压缩模型 [44][63][67][68]而其他一些应用则使用 KD 进行网络预训练 [69]。 一些方法还设计了一些基于知识蒸馏KD的目标检测OD方法通过设计不同的类别平衡焦点损失函数来解决类别不平衡问题 [50]。此外还提出了多尺度特征蒸馏损失函数来处理多尺度 OD 任务 [16]并且也探索了多重 KD以使学生模型能够从多级特征图中学习特征从而同时提取低级细节和高级抽象 [70]。2017 年Chen 等人 [4] 提出了一种基于 KD 的检测模型这可能是首次尝试将 KD 引入多类别 OD 任务。使用了两种类型的损失函数加权交叉熵损失和教师边界损失分别解决类别不平衡和回归组件问题。此外KD 也可应用于多目标跟踪。例如在 [71] 中一个端到端的 KD 框架通过具有共享骨干网络的多任务网络实现多目标跟踪。 此外这些模型的网络结构有许多相似之处。例如使用教师模型的软标签进行知识蒸馏是最常见的方法几乎在所有基于知识蒸馏KD的目标检测OD模型中都有采用。教师模型和学生模型卷积层之间的特征蒸馏也已被引入用以提升目标检测性能。 与图像分类不同目标检测OD不仅涉及对象的类别还涉及对象的位置标签。因此人们探索了标签分配蒸馏Label Assignment DistillationLAD[72] 和定位蒸馏Localization DistillationLD[73]以进一步提高对象定位的准确性。LAD [72] 是一种简单有效的知识蒸馏KD方法可应用于大多数目标检测器。LAD 让学生模型使用教师网络间接从教师模型中学习知识以生成和分配软标签这与传统 KD 方法采用的途径有很大不同。值得注意的是定位模糊在 OD 任务中普遍存在因此Zheng 等人 [73] 将蒸馏学习引入到 OD 网络的定位分支中利用 LD 来改进对象定位。为了利用对象的位置信息将教师网络生成的边界框分布蒸馏到学生网络中。因此为了实现位置信息蒸馏Zheng 等人 [74] 提出了有价值定位区域Valuable Localization RegionVLR的概念它不同于由标签分配确定的主要蒸馏区域。这些作者设计了一种算法来获取这些 VLR然后通过区域加权进行定位蒸馏。同样为了解决由于忽视教师模型和 1 比特学生模型之间的信息差异传统 KD 在蒸馏 1 比特检测器时效果较差的问题提出了一种信息差异感知策略Information Discrepancy - Aware StrategyIDa - Det[75]。IDa - Det 可用于根据信息差异选择代表性的候选框对有利于蒸馏 1 比特检测器。此外Yang 等人 [76] 考虑了焦点区域和全局区域特征之间的差异然后将这些不同的特征不均衡地蒸馏到学生模型中。焦点特征图和全局特征图是从教师模型的颈部获得的并且仅使用在特征图上计算的蒸馏损失进行特征蒸馏。同样使用软标签Umer 等人 [77] 提出了一种用于显著预测的伪知识蒸馏Pseudo - KDPKD训练方法。PKD 采用经典的 KD 架构并且教师网络提供的伪标签用于将预测的显著图蒸馏到学生网络中。 上述方法使用单个教师模型对单个学生模型进行知识蒸馏KD。随后引入了使用多个教师模型或学生模型来实现相互 KD 的基于 KD 的目标检测OD模型。例如使用协同学习在多个学生模型之间进行相互 KD [78]。这种方法可以不断提高不同学生网络的泛化能力。它还可以进一步扩展到其他视觉任务并用于优化多个相关任务的协同学习。 2) Personalized KD-Based OD Models 近年来为提高目标检测OD的性能研究人员构建了多个计算成本高昂的深度网络这些网络需要大量存储空间且运行耗时较长。这些网络复杂的设计也使得它们难以应用于现实场景中例如在资源有限的设备上执行目标检测任务。解决这些问题的一种有效方法是通过模型压缩将大规模网络整合成轻量级网络 [51]。轻量级的学生模型学习多个教师模型的知识并利用知识蒸馏KD策略对模型进行压缩以缓解内存问题。值得注意的是从多个教师模型中整合隐含知识所花费的时间也少得多。特别是所谓的基于对抗学习策略监督的组装式轻量级网络 [51]提高了推理速度。文献 [79]、[80] 中提出的方法分别将教师模型和学生模型生成的特征图作为正样本和负样本在教师模型和学生模型之间进行对抗模型训练以提高学生模型在单阶段目标检测中的性能。还有另一种进行单阶段目标检测并通过对抗训练提升性能的方法 [79]、[81]。有时如果用于教师模型训练的数据不可用就会导致数据缺失问题。深度反演是一种从神经网络合成数据以解决该问题的方法。文献 [81] 中提出的方法是一种基于知识蒸馏KD的目标检测网络旨在解决数据缺失问题。该方法通过一种名为 “DIODE” 的模型反演过程从预训练模型中合成图像然后在这些合成图像上针对目标检测开展知识蒸馏操作。 此外为了实现快速目标检测OD可以应用知识蒸馏KD策略将大规模且运行缓慢的教师模型所获取的知识转移到规模更小、运行速度更快的学生模型中 [82]。为了解决有用知识在复杂网络中分布不均的问题提出了实例条件知识蒸馏Instance - Conditional KD[83]它用于定位有用知识并通过对知识检索的辅助优化来解码知识检索的网络描述。 为了进一步优化目标检测OD网络我们可以从师生关系的角度入手。从教师网络训练的严谨性角度来看严格训练的教师网络具有更高的准确率。而且研究人员认为教师应该更具包容性峰值置信度分布更低。因此通过在教师网络中添加额外的损失学生网络能够更好地学习类别之间的相似性这有助于防止过拟合 [84]。 此外众所周知神经网络的预测结果往往缺乏可解释性然而我们有时需要这些解释来理解并能够信任某些系统如驾驶辅助系统的决策。目前研究人员已经尝试参照语义概念来解释神经网络的预测结果。不过这些方法会改变基础网络进而影响模型的性能。因此我们需要在不修改底层网络的情况下提供有意义的解释。为实现这一目标一种事后可解释的黑箱模型 [85] 被开发出来它可能是首个不会影响原始性能的生成式知识蒸馏KD可解释方法。 此外李Lee等人 [86] 发现了教师模型和学生模型之间的特征不平衡问题而传统的基于知识蒸馏KD的目标检测OD模型往往会忽视这一问题。这促使了共享知识编码器Shared Knowledge EncoderSKE的诞生。在此方法下教师模型和学生模型的多层特征被输入到共享知识编码器中进行统一编码之后采用辅助解码器进行特征解码以便利用平衡的特征进行知识蒸馏。 D. KD-Based OD Models for Solving Specific Problems 除了常规的目标检测OD任务外还存在更多特定的检测任务及相关工作例如小目标检测S - OD、遥感图像中的目标检测、增量式目标检测、三维目标检测、基于视频的目标检测、弱监督目标检测以及其他扩展的目标检测任务。在本小节中我们将对这些特定的检测任务进行概述并将它们分类整理。 1) Small Object Detection and Light-Limited OD 小目标检测S - OD作为目标检测OD研究的一个重要分支有着独特的困难之处因为待检测目标在图像中所占像素极少这使得精准检测颇具挑战性。传统的小目标检测模型包括基于图像金字塔的方法、增加小目标数量的方法、多尺度特征融合的方法等等。然而在基于知识蒸馏KD的目标检测模型中小目标检测问题是通过特征金字塔方法来解决的。蒸馏模型将从高分辨率目标中学到的特征转移到小目标检测模型中以提升小目标检测的性能。 例如邓Deng等人 [21] 提出了一种扩展特征金字塔网络Extended Feature Pyramid NetworkEFPN其带有一个专门针对小目标检测的额外高分辨率金字塔层级并且进一步设计了一个基于关键特征参考的超分辨率Super - ResolutionSR模块名为特征纹理转移Feature Texture TransferFTT旨在为扩展后的特征金字塔赋予可靠的细节以便实现更精准的小目标检测。FTT 使 EFPN 能够学习到更可靠的细节而引入的跨分辨率蒸馏策略有助于学生模型学习教师模型对目标细节的感知。 另一种助力小目标检测的策略是增加检测样本的数量 [87]。此外赵Zhao等人 [87] 通过引入轻量级特征金字塔网络FPNLite进一步提升了小目标检测的性能该网络能够确保网络始终聚焦于小目标底部更详细的信息。不过他们所采用的知识蒸馏方法主要是用于优化模型性能而且这些方法大多使用常规的蒸馏策略。然而较少有方法考虑教师模型和学生模型之间的特征蒸馏这可能会导致模型轻量化后学生模型的性能出现显著下降。 在目标检测OD任务的情境下另一个问题是在物体处于弱光或恶劣条件下被拍摄时执行目标检测任务。为解决这些问题基于知识蒸馏KD的目标检测方法引入了其他模态的数据例如光照充足的图像 [22]、红外图像 [14] 以及深度图像 [55] 等等这样模型就能学习到更多辅助检测信息从而提高检测性能。 一种新的非局部特征聚合方法被引入到基于知识蒸馏的目标检测中以助力弱光图像的目标检测 [22]。该方法将光照充足的图像作为教师模型的输入并通过师生模型的知识蒸馏对特征进行正则化。学生网络能够模仿预训练的教师模型学习到更有效的非局部特征信息。 此外热成像图像 [14] 和深度图像 [55] 也被引入到基于知识蒸馏的目标检测模型中。深度图像的获取不受光线影响这意味着在弱光图像的目标检测中深度图像能够辅助网络从深度图像的模态数据中获取有效信息 [55]进而提升目标检测性能。 不同类型的模态数据被引入基于知识蒸馏的目标检测框架中多模态数据可用于学习关于待检测对象更全面且有效的信息。例如在 [35] 中四种多模态数据RGB 图像、热图、深度图像和音频被同时引入基于音频数据的目标检测框架。随后引入了一个自监督的多模态蒸馏网络MM - DistillNet框架该框架包含多个教师模型它们利用不同的图像模态同时挖掘互补线索并将知识蒸馏到单个音频学生网络中而音频学生网络仅以声音作为输入来检测和跟踪视觉框架中的对象。因此[35] 中的工作提出了基于音频信号而非图像的蒸馏学习目标检测使其独具特色。 2) KD-Based OD in Remote Sensing Images 到目前为止已经开发出了一系列针对遥感图像设计的目标检测OD方法。知识蒸馏KD也已被引入到这一领域用于解决多尺度、多分辨率以及多方向目标检测的相关问题。 首先在对遥感图像进行目标检测OD时遇到的一个常见问题与多尺度目标的特性有关。为解决这一问题相关的基于知识蒸馏KD的目标检测模型将包含清晰或高分辨率目标的大规模遥感图像用作教师模型的训练数据而将包含小规模或低分辨率目标的遥感图像用作学生模型的训练数据。 一些相关的基于 KD 的目标检测模型在不同层进行特征蒸馏 [16][24][88]针对不同卷积层的多尺度特征蒸馏设计了相应的损失函数以助力基于 KD 的多尺度目标检测 [24]还设计了一些特征蒸馏模块及相应的损失函数用于在教师模型和学生模型的多个卷积层之间进行知识转移 [89]。 此外基于特征金字塔网络的目标检测蒸馏模型也是解决遥感图像中目标尺度不一致问题的一种好方法。例如陈Chen等人 [23] 提出的方法处理了增量式目标检测问题该问题需要应对遥感图像中新对象的出现 [90]并且还设计了一个特征金字塔网络来解决遥感图像中存在的多尺度对象问题。该金字塔网络也被应用于检测无人机Unmanned Aerial VehicleUAV图像中的多尺度对象 [91]。 一般来说大尺寸对象在网络中能获得更好的激活值。因此刘Liu等人 [91] 在教师模型和学生模型之间进行了不同尺度的交互特征学习并设计了一个位置感知的 L2 损失函数以促进教师模型和学生模型的联合训练。通过这种方式大尺寸对象的跨尺度特征能够被引入到学生模型中。此外还设计了特征蒸馏模块及相应的损失函数用于在教师模型和学生模型的多个卷积层之间进行知识转移 [89]。这些蒸馏模块全面考虑了教师模型中多个卷积层的多尺度特征并将它们蒸馏到学生模型的某一层从而实现多尺度特征蒸馏。 遥感目标检测的第二个相关问题是多方向的目标检测OD。例如文献 [92] 中的研究致力于解决学生模型能够检测多个方向和角度的目标这一问题。使用了一种辅助损失函数来帮助学生模型学习教师模型中处理过的多方向目标的视觉特征。 此外陈Chen等人 [9] 尝试通过将非对称卷积模块Asymmetric Convolution ModuleACM引入 YOLOV3 来解决这一问题并提出了 Tiny Yolo - Lite 模型。Tiny Yolo - Lite 是通过网络剪枝和知识蒸馏KD对 YOLO 进行压缩得到的在这里知识蒸馏旨在补偿由网络剪枝导致的性能下降并提高模型的泛化性能。与文献 [9] 中采用的模型压缩方法类似文献 [6] 中的方法同样使用模型剪枝进行模型压缩并用知识蒸馏进行知识转移以提升模型性能。这两种方法针对模型剪枝采用了相似的自适应剪枝策略但网络剪枝的策略有所不同。对于文献 [93]、[94] 中的方法相关网络的设计旨在解决遥感图像中多方向目标检测的问题。它们使用常见的知识蒸馏技术通过利用特征和预测蒸馏损失函数来获得轻量级的目标检测模型。 此外自注意力机制被引入到蒸馏学习模型中。例如柴Chai等人设计了一种名为**双向自注意力Bidirectional Self - AttentionBi - SAD**的新方法 [18]用于处理遥感图像中的自动云检测问题。Bi - SAD 在不同层级进行特征蒸馏能够通过自蒸馏学习提取云的纹理和语义信息从而提高遥感图像中云检测的性能。 为优化轻量级遥感目标检测器有人提出了两个蒸馏模块用于对多尺度特征进行蒸馏并为学生模型提供更精确的回归结果 [95]。 然而尽管遥感图像中有时可能会出现跨域目标检测OD的情况但现有的方法中很少考虑如何利用知识蒸馏KD技术来解决这一问题 [90]。此外增量式目标检测任务常在遥感图像的背景下出现而大多数用于执行这些增量任务的现有方法的检测性能在很大程度上取决于旧任务样本和新添加任务样本之间视觉特征的相似性。最后现有的知识蒸馏算法很少考虑回归分支。如果提出更多的知识蒸馏策略来优化回归分支轻量级学生模型的性能将会得到提升 [6]。 3) KD-Based Incremental OD 近年来随着深度学习方法应用的日益增多目标检测OD的性能得到了显著提升。然而传统的目标检测方法需要对大量图像数据进行标注因此当出现一个新的对象类别时由于没有可用的标注信息原模型无法检测到这个新类别 。 解决这种新对象类别检测问题的一种简单方法是对该新类别的相关数据进行标注然后在添加标注数据后使用整个数据集对整个网络进行训练不过这种方法的计算成本非常高。还有另一种对原模型进行微调的方法即应用增量学习这被称为增量式目标检测。 然而存在一个名为 “灾难性遗忘” 的问题即模型学习新类别对象的特征后在模型微调后旧对象类别的检测效果会急剧下降。原因在于网络权重、网络参数以及网络提取的相关特征倾向于检测新类别对象却 “忘记” 了旧对象类别的特征信息。我们可以相应地通过使用知识蒸馏KD策略来缓解灾难性遗忘问题该策略能将知识从初始网络迁移到增量网络 [96][97]。 图 3 展示了基于知识蒸馏KD的增量式目标检测OD的基本模型结构。为缓解增量式目标检测中的遗忘现象文献 [98][26] 中提出了基于快速区域卷积神经网络Faster R - CNN的增量式目标检测模型。 为通过防止旧类别对象的预测发生变化来减少特征遗忘刘Liu等人 [47] 使用了一种连续通用检测器它能够在不同区域持续学习而不会遗忘。通过设计若干损失函数以及置信度损失还实现了一个端到端的增量学习目标检测模型以便最大程度地保留旧数据信息。 随后还提出了类别增量式快速区域卷积神经网络Class - Incremental Faster R - CNNCIFRCN模型 [98]该模型能够利用少量带标注图像动态添加新类别。在 CIFRCN 中区域生成网络RPN的前景域得以扩展以生成精确的边界框候选区域。快速区域卷积神经网络Fast R - CNN中的分类器通过知识蒸馏进行扩展以提高候选区域分类的准确性。 同样董Dong等人 [99] 也引入了常用的知识蒸馏策略来解决增量式目标检测模型中的灾难性遗忘问题。 注意力特征蒸馏Attentional Characteristic DistillationAFD旨在利用注意力蒸馏的优势同时避免两种方法的缺点即同时使用自上而下Top - DownTD和自下而上Bottom - UpBU的注意力映射来过滤噪声信息。自下而上的注意力能够捕捉输入图像的关键上下文信息可用于引导当前模型模仿先前模型的注意力特征。 此外文献 [26] 中提出了一种基于快速区域卷积神经网络Faster R - CNN的新型增量目标检测器它能够在不使用旧数据的情况下持续学习新类别对象的特征。在该方法中借助旧模型和残差模型设计了一个三分支网络结构以帮助增量模型在新阶段学习对象的视觉特征同时不会遗忘现有知识。 同样杨Yang等人 [100] 提出了一个由旧模型和增量模型组成的双网络结构并尝试将从旧类别对象中学到的知识转移到新模型中以便检测新的对象类别。 增量学习与知识蒸馏KD相结合的策略也可应用于遥感图像中的目标检测OD[101]。基于遥感图像尺寸各异且类别丰富这一特点文献 [23] 中提出了一种基于特征金字塔网络Feature Pyramid NetworkFPN和知识蒸馏KD的增量式目标检测架构这可能是遥感领域中关于增量式目标检测的首项研究工作。该方法利用特征金字塔网络来检测不同尺度的目标在特征金字塔网络的最后一层添加一个新分支用于检测新类别并对旧分支的输出进行知识蒸馏。通过实施这些操作模型能够保持学习旧类别特征的能力。 此外自动售货机也是一个重要的应用场景。例如在 [102] 中构建并公开了一个用于增量式目标检测的大型零售图像数据集还提出了一种基于 ftP - RCNN 的增量目标检测器FCIOD。引入了一种图像级示例管理策略以防止增量学习中的遗忘问题。样本集的大小是固定的模型最多可以访问之前训练数据中的 K 张图像。 知识蒸馏KD有助于模型减少遗忘但也会减缓对新类别的适应速度。为解决这一问题约瑟夫Joseph等人 [27] 提出了一种用于目标检测OD的元学习方法。在该方法中在模型学习期间通过先决prerequisite梯度更新自动在增量任务间共享特征信息。所提出的方法不仅有助于模型保留旧知识而且具备适应新类别的灵活性。元学习增量目标检测器的性能优于当前其他方法。它制定了一个新的损失函数通过学习一组通用的梯度方向来对抗因知识蒸馏导致的顽固性从而缓解 “灾难性遗忘” 问题并提高模型的适应性。 此外文献 [103] 中利用了更多相关的目标检测任务来共享它们有效的视觉特征。这些共享特征是通过在不同目标检测任务间使用任务感知门针对特定任务进行选择的。 因此上述讨论的这些方法本质上是试图利用教师模型提取的知识来避免学生模型严重遗忘之前的对象。然而这些模型除了文献 [104] 中的方法很少考虑教师模型出现过度自信的可能性结果教师模型的一些错误预测结果可能会对学生模型产生错误引导。韦尔温普Verwimp等人 [104] 利用当前的真实标签来判断教师模型的预测结果然后有选择性地引导向学生模型进行知识转移。 尽管知识蒸馏KD技术在很大程度上能够缓解增量式目标检测OD任务中检测新类别对象的问题但现有相关方法仍存在一些局限性。 首先随着新类别数量的增加知识蒸馏避免 “灾难性遗忘” 的能力会显著减弱 [97]。其次如果新类别中的对象数量很少那么要以最优性能水平检测这些新对象将会是一项颇具挑战性的任务 [23]。最后现有的方法中很少有考虑同时处理模型的 “灾难性遗忘” 问题以及提高已知类别对象检测性能的。 4) KD-Based 3D OD 近年来知识蒸馏KD在三维目标检测3D OD中也得到了广泛应用。大多数基于知识蒸馏的三维目标检测模型旨在利用知识蒸馏获得轻量级的三维模型 [105]。 例如费利克斯Felix等人 [30] 提出了一种在保持精度的同时降低六自由度检测网络复杂度的方法。这些作者利用知识蒸馏来指导一个轻量级卷积神经网络Convolutional Neural NetworkCNN向一个实时的六自由度检测 CNN 学习。该方法使得实时应用仅使用 RGB 图像的同时降低了硬件要求。 此外为压缩学生模型的网络参数有人设计了一种共享自动编码器将教师模型和学生模型的整体网络参数作为输入参数 [106]。随后结合压缩表示损失提取教师模型和学生模型共享的压缩特征参数。 知识蒸馏不仅应用于基于图像的三维目标检测还应用于基于三维目标检测方法的点云优化。王Wang等人 [107] 为点云目标检测设计了一种两阶段训练方法。首先他们在密集点云上训练一个目标检测模型该密集点云由多个帧生成并使用仅在训练期间可用的额外信息。然后他们在稀疏的单帧点云上训练该模型的对应部分并对这两个模型的特征进行统一正则化。事实证明这一过程在不引入额外开销的情况下提高了低质量数据的性能。 在三维目标检测任务中我们常常需要解决对象尺度不一致的问题。同样这个问题在三维目标检测任务中也存在。因此基于知识蒸馏的三维目标检测方法旨在将具有高分辨率体素的三维视觉特征蒸馏到处理低分辨率体素三维对象的学生模型中。例如在激光雷达蒸馏LiDAR Distillation方法 [108] 中包含不同分辨率体素的三维点云数据被划分为波束低波束点云可通过对高波束点云进行下采样获得。然后使用多个具有三维网络主干的教师模型将高波束点云的知识蒸馏到处理低波束点云的学生模型中。 在三维目标检测3D OD中点云被用作检测数据。如果同时考虑相应的二维图像检测效果会得到提升而且多模态数据将有助于改进模型。秦Qin等人 [31] 考虑使用二维图像进行知识蒸馏KD并提出了一种在弱监督条件下检测三维对象点云的方法。尽管该方法在训练时不需要真实的三维边界框但需要充分利用常见的数据格式配对图像和点云来实现弱监督。此外在从二维图像向三维点云进行知识蒸馏的过程中秦等人提出了一种跨模态迁移学习方法。这种方法将基于点云的检测网络视为学生网络从现有的预训练图像识别网络中学习知识然后以教师网络为媒介将知识从二维图像转移到3D点云领域这样可以降低在未标注数据集上进行三维目标检测的标注成本。 同样索蒂耶Sautier等人 [46] 利用基于自监督学习的二维图像中的对象分割和检测结果来获取二维图像表达之后设计了超像素驱动的对比蒸馏方法并将其应用于从二维图像到三维点云的三维目标检测任务中。该方法不需要对三维点云数据进行标注极大地降低了数据标注成本。文献 [31]、[46] 中的方法采用了二维 - 三维这种基于知识蒸馏的三维目标检测模式。文献 [45]、[109] 中提出的其他方法则尝试基于三维点云数据激光雷达生成所需的二维图像然后利用这些生成的二维图像来训练网络模型。接着通过特征级和对象级蒸馏将对象的二维视觉表示蒸馏到三维特征空间中从而有助于实现更高效的三维目标检测。 现有的大多数基于知识蒸馏KD的三维目标检测3D OD方法利用知识蒸馏技术来解决三维模型压缩问题同时也引入了其他模态数据以降低对三维对象进行标注的高昂成本。然而在三维目标检测任务中尤其是针对自动驾驶领域复杂多变的三维场景一直是三维目标检测面临的重大挑战。因此利用多模态数据并设计优化的知识蒸馏策略以获取轻量级且高性能的三维目标检测模型在未来仍将是一个极具挑战性的研究领域。 5) Video-Based OD by Introducing KD 视频比图像更为复杂。截至目前在该领域开展的研究工作为数不多在基于视频的目标检测OD及相关任务中引入知识蒸馏KD有着很大的探索空间。 因为视频数据包含空间视觉信息和时间信息所以获取视频中包含的时间信息尤为关键。一些研究人员借鉴人类视觉系统HVS的特点人类视觉系统在很大程度上依赖视觉输入帧之间的时间关联性来有效识别视频中的对象。 2019 年法哈迪Farhadi等人 [110] 提出了一个名为时间知识蒸馏Temporal Knowledge DistillationTKD的新框架该框架可将从选定视频帧上的重型神经网络中提取的时间知识蒸馏到一个轻量级模型里。 当提及人类视觉系统时难免会让人联想到显著目标检测Salient ODSOD它模拟人类视觉感知系统来定位场景中最吸引人的对象。这种方法已在各类计算机视觉任务中得到广泛应用但大多应用于图像层面 [111]。 2020 年朴Piao等人将知识蒸馏KD应用于显著目标检测并提出了一种深度蒸馏器A2dele[34]其主要灵感源于知识蒸馏和特权信息 [112]。通过 A2dele**缺失的特权Depth知识能够被传递到 RGB 流中。**传递的知识分为两部分1第一部分旨在实现对传递到 RGB 流预测的像素深度知识的预期控制2第二部分旨在将显著对象的位置知识转换为 RGB 特征。因此通过在训练期间嵌入 A2dele就可以实现一个无需深度流的轻量级架构 [34]。 在最新的研究工作中基于视频数据的独特特性唐Tang等人提出了一种用于视频显著目标检测SOD的轻量级网络 [113]在该网络中分别针对空间和时间维度进行知识蒸馏KD。 具体而言在空间维度方面结合显著度引导的特征嵌入结构与空间知识蒸馏来细化空间特征。在时间维度上通过引入基于注意力的推断帧特征编码模块提出了一种时间知识蒸馏策略。结合时间蒸馏序列信息能够从相邻帧充分传播到当前帧。这一策略使得网络能够通过推断帧特征编码来学习鲁棒的时间特征并且可以从相邻帧中提取特征。 6) KD-Based Weakly Supervised OD 在传统的目标检测OD任务中数据标注成本非常高这推动了弱监督目标检测Weakly Supervised ODWSOD的发展。近年来一些研究人员将知识蒸馏KD策略应用于弱监督目标检测和半监督目标检测中通过提高提取特征的质量来进一步提升模型的准确性。 典型应用包括张Zhang等人在 2021 年提出的类别感知目标检测网络Class - Aware Object Detection NetworkCADN用于解决表面缺陷检测问题 [28]。该网络仅使用图像标记进行训练同时实现图像分类和缺陷定位。为协调实时性能与准确性采用了知识蒸馏策略以确保更轻量化的 CADN 具备与规模更大的 CADN 相似的特性这意味着轻量化的 CADN 在提高准确性的同时能够保持较高的实时性能。 文献 [114] 中提出的一种新的半监督目标检测公式使用少量的种子框级标注以及大量的图像级标注来训练检测器。曹Cao等人 [115] 也发现教师模型和学生模型学习到的微小异常对象的特征呈现出很大的相似性。随后将半监督学习引入基于弱监督学习的微小目标检测中并利用少量异常样本的真实标签来增大异常对象与正常对象之间的特征差异从而提升了异常微小目标检测的性能。 值得注意的是在数据挖掘过程中会引入大量的标注噪声这对测试结果有着严重的负面影响。因此有人提出了一种新的抗噪声集成区域卷积神经网络Anti - Noise Integrated RCNNNote - RCNN目标检测器来应对噪声问题。使用两个分类头和一组蒸馏头来避免过拟合噪声标签以及假阴性标签带来的危害。训练时的框回归头只标记种子消除了挖掘框边界不准确带来的危害。 此外文献 [59][60] 也开展了相关研究。通过将教师数据与真实数据分离研究人员解决了之前目标检测细化策略过于依赖教师模型和真实标签可用性的问题。这种方法的关键在于基于观测对象的检测涉及非极大值抑制Non - Maximum SuppressionNMS步骤。 然而弱监督目标检测Weakly Supervised OD的准确性仍有待提高存在以下问题首先由于仅有图像级标签可用弱监督目标检测WSOD检测器往往会检测到更显著的对象以及对象的不同部分其次WSOD 中的对象位置信息严重不足。 文献 [29] 解决了第一个问题其中利用对 WSOD2 框架进行对象级细化并结合自下而上的对象证据以及自上而下的分类可靠性评分设计了自适应训练策略和边界框回归器。 同样一个同样关注组合对象局部特征的弱监督目标检测模型采用常见的知识蒸馏KD策略来获取用于组合目标检测的轻量级学生网络 [116]。文献 [117] 中提出的综合注意力自蒸馏Comprehensive Attention Self - DistillationCASD机制也可用于此情境。为平衡所有对象实例的特征学习CASD 会计算从同一图像的多个变换和特征层聚合而来的组合注意力。为保持对所有对象一致的空间监测CASD 对弱监督目标检测网络进行自提取以确保对同一图像的不同变换结果给予一致关注。通过这种方式弱监督目标检测的检测性能能够得到进一步提升。文献 [118] 中提出的一个名为空间似然投票与自知识蒸馏网络Spatial Likelihood Voting and Self - KD Network的弱监督目标检测框架也可用于该目的。 此外还提出了一种基于空间似然投票Spatial Likelihood VotingSLV的自知识蒸馏Self - Knowledge DistillationSKD模块用于细化给定图像的特征表示。在此方法下由空间似然投票生成的似然图被用于监督主干网络的特征学习。这样一来主干网络能够聚焦更广泛的区域进而提升检测模型的性能。 针对第二个问题即弱监督目标检测中对象位置信息严重不足的问题近年来的解决办法是使用多实例检测网络Multi - Instance Detection NetworkMIDN它从候选实例中选出最佳实例然后基于相似性对其他实例进行聚合。文献 [119] 中的研究发现通过选择更好的聚合标准能够极大地提高检测器的准确性。于是泽尼Zeni等人在 2020 年提出了一种改进的知识蒸馏方法通过对现有方法进行额外改进来提升基于在线实例分类与回归Online Instance Classification and RegressionOICR的性能该方法被命名为增强型在线实例分类与回归Boosting - OICRBOICR。 这种将知识蒸馏KD策略与弱监督学习相结合的方法常常与多标签图像分类 [120]、短语定位 [19] 以及三维目标检测3D OD[31] 联合使用。 文献 [120] 率先将知识蒸馏应用于多标签图像分类。随后提出了一个基于多知识标签的深度图像分类框架。首先设计了一个弱监督检测Weakly Supervised DetectionWSD模型之后利用弱监督检测知识引导教师分类模型构建一个基于预测和对象级视觉特征的图像分类框架及校正模块以此提升了分类效果。 对于基于短语的问题需要从图像 - 语句对中学习区域 - 短语对。文献 [19] 设计了一个对比学习框架并实现了一个目标检测器该检测器能够提取图像区域中弱监督的短语定位信息。其新颖之处在于学习了一个区域短语评分函数和图像语句评分函数该函数通过将图像中的每个区域与候选短语进行比较来发挥作用而无需检测对象。 基于此文献 [31] 利用配对图像和点云实现了三维目标检测。它提出了一个基于标准化点云密度的无监督三维对象候选框生成模块Unsupervised 3D Object Proposal ModuleUPM来生成对象候选框在这种情况下只识别对象不区分类别。学生模型将三维候选框向前投影到二维经过裁剪后对候选框进行分类和优化并利用在图像数据集上训练的教师模型生成最终预测。学生模型还利用感兴趣区域对齐RoIAlign层和全连接层生成预测。 尽管知识蒸馏KD通过运用各种技术提升了现有弱监督目标检测OD模型的性能但这些目标检测模型实现高检测精度的一个阻碍依旧是样本中对象尤其是难以检测的对象的弱标注信息 [29][118]。因此基于知识蒸馏开展弱监督目标检测的未来研究是很值得探索的。 此外知识蒸馏技术也应当考虑如何缩小对象的弱标注信息与实际准确标注之间的差距因为这将有助于提升弱监督目标检测模型的性能 [19]。 7) Extended OD Tasks Using KD 在计算机视觉领域存在大量相关任务以及扩展的目标检测OD任务。例如车道检测、人脸检测以及行人搜索也都与目标检测任务相关此外关系检测和人 - 物交互HOI检测也可被视作扩展的目标检测任务。表 II 列出了针对这些任务的相关方法和数据集。当然可能还存在其他相关的目标检测任务。就目前我们的调研情况来看知识蒸馏KD技术也已成功应用于这些扩展的目标检测任务中。因此在本节中我们会对这些相关工作进行简要概述。 车道检测的核心难点在于需要大量成本高昂的标注数据。虽然现有的众多工作已经利用基于主动学习的方法来解决这一问题但它们的性能并不理想。彭Peng等人 [121] 尝试将知识蒸馏KD策略引入主动学习中并相应地设计了一种基于知识蒸馏的主动学习模型来评估数据的不确定性。这种新方法能够有效解决由噪声标签和不恰当的熵所导致的问题。 此外尽管人脸检测的发展已经较为成熟但也面临着模型复杂度不断增加的问题。为了在实现轻量化模型的同时保持合理的人脸检测精度可以利用知识蒸馏。例如金Jin等人 [122] 使用了一种基于知识蒸馏的损失函数来处理类别不平衡的问题从而提高了轻量级人脸检测器的竞争力。 行人搜索包含行人检测和再识别这两部分并且还涉及目标查找过程。为了更好地优化行人搜索模型的检测和再识别方面蒙贾尔Munjal等人 [123] 提出了一种基于知识蒸馏的端到端行人搜索模型该模型将知识蒸馏应用于监督模型训练。 视觉关系检测旨在检测对象之间的关系以便更深入地理解图像。关系检测需要先定位图像中的对象然后识别它们之间的关系。然而对象之间复杂的相互作用以及缺乏充足可用数据导致关系检测结果不尽如人意。 为改善这些结果知识蒸馏KD策略被引入到视觉关系检测中。例如为解决对象关系语义空间大以及可用的模型训练数据量较少的问题于Yu等人 [15] 使用一种数据挖掘方法从训练标注和公开可用文本中提取语言知识然后将提取的语言知识蒸馏到学生模型一个端到端的深度神经网络中以便从视觉和语义表示来预测视觉关系。 同样由于图像中对象交互复杂常用的视觉模型在学习每个谓词的知识时表现不佳。随后一种基于空间特征统计的知识蒸馏方法被用于从预计算模型和训练标注中蒸馏语义知识这有助于视觉模型评估对象对的相关性。因此基于知识蒸馏的方法主要用于从多模态数据中提取语义信息随后我们可以将这些语义信息蒸馏到对象关系检测模型中以提高这些视觉模型理解对象间语义关系的能力。 与人 - 物交互HOI检测类似它也需要先定位视频中的人和对象然后检测它们之间的相互作用。为获得更好的人 - 物交互检测结果在考虑人与对象之间的相互作用时也应当考虑场景信息。穆蒂克Moutik等人 [125] 使用深度神经网络如 AlexNet、VGG 或 ResNet进行场景识别以提取场景信息然后通过知识图谱神经网络将该场景信息转移到人 - 物关系检测任务中。知识蒸馏技术引入的场景信息显著提高了人 - 物交互检测模型的性能。 此外语言知识也被蒸馏到人 - 物交互检测模型中 [126]。一个预训练的视觉和文本模型被用作教师模型从视觉和文本数据中提取交互关系知识以引导基于 Transformer 的学生人 - 物交互模型更好地检测所提供图像中潜在的未见过的关系。 总体而言无论是常规的、特定的还是扩展的目标检测OD任务知识蒸馏KD技术 / 策略都可用于提升目标检测模型的性能或者通过知识转移来获取轻量级的目标检测模型。因此我们认为在未来知识蒸馏可能会成为解决目标检测模型局限性的一种主流趋势。 E. OD methods/models Based on Different KD Strategies 在第三章节的 D 节中我们已经基于不同类型的目标检测OD任务对基于知识蒸馏KD的目标检测方法 / 模型进行了综述。然而我们也可以认为这些相关工作是依据不同的知识蒸馏策略来设计的其中包括使用软标签和蒸馏损失的常规方法以及其他一些基于特征蒸馏、多教师蒸馏、自特征蒸馏、特定信息引导等的方法。在本节中我们将从不同知识蒸馏策略的角度来分析和综述相关的基于知识蒸馏的目标检测模型。 1) Methods Using Distillation Loss and Soft Labels 目前运用不同类型的蒸馏损失和软标签是常见的基础知识蒸馏KD策略 [127][128][129]。经典的知识蒸馏损失可分为两部分目标类知识蒸馏Target - Class Knowledge DistillationTCKD和非目标类知识蒸馏Non - Target Class Knowledge DistillationNCKD。此外目标类知识蒸馏和非目标类知识蒸馏的耦合限制了平衡这两部分的灵活性并抑制了知识转移的有效性因此在知识蒸馏过程中需要进行解耦知识蒸馏Decoupling Knowledge DistillationDKD[130]。 另外教师模型输出的软化概率被称为软标签 [122][131]相较于硬标签软标签能为学生模型提供更丰富的信息使轻量化的学生模型能够取得更好的性能。 在本节中我们整理了采用基于蒸馏损失和基于软标签的知识蒸馏策略的相关工作分析了这些方法的基本原理并指出了其缺点与面临的挑战。图 4 展示了基于知识蒸馏的目标检测OD模型的详细结构以及不同类型损失的运用情况同时为解决特定的目标检测问题还设计了更复杂的网络结构。 1.1 Distillation Loss-Based KD for OD 在传统的基于知识蒸馏KD的视觉任务中合理运用蒸馏损失能够显著提升学生模型的性能 [44][126][133][132]。在常用的基于知识蒸馏的目标检测OD模型中可使用传统的交叉熵损失来优化学生模型 [102][134]。 由于目标检测模型在追求高性能的过程中会引入大量计算刘Liu等人提出了一种基于互信息的损失函数其目的是使学生模型学习到的特征更接近教师模型学习到的特征 [135]。 此外阿米克Amik等人 [136] 针对目标检测提出了动态校正知识蒸馏Dynamic Corrective Knowledge DistillationDR - KD方法。动态校正知识蒸馏将学生模型转变为其自身的教师模型。如果教师模型也就是学生模型在引导过程中做出了错误预测那么在知识学习之前会对该错误进行校正。因此会不断将逻辑值logit与标签进行交叉核对以确定在蒸馏过程中教师模型所预测的最高逻辑值是否映射到了标签上。动态校正知识蒸馏具备与现有最先进的无教师知识蒸馏框架相当的性能。 此外人们还设计并优化了新型的蒸馏损失以提高目标检测OD模型的准确性 [99][137]。 例如引入focal损失及其变体来解决标签不平衡的问题 [63]而类别平衡焦点损失则被用于解决类别不平衡以及正负样本之间不平衡的问题 [50]。同样加权交叉熵损失被设计用于解决类别不平衡的问题 [4]。 也可以通过引入注意力机制来设计蒸馏损失 [138]。比如设计一种带有注意力机制的损失函数使目标检测器能够从少量样本中学习到强映射关系进而提升目标检测器检测前景的能力 [139]。 这些方法通常通过最小化与任务相关的损失和知识蒸馏损失来指导学生模型的训练这就需要损失权重来平衡这些损失函数的两项。然而选择合适的权重是非常困难的。因此有人提出了一种逐步知识蒸馏Step - wise Knowledge DistillationSSKD策略它通过将教师模型中的有用知识转移到学生模型中进行操作而非使用真实标签。这种知识蒸馏训练策略避免了对损失权重选择的需求 [140]。 改进损失函数的另一种方式是联合优化旧分支的蒸馏损失和新分支的检测损失 [23]。例如为避免基于知识蒸馏KD的增量目标检测OD模型中出现灾难性遗忘使用改进后的交叉熵损失来替代硬真实标签此外对旧类别上的蒸馏损失和新类别上的交叉熵损失进行联合优化使得模型能够对新旧类别都实现良好的预测 [141]。 而且组合多种蒸馏损失函数是提高基于知识蒸馏的目标检测模型性能的另一种好方法 [25][65][81]。例如在基于三重残差网络的增量目标检测器中 [26]将两级残差蒸馏损失和联合分层蒸馏损失相结合这使得能够区分新旧类别之间的特征同时也分别保留了从新旧类别中学到的知识。 1.2 Soft Label-Based KD for OD 为提高学生模型的性能并降低其对真实标签的依赖相关工作通常利用教师模型输出的软标签或伪标签来引导学生模型 [16][19][78]。 此外若要成功地将教师模型的预测用作学生模型的软标签我们还应当知道如何合理分配教师模型的标签甚至是硬标签。例如文献 [72] 中的 LAD 方法能够利用轻量化的教师模型显著提升学生模型的性能而且事实上学生模型的性能会优于其教师模型。LAD 需要一个经过训练的教师为其学生提供指导软标签和硬标签。但在实际操作中很难获得能够提供有效指导信息的优秀教师模型。 因此张Zhang等人 [57] 提出了一种针对目标检测OD的自蒸馏框架名为标签引导自蒸馏Label - Guided Self - DistillationLGD它仅利用对象之间的内部关系就能生成所需的指导信息。 而且还有一些其他方法尝试通过结合软标签和硬标签来获得更好的目标检测结果 [39][71]。在基于标签引导知识蒸馏的目标检测模型中伪标签在学生模型的训练中也能发挥重要作用。例如冯Feng等人 [97] 提出了一种自适应伪标签选择策略利用伪标签有选择性地计算蒸馏损失。学生模型首先利用教师模型的伪标签进行特征学习然后根据真实标签对网络进行微调。这种知识蒸馏策略不仅能够减少对标注样本的需求 [59][60]而且相较于基于单阶段知识蒸馏策略的传统方法能实现更高的目标检测性能 [142]。 另外对于基于知识蒸馏的三维目标检测3D OD模型而言使用带有伪标签的高线束点云来训练学生模型是解决三维样本数据标注成本高昂问题的一种好方法因此需要通过对高线束点云进行下采样来生成低线束伪激光雷达伪 LiDAR数据 [108]。 2) Feature Distillation for OD 另一种针对中间特征层进行特征蒸馏的知识蒸馏KD策略也能够有效提升目标检测OD模型的性能。在本小节中我们将对嵌入目标检测模型中的不同特征蒸馏策略进行概述内容涵盖特征蒸馏的基本思路、完全信任特征蒸馏、选择性信任特征蒸馏等等。 一般来说基于特征蒸馏的方法利用教师模型中间层输出的特征来监督学生模型的训练以便学生模型能够最大程度地模仿教师模型输出的特征。其思路的本质在于持续优化由教师模型和学生模型特征层的激活函数共同构成的损失函数。因此是通过使用损失函数训练学生模型来开展特征蒸馏的。郭Gou等人 [10] 已经给出了特征蒸馏损失函数的一般表达式 其中ft(x)和fs(x)分别表示教师和学生模型的中间层输出特征x表示输入样本。考虑到教师模型和学生模型不同的网络结构可能会导致它们中间层输出特征的尺寸有所不同会使用一个变换函数 Φ(.) 来对这些特征进行匹配。LF (.) 表示教师模型和学生模型特征之间的损失函数。 根据近年来发表的有关特征蒸馏的相关研究成果针对目标检测OD模型进行特征蒸馏主要采用了两种蒸馏策略完全信任特征蒸馏和选择性信任特征蒸馏。下面我们将对这些方法进行详细描述。 2.1 Full Trust Feature Distillation 完全信任特征蒸馏意味着学生模型无条件地从教师模型学习所有知识而不考虑所要学习的知识是否正确。基于完全信任特征蒸馏的方法可进一步分为全局特征蒸馏和局部特征蒸馏。 全局特征蒸馏是一种学生模型模仿教师模型中间层整个特征图的方法。例如快速场景文本检测器利用教师模型的所有特征图来指导学生模型的训练 [92]。此外文献 [115]、[116] 和 [93] 中的相关工作也通过完全信任特征蒸馏策略来设计它们的模型。这些方法本质上是最基本的特征蒸馏策略的应用它们不对特征图做任何改进而是简单地引导学生模型直接从教师模型学习所有特征信息。 然而不加选择地学习教师模型的全局特征对于提升学生模型性能的能力是有限的。因此研究人员逐渐探索对输出特征图进行优化以进一步提升学生模型的性能。例如齐Qi等人 [24] 利用特征金字塔对不同分辨率的特征图进行对齐动态融合这些特征最后从教师模型中提取这些融合特征以便为学生模型提供更好的指导。何He等人 [88] 通过计算教师模型和学生模型中这些特征图的通道强度来对特征图进行排序进而开展特征蒸馏。文献 [24] 和 [88] 中提出的特征蒸馏策略在教师模型和学生模型的相同层之间进行知识学习而且教师模型的多层特征图也可用于指导学生模型的单层特征学习 [28][89]。 局部特征蒸馏指的是学生模型模拟学习那些对最终预测更有帮助的局部特征而非教师模型的整个特征图。近年来越来越多的相关工作探索了适用于局部特征学习的相应蒸馏策略这些方法主要尝试学习特征图中关键位置处的视觉特征。 陈Chen等人 [70] 采用区域蒸馏策略来训练一个轻量化的行人检测器该策略会裁剪出与感兴趣区域RoI相对应的特征之后将裁剪后的局部特征图用作学生模型的引导信息。此外目标检测器中的锚点被广泛用于定位关键局部特征以训练学生模型 [17][91][95]这些锚点也可进行排序使学生模型能够学习具有不同重要性的特征图 [143]。可以很容易看出上述方法中的局部特征蒸馏是直接围绕特征图来进行的。 注意力机制也可被用来使学生模型更加关注关键的局部视觉特征。例如在局部特征蒸馏中引入了针对特征图的空间注意力机制 [144]而用于突出前景区域以及上下文信息的注意力机制对目标检测OD也很有帮助 [47]。 此外杨Yang等人 [76] 认为教师模型和学生模型对前景和背景的关注程度不同而特征图中这种不均衡的差异反过来又会影响知识蒸馏的效果。因此这些作者提出了一种结合focal蒸馏和global蒸馏的策略在模型训练期间通过使用空间和通道注意力掩码将焦点蒸馏引导至学生模型。这样做的目的是让学生模型只聚焦于特征图上的关键像素和通道从而提升学生模型的性能。 还有一些其他的局部特征蒸馏策略比如针对局部特征蒸馏生成学生模型和教师模型的关键提议 [75]。 上述这些基于全局特征蒸馏或局部特征蒸馏的目标检测OD方法都对教师模型的引导信息给予了完全信任。然而需要注意的是教师模型用于监督学生模型训练的引导特征信息可能是不完整的甚至是不正确的这会对学生模型性能的提升产生负面影响。 2.2 Selective Trust Feature Distillation 为解决教师模型提供的错误信息对学生模型产生的不利影响在基于知识蒸馏KD的目标检测OD模型中引入了选择性信任特征蒸馏策略。选择性信任特征蒸馏意味着教师模型提供给学生模型的引导信息首先需要进行筛选简而言之有必要去除错误信息只留下对检测性能有积极影响的特征信息。例如许Heo等人 [145] 提出了一种边缘修正线性单元Margin ReLu来抑制来自教师模型的不利特征信息以便学生模型只学习有利特征进而实现性能提升。 总之无论是采用完全信任特征蒸馏还是选择性信任特征蒸馏最终都是通过损失函数来进行优化的。然而要从教师模型提供的大量先验引导信息中快速且准确地挑选出重要且有益的特征是颇具挑战性的。因此基于选择性信任知识蒸馏的目标检测模型存在许多值得进一步研究的科学问题。 3) Various Network Structures of Teacher-Student Models 本节将从一个新的视角来探讨知识蒸馏KD策略。具体而言我们发现可以分别为教师模型和学生模型设计不同的网络结构而且从多模态数据中提取的知识能够助力学生模型在性能方面取得显著提升。因此本节将对师生模型的网络结构以及从多模态数据中进行特征学习的相关内容加以总结和分析。 3.1 Similar Teacher-Student Network Structures 教师模型和学生模型采用相似的网络结构是一种常见的知识蒸馏KD策略。教师模型和学生模型采用了许多不同的骨干网络例如残差网络ResNet[18][58]、ResNext [146]、单阶段多框探测器SSD[80]、视觉几何组网络VGG[146] 等等。此外一些研究并非直接使用经典网络模型作为骨干网络而是对现有网络进行调整 [32][138]。然而无论是直接使用典型网络还是采用调整后的网络作为教师模型和学生模型的骨干网络这些方法都是运用传统蒸馏策略的基于知识蒸馏的目标检测OD模型。 大多数具有相似师生网络结构的基于知识蒸馏的目标检测模型是从单模态数据RGB 图像中提取知识的尽管也有一些方法尝试从其他模态中学习知识以指导轻量化的学生模型。例如学生模型可以学习教师模型提供的语义知识 [111]学习教师模型从文本信息中提取的文本和视觉特征 [147]或者在经过训练的教师模型对 RGB 图像和类热图这两种数据模式的指导下联合学习这两种图像的视觉特征 [14]。 此外对于三维目标检测3D OD而言也存在教师模型和学生模型使用相似网络结构作为其骨干网络的常见方法。例如魏Wei等人 [108] 选择使用知识蒸馏KD策略来生成一个轻量化的三维探测器在该蒸馏框架中教师模型和学生模型的网络结构是相同的三维卷积神经网络。另外由赵Cho等人 [106] 设计的 ItKD 方法将自动编码器与知识蒸馏相结合以提升三维目标检测器的性能。ItKD 中的教师模型和学生模型由相同的骨干网络 CenterPoint 和自动编码器构成并且使用相同的点云数据来训练教师网络和学生网络。 在基于知识蒸馏的三维目标检测任务中多模态数据也被用作蒸馏模型的输入。在采用这种策略的方法中学生模型使用三维点云数据进行训练而教师模型则使用其他模态的数据进行训练。例如秦Qin等人 [31] 提出了一种跨模态知识蒸馏方法该方法使用 RGB 图像来训练教师模型使用点云来训练学生模型旨在将知识从 RGB 领域转移到点云领域从而降低三维目标检测的标注成本。而且使用多模态数据来训练教师模型对学生模型的性能更有益处 [45][109]。在文献 [45][109] 中多模态数据激光雷达 - 图像由分割后的点云和 RGB 图像组成被用于训练教师模型期望学生模型能够学习教师模型的知识并仅使用激光雷达数据就能获得与教师模型相似的输出。 3.2 Different Network Structures of Teacher and Student Models 另一种知识蒸馏KD策略是教师模型和学生模型采用不同的网络结构作为其骨干网络。例如文献 [82] 中的方法使用基于 DarkNet - 53 的单阶段多框探测器SSD作为教师模型的骨干网络而将 MobileNet v2 或 ShuffleNet v1 作为学生模型的骨干网络。苏Su等人 [55] 使用基于残差网络ResNet的网络作为教师模型的骨干网络并将自建的 3 层卷积神经网络CNN作为学生模型的骨干网络。文献 [5] 也采用了类似的策略。除了上述列举的这些还有许多采用不同师生模型组合的类似方法。 值得注意的是虽然教师模型和学生模型可以选择各种各样的网络作为各自的骨干网络但有必要根据要解决的具体问题来选择合适的网络特别是考虑到学生模型的能力有限这一点。 同样对于基于知识蒸馏的三维目标检测3D OD任务也可以使用不同的网络结构。索蒂耶Sautier等人 [46] 采用一种从二维到三维的蒸馏策略在自动驾驶场景下提升三维目标检测的性能。教师模型的骨干网络是使用 RGB 图像训练的 ResNet50而学生模型使用 U - Net 作为其骨干网络并用激光雷达LiDAR数据进行训练。最终的实验表明采用这种策略的模型性能优于现有的先进方法。 本节列举了几个使用不同师生模型网络结构的基于知识蒸馏KD的目标检测OD模型。相似或不同的网络被用作教师模型和学生模型的骨干网络以便从多模态数据中提取特征。通过对现有相关方法的分析我们确定在引导学生模型的特征学习方面使用不同网络结构作为教师模型的骨干网络从多模态数据中提取知识的方法具有相对更多的优势。然而并不存在将师生模型结构与多模态数据相结合的固定知识蒸馏策略我们应当根据具体任务来设计或选择合适的网络用于知识蒸馏。 4) Multiple Teacher Models 知识蒸馏KD与人类的学习过程相类似。传统的知识蒸馏技术是由教师模型引导学生模型学习知识。然而值得注意的是人类的教学活动所涉及的模式比传统知识蒸馏更多。因此人们已经提出了几种基于人类教学模式的知识蒸馏模型。 4.1 Multiple Teachers Guiding One Student 如前文所述第一种常用的人类教学模式是多位教师教导一名学生的模式。例如如果不同专业领域的教师都来教导一名学生那么这名学生就能获取更高质量的知识。同样地我们可以使用不同类型的教师模型从大规模数据集中学习不同的知识然后尝试将所学知识传递给一个学生模型以便该学生模型能够学习到更全面且重要的视觉特征如图 5 所示。 例如在文献 [37]、[53]、[54] 中都使用了多个教师模型来引导一个学生模型以提升其目标检测OD性能。这三项研究之间存在一些关键差异匡Kuang等人 [53] 对不同的教师模型进行加权融合以提高目标检测网络的准确率陈Chen等人 [54] 使用了两个采用不同策略训练的教师网络以确保知识能够充分传递到学生网络李Li等人 [54] 设计了一个非对称的双路径学习框架来训练学生模型。 4.2 One Teacher Guiding Multiple Students 第二种常用的教学模式是一位教师教导多名学生。例如多个学生模型由一个教师模型引导之后从所有学生模型中选出性能最佳的那个学生模型。文献 [65] 中所采用的知识蒸馏KD框架便是由一个教师模型引导多个学生模型以此来解决孪生跟踪器受高成本限制的问题。 4.3 Students Guiding Each Other 显而易见在现实世界的场景中学生们也可以相互学习。相应地文献 [36]、[65] 将这种方法应用到知识蒸馏KD中以提升目标检测OD中学生模型的性能。康Kang等人 [36] 提出了一种基于神经结构搜索的神谕知识提取框架用以解决集成模型的能力及复杂性问题。 此外师生知识蒸馏 [65] 不仅包含教师模型对多个学生模型的引导还涉及学生模型之间的相互引导。对于两个学生之间的知识蒸馏最终的目标函数如下 其中S1和S2分别表示学生1 学生2 5) Self-Feature Distillation 传统的知识蒸馏KD方法通常需要一个预先训练好的教师模型来训练学生模型。为降低学生模型对教师模型的依赖许多学者设计出了所谓的无教师知识蒸馏模型。现有的无教师知识蒸馏方法包括自蒸馏、合作学习以及标签正则化等等。 此外还有另一种知识蒸馏类型即特征蒸馏它与逻辑值方法目标蒸馏有所不同。逻辑值方法中的学生模型仅将教师模型的逻辑值作为最终知识来学习而非中间层特征。许多学者已将特征蒸馏应用于自特征蒸馏从而能够设计出一种无需教师的知识蒸馏方案。 自特征蒸馏不需要教师网络这降低了训练成本。而且这些方法在各层之间开展一对一的特征变换学习。 例如局部引导蒸馏LGD[57] 是一种用于目标检测OD的自蒸馏模型。网络所学的知识能够通过自上而下的蒸馏 [38] 在不同层之间传递并且利用注意力图来捕捉更有效的特征信息进而推动目标检测的发展。在中间特征层添加辅助分类器可以强化自监督使学生模型能够学习到更有效的特征表示 [56]。渐进式自知识蒸馏PS - KD[39] 通过逐步从模型所获取的特征中提取知识来开展特征学习。值得注意的是由于所有的下层都模仿上层的注意力图下层的注意力信息可能会丢失。因此双向自注意力蒸馏Bi - SAD[18] 被提出来解决这个问题。此外在 YOLOv6 [148] 中引入了一种简单的自蒸馏技术该技术将预先训练好的学生模型当作教师模型以此来最小化教师模型和学生模型预测结果之间的数据分布差异。 为解决在小样本目标检测few-shot OD中由于样本数量有限导致模型容易陷入过拟合的问题李Li等人 [139] 利用自特征知识蒸馏KD策略通过设计一种注意力损失来提升学生模型的泛化能力该注意力损失涵盖了少量样本中的分类、回归以及类别特定特征。其核心概念在于学生模型能够通过位置和类别特征转换学习特征映射函数以逼近原始模型。 而且为提升目标检测OD模型的泛化能力吴Wu等人借助自蒸馏技术实现了基于单域的跨域目标检测 [58]。提出了循环解耦自蒸馏方法在模型训练期间持续剥离目标的场景信息并提取适用于不同域目标检测的共享特征表示。具体而言利用教师模型多个卷积层中包含的细粒度位置和分类信息来引导骨干网络学生模型学习跨域特征从而提高目标检测模型的泛化能力实现跨域目标检测。 同样地何He等人也将自蒸馏技术用于跨域目标检测 [149]。这些作者设计了两个自蒸馏分支以学习来自源域和目标域的共享提议特征。 此外也有一些蒸馏框架将自蒸馏作为其模型的一部分例如文献 [129] 和 [118] 中的方法它们成功地将自特征蒸馏模式整合到各自模型中实现了性能提升。 6) Specific Information Guidance for OD 基于知识蒸馏KD的通用目标检测OD模型充分利用重量级的教师模型将从特定数据集中学习到的复杂知识转移到轻量化的学生模型中。在本节我们将介绍几个模型在这些模型中教师模型提取的某些特定知识信息会被转移到学生模型里。 其中包括聚焦图像局部特征的掩码引导目标检测模型还有引入文本先验知识信息以提升学生模型学习视觉特征能力的文本引导模型此外也存在一些其他模型它们通过语义引导等方式关注图像中不同物体关系的语义信息。 6.1 Mask-Guided KD-Based OD 掩码引导网络 [32] 是基于两阶段目标检测OD模型结构设计的。在此掩码信息被用于引导学生模型关注全局和局部特征并且通过结合全局损失和局部损失给出知识蒸馏KD的损失函数。 同样地王Wang等人 [17] 提出的方法将初始生成模型中的真实标注ground truth用作掩码引导学生模型学习感兴趣目标及相邻目标的特征。为了实现精细特征模仿适配层与生成的掩码相结合使得学生模型能够模拟教师模型对局部特征及附近目标的关注。还提出了限制损失与测试损失相结合的方式来训练学生模型。 在当前基于知识蒸馏的目标检测模型中学生模型在很大程度上依赖教师模型的输出或者说是过度信任教师模型。然而在现实世界的场景中教师模型可能无法提供非常可靠的输出特征或预测结果。因此学生模型应当有选择性地从教师模型学习知识。 目前已经开发出了几种方法这些方法基于自身的质量度量来对教师模型的输出包括特征图、提议或预测结果进行排序然后选择一些关键的预测区域或可靠的预测结果来引导学生目标检测模型 [128]、[143]、[150]。 6.2 Attention-Guided KD-Based OD 在传统的基于知识蒸馏KD的目标检测OD模型中有两个问题未被考虑到1前景像素和背景像素之间存在不平衡2不同像素之间的关系缺乏蒸馏 [146]。 因此为了针对图像中的关键区域开展注意力特征学习一些方法选择引入注意力机制来引导学生模型学习局部视觉特征。在知识蒸馏中引入注意力机制可自动定位感兴趣区域ROIs这些区域的特征往往容易被学生模型忽视 [138][146]。 例如文献 [146] 基于两阶段目标检测模型快速区域卷积神经网络Faster RCNN提出了一个带有注意力引导机制的知识蒸馏框架。该注意力机制用于引导蒸馏模型从整个特征图中找出关键像素和通道使得学生模型能够更多地关注这些关键像素和通道而非整个特征图这在一定程度上也抑制了学生模型对背景视觉特征的学习。 此外注意力引导机制也可被引入到单阶段目标检测模型单阶段多框探测器SSD [151]中。文献 [138] 设计了一种端到端的注意力引导的知识蒸馏方法。与文献 [146] 中在感兴趣区域使用用于局部特征蒸馏的掩码 L2 损失类似文献 [138] 使用一种注意力引导的蒸馏损失加权欧几里得损失来缩小教师模型和学生模型所提取特征之间的差距。 而褚Chu等人 [144] 基于教师网络和学生网络之间空间注意力信息以及预测结果的差异设计了一种蒸馏损失其中空间注意力信息是从特征图中提取出来作为知识蒸馏给学生模型的。这种基于知识蒸馏的目标检测方法被用于恢复模型剪枝后学生模型的性能。 然而与文献 [138]、[146] 不同的是带有注意力机制的基于知识蒸馏的目标检测模型还可在模型训练期间用于特征融合 [33]。为了让学生模型既能学习抽象知识又能学习简单知识该模型可以在后续的模型训练过程中侧重于学习抽象知识。 上述基于知识蒸馏KD的目标检测OD模型使用注意力引导模块以便让学生模型更多地关注目标的局部细节。基于掩码的方法最初是为老式的探测器如普通的快速区域卷积神经网络vanilla Faster - RCNN开发的这类方法未能扩展应用到配备特征金字塔网络FPN的现代探测器上。 具体而言这些方法在师生模型对的金字塔层级之间进行直接的一对一匹配这会导致两个问题1在所有层级上不加区分地应用相同掩码可能会从无响应的特征层级引入噪声2基于掩码的方法无法扩展到异构探测器对因为它们的特征层级可能无法严格对齐。 6.3 Semantics-Guided KD-Based OD 为了更充分地利用与目标检测OD相关的各类信息除了充分利用单个目标或区域的信息外语义上下文信息 [17]、[52]、[135] 以及其他外界先验知识比如文本信息 [19]、[64]、[111]也可以被引入到基于知识蒸馏KD的目标检测模型中。 图像的上下文信息有助于计算机视觉任务中有效特征的获取。教师模型能够充分学习上下文信息进而引导学生模型关注待检测目标周围的其他相关事物 [17]、[52]、[135]、[152] 等等。利用上下文特征的一种简单方式是让模型聚焦于相关目标之间的相对位置然后利用这些相关目标的视觉特征来辅助当前的视觉任务。因此人们开发了不同的机制来支持教师模型引导学生模型对目标及其周边位置进行估计。值得注意的是这些模型并不依赖教师模型的软支持输出 [17]、[152]。 利用图像上下文信息的另一种方式是不同网络层之间的特征交互学习。由于目标及其周边区域有着相似的模式知识蒸馏应当在多个网络层而非网络的某一层或最后一层进行。例如姚Yao等人 [52] 提出了一种语义引导特征模仿的知识蒸馏策略用于提取不同区域之间的关系特征。同样地刘Liu等人 [135] 也观察了教师模型和学生模型在不同网络层所提取特征之间的关系即语义上下文信息。于是在蒸馏网络中引入了互信息损失以使学生模型尽可能多地提取与教师模型所提供信息相似的信息。 此外从生成的图像字幕中包含的语义信息也会被蒸馏以引导显著目标检测的学生模型 [111]。语义特征通过 Transformer 解码器从文本中提取出来并用于引导不同卷积层中的视觉编码器使其聚焦于多个显著目标。 另外实例之间的关系也可被视作目标的语义特征。VS 等人 [153] 利用教师模型提供的提议构建了一个实例关系图神经网络并设计了图蒸馏损失和图对比损失以便将实例关系信息蒸馏给学生模型。通过这种方式学生跨域目标检测模型能够更好地避免因教师模型不可靠预测所引入的噪声而过拟合。 6.4 Text-Guided KD-Based OD 文本信息是可用于目标检测OD的另一种先验知识。然而要准确匹配文本和视觉这两种模态的特征是比较困难的而且引导网络更好地提取视觉特征并进行更多间接推断也颇具挑战性。因此教师模型从文本数据中学习有效的先验知识并进一步引导学生模型有效提取视觉特征是很有益处的。 例如为降低目标检测模型的扩展成本并提高其推理速度一种名为视觉与语言知识蒸馏ViLD[64] 的方法被提出该方法用于将从开放词汇数据集中提取的先验知识转移到学生模型中。ViLD 可能是首个将预训练图像分类模型教师模型从 LVIS 数据集中提取的文本知识转移到两阶段目标检测模型学生模型的方法。具体而言目标所提示类别的文本和图像区域由教师模型进行编码之后学生检测器生成的检测框的区域嵌入会与教师模型推断出的文本和图像嵌入进行对齐。 就利用文本信息而言王Wang等人 [19] 将图像与句子之间的匹配关系作为监督信息以提升整个目标检测模型的视觉特征提取能力。这种方法通过将相关文本陈述信息作为输入信息来检测相关目标这是一项难度更高的弱监督目标检测任务。 这两种方法利用文本特征引导学生模型检测此前已观测到类别的目标。然而马Ma等人 [132] 尝试使用文本图像字幕引导学生模型关注未见过的目标。在该方法中提出了一种弱监督的全局层面语言到视觉知识蒸馏方法GKD旨在利用从新类别视觉字幕中蒸馏知识。GKD 基于多层交叉注意力的对比学习来学习视觉和文本特征的匹配对并将字幕表示蒸馏到全局图像表示中以用于对未见过目标的检测。 6.5 Lipschitz Continuity-Guided KD-Based OD 上述模型利用特定的信息或机制来引导学生模型学习特定的视觉特征。然而它们忽略了神经网络的功能特性这使得这些技术在应用于新任务时并不可靠。 为缓解这一问题可以利用利普希茨Lipschitz连续性更好地刻画神经网络的功能特征并指导知识提取过程 [133]。通过最小化两个神经网络的利普希茨常数之间的距离教师网络能够更好地对学生网络进行正则化进而提升目标检测OD的性能。 Section IV. Experimental Analysis 两种常见的目标检测OD数据集微软 COCO 数据集 [154] 和 PASCAL VOC 数据集 [155]被用于验证基于知识蒸馏KD的目标检测模型的有效性。平均精度AP、准确率ACC、交并比IoU以及其他常见的模型性能评估参数被用来评估基于知识蒸馏的目标检测模型的性能并且还应用了较为少见的评估指标定位准确率CorLoc。 在本节中我们将简要描述在实验中所使用的基于知识蒸馏的目标检测常用数据集然后对不同的模型进行性能对比分析。 A. Commonly Used Image Datasets and Evaluation Parameters PASCAL VOC 2007 [155] 包含 20 类目标其中有一个含 5000 张图像的训练子集以及一个含 5000 张图像的测试子集。 MS COCO 2017 [154] 同样是一个用于目标检测、目标分割、图像字幕及其他视觉任务的大型图像数据集。MS COCO 中的图像采集自复杂的日常场景且这些图像中的目标都通过精确的分割进行了标注。在 32.8 万张图像中有 91 类目标标记了 250 万个目标标签。 APS 是小尺寸目标区域面积大小 32² 像素的平均精度值。APM 是中尺寸目标32² 像素 区域面积大小 96² 像素的平均精度值。APL 是大尺寸目标区域面积大小 96² 像素的平均精度值。mAP 是平均精度均值即所有类别平均精度的平均值。mAP0.5 是交并比阈值为 0.5 时的平均精度均值。CorLoc 是定位准确率也就是训练集中目标的定位精度代表至少正确检测出一个目标的图像所占的比例它常用于弱监督目标检测。 B. Comparison of Different Models 表三与表四列出了近期经典模型在 PASCAL VOC 2007 数据集和 MS COCO 2017 数据集上的性能表现。在此我们提供一些网络的缩写形式R152/R101/R50/R34/R18 分别代表残差网络 152ResNet - 152/ 残差网络 101ResNet101/ 残差网络 50ResNet50/ 残差网络 34ResNet34/ 残差网络 18ResNet18MV1/MV2 分别代表移动网络 V1MobileNetV1/ 移动网络 V2MobileNetV2FR 代表快速区域卷积神经网络Faster R - CNNCTN 代表中心网络CenterNetRNX 代表残差网络扩展ResNeXt。 表三列出了各模型在 PASCAL VOC 2007 上的性能对比情况。从列出的这些评估参数中可以看出传统的基于知识蒸馏KD的目标检测OD模型中最终学生模型的性能在很大程度上与网络参数成正比。 例如大多数学生模型以残差网络 50R50作为自身的骨干网络并以残差网络 101R101作为教师模型的骨干网络时能够实现交并比阈值为 0.5 时的平均精度均值mAP0.5超过 80%而采用视觉几何组网络 11VGG11/ 视觉几何组网络 16VGG16作为学生模型和教师模型骨干网络的方法其 mAP0.5 的值则更低。就平均精度均值mAP而言这些传统模型的性能较为相似 [49]、[156]、[157]。 表四中列出的大多数传统模型以残差网络 50R50作为学生模型的骨干网络不过依然可以明显看出对于这些模型来说模型性能与模型复杂度成正比 [33]、[72]、[86]、[140]。 当然设计基于知识蒸馏KD的目标检测OD模型的最终目标是获得更轻量化的学生模型。因此先进的知识蒸馏技术被提出并应用到目标检测模型中。这类基于对抗学习的模型试图在实现与传统模型相当的目标检测性能的同时做到更为轻量化 [51]、[79]、[82]。不过这些方法需要设计合理的策略来控制教师模型和学生模型之间的对抗学习。 为了进一步提升轻量化学生模型的性能相关方法引入外部信息或多模态数据来引导学生模型的特征学习。这些方法通过引入辅助信息能够帮助轻量化学生模型取得更优的性能 [32]、[64]、[133]、[152]。在表四中的情况与之类似 [17]、[52]、[64]、[143]、[150]。 表三中也有相关方法通过引入注意力机制来获取轻量化学生模型但与其他相关方法相比它们的性能是最差的。原因可能在于这些方法所使用的教师模型和学生模型的网络结构都相对比较简单。 对于 MS COCO 2017 数据集如表四所示除了表三中提及的方法外也存在一些方法通过在知识蒸馏KD过程中选择有价值的特征来引导学生模型的特征学习并取得了相对较优的性能 [73]、[76]、[83]。 而且基于自蒸馏策略的方法如果选择残差网络 50R50或其他复杂度相近的网络作为学生模型的骨干网络能够获得可观的目标检测OD性能 [57]、[129]。然而一旦学生模型的网络结构被大幅简化其性能就会迅速下降 [38]、[118]。 在本节中表三和表四仅列出了在 PASCAL VOC 2007 和 MS COCO 2017 上采用常见评估指标的部分方法。还有许多其他基于知识蒸馏的目标检测方法或模型它们针对特定的目标检测任务和视觉问题在不同的数据集上都取得了可观的成果。 Section V. Future Research Works 总而言之多种知识蒸馏KD策略已被应用于目标检测OD领域并且在模型压缩和检测精度方面都取得了显著的提升。然而仍有诸多问题有待进一步研究和解决。基于前文所述内容在此我们指出当前相关工作中存在的一些问题并对基于知识蒸馏的目标检测的未来研究方向进行探讨。 (1) KD-Based Incremental Learning for OD 在实际的目标检测OD应用中常常需要在目标检测任务中添加一些新的目标类别即增量目标检测。为解决这一问题传统方法会使用全部已标注数据重新训练模型不过这样做成本极高而且使用少量数据对模型进行微调会导致灾难性遗忘 [97]、[98]。 基于知识蒸馏KD的目标检测框架能够将教师模型中的历史目标信息转移到学生模型中如此一来学生模型不仅能学习到新类别目标的视觉特征还能保持检测历史目标的能力。通常基于知识蒸馏的增量目标检测方法是通过设计相应的损失函数 [25]、逐步补充新目标的数据 [26]、[98]、[100] 或者提出一些新的蒸馏机制 [47] 来构建的这些方法在诸多方面都取得了不错的成果。 然而对于增量目标检测而言仍存在一些有待解决的问题比如新类别目标的标注问题、因添加与历史目标相似的新类别目标而导致的模型性能下降问题、如何识别新目标的出现以及模型的实时更新问题。因此应当在整个模型框架中添加能够及时识别新目标出现的辅助网络需要进一步考虑具有更强目标判别能力的学生模型以提升其目标识别性能并且可以考虑基于弱监督或半监督学习的模型来解决新目标标注的问题。 (2) Weakly Supervised or Semi-Supervised Learning OD Models Based on KD 与其他计算机视觉任务类似数据标注成本高昂也是目标检测OD任务中面临的一个问题对于增量目标检测来说尤其如此因为不断增加新类别目标的标注成本很高。因此弱监督、半监督或无监督学习在未来或许是解决这一问题的有效途径。 目前也已经存在基于知识蒸馏KD的弱监督和半监督学习目标检测模型。这些方法旨在通过使用标注较弱的数据 [28]、多标签标注数据 [120] 或者少量带有精确标注的图像 [114] 来实现精准的目标检测。此外还提出了一些视觉特征提取机制 [117]、[118]、[120] 以提升目标检测的性能。 所以未来的研究可以探究如何设计并将相关机制或网络模块引入目标检测框架中用于分析图像区域特征等或者如何引入相关先验知识以进一步提升采用弱监督或半监督学习的基于知识蒸馏的目标检测模型的性能。 (3) Interactive Distillation Between Multi-Teacher and Multi-Student Models for OD 蒸馏学习与人类学习模式类似。因此就像在现实世界场景中那样一个学生模型可以由多个教师模型引导进行特征学习。同时一项任务也可由多个学生模型共同完成并且学生模型之间还能相互学习。 在现有的方法中一个教师模型可以引导多个学生模型开展特征学习然后从中选出性能更优的学生模型 [65]。多个教师模型也能够分两个阶段联合训练学生模型 [37]或者通过权重融合的方式将多个教师模型结合起来训练学生模型 [53]。这些方法充分利用了多个教师模型的优势来训练出更优的学生模型并取得了良好的效果。 然而关于如何将知识从多个教师模型无缝地转移到学生模型中值得进一步深入研究。此外探究在联合模型训练期间教师模型和学生模型如何通过特定机制或技术相互作用也很重要这或许也是提升教师模型和学生模型性能的有效途径。最后由于多个教师模型能够训练多个不同类型的学生模型所以在未来应当关注如何为目标检测OD选择最优的学生模型或者如何组合多个学生模型这一问题。 (4) New Knowledge and Multiple Modal Features Distillation for OD 引入新知识是提升目标检测OD模型性能的一种非常有效的方式而从其他模态中提取新知识的能力是知识蒸馏KD的一大优势。 现有的此类方法将多种多模态数据如 RGB 图像 [35]、热成像图像 [55]、深度图像 [14]、[35]、文本信息 [19]、[64] 等作为教师模型的输入然后利用教师模型从这些多模态数据中提取相关特征以引导学生模型从二维 RGB 图像中学习视觉特征。 然而一个值得未来探索的问题是如何将教师模型从多模态数据中学到的不同类型特征与用于目标检测的视觉特征之间的差距最小化。此外在设计基于知识蒸馏的弱监督目标检测模型时也可以考虑将其他模态数据的特征作为弱监督目标检测的先验知识。 (5) Model Compression for 3D OD 三维目标检测3D OD大多应用于自动驾驶等领域。处理三维图像数据的目标检测模型要比处理二维数据的模型更为复杂。因此利用知识蒸馏KD技术对三维目标检测模型进行压缩具有重大的现实意义并且在这一主题上有许多值得探索的创新性成果。 首先由于三维目标检测模型中存在大规模的网络参数基于知识蒸馏的模型压缩是一个需要重点考虑的重要研究领域。例如我们可以使用一个复杂的深度神经网络作为教师模型来引导一个精心设计的轻量化学生模型。 然而另一个关键问题在于如何提高目标检测模型的准确性。未来基于知识蒸馏的三维目标检测研究可以聚焦于图像数据和模型这两方面。对于三维图像数据而言以点云数据作为输入的模型可以采用自蒸馏的方式来提高三维目标检测的准确性。对于采用多种形式数据作为输入的模型可以先从简单的二维图像中获取初始检测结果然后将其作为弱监督标签利用复杂的三维数据对三维目标检测模型进行优化。 此外我们可以使用更复杂精密的模型来优化三维目标检测模型比如将分割模型与检测模型相结合的知识蒸馏方法。设计一个专门针对三维目标检测独特背景的合适的知识蒸馏框架也会大有裨益。 最后知识蒸馏KD在模型压缩和模型性能提升方面有着巨大优势并且已在多个计算机视觉任务中得到广泛应用。近年来将知识蒸馏技术应用于目标检测OD相关任务吸引了越来越多的研究关注与此同时基于知识蒸馏的目标检测也遇到了诸多挑战。 在未来知识蒸馏应当拓展到广泛的视觉检测任务中例如三维目标检测、弱监督 / 无监督目标检测、视觉关系检测、社会关系检测等等。此外基于知识蒸馏的目标检测还可进一步应用于其他特定类型的数据比如多源遥感图像、多模态图像、文本数据、音频数据等。 Section VI. Conclusion 本综述回顾了基于知识蒸馏KD的目标检测OD模型。首先我们详细阐述了基于知识蒸馏设计目标检测模型的基本原理。接着我们从基于知识蒸馏的目标检测任务、目标检测模型中采用的知识蒸馏策略、有待解决的相关问题以及与模型应用相关的数据集等方面对以往的工作进行了总结和分析。最后我们探讨了未来有待进一步探索的、具有前景的可能研究方向。 正如上述对当前基于知识蒸馏的目标检测模型的全面分析所示知识蒸馏在模型压缩和性能提升方面为传统目标检测模型带来了巨大潜力。因此在这一研究领域存在许多新颖的思路和技术值得进一步深入探究。
http://www.lakalapos1.cn/news/18730/

相关文章:

  • 网站建设采购项目合同书网站建设和制作
  • 建行app怎么注册登录阿克苏网站怎么做seo
  • 建一个公司网站需要几天班级设计网站建设
  • 汕头食品骏域网站建设wordpress 增加新功能
  • 广州seo技术优化网站seo专业推广图片
  • 2008iis网站属性网站建设企业开发
  • 长春建设工程信息网站科技公司网站模板官网
  • 国外做家装的网站有哪些建立网站可以赚钱吗
  • 重庆网站建设哪家好视频网站怎么搭建
  • 购物商城网站搭建杭州租车网站建设
  • 为什么要建设o2o网站毕设做网站有什么题目
  • 设计网站架构上海黄浦 网站建设
  • 郑州网站建设 华数企业培训计划方案
  • 做网站优化期间能收到网站吗个人做网站怎么赚钱
  • 常州市建设银行网站建设银行广州分行网站
  • 公司企业网站建设步骤互联网营销师报考费用
  • 华为网站建设和阿里云哪个好wordpress后台登录地址改
  • 做网站公司的收费多少网站网站
  • 做优化网站怎么优化代码建设网官网住房和城乡厅官网
  • seo网站关键词优化排名企业宣传网站有哪些
  • 网站搜索引擎引流北京网站制作飞沐
  • 做网上推广网站网站备案必须在公司注册地
  • 深圳网站建设比较功能型网站有哪些
  • 网站建设生意怎么样网站制作价格表
  • 网站qq访客获取创业项目
  • 企业网站定制收费标准英国有哪些做折扣的网站有哪些
  • 让你的静态网站 做后台宜昌网站建设开发费用
  • 有网站源码怎么做网站emlog与wordpress区别
  • 印刷厂网站模板郑州看妇科最好的医院是哪里
  • 高端网站设计制作方法杭州网站设计手机