当前位置: 首页 > news >正文

赣州律师网站建设企业网络营销分析报告

赣州律师网站建设,企业网络营销分析报告,网站开发质量屋,东莞公司注册官网目录 一、注意力机制介绍1、什么是注意力机制#xff1f;2、注意力机制的分类3、注意力机制的核心 二、CCN模块1、CCN模块的原理2、实验结果3、应用示例 三、GAMAttention模块1、GAMAttention模块的原理2、实验结果3、应用示例 大家好#xff0c;我是哪吒。 #x1f3c6;本… 目录 一、注意力机制介绍1、什么是注意力机制2、注意力机制的分类3、注意力机制的核心 二、CCN模块1、CCN模块的原理2、实验结果3、应用示例 三、GAMAttention模块1、GAMAttention模块的原理2、实验结果3、应用示例 大家好我是哪吒。 本文收录于目标检测YOLO改进指南。 本专栏均为全网独家首发内附代码可直接使用改进的方法均是2023年最近的模型、方法和注意力机制。每一篇都做了实验并附有实验结果分析模型对比。 在机器学习和自然语言处理领域随着数据的不断增长和任务的复杂性提高传统的模型在处理长序列或大型输入时面临一些困难。传统模型无法有效地区分每个输入的重要性导致模型难以捕捉到与当前任务相关的关键信息。为了解决这个问题注意力机制Attention Mechanism应运而生。 一、注意力机制介绍 1、什么是注意力机制 注意力机制Attention Mechanism是一种在机器学习和自然语言处理领域中广泛应用的重要概念。它的出现解决了模型在处理长序列或大型输入时的困难使得模型能够更加关注与当前任务相关的信息从而提高模型的性能和效果。 本文将详细介绍注意力机制的原理、应用示例以及应用示例。 2、注意力机制的分类 类别描述全局注意力机制Global Attention在计算注意力权重时考虑输入序列中的所有位置或元素适用于需要全局信息的任务。局部注意力机制Local Attention在计算注意力权重时只考虑输入序列中的局部区域或邻近元素适用于需要关注局部信息的任务。自注意力机制Self Attention在计算注意力权重时根据输入序列内部的关系来决定每个位置的注意力权重适用于序列中元素之间存在依赖关系的任务。Bahdanau 注意力机制全局注意力机制的一种变体通过引入可学习的对齐模型对输入序列的每个位置计算注意力权重。Luong 注意力机制全局注意力机制的另一种变体通过引入不同的计算方式对输入序列的每个位置计算注意力权重。Transformer 注意力机制自注意力机制在Transformer模型中的具体实现用于对输入序列中的元素进行关联建模和特征提取。 3、注意力机制的核心 注意力机制的核心思想是根据输入的上下文信息来动态地计算每个输入的权重。这个过程可以分为三个关键步骤计算注意力权重、对输入进行加权和输出。首先计算注意力权重是通过将输入与模型的当前状态进行比较从而得到每个输入的注意力分数。这些注意力分数反映了每个输入对当前任务的重要性。对输入进行加权是将每个输入乘以其对应的注意力分数从而根据其重要性对输入进行加权。最后将加权后的输入进行求和或者拼接得到最终的输出。注意力机制的关键之处在于它允许模型在不同的时间步或位置上关注不同的输入从而捕捉到与任务相关的信息。 YOLOv5/v7 添加注意力机制30多种模块分析①SE模块SK模块 YOLOv5/v7 添加注意力机制30多种模块分析②BAM模块CBAM模块 YOLOv5/v7 添加注意力机制30多种模块分析③GCN模块DAN模块 YOLOv5/v7 添加注意力机制30多种模块分析④CA模块ECA模块 YOLOv5/v7 添加注意力机制30多种模块分析⑤SOCA模块 SimAM模块 YOLOv5/v7 添加注意力机制30多种模块分析⑥S2-MLPv2模块NAM模块 二、CCN模块 1、CCN模块的原理 两种基于注意力的上下文聚合方法的图示 (a) 对于每个位置例如蓝色非局部模块[9]生成一个密集的注意力图其中有N个权重绿色。 (b) 对于每个位置例如蓝色十字交叉注意力模块生成一个稀疏的注意力图其中只有大约2√N个权重。在经过循环操作后最终输出特征映射中的每个位置例如红色都可以从所有像素中收集信息。出于清晰展示的目的残差连接被忽略。 CCNet语义分割概述 细节交叉注意模块 2、实验结果 在ADE20K验证集上展示了使用/不使用分类一致性损失CCL的可视化示例。 与其他注意力模块比较 3、应用示例 以下使用CCN模块的应用示例 import torch.nn as nnclass CCN(nn.Module):def __init__(self, c1, c2, k3, s1, g1, eFalse):super().__init__()self.cv1 nn.Conv2d(c1, c2, k, s, k//2, groupsg, biasFalse)self.bn1 nn.BatchNorm2d(c2)self.act nn.LeakyReLU(0.1, inplaceTrue)self.e nn.Conv2d(c2, c1, 1, 1, 0) if e else Nonedef forward(self, x):y self.act(self.bn1(self.cv1(x)))return x self.e(y) if self.e else x y这段代码定义了一个名为CCN的类其中包含了一个卷积层、一个批归一化层和一个LeakyReLU激活函数。该模块可以接收输入张量x并返回经过CCN处理后的输出张量。通过组卷积CCN模块可以在不增加参数数量的情况下增强网络的表达能力。同时该模块可以学习权重以适应不同尺度的特征。在YOLOv5中通过堆叠多个CCN模块来构建主干网络。 三、GAMAttention模块 1、GAMAttention模块的原理 GAMAttentionGlobal Attention with Multi-head是一种注意力机制模块用于处理序列数据中的关系建模和特征融合问题。其原理基于transformer中的self-attention机制。 GAMAttention包含三个主要部分全局池化、多头注意力和残差连接。全局池化将输入序列转换为一个全局表示以便在后续的计算中进行使用。多头注意力机制使用多个不同的权重矩阵对全局表示进行线性变换生成多个query、key和value向量。这些向量被输入到每个注意力头中并通过Softmax函数计算相关性得分以便对信息进行加权聚合。最后利用残差连接将注意力输出与输入序列进行融合。 2、实验结果 3、应用示例 以下使用GAMAttention模块的应用示例 import torch.nn as nnclass GAMAttention(nn.Module):def __init__(self, in_channels):super(GAMAttention, self).__init__()self.conv nn.Conv2d(in_channels, in_channels, kernel_size1, stride1)self.bn nn.BatchNorm2d(in_channels)self.sigmoid nn.Sigmoid()def forward(self, x):avg_pool nn.AdaptiveAvgPool2d(1)(x)x self.conv(avg_pool)x self.bn(x)x self.sigmoid(x)return x * x在YOLOv5中GAMAttention模块被应用于残差块中的第二个卷积层。例如在YOLOv5s模型中一个标准的残差块如下所示 class ResBlock(nn.Module):def __init__(self, channels, hidden_channelsNone):super().__init__()if hidden_channels is None:hidden_channels channelsself.block nn.Sequential(Focus(channels, hidden_channels, 1),nn.Conv2d(hidden_channels, channels, 3, 1, 1, biasFalse),nn.BatchNorm2d(channels),nn.ReLU(inplaceTrue),GAMAttention(channels), # 在第二个卷积层应用GAMAttention模块nn.Conv2d(channels, channels, 1, 1, biasFalse),nn.BatchNorm2d(channels),)def forward(self, x):return x self.block(x)参考论文 https://arxiv.org/pdf/1811.11721.pdfhttps://arxiv.org/pdf/2112.05561v1.pdf 本文收录于目标检测YOLO改进指南。 本专栏均为全网独家首发内附代码可直接使用改进的方法均是2023年最近的模型、方法和注意力机制。每一篇都做了实验并附有实验结果分析模型对比。 华为OD机试JAVA真题A卷B卷 每一题都有详细的答题思路、详细的代码注释、样例测试订阅后专栏内的文章都可看可加入华为OD刷题群私信即可发现新题目随时更新全天CSDN在线答疑。 哪吒多年工作总结Java学习路线总结搬砖工逆袭Java架构师。 往期回顾 YOLOv5/v7 添加注意力机制30多种模块分析①SE模块SK模块 YOLOv5/v7 添加注意力机制30多种模块分析②BAM模块CBAM模块 YOLOv5/v7 添加注意力机制30多种模块分析③GCN模块DAN模块 YOLOv5/v7 添加注意力机制30多种模块分析④CA模块ECA模块 YOLOv5/v7 添加注意力机制30多种模块分析⑤SOCA模块 SimAM模块 YOLOv5/v7 添加注意力机制30多种模块分析⑥S2-MLPv2模块NAM模块
http://www.lakalapos1.cn/news/53085/

相关文章:

  • 丹徒网站建设服务手机网页无法访问如何解决
  • 网站如何做外链2018百度400电话
  • 建设一个网站可以做什么wordpress+手机应用
  • com都有哪些网站卡地亚官方网站制作需要多少钱
  • 帝国cms 仿站 wordpress网站如何做播放线路
  • 电脑网站怎样给网页做适配怎样做网站全屏代码
  • 建设宁夏分行互联网站仿煎蛋 wordpress
  • 营销型网站策划 建设的考试题天王手表官方网站
  • 微信网站建设报价设计平台软件
  • 友情链接的网站图片建设银行安全网站
  • 江苏扬州工程建设信息网站网站正在建设中的英文
  • 什邡门户网站wordpress一键建站
  • 金华住房和城乡建设部网站重庆网站建设必选承越
  • dede网站地图代码互动平台抽手机
  • 网站开发框架拓扑云南医疗seo整站优化
  • html做的图片网站郑州app开发定制多少钱
  • 电商网站 模板东莞抖音推广合作
  • 莱芜网站制作哪家好用开源源码做淘宝客网站
  • 图片展示模块网站做一个多少钱wordpress 视频管理 主题
  • php网站留言板是怎么做的海南网络广播电视台地震避险常识
  • 网站速度查询在线免费源码资源源码站
  • 网站速度模板网站开发营销
  • 蚌埠建设银行网站工信部网站备案变更
  • 珠海建网站的网络公司家在深圳龙华
  • 长沙网站建设的首选邢台信息港最新二手房出售信息
  • 怎么免费创建自己的网站天津制作企业网站
  • WordPress无法取消置顶文章网站建设seo视频教程
  • 杭州下沙开发区建设局网站软件开发网站策划方案
  • 青岛网站seo技巧网上设计兼职平台有哪些
  • 网站的建设的项目介绍怎么写网站活跃度怎么做