首页

> 期刊论文知识库

首页 期刊论文知识库 问题

目标检测注意力机制相关论文

发布时间:

目标检测注意力机制相关论文

(该分享持续更新中...) 这篇论文主要有三个贡献点: 目前,物体检测、语义分割等技术都是集中在如何在图片上检测出物体,但是忽略了物体与物体之间的关系。一项最近的工作提出了用图(场景图)来代表一个场景。场景图是图像的可解释的结构化表示,可以支持更高级别的视觉智能任务,如captioning。 将每一对节点(对象)视为潜在的边(关系)的自然方法本质上是对全连通图的推理,这种方法在建模上下文关系时通常是有效的,但对对象数量的缩放效果很差(二次),很快就变得不切实际。嘴朴素的修正方法是采用随机采样,虽然它是efficient,但不是effective,因为对象之间的相互作用的分布远远不是随机的。 作者的解决办法: 图1.给一张图片,模型从图片中抽取出objects(a), 所有节点考虑可能存在的边(b),通过一个医学系的方法‘relatedness’裁去不可能发关系,从而产生更稀疏的候选图结构(c)。最后,利用aGCN去集成全局信息并且更新物体节点和关系的标签(d) 在这项工作中,我们提出了一个新的框架,Graph R-CNN,它通过两种机制有效地利用对象关系规则来智能地稀疏化和推理候选场景图。我们的模型可以分解为三个逻辑阶段:1)对象节点提取,2)关系边缘剪枝,3)图上下文集成,如图1所示。 在对象节点提取阶段,我们使用了一个标准的对象检测的pipeline(faster rcnn)。这就产生了一组localized object regions,如图1b所示。我们将在剩下的pipeline中引入两个重要的新特性,以合并上面讨论的对象关系中的真实世界的规则性。首先,我们介绍了一个关系建议网络(RePN),该网络能够有效地计算对象对之间的关联分数,这些分数被用来智能地修剪不太可能的场景图连接(与之前工作中的随机修剪不同),剪枝后的稀疏图如图1c所示。其次,给出了稀疏连接的候选场景图,我们应用了一个注意图卷积网络(aGCN)来在整个图中传播higher-order上下文——更新每个对象及其基于其邻居的关系表示。与现有的工作相比,我们预测每个节点的边attention,使我们的方法能够学习调节不可靠或不太可能的边缘之间的信息流。我们在图1d中显示了细化的图形标签和边缘attention(与边缘宽度成比例)。 现有对于场景图生成的指标是基于召回⟨主题、谓词、对象⟩三元组或给定ground truth的object localizations的对象和谓词。为了揭示这些度量标准存在的问题,考虑一个方法,该方法将图1a中的boy误认为是man,但在其他方面识别出他是1)站在消防栓后面,2)靠近一辆汽车,3)穿着一件毛衣。在基于三元组的度量标准下,这个小错误(boy vs man)将被严重惩罚,尽管大多数boy的关系被正确识别。尽管提供ground-truth区域的度量方法通过严格关注关系预测来回避这个问题,但是它不能准确地反映整个场景图生成系统的测试时性能。 为了解决这种不匹配,我们引入了一种新的评估度量(SGGen+),它更全面地评估场景图生成的性能,包括对象、属性(如果有的话)和关系。我们提出了度量SGGen +计算总的recall对于独立实体(对象和谓词),pair 实体⟨对象,属性⟩(如果有的话),和三元组实体⟨主题、谓词、对象⟩。我们在这个新的度量下报告现有方法的结果,发现我们的方法也显著地优于最先进的方法。更重要的是,这个新的度量为生成的场景图和真实场景图之间的相似性提供了一个更鲁棒、更全面的度量。 具体来说,本工作通过引入一种新的模型(graph R-CNN)来解决场景图生成问题,该模型可以利用对象关系的规律性,并提出了一种更全面的场景图生成评价指标(SGGen+)。我们将我们的模型与现有的标准度量方法进行基准测试,而这个新度量方法的性能优于现有方法。 利用上下文来提高场景理解的想法在计算机视觉中有着悠久的历史[16,27,28,30]。最近,Johnson等人受到图形界研究的表示方法的启发,提出了从图像中提取场景图的问题,这将对象检测的任务[6,7,22,31,32]概括为也检测对象的关系和属性。 已经提出了许多方法来检测对象及其关系。尽管这些工作中的大多数指出,对场景图中二次关系的推理是棘手的,但每个都采用了启发式方法,如随机抽样来解决这个问题。我们的工作是第一个引入一个可训练的关系建议网络(RePN),它学会了在不牺牲efficacy的情况下从图中删除不可能的关系边缘。RePN提供了高质量的候选关系,我们发现它提高了场景图生成的整体性能。 大多数场景图生成方法还包括上下文传播和对候选场景图进行推理的机制,以细化最终的标记。在[40]中,Xu等人将问题分解为两个子图,一个用于对象,另一个用于关系,并执行消息传递。类似地,在[17]中,作者提出了两种消息传递策略(并行顺序),用于在对象和关系之间传播信息。Dai等人将场景图生成过程建模为条件随机场(CRF)的推理。Newell等人提出直接从图像像素中生成场景图,而不需要使用基于关联图嵌入的对象检测器。在我们的工作中,我们开发了一种新的注意图卷积网络(aGCN)来更新节点和关系表示,通过在候选场景图的节点之间传播上下文来操作视觉和语义特征。虽然在功能上类似于上述基于消息传递的方法,但aGCN是高效的,可以学习将注意力放在可靠的边缘,并减弱不太可能的影响。 以往的许多方法都注意到在场景图生成过程中具有很强的规律性,从而激发了我们的方法。在[23]中,Lu等人整合了语言中的语义先验,以改进对对象之间有意义关系的检测。同样,Li等人[18]证明了region caption也可以为场景图生成提供有用的上下文。与我们的动机最相关的是,Zeller等人将motifs的概念(即经常出现的图结构)形式化。并在VG数据集[14]中检测它们的出现的概率。作者还提出了一个令人惊讶的强基线,它直接使用频率先验来明确地综合图结构中的规律来预测关系。 我们的关系建议网络(Relationship Proposal Network, RePN)受到了RPN的启发,与用于对象检测的faster R-CNN[32]的区域建议网络(region Proposal Network, RPN)紧密相关。我们的RePN在本质上也类似于最近提出的关系建议网络(Rel-PN)[45]。这些方法之间有许多细微的差别。Rel-PN模型独立地预测主题、对象和谓词的建议,然后重新对所有有效的三元组进行评分,而我们的RePN根据对象生成关系,允许它学习对象对关系的偏差。此外,他们的方法是类无关的,并没有用于场景图生成。 GCNs最初是在[13]的半监督学习环境中提出的。GCNs将图数据上的复杂计算分解为一系列局部化操作(通常只涉及相邻节点),用于每个节点的每个时间步。在计算之前,结构和边缘强度通常是固定的。为了完整起见,我们注意到即将出版的出版物[36]同时独立地开发了一个类似的GCN注意机制(如aGCN),并在其他(非计算机视觉)上下文中显示了它的有效性。 在这项工作中,我们将场景图建模为包含图像区域、关系及其标签的图。 代表image, 代表nodes集合(一个node对应一个localized object region), 代表物体间的关系, 分别代表object和relationship的labels。因此,我们的目标是为 建模,在我们的工作中,我们把场景图的生成分解为三部分: 将图的构造(节点和边)与图的标注分离开来。这个因式分解背后的直觉很简单。首先,object region proposal 通常使用现成的对象检测系统(如faster rcnn[32])进行建模,以生成候选区域。值得注意的是,现有的方法通常将第二个关系建议项 建模为顶点 之间潜在边的均匀随机抽样。相反,我们提出了一个关系建议网络(RePN)来直接建模 ——使我们的方法成为第一个允许学习整个生成过程端到端。最后,图标记过程 通常被视为迭代求精过程。模型的pipeline如图2所示:每一个object proposal 都与一个空间区域 , 一个合并的特征向量 , 一个初始化估计标签分布 over 相关联。我们将对于所有n个proposals的向量集合表示为矩阵 以及 Relation Proposal Network 给定上一步提出的n个对象节点,它们之间可能有 个连接;然而,正如前面所讨论的,由于真实对象交互中的规则性,大多数对象对不太可能有关系。为了对这些规律进行建模,我们引入了一个关系建议网络(RePN),该网络能够有效地估计对象对之间的关联性。通过对不太可能关系的边缘进行剪枝,可以有效地稀疏化候选场景图,保留可能的边缘,抑制不太可能的边缘带来的噪声。 在这篇论文中,我们利用估计的类别分布( )来推断关联性——本质上是学习软类别关系的先验。这种选择与我们的直觉一致,即与其他类相比,某些类相对不太可能交互。具体,给定初始对象分类分布 ,我们给所有的 有向对 评分, 计算 时的相关性,其中 是一个习得的相关性对函数。 的一个直接实现可以将连接[p^o_i, p^o_j]作为输入传递给一个多层感知器,该感知器输出分数。然而,考虑到对象对的平方数,这种方法将消耗大量的内存和计算。为了避免这种情况,我们考虑一个非对称的内核函数: 分别代表在关系中主语和宾语对映射函数。这个分解使得,仅使用 的两个投影过程,然后执行一次矩阵乘法就能获得分数矩阵 。对于 和 ,我们使用两个多层感知器(mlp)与相同的架构(但不同的参数)。我们还对分数矩阵S进行了sigmoid操作,使得每一个元素都为0~1之间。 在获得分数矩阵后,我们将其降序排序,然后选择前K对。然后,我们使用非最大抑制(NMS)来过滤出与其他对象有明显重叠的对象对。每个关系都有一对边界框,组合顺序很重要。我们计算两个对象对 and 之间对重叠: 计算两个box交集的区域, 计算并集区域。剩余的m个对象对被认为是具有意义关系E的候选对象。利用E,我们得到了一个图 ,它比原来的全连通图稀疏得多。随着图的边的提出,我们还通过从每个对象对的联合框中提取特征,得到所有m个关系的可视化表示 。 为了整合由图结构提供的上下文信息,我们提出了一个注意图卷积网络(aGCN)。在描述我们提出的aGCN之前,让我们简要回顾一下“普通的”GCN,其中每个节点 都有一个表示 如在[13]中提出的那样。简单,目标节点图中,相邻节点的表示 首先通过学习改变线性变换矩阵 .然后,这些转换表示与预先确定的权值α聚集,紧随其后的是一个非线性函数σ(ReLU [25])。这种分层传播可以写成: 或者我们可以把节点整合进一个矩阵中,就可以得到:与i不相邻的节点设定为0,并且设定αii为1。在传统的GCN中,图中的连接是已知并且系数向量αi是基于对称规范化邻接矩阵的特性预设的。 在这篇论文中,我们将传统的GCN拓展了attention版本,通过调节α。为了能够从节点features预测attention,我们通过一个拼接的节点feature学习了一个两层的MLP,并且对得到的分数进行一次softmax。对于节点i的attention是:and 是习得参数,[·, ·] 是拼接操作。通过定义,我们设定 and 。由于注意力机制是节点特征的函数,每次迭代都会导致注意力的改变,从而影响后续的迭代。 回想一下,在前面的小节中,我们有一组N个对象区域和m个关系。在此基础上,我们构造了一个图G,其中节点对应于对象和关系建议。我们在关系节点及其关联对象之间插入边。我们还在所有对象节点之间直接添加了跳转连接边。这些连接允许信息直接在对象节点之间流动。最近的研究表明,对目标相关性进行推理可以提高检测的性能。我们将aGCN应用于此图,基于全局上下文更新对象和关系表示。 注意到我们的图捕获到不同类型到连接( ↔ relationship, relationship ↔ subject and object ↔ object)。此外,每个连接之间的信息流可能是不对称的(the 信息量 of subject on relationship might be quite different from relationship to subject)。我们学习了每种类型和顺序的不同转换——将节点类型a到节点类型b的线性转换表示为 ,其中s=subject、o=objects和r=relationships。Object node的representation的更新公式如下(object features为 , relationship features为 ):with and similarly for relationship nodes as: 一个开放的选择是如何初始化object and relationship node represenstions ,它可能被设置为任何intermediate feature representations,甚至是对应类标签的pre-softmax输出。在实践中,我们同时运行可视化的和语义化的aGCN计算——一个具有可视化的特性,另一个使用pre-softmax输出。通过这种方式,我们既可以推断出较低层的视觉细节,也可以推断出较高级别的语义共现(即汽车轮子)。进一步地,我们把语义aGCN的注意力放在视觉aGCN上——基于视觉线索有效地调节语义信息流。这也加强了两个图中表示的真实对象和关系以相同的方式与其他对象交互。 Loss Function 在Graph R-CNN,我们把场景图生成过程分解成三个子过程: 。在训练阶段,这些子过程都是使用监督训练。对于 ,我们用RPN相同的损失(binary cross entropy loss on proposals,regression loss for anchors)。对于 ,我们使用另一个binary cross entropy loss on the relation proposals。对于最后的场景图生成 ,两个muti-class cross entropy losses是被用于object classification and predicate classification。 场景图生成是一个结构化的图上预测问题,如何正确、有效地对预测进行评价是当前场景图生成研究中尚未解决的问题。我们注意到图论[5]对基于最小图编辑距离的图相似度进行了深入的研究;然而,计算准确的解决方案是np完全和ap近似的APX-hard[20]。 以前的工作通过在[40]中引入一个简单的基于三元组回归的度量来评估场景图的生成,从而绕过了这些问题。根据这个指标,我们将称之为SGGen, the ground truth of 场景图表示为一组通过精确匹配计算。也就是说,在生成的场景图中,如果三个元素都被正确地标记,并且object和subject nodes都被正确地定位(例如,边界框IoU > )。虽然计算简单,但这种度量导致了一些不直观的相似度概念,如图3所示。 SGGen+的计算公式: 是一个计数操作, 是正确被定位和识别的物体节点数; 是正确谓词的数目。由于谓词的定位取决于subject和object的正确定位,所以只有在主语和宾语都正确定位并且正确识别谓词的情况下,我们才会将其算作一个。 是针对三元组的,和SGGen一样。N是ground真值图中的条目数(对象、谓词和关系的总数)。

写在前面的话:本文来自于本人的一次课程作业综述,当时还是写了很久的,不想交上去就完了,所以发上来留个纪念。 将注意力机制用在计算机视觉任务上,可以有效捕捉图片中有用的区域,从而提升整体网络性能。计算机视觉领域的注意力机制主要分为两类:(1) self-attention;(2) scale attention。这两类注意力从不同的角度进行图片内容理。本文将分别就这两种注意力机制进行说明,并列举相关的文献。 注意力是人类大脑固有的一种信号处理机制。人类大脑通过快速从视觉信号中选择出需要重点关注的区域,也就是通常所说的注意力焦点,然后重点处理这些区域的细节信息。通过注意力机制可以利用有限的大脑资源从大量的信息中筛选出有价值的信息。注意力机制最初被用在深度学习任务上是在机器语言翻译领域,将源语言翻译成目标语言,目标语言中的词并非与源语言的所有词都同等相关,而是仅与特定的几个词有相关性。因此,注意力机制可以将这个词的注意力分配到这些最相关的词上。之后,[1]中提出自注意力机制 (self-attention),并将其用于Transformer模块中,极大提升了翻译模型的精度和并行性。与传统的注意力机制不同,self-attention的查询(query)和键(key)属于同一个域,计算的是同一条语句(或同一张图片)中不同位置之间的注意力分配,从而提取该语句(或图片)的特征。 [2]首先将self-attention用于视觉任务中,提出了non-local network,来捕获图片(或视频)中的长程依赖(long-range dependency)。Self-attention机制在视觉任务,如语义分割[3],生成对抗网络[4]中取得了巨大的成功。它解决了卷积神经网络的局部视野域问题,使得每个位置都可以获得全局的视野域。不过,由于在视觉任务中,像素数极多,利用所有位置来计算每个位置的attention会导致巨大的计算和显存开销;另一方面,由于self-attention简单将图像当成一个序列进行处理,没有考虑不同位置之间的相对位置关系,使得所得到的attention丧失了图像的结构信息。之后对于self-attention的一个改进方向就是,在self-attention中加入相对位置信息或绝对位置信息编码。 除了self-attention,视觉任务中另一类注意力机制为scale attention。与self-attention不同,scale attention基于每个位置本身的响应。就分类任务而言,每个位置的响应越大,则其对于最终的分类结果影响越大,那么这个位置本身的重要性就越强。根据响应大小有选择地对特征图进行强化或抑制,就可以在空间(或其他维度)上达到分配attention的目的。[5]所提出的SENet,就相当于channel-wise的attention。类似的还有GENet[6],CBAM[7]等,GENet将SENet中的channel-wise attention扩展到了spatial上,CBAM设计了串行的两个模块,分别进行channel-wise attention和spatial-wise attention的计算。另一篇工作residual attention network[8]也属于这一类attention,与SENet系列不同之处在于,本文采用bottom-up top-down形式得到spatial attention,再将其以残差的形式作用回原来的特征。这一类注意力机制仅仅基于图像中每个位置本身,对显著区域进行增强,非显著区域进行抑制,比self-attention机制更接近与人类视觉系统的注意力机制。 普通卷积将特征图的每个位置作为中心点,对该位置及其周围的位置进行加权求和,得到新的特征图上该位置对应的滤波结果,对于边缘,必要时可以用0进行填充。这一操作可以有效提取图片的局部信息。随着网络加深,卷积层不断堆叠,每个位置的视野域也越来越大,网络提取到的特征也逐渐由一些low-level的特征,如颜色、纹理,转变到一些high-level的结构信息。但是,简单通过加深网络来获取全局视野域,所带来的计算开销是很大的,并且,更深的网络会带来更大的优化难度。 Self-attention操作[2]可以有效地捕获不同位置之间的long-range dependency,每个位置的特征都由所有位置的加权求和得到,这里的权重就是attention weight。由此,每个位置都可以获取全局的视野域,并且不会造成特征图的退化(分辨率降低),这对于一些密集的预测任务,如语义分割、目标检测等,具有很大的优势。 图1展示了self-attention的网络结构。给定输入X,将两个1x1卷积分别作用于X上,得到的两个特征利用f(⋅)得到相关性矩阵,图中展示的f(⋅)为矩阵乘法。最后将相关性矩阵作用在原特征经过1x1卷积变换后的特征上。 公式(1)展示了第i个位置的相应的计算方法,其中f(⋅)为相关性函数,g(⋅)为变换函数,x_i为输入第i个位置的特征,y_i为第i个位置的输出特征,C(x)为归一化因子,一般采用总位置的个数。 由于self-attention可以有效捕获图片(或视频)中的长距离依赖,从而在不影响特征分辨率的同时获取全局的视野域,在视觉任务上引入self-attention,可以带来较大的性能提升。 论文[2]将self-attention用在视频动作识别任务上,如图2,对于视频中动作的识别,可能会跨越多帧,需要建立多帧视频之间的联系,self-attention的这种长距离依赖的特征就能有效建立多帧不同位置之间的联系。 论文[2]将self-attention用在分割任务上。由于孤立预测每个位置的类别很容易导致分错,分割任务需要结合每个位置的上下文对该位置进行分类。文章定义了所谓物体上下文(object context),即每个位置所属于的类别构成的集合,即为这个位置所属于的object context。 Object context是由不同位置的特征相似度来定义的,也就是self-attention过程中的相似度矩阵,将相似度矩阵与原特征进行相乘,即可将object context作用于该特征图。由此,文章提出了Object Context Network(OCNet),如图3。其中,base-OC为基本的self-attention模块,pyramid-OC和ASP-OC分别将self-attention与PSP模块和ASPP模块结合,在提取object context的同时,利用不同倍率的pooling操作或不同ratio的dilated convolution获取多尺度的特征,最大程度的利用context信息对原图进行分割。不过,本文虽然提出object context为每个像素及所有其他与其属于同一类的像素构成的集合,在实际操作的时候却并不是这样计算每个位置的object context的,特征上的相似性并不一定代表属于同一位置。因此,用object context来给self-attention新的解释,在说服力上还是存在一定问题的。 Scale attention是另一种注意力机制,与self-attention不同,scale attention是只基于key context的,对图像中的显著性区域进行增强,其他区域相应的进行抑制,从而使得输出的特征具有更强的区分性。这一类注意力机制的代表工作包括,residual attention network[8],squeeze-and-excite network[5],gather-and-excite network[6]以及CBAM[7]。 [8]提出,在分类网络中,网络深层比浅层更关注于被分类的物体,也就是图片的主体内容,这是因为,深层网络具有更大的视野域,可以看到更广的范围;而浅层网络只能看到每个位置及其邻域。因此,如果将网络较深层的信息作为一种mask,作用在较浅层的特征上,就能更好的增强浅层特征中对于最终分类结果有帮助的特征,抑制不相关的特征。如图5所示,将attention作为mask作用在原来特征上,得到的输出就会更加集中在对分类有帮助的区域上。 因此,文章提出一种bottom-up top-down的前向传播方法来得到图片的attention map,并且将其作用在原来的特征上,使得输出的特征有更强的区分度。图6展示了这种attention的计算方式。由于更大的视野域可以看到更多的内容,从而获得更多的attention信息,因此,作者设计了一条支路,通过快速下采样和上采样来提前获得更大的视野域,将输出的特征进行归一化后作用在原有的特征上,将作用后的特征以残差的形式加到原来的特征上,就完成了一次对原有特征的注意力增强。文章还提出了一个堆叠的网络结构,即residual attention network,中间多次采用这种attention模块进行快速下采样和上采样。 这篇文章在视觉领域开前向传播的注意力机制的先河,之后的注意力机制都是采用这种前向传播过程中得到的attention进行增强,并且一般为了优化方便,都会以残差的方式进行。 Squeeze-and-excite是另一类scale attention。与residual attention不同,squeeze-and-excite通过global pooling来获得全局的视野域,并将其作为一种指导的信息,也就是attention信息,作用到原来的特征上。 [5]提出了squeeze-and-excite network(SENet),提出了channel-wise的scale attention。特征图的每个通道对应一种滤波器的滤波结果,即图片的某种特定模式的特征。对于最终的分类结果,这些模式的重要性是不同的,有些模式更重要,因此其全局的响应更大;有些模式不相关,其全局的响应较小。通过对不同通道的特征根据其全局响应值,进行响应的增强或抑制,就可以起到在channel上进行注意力分配的作用。其网络结构如图7所示,首先对输入特征进行global pooling,即为squeeze阶段,对得到的特征进行线性变换,即为excite阶段,最后将变换后的向量通过广播,乘到原来的特征图上,就完成了对不同通道的增强或抑制。SENet在2017年的ImageNet2017的分类比赛上获得了冠军,比之前的工作有了较大的性能提升。 [6]进一步探索了squeeze-and-excite在更细的粒度上的表现,提出了gather-excite操作。SENet将每个通道的特征图通过global pooling得到一个值,本文采用了不同步长的pooling(2x,4x,8x,global),然后利用上采样将pooling后的特征插值恢复到原来大小,最后作用在原来特征图上,具体操作如图8所示。不过,实验结果显示,global pooling的性能最好,将特征区间划分得更细致虽然增加了参数,但是反而会带来性能的下降。 [1] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008. [2] Wang X, Girshick R, Gupta A, et al. Non-local neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 7794-7803. [3] Yuan Y, Wang J. Ocnet: Object context network for scene parsing[J]. arXiv preprint arXiv:, 2018. [4] Zhang H, Goodfellow I, Metaxas D, et al. Self-attention generative adversarial networks[J]. arXiv preprint arXiv:, 2018. [5] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 7132-7141. [6] Hu J, Shen L, Albanie S, et al. Gather-Excite: Exploiting feature context in convolutional neural networks[C]//Advances in Neural Information Processing Systems. 2018: 9401-9411. [7] Woo S, Park J, Lee J Y, et al. Cbam: Convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 3-19. [8] Wang F, Jiang M, Qian C, et al. Residual attention network for image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 3156-3164.

论文: Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

目标检测网络大多依靠 区域生成 (region proposal)算法来假设目标的位置。 R-CNN 是采用 Selective Search 算法来提取(propose)可能的 RoIs(regions of interest) 区域,然后对每个提取区域采用标准 CNN 进行分类。选择性搜索(Selective Search )方法就是在目标对象周围设定2000个形状大小位置不一的候选区域,目标物体在候选区域的可能性还是比较大的。然后对这些区域卷积,找到目标物体,虽然大多数区域都是无用的。与寻找几乎个区域比起来,这种方法要高效的多。

Fast R-CNN ,不在原始图像生成备选区域,而是先整张图片通过卷积网络得到特征图,然后在特征图上使用备选区域算法得到感兴趣的区域在特征图的映射,之后使用 Rol Pool将所有区域变成同样尺寸,大大减少了这些目标检测网络的运行时间,但是区域生成的计算成为整个检测网络的瓶颈。

Faster R-CNN 引入了一个 区域生成网络(Region Proposal Network,RPN) ,该网络与检测网络共享输入图像的卷积特征,从而使接近零时间成本的区域生成成为可能。 RPN是一个全卷积网络,可以同时在每个位置预测目标边界和目标分数。RPN经过端到端的训练,可以生成高质量的区域候选框,然后提供给Fast R-CNN用于检测。

Faster R-CNN 由两个模块组成:第一个模块是区域生成的深度全卷积网络,第二个模块是使用备选区域的Fast R-CNN检测器。整个系统是一个单个的,统一的目标检测网络。使用最近流行的“注意力”机制的神经网络术语,RPN模块告诉Fast R-CNN模块在哪里寻找目标。

针对一张图片,需要获得的输出有:

Faster R-CNN 第一步是采用基于分类任务(如ImageNet)的 CNN 模型作为特征提取器。输入图片表示为 H × W × D 的形式,经过预训练 CNN 模型的处理,得到卷积特征图(conv feature map)。

Faster R-CNN 最早是采用在 ImageNet 训练的 ZF 和 VGG ,其后出现了很多其它权重不同的网络.。如 MobileNet 是一种小型效率高的网络结构,仅有 参数;而ResNet-152 的参数量达到了 60M;新网络结构,如 DenseNet 在提高了结果的同时,降低了参数数量。

以 VGG16 为例:

VGG16 图片分类时,输入为 224×224×3 的张量(即,一张 224×224 像素的 RGB 图片)。网络结构最后采用 FC 层(而不是 Conv 层)得到固定长度的向量,以进行图片分类.。对最后一个卷积层的输出拉伸为1维的向量,然后送入 FC 层。官方实现中是采用的卷积层 conv5/conv5_1 的输出。

在深度上,卷积特征图对图片的所有信息进行了编码,同时保持相对于原始图片所编码 “things” 的位置。例如,如果在图片的左上角存在一个红色正方形,而且卷积层有激活响应,那么该红色正方形的信息被卷积层编码后,仍在卷积特征图的左上角。因此利用特征图检测目标所在的位置是可行的。

ResNet 结构逐渐取代 VGG 作为基础网络,用于提取特征。ResNet 相对于 VGG 的明显优势是,网络更大,因此具有更强的学习能力.。这对于分类任务是重要的,在目标检测中也应该如此。另外,ResNet 采用残差连接(residual connection) 和 BN (batch normalization) 使得深度模型的训练比较容易。

然后,RPN(Region Propose Network) 对提取的卷积特征图进行处理,寻找可能包含 目标的 预定义数量的区域(regions,边界框) 。为了生成候选区域,在最后的共享卷积层输出的卷积特征图上做 3x3 卷积,卷积核共有512个(VGG),后面是ReLU,这样每个 3x3 区域会得到一个512维的特征向量。然后这个特征向量被输入到两个全连接层——一个边界框回归层(reg)和一个边界框分类层(cls)。

下面解释 k, 2k, 4k 的含义。

基于深度学习的目标检测中,可能最难的问题就是生成长度不定(variable-length)的边界框列表(bounding-boxes),边界框是具有不同尺寸(sizes)和长宽比(aspect ratios )的矩形。在构建深度神经网络时,最后的网络输出一般是固定尺寸的张量输出(采用RNN的除外)。例如,在图片分类中,网络输出是 (C, ) 的张量,C是类别标签数,张量的每个位置的标量值表示图片是类别的概率值。

在 RPN 中,通过采用 anchors(锚) 来解决边界框列表长度不定的问题,即在原始图像中统一放置固定大小的参考边界框。上面说到RPN对特征图做3x3的卷积,假设每一次卷积需要预测 k 个候选区域,因此,reg层具有 4k 个输出,编码 k 个边界框的坐标,cls层输出 2k 个分数,估计每个区域是目标或是背景的概率。这 k 个区域就是 被 k 个参考边界框初始化, k 个参考框就是 k 个锚点,作为第一次预测目标位置的参考 boxes。锚点的中心位于卷积核滑动窗口的中心。默认情况下每个滑动位置使用3个不同尺度(128 2 , 256 2 , 512 2 )3个不同长宽比(1:2, 1:1, 2:1)的锚点,k=9。对于大小为W×H(通常约为2400)的卷积特征图,总共有 W×H×k 个锚点。对于RPN的最后两个全连接层,参数的个数为 512×(4+2)×k.

不同于直接检测目标的位置,这里将问题转化为两部分。对每一个 anchor 而言:

有一种简单的方法来预测目标的边界框,即学习相对于参考边界框的偏移量。假设参考 box:( ),待预测量:( ),一般都是很小的值,以调整参考 box 更好的拟合所需要的。

虽然 anchors 是基于卷积特征图定义的,但最终的 anchos 是相对于原始图片的.

由于只有卷积层和 pooling 层,特征图的维度是与原始图片的尺寸成比例关系的. 即,数学地表述,如果图片尺寸 w×h,特征图的尺寸则是w/r×h/r. 其中,r 是下采样率(subsampling ratio). 如果在卷积特征图空间位置定义 anchor,则最终的图片会是由 r 像素划分的 anchors 集。在 VGG 中, r=16。

RPN 利用所有的参考边界框(anchors),输出一系列目标的良好的 proposals。针对每个 anchor,都有两个不同的输出:

RPN是全卷积网络。

对于分类层,每个 anchor 输出两个预测值:anchor 是背景(background,非object)的 score 和 anchor 是前景(foreground,object) 的 score.

对于回归层,也可以叫边界框调整层,每个 anchor 输出 4 个预测值: (Δxcenter,Δycenter,Δwidth,Δheight),用于 anchors 来得到最终的 proposals。根据最终的 proposal 坐标和其对应的 objectness score,即可得到良好的 objects proposals.

RPN 有两种类型的预测值输出:二值分类和边界框回归调整。

为了训练RPN,我们为每个锚点分配一个二值类别标签(是目标或不是目标)。我们给两种锚点分配一个正标签:(i)具有与实际边界框的重叠最高交并比(IoU)的锚点,或者(ii)具有与实际边界框的重叠超过 IoU的锚点。注意,单个真实边界框可以为多个锚点分配正标签。通常第二个条件足以确定正样本;但我们仍然采用第一个条件,因为在一些极少数情况下,第二个条件可能找不到正样本。对于所有的真实边界框,如果一个锚点的IoU比率低于,我们给非正面的锚点分配一个负标签。既不正面也不负面的锚点不会有助于训练目标函数。

然后,随机采样 anchors 来生成batchsize=256 的 mini-batch,尽可能的保持 foreground 和 background anchors 的比例平衡。

RPN 对 mini-batch 内的所有 anchors 采用二分类交叉熵来计算分类 loss。然后,只对 mini-batch 内标记为 foreground 的 anchros 计算回归 loss。为了计算回归的目标targets,根据 foreground anchor 和其最接近的 groundtruth object,计算将 anchor 变换到 object groundtruth 的偏移值 Δ。

Faster R-CNN没有采用简单的 L1 或 L2 loss 用于回归误差,而是采用 Smooth L1 loss. Smooth L1 和 L1 基本相同,但是,当 L1 误差值非常小时,表示为一个确定值即认为是接近正确的,loss 就会以更快的速度消失.

由于 Anchors 一般是有重叠,因此,相同目标的候选区域也存在重叠。

为了解决重叠 proposals 问题,采用 NMS 算法处理,丢弃与一个 score 更高的 proposal 间 IoU 大于预设阈值的 proposals.

虽然 NMS 看起来比较简单,但 IoU 阈值的预设需要谨慎处理. 如果 IoU 值太小,可能丢失 objetcs 的一些 proposals;如果 IoU 值过大,可能会导致 objects 出现很多 proposals。IoU 典型值为 。

NMS 处理后,根据 sore 对topN 个 proposals 排序. 在 Faster R-CNN 论文中 N=2000,其值也可以小一点,如 50,仍然能的高好的结果.

当获得了可能的相关目标和其在原始图像中的对应位置之后,问题就更加直接了,采用 CNN 提取的特征和包含相关目标的边界框,采用 RoI Pooling 处理,并提取相关目标的特征,得到一个新的向量。

RPN 处理后,可以得到一堆没有分类得分的目标 proposals。待处理问题为,如何利用这些边界框并分类。

一种最简单的方法是,对每个 porposal,裁剪,并送入pre-trained base 网络,提取特征;然后,将提取特征来训练分类器. 但这就需要对所有的 2000 个 proposals 进行计算,效率低,速度慢。Faster R-CNN通过重用卷积特征图来加快计算效率,即采用 RoI(region of interest) Pooling 对每个 proposal 提取固定尺寸的特征图。然后 R-CNN 对固定尺寸的特征图分类。

目标检测中,包括 Faster R-CNN,常用一种更简单的方法,即:采用每个 proposal 来对卷积特征图裁剪crop,然后利用插值算法(一般为双线性插值 bilinear)将每个 crop resize 到固定尺寸14×14×ConvDepth. 裁剪后,利用 2×2 kernel 的 Max Pooling 得到每个 proposal 的最终7×7×ConvDepth 特征图.

之所以选择该精确形状,与其在下面的模块(R-CNN)中的应用有关。

R-CNN利用RoI Pooling提取的特征进行分类,采用全连接层来输出每个可能的 目标类别的分类得分,是Faster R-CNN框架中的最后一个步骤。

R-CNN 有两个不同的输出:

R-CNN 对每个 proposal 的特征图,拉平后采用 ReLU 和两个大小为 4096 维的全连接层进行处理。然后,对每个不同目标采用两个不同的全连接层处理:一个全连接层有 N+1 个神经单元,其中 N 是类别 class 的总数,包括 background class;一个全连接层有 4N 个神经单元,是回归预测输出,得到 N 个可能的类别分别预测 Δcenterx,Δcentery,Δwidth,Δheight。

R-CNN 的目标基本上是与 RPN 目标的计算是一致的,但需要考虑不同的可能的 object 类别 classes.

根据 proposals 和 ground-truth boxes,计算其 IoU。与任何一个 ground-truth box 的 IoU 大于 的 proposals 被设为正确的 boxes。IoU 在 到 之间时设为 background。这里忽略没有任何交叉的 proposals。这是因为,在此阶段,假设已经获得良好的 proposals。当然,所有的这些超参数都是可以用于调整以更好的拟合 objects。

边界框回归的目标计算的是 proposal 与其对应的 ground-truth间的偏移量,只对基于 IoU 阈值设定类别后的 proposals 进行计算。随机采用一个平衡化的 mini-batch=64,其中,25% 的 foreground proposals(具有类别class) 和 75% 的background proposals.

类似于 RPNs 的 losses,对于选定的 proposals,分类 loss 采用 multiclass entropy loss;对于 25% 的 foreground proposals 采用 SmoothL1 loss 计算其与 groundtruth box 的匹配。

由于 R-CNN全连接网络对每个类别仅输出一个预测值,当计算边框回归loss 时需谨慎,只需考虑正确的类别。

类似于 RPN,R-CNN 最终输出一堆带有类别分类的objects,在返回结果前,再进一步进行处理。

为了调整边界框,需要考虑概率最大的类别的 proposals. 忽略概率最大值为 background class 的proposals.

当得到最终的 objects 时,并忽略被预测为 background 的结果,采用 class-based NMS. 主要是通过对 objects 根据类别class 分组,然后根据概率排序,并对每个独立的分组采用 NMS 处理,最后再放在一起.

最终得到的 objects 列表,仍可继续通过设定概率阈值的方式,来限制每个类的 objects 数量.

Faster R-CNN在论文中是采用分步方法,对每个模块分别训练再合并训练的权重. 自此,End-to-end 的联合训练被发现能够得到更好的结果.

当将完整的模型合并后,得到 4 个不同的 losses,2 个用于 RPN,2 个用于 R-CNN。4 种不同的 losses 以加权和的形式组织. 可以根据需要对分类 loss 和回归 loss 设置权重,或者对 R-CNN 和 RPNs 设置不同权重.

采用 SGD 训练,momentum=. 学习率初始值为 ,50K 次迭代后衰减为 . 这是一组常用参数设置。

论文相似检测需要注意什么

对于大学毕业生来说,论文查重是一件非常重要的事,为了顺利完成这件事大家需要注意哪些方面?今天paperfree小编来给大家讲解一下。 1、论文的内容和格式应加以规范。 学院对毕业论文的写作有规定,要想顺利进行论文查重,就能检测出正确的论文查重率结果,我们在写论文时就要按照学校的要求来写。许多时候,我们在查重时遇到的各种问题,其根本原因是论文没有按照学校的要求写好,比如格式不规范,没有按照学校的要求排版,最终导致查重失误。 2.注意查重系统的选择。 现在市面上的论文查重系统也是百花齐放,是有各种不同品牌的,其质量也是参差不齐,所以我们要注意选择正规可靠的论文查重系统,这样才能检测到准确的论文查重率,避免在查重过程中被泄露。文章泄露是因为有些文章查重系统实际上会盗取大家提交的文章,建议大家可以选择正规的论文查重系统。 3.注意保留论文查重报告。 通过正规可靠的查重系统,系统会出一份查重报告,非常重要,因为我们的查重结果都在上面,包括论文的总查重率、章节重复率、检测出的重复内容等。我们必须尽快下载,否则超过系统保存期会被清除。最后,我们也可以参考查重报告修改论文,以达到降低论文重复率的效果。

写论文。这可真是痛并快乐着,痛苦是因为不知道自己该怎么很好的完成论文,以及担心自己的毕业论文到底能不能通过。快乐是因为等了这么些年终于等到了毕业的这一天,庆幸自己这么久的努力没有白费,给了一个写论文的机会证明自己的价值。可是我们在发表论文的过程当中,重复率是非常重要的,如果说重复率超过了规定的额度,那么我们的论文将无法成功的进行发布,对于不同的刊物,以及不同级别的期刊都是有着不同要求的。如果自己能在论文完成之后,提前先进行一下论文查重的操作,可以大大减小自己的心理压力,可是论文查重也是有讲究的。论文查重有哪些具体注意事项呢?下面一起讲讲论文查重有哪些具体注意事项:(1)调整语序能够避重论文查重和论文避重是一个相互竞争的进程,会促进两方技能的前进。现在网上的论文查重的技术已经不是根据文章的一两个词、字或者是单独的一句话进行判断了,而是会进行自动分段之后,结合上下文的内容进行一个判断。所以,对参考文献借鉴的内容仅仅只是进行语序调整,最后都会被系统检测出来,判定为抄袭的,同学们修改论文时应该注意这一点。(2)致谢内容不检测很多同学都以为致谢内容不会检测,所以大多同学的致谢内容都是直接从网上借鉴过来的,要么就是复制往届学生的毕业论文中的致谢内容,其实只要是提交给系统的内容,都会进行检测的,如果学校需要检测致谢内容,建议同学们还是自己写比较好。(3) 表格也会被检测不要以为将内容做成表格的形式论文查重就不会检测了,现在论文查重系统对文字的检测已经到达一个较高的水平,凡是文字都会进行论文查重,当然也包括表格中的文字。大家千万不能有侥幸心理,只要大家认认真真的自己完成自己的毕业论文,而且记得论文查重有哪些具体注意事项。一定会顺利毕业的呢!

总结过一些论文查重的时候需要注意的事项:(1)调整语序能够避重目前,论文查重的技术已经不是以前那样根据文章的一个或两个词,字或单个句子来进行判断了,而是通过在自动分割之后结合上下文的内容来判断。因此,借鉴的参考内容如果只是简单的调整词序,系统还是会检测出来,判定你这是抄袭的,在修改论文时应注意这一点。(2)致谢内容不检测很多人都觉得致谢内容不参与论文检测,其实不准确,只要是我们提交给检测系统的内容都会进行检测的,如果学校要求检测致谢,建议还是自己写会比较好,如果学校不需要检测致谢内容,提交检测时就将致谢内容删除掉。(3) 表格也会被检测不要以为把文字内容做成表格的形式查重系统就检测不出来了,目前论文查重系统对文字的检测方式已经到达一个较高水平,只要是文字都会检测,当然表格中的文字也是一样的。以上就是一些注意事项,具体建议去专业论文软件在查查,类似学客行论文软件,内容很多,毕竟专业的会更准确。

首先,除了学校指定的论文查重系统,那么其他论文查重系统都多多少少都存在检测差异。现在很多学校定稿都使用知网查重,但是知网查重的检测价格太高,价格几百上千的都有,对于没有收入的学生而已,开支成本太高。所以,在论文初稿时可以先使用papertim论文查重系统,可以进行反复修改和查重,价格也不高。 其次,如果完成的毕业论文重复率达到了学校的要求,那么可以先提交给导师查看了,导师会对论文内容提出一些修改建议,我们可以按照建议改了后再次查重。如果学校有提供免费查重机会,那么可以使用学校提供的次数查重,不过学校提供的查重次数一般都有限制,所以大家要珍惜。 再次,论文最好是在规定时间内提前完成,并且要认真完成好。有的同学认为自己没什么研究成果,没不觉得论文查重会很严格,所以对于毕业论文以及论文查重这些事项都不了解。所以,在写论文时没怎么注意原创度的问题,那么第一次查重的结果一定会比较高的,如果没有留下充足的时间,到时候加上时间比较赶,需要在很很短的时间内把重复率降下来,那么压力还是比较大的。所以小编在这里提醒大家,要认真完成好毕业论文,千万不要不当回事,并且不要抄袭,不然后续降重时会感觉到特别着急。 看完以上的内容希望对大家有所帮助,只要多注意这些问题,那么顺利毕业还是不难的!

检测论文相似率要注意什么

在检测我们的论文重复率时,除了检测价格的问题,我们还会注意哪些问题?到了毕业季,每个人都需要一些毕业论文,但是论文不可能一次性修改达标,而是需要多次修改,所以很多人会考虑查重的成本比。否则很容易花大钱,甚至自己辛辛苦苦写的论文也会被抄袭。今天就来说说论文查重应该注意哪些问题。

1.注意论文查重系统。首先要特别注意论文的查重系统。因为现在查重系统越来越多,一些无良商家会抄袭论文,有的甚至转卖。这些利用了很多大学生想省钱的心理,然后吸引用户将论文提交到网站进行查重,再保存下来在第三方平台上销售。这种情况主要存在于不可靠且不普及的论文查重系统中。因此,在选择论文查重系统时要非常谨慎,提前咨询老师,学生要选择知名平台或系统。我们可以按照学校规定的论文查重系统。在查重之前,可以先和导师确认一下学校要求的是哪种查重系统,然后在指定的平台上查重,避免重复提交。这样不仅省钱,还能得到导师的认可。

2.注意论文的查重方法。其次,论文查重方法还是很简单的。一些学生习惯性地将内容直接复制到系统中进行重复检查。这种检测方法可以省略内容。小编还是建议你按照系统提示直接以文档的形式提交文章,因为系统已经设置好算法和数据,只需要根据内容进行检测即可。如果把论文内容分成几部分反复查重,可能会在查重中造成一些误差。

1、注意引用和致谢

在引用和感谢中很容易发现重复,因此如何合理引用非常重要,因为一些论文有不同的研究项目,但一些相关材料仍有许多相似之处。我们以实验项目研究为例。一个学生研究蛋白质和脂肪的含量,而另一个学生则研究糖和维生素C的含量。它们都是一样的,只是具体的研究内容不同。所以学生们在引用和感谢的时候应该睁大眼睛!不要使用几个学生的相同语录和感谢!

2、注意公式和表格

我们在将PDF转换成word的时候公式是不能同时转换的,因此公式无法在查重系统里面显示出现。然而目前的论文查重技术水平也是越来越强大。有些论文查重系统识别论文里面的公式与表格,那么我们对公式与表格要特别的注意。

3、注意语序的调整

如今的查重技术不单单只几个词语一段句子进行识别检测,还针对将达到一定语义级别的内容上下文内容。该系统能自动识别文章的内容,如目录和正文以及参考文献等的内容,并能在一定程度上快速定位和标记重复的内容。假如修改只是为了调整语句的顺序,那么应该迅速做出这种方法不可行的判断。

每年毕业季,每个应届毕业生都需要准备论文写作的相关事宜。除了完成论文写作,还需要在导师的指导下对论文进行多次查重和修改。论文查重多少过关?接下来介绍一下。 一、论文查重多少过关? 1.不同学校对毕业论文的要求不同,这也要求我们仔细核对学校的通知。但通常本科毕业论文的查重率只要控制在30%就符合标准。 2.研究生毕业论文大多要求查重率控制在15%以内。对于要求宽松的大学,要求研究生毕业论文的查重率保持在20%以内。 3.至于博士生毕业论文,其要求无疑是最严格的,论文查重率不得超过10%。如果是要求更严格的大学,要求查重率不得超过5%,这也对博士生提出了相当高的要求。 二、论文查重要提交哪些内容? 1.论文涵盖了很多方面,其中正文,即绪论。这个结论和结论必须查重。至于其他内容,如目录、附录、参考文献、摘要等。是否需要查重是根据学校的要求确定的。查重前要仔细看学校的通知。 2.论文的段落、格式、章节等。也是论文查重系统在测试时的识别和比较。查重系统的规则大多是在查重时将整篇论文分为不同的段落和句型,然后对比计算查重率,最后综合计算整篇论文的查重率,得论文的查重报告。

论题检测主要检测重复性如今大部分毕业论文关键是看论文查重率的情况,想顺利参与论文答辩那么查重率就一定要达标,论文答辩通过后才可以顺利毕业取得证书。如果查重率很高的话就会导致答辩时间推迟,那么就会影响正常毕业,因此一定要提前对学校论文查重率的要求进行了解,然后事先查重再修改。文章主要检测格式是否正确大部分学校对论文格式的要求是很严格的,博士论文在查重的时候格式错误,最终得出的查重率就会有一定的影响。对于论文查重检测的内容是什么,只有还是要对不同学历的人做分析,对学校的要求进行了解后,论文查重才能顺利完成,一定要重视起来。论题内容是否合理通常我们对论文进行查重的时候都是上传全篇论文,那么一篇高质量的论文,不但要有比较好的题目之外,还包含了很多证据和观点,这些证据和观点可以更好的证明论文的研究成果,所以说一篇好的文章,同学们写论文也要采用这种写法。

图像注意力机制研究现状论文

自注意力机制是注意力机制的一种,有关注意力机制的介绍可以参考我的前一篇博客: Seq2Seq中的Attention机制 。

Attention机制最早是在视觉图像领域提出来的,应该是在九几年思想就提出来了,但是真正火起来应该算是2014年google mind团队的这篇论文《Recurrent Models of Visual Attention》,他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是第一个将attention机制应用到NLP领域中。接着attention机制被广泛应用在基于RNN/CNN等神经网络模型的各种NLP任务中。2017年,google机器翻译团队发表的《Attention is all you need》中大量使用了自注意力(self-attention)机制来学习文本表示。自注意力机制也成为了大家近期的研究热点,并在各种NLP任务上进行探索 [1] 。

Seq2Seq中的Attention是在Decoder阶段,如果用在机器翻译中的话就是着重考虑输出与输入的对应关系 ,比如将英文 walk by river bank. 翻译成中文的时候,翻译 走 这个字就只需将attention放在 walk 即可,其它三个单词对翻译 走 这个词是没有帮助的,所以我们不需要关注它们。 而self-attention就不同,它是关注 walk 与 by , river , bank 的内在联系 。在翻译的时候,self-attention会去联系上下文语境,然后决定 bank 到底该翻译为 银行 还是 河岸 。

对于两个词向量而言,对它们做点积,如果结果越大表明它们越相似,结果越小表明它们差别越大(两向量不相关,点积为0)。比如"river"和"bank"两个词向量可能比较相似,因为它们都表示自然界中的两个环境,因此它们的点积相较于其它词向量的点积可能更大。

我们将输入与输入的转置作点积,会得到一个新的矩阵,该矩阵为各个词向量之间的相关性,如所示:

为了避免点积之后获得太大的值,需要对点积之后的矩阵进行放缩,这里通常采用的是softmax激活函数,对每一列进行放缩,放缩之后每一列中的数相加和等于1,如所示。

Scalar product

最后我们会得到如所示的词向量之间的相关性矩阵。从图中可以看到,"river"和"bank"的相关性比较高,所以它的颜色较深。Softmax为非线性激活函数,我们可以对self-attention进行叠加,让它成为一个深度self-attention网络模型。

将输入词向量与相关性矩阵相乘,会得到Contextualized embeddings向量,如所示。

回顾一下 的计算过程可以发现, self-attention的输出就是所有输入的权重和 ,而权重 不是参数,而是输入 本身。因此,self-attention的输入与输出的维度是一样的。

在搜索栏中输入一个问题,这个叫 query ,然后搜索算法会根据你输入的问题的关键字 keys 来匹配你可能想要的结果,而匹配到的结果就叫做 values 。把这一关系放在Attention中,输入为 query ,通过计算 query 与各个 key 的相似性,得到每个 key 对应 value 的权重系数,然后对 value 进行加权求和,即得到最终attention的数值 [4] 。其整个过程如所示。

本文大部分的内容来自于 深度学习中的注意力机制 意力机制借鉴了人类注意力的说法,比如我们在阅读过程中,会把注意集中在重要的信息上。在训练过程中,输入的权重也都是不同的,注意力机制就是学习到这些权重。最开始attention机制在CV领域被提出来,但后面广泛应用在NLP领域。 需要注意的是,注意力机制是一种通用的思想和技术,不依赖于任何模型,换句话说,注意力机制可以用于任何模型。只是我们介绍注意力机制的时候更多会用encoder-decoder框架做介绍。 Encoder-Decoder 框架可以看作是一种深度学习领域的研究模式,应用场景异常广泛。下图是文本处理领域里Encoder-Decoder 框架最抽象的一种表示。 在NLP领域,可以把Encoder-Decoder框架看作是:将一个句子(篇章)转换成另一个句子(篇章)。最直观的例子就是机器翻译,将一种语言的表达翻译成另一种语言。对于句子对,将给定输入句子 source,通过Encoder-Decoder框架生成目标句子target。其中,source和target都是一组单词序列:Encoder是对source进行编码,转换成中间语义 : 对于解码器Decoder,其任务是根据中间语义C和当前已经生成的历史信息来生成下一时刻要生成的单词:我们从最常见的Soft Attention模型开始介绍attention的基本思路。 在上一节介绍的Encoder-Decoder框架是没有体现出“注意力模型”的,为什么这么说呢?我们可以看下target的生成过程: 其中, 是Decoder的非线性变换函数。从上面式子中可以看出,在生成目标句子的单词时,不论生成哪个单词,它们使用的输入句子source的语义编码 都是一样的,没有任何区别。而语义编码 又是通过对source经过Encoder编码产生的,因此对于target中的任何一个单词,source中任意单词对某个目标单词 来说影响力都是相同的,这就是为什么说图1中的模型没有体现注意力的原因。 下面从一个例子入手,具体说明下注意力机制是怎么做的。 比如机器翻译任务,输入source是英文句子:Tom chase Jerry;输出target想得到中文:汤姆 追逐 杰瑞。在翻译“Jerry”这个单词的时候,在普通Encoder-Decoder模型中,source里的每个单词对“杰瑞”的贡献是相同的,很明显这样不太合理,因为“Jerry”对于翻译成“杰瑞”更重要。如果引入Attention模型,在生成“杰瑞”的时候,应该体现出英文单词对于翻译当前中文单词不同的影响程度,比如给出类似下面一个概率分布值:每个英文单词的概率代表了翻译当前单词“杰瑞”时注意力分配模型分配给不同英文单词的注意力大小。同理,对于target中任意一个单词都应该有对应的source中的单词的注意力分配概率,可以把所有的注意力概率看作 ,其中 表示source长度, 表示target长度。而且,由于注意力模型的加入,原来在生成target单词时候的中间语义 就不再是固定的,而是会根据注意力概率变化的 ,加入了注意力模型的Encoder-Decoder框架就变成了如图2所示。根据图2,生成target的过程就变成了下面形式: 因为每个 可能对应着不同的注意力分配概率分布,比如对于上面的英汉翻译来说,其对应的信息可能如下: 其中, 表示Encoder对输入英文单词的某种变换函数,比如如果Encoder是用RNN模型的话,这个 函数的结果往往是某个时刻输入 后隐层节点的状态值;g代表Encoder根据单词的中间表示合成整个句子中间语义表示的变换函数,一般的做法中,g函数就是对构成元素加权求和,即: 其中, 代表输入句子Source的长度, 代表在Target输出第 个单词时Source输入句子第 个单词的注意力分配系数,而 则是Source输入句子中第 个单词的语义编码。假设下标 就是上面例子所说的“汤姆”生成如下图:那另一个问题来了:注意力概率分布是怎么得到的呢?为了便于说明,我们假设图1的Encoder-Decoder框架中,Encoder和Decoder都采用RNN模型,那么图1变成下图4: 那么注意力分配概率分布值的通用计算过程如图5:上面就是经典的soft Attention模型的基本思想,区别只是函数 会有所不同。 从我的角度看,其实Attention机制可以看作,Target中每个单词是对Source每个单词的加权求和,而权重是Source中每个单词对Target中每个单词的重要程度。因此,Attention的本质思想会表示成下图6: 将Source中的构成元素看作是一系列的数据对,给定Target中的某个元素Query,通过计算Query和各个Key的相似性或者相关性,即权重系数;然后对Value进行加权求和,并得到最终的Attention数值。将本质思想表示成公式如下: 其中, 表示Source的长度。 深度学习中的注意力机制 中提到: 因此,Attention机制的具体计算过程实际上分成了3个阶段,如图7: 第一阶段可以引入不同的函数和计算机制,根据Query和某个 ,计算两者的相似性或者相关性,最常见的方法包括:求两者的向量点积、求两者的向量cosine相似性或者引入额外的神经网络来求值,如下:第二阶段引入类似SoftMax的计算方式,对第一阶段的得分进行数值转换,一方面可以进行归一化,将原始计算分值整理成所有元素权重之和为1的概率分布;另一方面也可以通过SoftMax的内在机制更加突出重要元素的权重。即一般采用的公式如下: 第三阶段的计算结果 即为 对应的权重系数,然后进行加权求和即可得到Attention数值: 通过如上三个阶段的计算,就可以求出针对Query的Attention数值。 上面介绍的是soft Attention,hard Attention的区别在于soft Attention中 是概率分布,而hard Attention取值为0/1。Hard Attention在图像上有使用,具体可见 引入attention机制 。 这里的global attention其实就是soft Attention,global attention需要考虑encoder中所有的 ;而local Attention直观上理解是只考虑局部的 。 Self-attention是Google在transformer模型中提出的,上面介绍的都是一般情况下Attention发生在Target元素Query和Source中所有元素之间。而Self Attention,指的是Source内部元素之间或者Target内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的注意力机制。当然,具体的计算过程仍然是一样的,只是计算对象发生了变化而已。 上面内容也有说到,一般情况下Attention本质上是Target和Source之间的一种单词对齐机制。那么如果是Self Attention机制,到底学的是哪些规律或者抽取了哪些特征呢?或者说引入Self Attention有什么增益或者好处呢?仍然以机器翻译为例来说明,如图8和图9: 具体做法是点乘 和 ,然后除以 ,并经过Softmax,以此得到 的权重。也就是说Attention计算过程如下式,其中 是scaled factor:注意力的计算一般有两种:加性注意力(additive attention)、乘法(点积)注意力(multiplicative attention)。(这里可以和第3部分计算相似度对应) 加性注意力是最经典的注意力机制,它使用了有一个隐藏层的前馈网络(全连接)来计算注意力; 乘法注意力就是Transformer用的方式。这两种注意力在复杂度上是相似的,但是乘法注意力在实践中要更快速、具有高效的存储,因为它可以使用矩阵操作更高效地实现。 Transformer原文: Multi-Head Attention是用不同的 得到不同的Attention,最后将这些Attention拼接起来作为输出。公式如下: 其中, ;在Transformer模型中, 。 Scaled Dot-Product Attention和Multi-Attention如下图所示:

Attention机制在近几年来在图像,自然语言处理等领域中都取得了重要的突破,被证明有益于提高模型的性能。Attention机制本身也是符合人脑和人眼的感知机制,这里我们主要以计算机视觉领域为例,讲述Attention机制的原理,应用以及模型的发展。

所谓Attention机制,便是聚焦于局部信息的机制,比如图像中的某一个图像区域。随着任务的变化,注意力区域往往会发生变化。

面对上面这样的一张图,如果你只是从整体来看,只看到了很多人头,但是你拉近一个一个仔细看就了不得了,都是天才科学家。

图中除了人脸之外的信息其实都是无用的,也做不了什么任务, Attention机制便是要找到这些最有用的信息 ,可以想见最简单的场景就是从照片中检测人脸了。

和注意力机制相伴而生的一个任务便是显著目标检测,即salient object detection。它的输入是一张图,输出是一张概率图,概率越大的地方,代表是图像中重要目标的概率越大,即人眼关注的重点,一个典型的显著图如下:

右图就是左图的显著图,在头部位置概率最大,另外腿部,尾巴也有较大概率,这就是图中真正有用的信息。

显著目标检测需要一个数据集,而这样的数据集的收集便是通过追踪多个实验者的眼球在一定时间内的注意力方向进行平均得到,典型的步骤如下:

于是就能得到下面这样的图,第二行是眼球追踪结果,第三行就是显著目标概率图。

上面讲述的都是空间上的注意力机制,即关注的是不同空间位置,而在CNN结构中,还有不同的特征通道,因此不同特征通道也有类似的原理,下面一起讲述。

注意力机制的本质就是定位到感兴趣的信息,抑制无用信息,结果通常都是以概率图或者概率特征向量的形式展示,从原理上来说,主要分为 空间注意力模型,通道注意力模型,空间和通道混合注意力模型 三种, 这里不区分soft和hard attention 。

不是图像中所有的区域对任务的贡献都是同样重要的,只有任务相关的区域才是需要关心的,比如分类任务的主体,空间注意力模型就是寻找网络中最重要的部位进行处理。

我们在这里给大家介绍两个具有代表性的模型,第一个就是Google DeepMind提出的STN网络(Spatial Transformer Network[1])。它通过学习输入的形变,从而完成适合任务的预处理操作,是一种基于空间的Attention模型,网络结构如下:

这里的Localization Net用于生成仿射变换系数,输入是C×H×W维的图像,输出是一个空间变换系数,它的大小根据要学习的变换类型而定,如果是仿射变换,则是一个6维向量。

这样的一个网络要完成的效果如下图:

即定位到目标的位置,然后进行旋转等操作,使得输入样本更加容易学习。这是一种一步调整的解决方案,当然还有很多迭代调整的方案,感兴趣可以去有三知识星球星球中阅读。

相比于Spatial Transformer Networks 一步完成目标的定位和仿射变换调整,Dynamic Capacity Networks[2]则采用了两个子网络,分别是低性能的子网络(coarse model)和高性能的子网络(fine model)。低性能的子网络(coarse model)用于对全图进行处理,定位感兴趣区域,如下图中的操作fc。高性能的子网络(fine model)则对感兴趣区域进行精细化处理,如下图的操作ff。两者共同使用,可以获得更低的计算代价和更高的精度。

由于在大部分情况下我们感兴趣的区域只是图像中的一小部分,因此空间注意力的本质就是定位目标并进行一些变换或者获取权重。

对于输入2维图像的CNN来说,一个维度是图像的尺度空间,即长宽,另一个维度就是通道,因此基于通道的Attention也是很常用的机制。

SENet(Sequeeze and Excitation Net)是2017届ImageNet分类比赛的冠军网络,本质上是一个基于通道的Attention模型,它通过建模各个特征通道的重要程度,然后针对不同的任务增强或者抑制不同的通道,原理图如下。

在正常的卷积操作后分出了一个旁路分支,首先进行Squeeze操作(即图中Fsq(·)),它将空间维度进行特征压缩,即每个二维的特征图变成一个实数,相当于具有全局感受野的池化操作,特征通道数不变。

然后是Excitation操作(即图中的Fex(·)),它通过参数w为每个特征通道生成权重,w被学习用来显式地建模特征通道间的相关性。在文章中,使用了一个2层bottleneck结构(先降维再升维)的全连接层+Sigmoid函数来实现。

得到了每一个特征通道的权重之后,就将该权重应用于原来的每个特征通道,基于特定的任务,就可以学习到不同通道的重要性。

将其机制应用于若干基准模型,在增加少量计算量的情况下,获得了更明显的性能提升。作为一种通用的设计思想,它可以被用于任何现有网络,具有较强的实践意义。而后SKNet等方法将这样的通道加权的思想和Inception中的多分支网络结构进行结合,也实现了性能的提升。

通道注意力机制的本质,在于建模了各个特征之间的重要性,对于不同的任务可以根据输入进行特征分配,简单而有效。

前述的Dynamic Capacity Network是从空间维度进行Attention,SENet是从通道维度进行Attention,自然也可以同时使用空间Attention和通道Attention机制。

CBAM(Convolutional Block Attention Module)是其中的代表性网络,结构如下:

通道方向的Attention建模的是特征的重要性,结构如下:

空间方向的Attention建模的是空间位置的重要性,结构如下:

首先将通道本身进行降维,分别获取最大池化和均值池化结果,然后拼接成一个特征图,再使用一个卷积层进行学习。

这两种机制,分别学习了通道的重要性和空间的重要性,还可以很容易地嵌入到任何已知的框架中。

除此之外,还有很多的注意力机制相关的研究,比如 残差注意力机制,多尺度注意力机制,递归注意力机制 等。

从原理上来说,注意力机制在所有的计算机视觉任务中都能提升模型性能,但是有两类场景尤其受益。

我们知道细粒度分类任务中真正的难题在于如何定位到真正对任务有用的局部区域,如上示意图中的鸟的头部。Attention机制恰巧原理上非常合适,使用了注意力机制,对模型的提升效果很明显。

我们又回到了开头,没错,Attention的本质就是重要/显著区域定位,所以在目标检测领域是非常有用的。

上图展示了几个显著目标检测的结果,可以看出对于有显著目标的图,概率图非常聚焦于目标主体,在网络中添加注意力机制模块,可以进一步提升这一类任务的模型。

检测相关论文题目

简单的可以选方法学的比对,两种测定方法的比对,两种设备的比对都可以的。少复杂一些的就是疾病中某一(或某些)测定物质的调查。复杂的就是研究了,学生肯定做不来的,一般需一些经费。

道路桥梁,一般由路基、路面、桥梁、隧道工程和交通工程设施等几大部分组成。下面是我精心推荐的一些道路桥梁工程技术论文题目,希望你能有所感触! 道路桥梁工程技术论文题目篇一 1、论石灰土稳定天然砂砾路面基层的应用 2、二灰碎石基层的施工及质量控制 3、公路路堑边坡防护技术研究 4、强法处理湿陷性黄土路基工艺 5、浅谈高等级公路沥青砼路面机械化施工的几个方面 6、沥青混凝土混合料的组成设计 7、沥青混凝土场拌质量控制 8、石灰稳定的施工与病害防治 9、冲击压实技术在路基工程中的应用 10、浅析场拌二灰砂砾参破碎砾石质量控制 11、骨架密实型二灰碎石基层修筑技术研究 12、水泥稳定碎石基层收缩裂缝防治 13、解决高速公路桥头跳车的理论与施工 14、公路桥面铺装早期破坏原因及治理方法 15、市政工程现场施工与质量管理 16、关于风积沙路基施工的论述 17、论改性沥青路面施工技术 18、石质路堑路床整修带来的思考 19、二灰土底基层的施工 20、二灰碎石基层的施工 21、市政道路工程质量通病及防治 22、土工合成材料的应用 23、土方量计算方法 24、高填方路基沉降变形规律研究 25、公路路基压实质量控制 26、公路路基沉陷的处理技术 27、软土地基的加固措施 28、浅谈填石路堤的施工技术 29、路拌法水泥石灰综合稳定土的施工质量控制 30、SMA混合料的施工质量控制 31、粉喷桩在高填方软土地基中的应用 32、公路边坡植被防护技术 33、浅析滑坡形成机理及防治措施 34、大孔隙沥青混凝土路面 35、农村公路薄层水泥混凝土路面探析 36、喷播边坡防护技术初探 道路桥梁工程技术论文题目篇二 道路桥梁工程检测技术 摘要:道路桥梁工程检测技术的应用和探索,不仅能够起到保证桥梁运行安全、延长桥梁使用寿命的作用,还能通过对桥梁病害的及早发现,规避因整顿大修、关闭交通所带来的重大损失。介绍道路桥梁外观病害分析方法,总结几种道路桥梁的检测技术,可为相关检测工作提供参考。 关键词:道路桥梁 检测技术 外观检测 0、引言 近几年来,受车祸、超载和养护不当等人为因素,以及地震、洪水等自然因素的影响,道路桥梁出现了各种各样的关于其结构损伤、病害的问题,缩短了其使用寿命,为保证道路桥梁的运营安全,需要对其进行检测。道路桥梁检测技术应运而生,并快速发展起来。 1、当前道路桥梁在使用中常出现的问题 道路桥梁在使用过程中会出现各种问题, 导致道路桥梁的安全性遭到破坏。 当前, 道路桥梁病害原因大致分为以下几类: a) 缺乏科学合理的设计方案, 导致不明确的工程施工规划; b)在道路桥梁试运行期间或者试运行以后, 道路桥梁出现比较严重的病害, 从而在很大程度上影响道路桥梁的承载能力; c)道路桥梁在施工过程中 ,没有按照规范进行, 导致施工质量较差, 使工程完工时没有达到工程预先的设计要求; d)有些桥梁在施工建设时的施工质量比较好, 在试运行期间也达到了良好的状态要求, 但是在运行一段时间以后桥梁的承载能力达不到要求; e)对于大跨度桥梁的检测工作可能会存在检测不到位现象, 导致桥梁出现安全隐患, 这类桥梁需要更加高深的检测技术, 而现阶段我国的检测方式还不能达到要求。 2、道路桥梁外观病害分析法 根据部位逐一进行检测 道路桥梁的结构组成可以分为上部、 下部以及其余附属结构。 鉴于不同的结构部位有不同的受力特征, 不同部位也会发生具有一些共性的病害, 对于出现的非常规病害, 检测人员要仔细 研究其病害发生原因, 同时按照不同部位发生的病害程度进行相应的质量评估, 然后更换损坏部件以维持正常运行。 根据受力特征确定检测重点 通常情况下, 可以根据桥梁的类型确定检测重点, 这些重点主要集中在跨中区域的裂缝、 剪力缝、 挠度、 桥梁主梁连接部位的安全情况以及道路桥梁的外观质量等。 对材料特性进行检测调查 随着新技术、 新产品的不断发展和桥梁结构日益多样化, 越来越多的材料和设计应用到桥梁的结构建设中来, 其中使用最广的仍然是钢筋和混凝土结构。 其中钢筋的强度常常是以设计施工中的相关资料为依据的, 检测人员如果发现钢筋质量出现问题或者资料不明确, 在施工前要采取一定的措施进行相关问题的材料试验。 内部缺陷检测 在道路桥梁的混凝土构架中, 常常出现碎裂、 蜂窝、 分层、环境侵蚀以及钢筋锈蚀等缺陷, 如果单单靠外观检测不能及时发现这些缺陷, 因此要借助于其他的检测技术进行相关检测。 当前常用的桥梁检测方法有雷达检测技术、 声波检测法以及超声波探伤法。 结构性能检测 在完成道路桥梁进行整体评价以后, 要根据相关的技术规范进行相应的验算工作, 在验算过程中的相关技术参数要以实际桥梁为准。 验算完成后, 对于未达到规范要求的桥梁可以考虑重建, 对于相对可以利用的可以进行更深一步的鉴定检测。 桥梁钢筋锈蚀测评 由于混凝土的密实度、 碳化深度、 含水量以及保护层厚度不足或者开裂损伤等原因而导致钢筋锈蚀的, 可以通过外观检测、敲击检查等简单易行的操作对钢筋锈蚀程度进行检测。 3、道路桥梁检测技术 超声波检测技术 超声法检测道路桥梁缺陷的基本原理是利用超声波检测仪以及声波换能器, 测量并分析超声脉冲在道路桥梁中的传播速度、波幅、 主频率等参数, 然后以这些参数以及相应的变化为依据,判断道路桥梁出现的缺陷。 地质雷达检测技术 地质雷达技术又称探测雷达技术, 是一种高精度、 无损检测、 直观、 经济快速的高科技检测技术。 该技术主要通过地质雷达向物体内部发射高频电磁波,然后接受由物体产生的相应反射来判断物体内部的情况。 地质雷达技术是一项精度较高的物理探测技术, 主要应用于工程地质、地基工程、 文物考古、 道路桥梁以及混凝土结构探伤等检测领域。 利用地质雷达仪器进行检测的主要流程为: a)检测人员利用笔记本电脑对控制单元发出指令信息; b) 控制单元在接受指令以后, 向发射天线和接收天线发射出信号; c)当发射触发信号以后, 向地面发射高频电磁波; d)当探测位置为不均匀介质时, 电磁波就会遇到不同电性的目标和界面, 导致部分电磁波被反射回地面, 然后接收天线接收信号, 并以数据的形式传到控制单元, 返回到笔记本中, 以图像的形式显现出来; e) 通过对图像进行分析处理, 就可以检测出被检测物的内部情况。 声发射法检测技术 由于材料内部结构不均匀或者存在不同性质的缺陷, 局部应力的集中会导致不稳定的应力分布, 材料在产生裂缝、 发生塑性变形以及断裂过程中, 会释放出部分应力, 使之以应力波的形式向四周扩散, 即为声发射。 道路桥梁中的混凝土结构在荷载作用下发生变形, 当变形超出设计要求时, 就会出现裂纹,以波的形式释放能量。 运用声发射法对道路桥梁进行检测时, 将声发射器放置在需要检测的部位, 通过检测不同位置收到的声波时间差, 就可以明确缺陷的发生位置。 运用声波发射法进行检测可以详细、 准确、 快速地了解桥梁内部结构的变化。 在分析研究缺陷位置以后, 裂纹的种类、大小、 开裂速度等都可以比较详细地分析出来。 由于此种检测方法容易受到周围噪声的影响, 会导致检测精度的下降; 另一方面, 此种方法是利用道路桥梁内部缺陷,因此可以进行连续的动态检测。 冲击回波法检测技术 冲击回波法检测技术是检测仪器通过机械冲击器向被检测物体表面发送应力脉冲波, 当压缩波在物体内传播遇到内部缺陷时, 冲击波就不能穿透而发生反射, 当波速固定且选择正确的冲击器时, 就可以通过测试准确地测得缺陷位置, 即便没有缺陷也可以测得物体的厚度。 冲击回波法检测技术常为单面反射测试技术, 在检测完一点以后就可以判断出此处是否有损伤, 因此该方法具有方便、 快捷, 测试结果比较直观的优点。此方法广泛应用于道路桥梁混凝土或者混凝土结构内部裂纹等缺陷的测定。 另一方面, 此种方法虽然检测简单, 但属于单点测量, 其检测的结果存在不全面的缺点, 实际应用也比较少。 红外热像检测技术 红外线热像检测技术就是运用红外线热像探测仪器检测物体各部分发出的红外线能量, 然后根据物体表面温度场分布情况,直观地显示物体材料及结构上存在的不连续缺陷。 红外热像检测技术是非接触性无损检测技术。 红外热像检测技术具有以下优点: a)红外热像检测技术的探测焦距可以从20cm到无穷远, 因此更加适合具有非接触性及大范围性无损检测; b)红外热像探测仪只对红外线产生反应, 因此只要道路桥梁的温度高于零度, 就可以用红外热像检测技术进行检测; c)由于红外热像检测仪可以取得很高的检测精度, 其温度分辨率可以达到℃; d)检测模式更加灵活, 其摄像速度从1~30帧/s之间变化, 既适合静态检测又适合动态检测。 4、结语 对于道路桥梁进行相关内容的检测已经成为了目前道路桥梁日常维护管理过程中重要的组成部分之一。所以必须建立一套适用于道路桥梁试验相关的检测系统,并且实现对道路桥梁使用安全有效的保障,并且还需要具有一定的系统性以及智能化,这样就要求了相关的工作人员本身必须拥有较为丰富的实践经验,与此同时还必须对相关的理论知识有一个详细的了解,积极有效地将理论实际进行有效的集合,并且对每一项具体的检测数据进行有效地获取、分析,并且对整个道路桥梁进行准确细致的评估,同时及时有效地将安全隐患进行消除。 看了“道路桥梁工程技术论文题目”的人还看: 1. 道路桥梁工程技术论文 2. 道路桥梁工程论文 3. 道路桥梁施工技术论文 4. 道路桥梁工程检测技术论文 5. 道路桥梁论文范文

网上很多题目,都不是原创,最好别用。之前也是网上down的一篇,老师直接说不行。还是后来学长给的雅文网,写的《大肠杆菌检验方法的探究与分析》,十分专业。看下参考文献吧 [1] 毕玲玲1,孙成春2,公衍文3,张欣悦1,安小通1. 黏液型和非黏液型铜绿假单胞菌临床分布和耐药表型分析[J]. 军医进修学院学报. [2] 熊燕,张虹,陈炎添,容永璋. 社区和医院获得性血流感染的病原菌分布及感染途径调查[J]. 检验医学. 2014(10) [3] 于霞,尚媛媛,赵立平,董玲玲,马异峰,王晓波,黄海荣. 分子杂交法快速鉴定结核分枝杆菌和非结核分枝杆菌的初步评价[J]. 检验医学. 2014(10) [4] 张景皓,王家路,赵虎. 新疆汉族与维吾尔族HBV耐药变异类型与基因型研究[J]. 检验医学. 2014(10) [5] 张津萍,尤永燕,沙仲,张瑞丽,王千秋. FQ-PCR与血清型特异性抗体法检测HSV-2的临床意义[J]. 检验医学. 2014(10) [6] 赵付菊,赵虎. 染色体介导AmpC β-内酰胺酶表达的分子调控机制的研究进展[J]. 检验医学. 2014(10) [7] 乔昀,赵英妹,仲俊,张珏,龚捷文. 实时荧光定量PCR在快速检测耐甲氧西林金黄色葡萄球菌中的评价与应用[J]. 检验医学. 2014(07) [8] 刘锦燕,倪培华,史册,魏冰,项明洁. 白念珠菌14-α脱甲基酶K143Q氨基酸置换与氟康唑耐药形成的相关性研究[J]. 检验医学. 2014(07) [9] 张勇,刘爱胜,文艳. 75株碳青霉烯类耐药铜绿假单胞菌ERIC-PCR菌种分型及其主要耐药机制研究[J]. 检验医学. 2014(07) [10] 胡海燕,裘先前,许照美. 1株与福氏志贺菌Y变种交叉凝集的摩根摩根菌鉴定结果[J]. 浙江预防医学. 2014(10)

医学检验?是关于人的还是动物的?

相关百科

热门百科

首页
发表服务