论文原文:
YOLO(you only look once)是继RCNN、faster-RCNN之后,又一里程碑式的目标检测算法。yolo在保持不错的准确度的情况下,解决了当时基于深度学习的检测中的痛点---速度问题。下图是各目标检测系统的检测性能对比:
如果说faster-RCNN是真正实现了完全基于深度学习的端到端的检测,那么yolo则是更进一步,将 目标区域预测 与 目标类别判断 整合到单个神经网络模型中。各检测算法结构见下图:
每个网格要预测B个bounding box,每个bounding box除了要回归自身的位置之外,还要附带预测一个confidence值。这个confidence代表了所预测的box中含有object的置信度和这个box预测的有多准两重信息,其值是这样计算的:
其中如果有object落在一个grid cell里,第一项取1,否则取0。第二项是预测的bounding box和实际的groundtruth之间的IoU值。
每个bounding box要预测(x, y, w, h)和confidence共5个值,每个网格还要预测一个类别信息,记为C类。即SxS个网格,每个网格除了要预测B个bounding box外,还要预测C个categories。输出就是S x S x (5*B+C)的一个tensor。(注意:class信息是针对每个网格的,即一个网格只预测一组类别而不管里面有多少个bounding box,而confidence信息是针对每个bounding box的。)
举例说明: 在PASCAL VOC中,图像输入为448x448,取S=7,B=2,一共有20个类别(C=20)。则输出就是7x7x30的一个tensor。整个网络结构如下图所示:
在test的时候,每个网格预测的class信息和bounding box预测的confidence信息相乘,就得到每个bounding box的class-specific confidence score:
等式左边第一项就是每个网格预测的类别信息,第二三项就是每个bounding box预测的confidence。这个乘积即encode了预测的box属于某一类的概率,也有该box准确度的信息。
得到每个box的class-specific confidence score以后,设置阈值,滤掉得分低的boxes,对保留的boxes进行NMS(非极大值抑制non-maximum suppresssion)处理,就得到最终的检测结果。
1、每个grid因为预测两个bounding box有30维(30=2*5+20),这30维中,8维是回归box的坐标,2维是box的confidence,还有20维是类别。其中坐标的x,y用bounding box相对grid的offset归一化到0-1之间,w,h除以图像的width和height也归一化到0-1之间。
2、对不同大小的box预测中,相比于大box预测偏一点,小box预测偏一点肯定更不能被忍受的。而sum-square error loss中对同样的偏移loss是一样。为了缓和这个问题,作者用了一个比较取巧的办法,就是将box的width和height取平方根代替原本的height和width。这个参考下面的图很容易理解,小box的横轴值较小,发生偏移时,反应到y轴上相比大box要大。其实就是让算法对小box预测的偏移更加敏感。
3、一个网格预测多个box,希望的是每个box predictor专门负责预测某个object。具体做法就是看当前预测的box与ground truth box中哪个IoU大,就负责哪个。这种做法称作box predictor的specialization。
4、损失函数公式见下图:
在实现中,最主要的就是怎么设计损失函数,坐标(x,y,w,h),confidence,classification 让这个三个方面得到很好的平衡。简单的全部采用sum-squared error loss来做这件事会有以下不足:
解决方法:
只有当某个网格中有object的时候才对classification error进行惩罚。只有当某个box predictor对某个ground truth box负责的时候,才会对box的coordinate error进行惩罚,而对哪个ground truth box负责就看其预测值和ground truth box的IoU是不是在那个cell的所有box中最大。
作者采用ImageNet 1000-class 数据集来预训练卷积层。预训练阶段,采用网络中的前20卷积层,外加average-pooling层和全连接层。模型训练了一周,获得了top-5 accuracy为(ImageNet2012 validation set),与GoogleNet模型准确率相当。
然后,将模型转换为检测模型。作者向预训练模型中加入了4个卷积层和两层全连接层,提高了模型输入分辨率(224×224->448×448)。顶层预测类别概率和bounding box协调值。bounding box的宽和高通过输入图像宽和高归一化到0-1区间。顶层采用linear activation,其它层使用 leaky rectified linear。
作者采用sum-squared error为目标函数来优化,增加bounding box loss权重,减少置信度权重,实验中,设定为\lambda _{coord} =5 and\lambda _{noobj}= 。
作者在PASCAL VOC2007和PASCAL VOC2012数据集上进行了训练和测试。训练135轮,batch size为64,动量为,学习速率延迟为。Learning schedule为:第一轮,学习速率从缓慢增加到(因为如果初始为高学习速率,会导致模型发散);保持速率到75轮;然后在后30轮中,下降到;最后30轮,学习速率为。
作者还采用了dropout和 data augmentation来预防过拟合。dropout值为;data augmentation包括:random scaling,translation,adjust exposure和saturation。
YOLO模型相对于之前的物体检测方法有多个优点:
1、 YOLO检测物体非常快
因为没有复杂的检测流程,只需要将图像输入到神经网络就可以得到检测结果,YOLO可以非常快的完成物体检测任务。标准版本的YOLO在Titan X 的 GPU 上能达到45 FPS。更快的Fast YOLO检测速度可以达到155 FPS。而且,YOLO的mAP是之前其他实时物体检测系统的两倍以上。
2、 YOLO可以很好的避免背景错误,产生false positives
不像其他物体检测系统使用了滑窗或region proposal,分类器只能得到图像的局部信息。YOLO在训练和测试时都能够看到一整张图像的信息,因此YOLO在检测物体时能很好的利用上下文信息,从而不容易在背景上预测出错误的物体信息。和Fast-R-CNN相比,YOLO的背景错误不到Fast-R-CNN的一半。
3、 YOLO可以学到物体的泛化特征
当YOLO在自然图像上做训练,在艺术作品上做测试时,YOLO表现的性能比DPM、R-CNN等之前的物体检测系统要好很多。因为YOLO可以学习到高度泛化的特征,从而迁移到其他领域。
尽管YOLO有这些优点,它也有一些缺点:
1、YOLO的物体检测精度低于其他state-of-the-art的物体检测系统。
2、YOLO容易产生物体的定位错误。
3、YOLO对小物体的检测效果不好(尤其是密集的小物体,因为一个栅格只能预测2个物体)。
随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。我整理了图像识别技术论文,欢迎阅读!
图像识别技术研究综述
摘要:随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。图像识别是利用计算机对图像进行处理、分析和理解,由于图像在成像时受到外部环境的影响,使得图像具有特殊性,复杂性。基于图像处理技术进一步探讨图像识别技术及其应用前景。
关键词:图像处理;图像识别;成像
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)10-2446-02
图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。
1 图像处理技术
图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。
1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。
2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。
3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。
4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。
5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。
2 图像识别技术
图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:
指纹识别
指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。
人脸识别 目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。
文字识别
文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。
3 结束语
人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。
参考文献:
[1] 胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.
[2] 胡学龙.数字图像处理[M].北京:电子工业出版社,2011.
[3] 范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.
[4] 晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.
[5] 陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.
[6] Sanderson C,Paliwal K Fusion and Person Verification Using Speech & Face Information[C].IDIAP-RR 02-33,Martigny,Swizerland,2002.
点击下页还有更多>>>图像识别技术论文
随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。我整理了图像识别技术论文,欢迎阅读!
图像识别技术研究综述
摘要:随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。图像识别是利用计算机对图像进行处理、分析和理解,由于图像在成像时受到外部环境的影响,使得图像具有特殊性,复杂性。基于图像处理技术进一步探讨图像识别技术及其应用前景。
关键词:图像处理;图像识别;成像
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)10-2446-02
图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。
1 图像处理技术
图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。
1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。
2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。
3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。
4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。
5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。
2 图像识别技术
图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:
指纹识别
指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。
人脸识别 目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。
文字识别
文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。
3 结束语
人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。
参考文献:
[1] 胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.
[2] 胡学龙.数字图像处理[M].北京:电子工业出版社,2011.
[3] 范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.
[4] 晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.
[5] 陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.
[6] Sanderson C,Paliwal K Fusion and Person Verification Using Speech & Face Information[C].IDIAP-RR 02-33,Martigny,Swizerland,2002.
点击下页还有更多>>>图像识别技术论文
原文: Scalable Object Detection using Deep Neural Networks——学术范 最近,深度卷积神经网络在许多图像识别基准上取得了最先进的性能,包括ImageNet大规模视觉识别挑战(ILSVRC-2012)。在定位子任务中获胜的模型是一个网络,它预测了图像中每个对象类别的单个边界框和置信度得分。这样的模型捕获了围绕对象的整幅图像上下文,但如果不天真地复制每个实例的输出数量,就无法处理图像中同一对象的多个实例。在这篇论文中提出了一个显著性启发的神经网络检测模型,它预测了一组与类无关的边界框,每个框有一个分数,对应于它包含任何感兴趣的对象的可能性。该模型自然地为每个类处理数量可变的实例,并允许在网络的最高级别上进行跨类泛化。 目标检测是计算机视觉的基本任务之一。一个解决这个问题的通用范例是训练在子图像上操作的对象检测器,并在所有的场所和尺度上以详尽的方式应用这些检测器。这一范例被成功地应用于经过区别训练的可变形零件模型(DPM)中,以实现检测任务的最新结果。对所有可能位置和尺度的穷举搜索带来了计算上的挑战。随着类数量的增加,这个挑战变得更加困难,因为大多数方法都训练每个类单独的检测器。为了解决这个问题,人们提出了多种方法,从检测器级联到使用分割提出少量的对象假设。 关于对象检测的文献非常多,在本节中,我们将重点讨论利用类不可知思想和解决可伸缩性的方法。 许多提出的检测方法都是基于基于部件的模型,最近由于有区别学习和精心设计的特征,已经取得了令人印象深刻的性能。然而,这些方法依赖于在多个尺度上详尽地应用零件模板,这是非常昂贵的。此外,它们在类的数量上是可伸缩的,这对像ImageNet这样的现代数据集来说是一个挑战。 为了解决前一个问题,Lampert等人使用分支绑定策略来避免计算所有可能的对象位置。为了解决后一个问题,Song et al.使用了一个低维部件基,在所有对象类中共享。基于哈希算法的零件检测也取得了良好的结果。 另一种不同的工作,与我们的工作更接近,是基于对象可以本地化的想法,而不必知道它们的类。其中一些方法建立在自底向上无阶级分割[9]的基础上。通过这种方式得到的片段可以使用自上而下的反馈进行评分。基于同样的动机,Alexe等人使用一种廉价的分类器对对象假设是否为对象进行评分,并以这种方式减少了后续检测步骤的位置数量。这些方法可以被认为是多层模型,分割作为第一层,分割分类作为后续层。尽管它们编码了已证明的感知原理,但我们将表明,有更深入的模型,充分学习可以导致更好的结果。 最后,我们利用了DeepLearning的最新进展,最引人注目的是Krizhevsky等人的工作。我们将他们的边界盒回归检测方法扩展到以可扩展的方式处理多个对象的情况。然而,基于dnn的回归已经被Szegedy等人应用到对象掩模中。最后一种方法实现了最先进的检测性能,但由于单个掩模回归的成本,不能扩展到多个类。 我们的目标是通过预测一组表示潜在对象的边界盒来实现一种与类无关的可扩展对象检测。更准确地说,我们使用了深度神经网络(DNN),它输出固定数量的包围盒。此外,它为每个盒子输出一个分数,表示这个盒子包含一个对象的网络信任度。 为了形式化上述思想,我们将i-thobject框及其相关的置信度编码为最后一网层的节点值: Bounding box: 我们将每个框的左上角和右下角坐标编码为四个节点值,可以写成vectorli∈R4。这些坐标是归一化的w. r. t.图像尺寸,以实现图像绝对尺寸的不变性。每个归一化坐标是由最后一层的线性变换产生的。 Confidence: 置信度:包含一个对象的盒子的置信度得分被编码为单个节点valueci∈[0,1]。这个值是通过最后一个隐藏层的线性变换产生的,后面跟着一个sigmoid。 我们可以组合边界盒位置sli,i∈{1,…K}为一个线性层。同样,我们可以将所有置信区间ci,i∈{1,…K}作为一个s型层的输出。这两个输出层都连接到最后一个隐藏层 在推理时,我们的算法生成kbound盒。在我们的实验中,我们使用ek = 100和K= 200。如果需要,我们可以使用置信分数和非最大抑制在推理时获得较少数量的高置信框。这些盒子应该代表对象。因此,它们可以通过后续的分类器进行分类,实现目标检测。由于盒子的数量非常少,我们可以提供强大的分类器。在我们的实验中,我们使用另一个dnn进行分类。 我们训练一个DNN来预测每个训练图像的边界框及其置信度得分,以便得分最高的框与图像的groundtruth对象框很好地匹配。假设对于一个特定的训练例子,对象被标记为boundingboxesgj,j∈{1,…,M}。在实践中,pre- dictionary的数量远远大于groundtruthboxm的数量。因此,我们试图只优化与地面真实最匹配的预测框子集。我们优化他们的位置,以提高他们的匹配度,最大化他们的信心。与此同时,我们将剩余预测的置信度最小化,这被认为不能很好地定位真实对象。为了达到上述目的,我们为每个训练实例制定一个分配问题。Wexij∈{0,1}表示赋值:xij= 1,如果第i个预测被赋值给第j个真对象。这项任务的目标可以表示为 其中,我们使用标准化边界框坐标之间的el2距离来量化边界框之间的不同。此外,我们希望根据分配x优化盒子的可信度。最大化指定预测的置信度可以表示为 最终的损失目标结合了匹配损失和信心损失 受式1的约束。α平衡了不同损失条款的贡献。 对于每个训练例子,我们通过解决一个最佳的赋值x*的预测到真实的盒子 约束执行赋值解决方案。这是二部匹配的一种变体,是一种多项式复杂度匹配。在我们的应用程序中,匹配是非常便宜的——每幅图像中标记的对象的数量少于一打,而且在大多数情况下只有很少的对象被标记。然后,通过反向传播优化网络参数。例如,反向传播算法的一阶导数计算w、r、t、l和c 尽管上述定义的损失在原则上是足够的,但三次修改使其有可能更快地达到更好的准确性。第一个修改是对地面真实位置进行聚类,并找到这样的聚类/质心,我们可以使用这些聚类/质心作为每个预测位置的先验。因此,鼓励学习算法为每个预测位置学习一个残差到一个先验。 第二个修改涉及到在匹配过程中使用这些先验:不是将N个groundtruth位置与K个预测进行匹配,而是在K个先验和groundtruth之间找到最佳匹配。一旦匹配完成,就会像之前一样计算目标的置信度。此外,位置预测损失也不变:对于任何一对匹配的(目标,预测)位置,其损失定义为groundtruth和对应于匹配先验的坐标之间的差值。我们把使用先验匹配称为先验匹配,并假设它促进了预测的多样化。 需要注意的是,尽管我们以一种与类无关的方式定义了我们的方法,但我们可以将它应用于预测特定类的对象盒。要做到这一点,我们只需要在类的边框上训练我们的模型。此外,我们可以预测每个类的kbox。不幸的是,这个模型的参数数量会随着类的数量线性增长。此外,在一个典型的设置中,给定类的对象数量相对较少,这些参数中的大多数会看到很少有相应梯度贡献的训练示例。因此,我们认为我们的两步过程——首先本地化,然后识别——是一个更好的选择,因为它允许使用少量参数利用同一图像中多个对象类型的数据 我们使用的本地化和分类模型的网络架构与[10]使用的网络架构相同。我们使用Adagrad来控制学习速率衰减,128的小批量,以及使用多个相同的网络副本进行并行分布式训练,从而实现更快的收敛。如前所述,我们在定位损失中使用先验——这些是使用训练集上的均值来计算的。我们还使用α = 来平衡局部化和置信度损失。定位器可以输出用于推断的种植区以外的坐标。坐标被映射和截断到最后的图像区域。另外,使用非最大抑制对盒进行修剪,Jaccard相似度阈值为。然后,我们的第二个模型将每个边界框分类为感兴趣的对象或“背景”。为了训练我们的定位器网络,我们从训练集中生成了大约3000万幅图像,并对训练集中的每幅图像应用以下步骤。最后,样品被打乱。为了训练我们的本地化网络,我们通过对训练集中的每一幅图像应用以下步骤,从训练集中生成了大约3000万幅图像。对于每幅图像,我们生成相同数量的平方样本,使样本总数大约为1000万。对于每幅图像,样本被桶状填充,这样,对于0 - 5%、5 - 15%、15 - 50%、50 - 100%范围内的每个比例,都有相同数量的样本,其中被包围框覆盖的比例在给定范围内。训练集和我们大多数超参数的选择是基于过去使用非公开数据集的经验。在下面的实验中,我们没有探索任何非标准数据生成或正则化选项。在所有的实验中,所有的超参数都是通过对训练集。 Pascal Visual Object Classes (VOC)挑战是最常用的对象检测算法基准。它主要由复杂的场景图像组成,其中包含了20种不同的对象类别的边界框。在我们的评估中,我们关注的是2007版VOC,为此发布了一个测试集。我们通过培训VOC 2012展示了结果,其中包含了大约。11000张图片。我们训练了一个100框的定位器和一个基于深度网络的分类器。 我们在一个由1000万作物组成的数据集上训练分类器,该数据集重叠的对象至少为 jaccard重叠相似度。这些作物被标记为20个VOC对象类中的一个。•2000万负作物与任何物体盒最多有个Jaccard相似度。这些作物被贴上特殊的“背景”类标签。体系结构和超参数的选择遵循。 在第一轮中,定位器模型应用于图像中最大-最小中心方形作物。作物的大小调整到网络输入大小is220×220。单次通过这个网络,我们就可以得到上百个候选日期框。在对重叠阈值为的非最大抑制后,保留评分最高的前10个检测项,并通过21路分类器模型分别通过网络进行分类。最终的检测分数是给定盒子的定位分数乘以分类器在作物周围的最大方形区域上评估的分数的乘积。这些分数通过评估,并用于计算精确查全曲线。 首先,我们分析了本地化器在隔离状态下的性能。我们给出了被检测对象的数量,正如Pascal检测标准所定义的那样,与生成的包围框的数量相对比。在图1中,我们展示了使用VOC2012进行训练所获得的结果。此外,我们通过使用图像的最大中心面积(max-center square crop)作为输入以及使用两个尺度(second scale)来给出结果:最大中心面积(max-center crop)的第二个尺度(select3×3windows的大小为图像大小的60%)正如我们所看到的,当使用10个边界框的预算时,我们可以用第一个模型本地化的对象,用第二个模型本地化48%的对象。这显示出比其他报告的结果更好的性能,例如对象度算法达到42%[1]。此外,这个图表显示了在不同分辨率下观察图像的重要性。虽然我们的算法通过使用最大中心作物获得了大量的对象,但当使用更高分辨率的图像作物时,我们获得了额外的提升。进一步,我们用21-way分类器对生成的包围盒进行分类,如上所述。表1列出了VOC 2007的平均精度(APs)。达到的平均AP是,与先进水平相当。注意,我们的运行时间复杂度非常低——我们只使用top10框。示例检测和全精度召回曲线分别如图2和图3所示。值得注意的是,可视化检测是通过仅使用最大中心方形图像裁剪,即使用全图像获得的。然而,我们设法获得了相对较小的对象,例如第二行和第二列的船,以及第三行和第三列的羊。 在本工作中,我们提出了一种新的方法来定位图像中的对象,该方法可以预测多个边界框的时间。该方法使用深度卷积神经网络作为基本特征提取和学习模型。它制定了一个能够利用可变数量的groundtruth位置的多箱定位成本。在“一个类一个箱”方法的情况下,对1000个盒子进行非max-suppression,使用与给定图像中感兴趣的DeepMulti-Box方法相同的准则,并学习在未见图像中预测这些位置。 我们在VOC2007和ILSVRC-2012这两个具有挑战性的基准上给出了结果,在这两个基准上,所提出的方法具有竞争力。此外,该方法能够很好地预测后续分类器将探测到的位置。我们的结果表明,deepmultibox的方法是可扩展的,甚至可以在两个数据集之间泛化,就能够预测感兴趣的定位,甚至对于它没有训练的类别。此外,它能够捕获同一类物体的多种情况,这是旨在更好地理解图像的算法的一个重要特征。 在未来,我们希望能够将定位和识别路径折叠到一个单一的网络中,这样我们就能够在一个通过网络的一次性前馈中提取位置和类标签信息。即使在其当前状态下,双通道过程(本地化网络之后是分类网络)也会产生5-10个网络评估,每个评估的速度大约为1个CPU-sec(现代机器)。重要的是,这个数字并不与要识别的类的数量成线性关系,这使得所提出的方法与类似dpm的方法非常有竞争力。
能不能给我发一份呢?
目标检测(object detection)是计算机视觉中非常重要的一个领域。在卷积神经网络出现之前,都利用一些传统方法手动提取图像特征进行目标检测及定位,这些方法不仅耗时而且性能较低。而在卷积神经网络出现之后,目标检测领域发生了翻天覆地的变化。最著名的目标检测系统有RCNN系列、YOLO和SSD,本文将介绍RCNN系列的开篇作RCNN。 RCNN系列的技术演进过程可参见 基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN 。 目标检测分为两步:第一步是对图像进行分类,即图像中的内容是什么;第二步则是对图像进行定位,找出图像中物体的具体位置。简单来说就是图像里面有什么,位置在哪。 然而,由于不同图片中物体出现的大小可能不同(多尺度),位置也可能不同,而且摆放角度,姿态等都可以不同,同时一张图片中还可以出现多个类别。这使得目标检测任务异常艰难。上面任务用专业的说法就是:图像识别+定位两个不同的分支分别完成不同的功能,分类和定位。回归(regression)分支与分类分支(classification)共享网络卷积部分的参数值。 还是刚才的分类识别+回归定位思路。只是现在我们提前先取好不同位置的框,然后将这个框输入到网络中而不是像思路一将原始图像直接输入到网络中。然后计算出这个框的得分,取得分最高的框。 如上,对于同一个图像中猫的识别定位。分别取了四个角四个框进行分类和回归。其得分分别为,因此右下角得分最高,选择右下角的黑框作为目标位置的预测(这里即完成了定位任务)。 这里还有一个问题——检测位置时的框要怎么取,取多大?在上面我们是在257x257的图像中取了221x221的4个角。以不同大小的窗口从左上角到右下角依次扫描的话,数据量会非常大。而且,如果考虑多尺度问题的话,还需要在将图像放缩到不同水平的大小来进行计算,这样又大大增加了计算量。如何取框这个问题可以说是目标检测的核心问题之一了,RCNN,fast RCNN以及faster RCNN对于这个问题的解决办法不断地进行优化,这个到了后面再讲。 总结一下思路: 对于一张图片,用各种大小的框将图片截取出来,输入到CNN,然后CNN会输出这个框的类别以及其位置得分。 对于检测框的选取,一般是采用某种方法先找出可能含有物体的框(也就是候选框,比如1000个候选框),这些框是可以互相重叠互相包含的,这样我们就可以避免暴力枚举所有框了。讲完了思路,我们下面具体仔细来看看RCNN系列的实现,本篇先介绍RCNN的方法。 R-CNN相比于之前的各种目标检测算法,不仅在准确率上有了很大的提升,在运行效率上同样提升很大。R-CNN的过程分为4个阶段: 在前面我们已经简单介绍了selective search方法,通过这个方法我们筛选出了2k左右的候选框。然而搜索出的矩形框大小是不同的。而在AlexNet中由于最后全连接层的存在,对于图像尺寸有固定的要求,因此在将候选框输入之前,作者对这些候选框的大小进行了统一处理——放缩到了统一大小。文章中作者使用的处理方法有两种: (1)各向异性缩放因为图片扭曲可能会对后续CNN模型训练产生影响,于是作者也测试了各向同性缩放的方法。有两种方法: 此外,作者对于bounding box还尝试了padding处理,上面的示意图中第1、3行就是结合了padding=0,第2、4行结果采用padding=16的结果。经过最后的试验,作者发现采用各向异性缩放、padding=16的精度最高。 卷积神经网络训练分为两步:(1)预训练;(2)fine-tune。 先在一个大的数据集上面训练模型(R-CNN中的卷机模型使用的是AlexNet),然后利用这个训练好的模型进行fine-tune(或称为迁移学习),即使用这个预训练好的模型参数初始化模型参数,然后在目标数据集上面进行训练。 此外,在训练时,作者还尝试采用不同层数的全连接层,发现一个全连接层比两个全连接层效果要好,这可能是因为使用两个全连接层后过拟合导致的。 另一个比较有意思的地方是:对于CNN模型,卷积层学到的特征其实就是基础的共享特征提取层,类似于传统的图像特征提取算法。而最后的全连接层学到的则是针对特定任务的特征。譬如对于人脸性别识别来说,一个CNN模型前面的卷积层所学习到的特征就类似于学习人脸共性特征,然后全连接层所学习的特征就是针对性别分类的特征了。 最后,利用训练好的模型对候选框提取特征。 关于正负样本的问题:由于选取的bounding box不可能与人工label的完全相同,因此在CNN训练阶段需要设置IOU阈值来为bounding box打标签。在文章中作者将阈值设置为,即如果候选框bounding box与人工label的区域重叠面积大于,则将其标注为物体类别(正样本),否则我们就把他当做背景类别(负样本)。 作者针对每一个类别都训练了一个二分类的SVM。这里定义正负样本的方法与上面卷积网络训练的定义方法又不相同。作者在文章中尝试了多种IoU阈值()。最后通过训练发现,IoU阈值为的时候效果最好(选择为0精度下降了4个百分点,选择精度下降了5个百分点)。即当IoU小于的时候我们将其视为负样本,否则为正样本。 目标检测问题的衡量标准是重叠面积:许多看似准确的检测结果,往往因为候选框不够准确,重叠面积很小。故需要一个位置精修步骤。在实现边界回归的过程中发现了两个微妙的问题。第一是正则化是重要的:我们基于验证集,设置λ=1000。第二个问题是,选择使用哪些训练对(P,G)时必须小心。直观地说,如果P远离所有的检测框真值,那么将P转换为检测框真值G的任务就没有意义。使用像P这样的例子会导致一个无望的学习问题。因此,只有当提案P至少在一个检测框真值附近时,我们才执行学习任务。“附近”即,将P分配给具有最大IoU的检测框真值G(在重叠多于一个的情况下),并且仅当重叠大于阈值(基于验证集,我们使用的阈值为)。所有未分配的提案都被丢弃。我们为每个目标类别执行一次,以便学习一组特定于类别的检测框回归器。 在测试时,我们对每个提案进行评分,并预测其新的检测框一次。原则上,我们可以迭代这个过程(即重新评估新预测的检测框,然后从它预测一个新的检测框,等等)。但是,我们发现迭代不会改进结果。 使用selective search的方法在测试图片上提取2000个region propasals ,将每个region proposals归一化到227x227,然后再CNN中正向传播,将最后一层得到的特征提取出来。然后对于每一个类别,使用为这一类训练的SVM分类器对提取的特征向量进行打分,得到测试图片中对于所有region proposals的对于这一类的分数,再使用贪心的非极大值抑制(NMS)去除相交的多余的框。再对这些框进行canny边缘检测,就可以得到bounding-box(then B-BoxRegression)。 参考: Rich feature hierarchies for accurate object detection and semantic segmentation. RCNN-将CNN引入目标检测的开山之作-晓雷的文章 基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN R-CNN 论文翻译
运动目标检测与跟踪算法研究 视觉是人类感知自身周围复杂环境最直接有效的手段之一, 而在现实生活中 大量有意义的视觉信息都包含在运动中,人眼对运动的物体和目标也更敏感,能 够快速的发现运动目标, 并对目标的运动轨迹进行预测和描绘。 随着计算机技术、 通信技术、图像处理技术的不断发展,计算机视觉己成为目前的热点研究问题之 一。 而运动目标检测与跟踪是计算机视觉研究的核心课题之一, 融合了图像处理、 模式识别、人工智能、自动控制、计算机等众多领域的先进技术,在军事制导、 视觉导航、视频监控、智能交通、医疗诊断、工业产品检测等方面有着重要的实 用价值和广阔的发展前景。 1、国内外研究现状 运动目标检测 运动目标检测是指从序列图像中将运动的前景目标从背景图像中提取出来。 根据运动目标与摄像机之间的关系, 运动目标检测分为静态背景下的运动目标检 测和动态背景下的运动目标检测。 静态背景下的运动目标检测是指摄像机在整个 监视过程中不发生移动; 动态背景下的运动目标检测是指摄像机在监视过程中发 生了移动,如平动、旋转或多自由度运动等。 静态背景 静态背景下的运动目标检测方法主要有以下几种: (1)背景差分法 背景差分法是目前最常用的一种目标检测方法, 其基本思想就是首先获得一个 背景模型,然后将当前帧与背景模型相减,如果像素差值大于某一阈值,则判断 此像素属于运动目标,否则属于背景图像。利用当前图像与背景图像的差分来检 测运动区域,一般能够提供比较完整的特征数据,但对于动态场景的变化,如光 照和外来无关事件的干扰等特别敏感。 很多研究人员目前都致力于开发不同的背 景模型,以减少动态场景变化对运动目标检测的影响。背景模型的建立与更新、 阴影的去除等对跟踪结果的好坏至关重要。 背景差分法的实现简单,在固定背景下能够完整地精确、快速地分割出运动 对象。不足之处是易受环境光线变化的影响,需要加入背景图像更新机制,且只 对背景已知的运动对象检测比较有效, 不适用于摄像头运动或者背景灰度变化很 大的情况。 (2)帧间差分法 帧间差分法是在连续的图像序列中两个或三个相邻帧间, 采用基于像素的时 间差分并阈值化来提取图像中的运动区域。 帧间差分法对动态环境具有较强的自 适应性,但一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产 生空洞现象。因此在相邻帧间差分法的基础上提出了对称差分法,它是对图像序 列中每连续三帧图像进行对称差分,检测出目标的运动范围,同时利用上一帧分 割出来的模板对检测出来的目标运动范围进行修正, 从而能较好地检测出中间帧 运动目标的形状轮廓。 帧间差分法非常适合于动态变化的环境,因为它只对运动物体敏感。实际上 它只检测相对运动的物体,而且因两幅图像的时间间隔较短,差分图像受光线 变化影响小,检测有效而稳定。该算法简单、速度快,已得到广泛应用。虽然该 方法不能够完整地分割运动对象,只能检测出物体运动变化的区域,但所检测出 的物体运动信息仍可用于进一步的目标分割。 (3)光流法 光流法就充分的利用了图像自身所携带的信息。在空间中,运动可以用运动 场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像灰度分布 的不同来体现,从而使空间中的运动场转移到图像上就表示为光流场。所谓光流 是指空间中物体被观测面上的像素点运动产生的瞬时速度场, 包含了物体表面结 构和动态行为等重要信息。 基于光流法的运动目标检测采用了运动目标随时间变 化的光流特性,由于光流不仅包含了被观测物体的运动信息,还携带了物体运动 和景物三位结构的丰富信息。 在比较理想的情况下,它能够检测独立运动的对象, 不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可 用于动态场景的情况。 但是大多数光流方法的计算相当复杂,对硬件要求比较高, 不适于实时处理,而且对噪声比较敏感,抗噪性差。并且由于遮挡、多光源、透明 性及噪声等原因,使得光流场基本方程——灰度守恒的假设条件无法满足,不能 正确求出光流场,计算方也相当复杂,计算量巨大,不能满足实时的要求。 动态背景 动态背景下的运动目标检测由于存在着目标与摄像机之间复杂的相对运动, 检测方法要比静态背景下的运动目标检测方法复杂。常用的检测方法有匹配法、 光流法以及全局运动估计法等。 2、运动目标跟踪 运动目标跟踪是确定同一物体在图像序列的不同帧中的位置的过程。 近年来 出现了大批运动目标跟踪方法,许多文献对这些方法进行了分类介绍,可将目标 跟踪方法分为四类:基于区域的跟踪、基于特征的跟踪、基于活动轮廓的跟踪、 基于模型的跟踪,这种分类方法概括了目前大多数跟踪方法,下面用这种分类方 法对目前的跟踪方法进行概括介绍。 (1)基于区域的跟踪 基于区域的跟踪方法基本思想是: 首先通过图像分割或预先人为确定提取包 含目标区域的模板,并设定一个相似性度量,然后在序列图像中搜索目标,把度 量取极值时对应的区域作为对应帧中的目标区域。 由于提取的目标模板包含了较 完整的目标信息,该方法在目标未被遮挡时,跟踪精度非常高,跟踪非常稳定, 但通常比较耗时,特别是当目标区域较大时,因此一般应用于跟踪较小的目标或 对比度较差的目标。该方法还可以和多种预测算法结合使用,如卡尔曼预测、粒 子预测等,以估计每帧图像中目标的位置。近年来,对基于区域的跟踪方法关注 较多的是如何处理运动目标姿态变化引起的模板变化时的情况以及目标被严重 遮挡时的情况。 (2)基于特征的跟踪 基于特征的跟踪方法基本思想是:首先提取目标的某个或某些局部特征,然 后利用某种匹配算法在图像序列中进行特征匹配,从而实现对目标的跟踪。该方 法的优点是即使目标部分被遮挡,只要还有一部分特征可以被看到,就可以完成 跟踪任务,另外,该方法还可与卡尔曼滤波器结合使用,实时性较好,因此常用 于复杂场景下对运动目标的实时、 鲁棒跟踪。 用于跟踪的特征很多, 如角点边缘、 形状、纹理、颜色等,如何从众多的特征中选取最具区分性、最稳定的特征是基 于特征的跟踪方法的关键和难点所在。 (3)基于活动轮廓的跟踪 基于活动轮廓的跟踪方法基本思想是:利用封闭的曲线轮廓表达运动目标, 结合图像特征、曲线轮廓构造能量函数,通过求解极小化能量实现曲线轮廓的自 动连续更新,从而实现对目标的跟踪。自Kass在1987年提出Snake模型以来,基 于活动轮廓的方法就开始广泛应用于目标跟踪领域。相对于基于区域的跟踪方 法,轮廓表达有减少复杂度的优点,而且在目标被部分遮挡的情况下也能连续的 进行跟踪,但是该方法的跟踪结果受初始化影响较大,对噪声也较为敏感。 (4)基于模型的跟踪 基于模型的跟踪方法基本思想是: 首先通过一定的先验知识对所跟踪目标建 立模型,然后通过匹配跟踪目标,并进行模型的实时更新。通常利用测量、CAD 工具和计算机视觉技术建立模型。主要有三种形式的模型,即线图模型、二维轮 廓模型和三维立体模型口61,应用较多的是运动目标的三维立体模型,尤其是对 刚体目标如汽车的跟踪。该方法的优点是可以精确分析目标的运动轨迹,即使在 目标姿态变化和部分遮挡的情况下也能够可靠的跟踪, 但跟踪精度取决于模型的 精度,而在现实生活中要获得所有运动目标的精确模型是非常困难的。 目标检测算法,至今已提出了数千种各种类型的算法,而且每年都有上百篇相 关的研究论文或报告发表。尽管人们在目标检测或图像分割等方面做了许多研 究,现己提出的分割算法大都是针对具体问题的,并没有一种适合于所有情况的 通用算法。 目前, 比较经典的运动目标检测算法有: 双帧差分法、 三帧差分法(对 称差分法)、背景差法、光流法等方法,这些方法之间并不是完全独立,而是可 以相互交融的。 目标跟踪的主要目的就是要建立目标运动的时域模型, 其算法的优劣直接影响 着运动目标跟踪的稳定性和精确度, 虽然对运动目标跟踪理论的研究已经进行了 很多年,但至今它仍然是计算机视觉等领域的研究热点问题之一。研究一种鲁棒 性好、精确、高性能的运动目标跟踪方法依然是该研究领域所面临的一个巨大挑 战。基于此目的,系统必须对每个独立的目标进行持续的跟踪。为了实现对复杂 环境中运动目标快速、稳定的跟踪,人们提出了众多算法,但先前的许多算法都 是针对刚体目标,或是将形变较小的非刚体近似为刚体目标进行跟踪,因而这些 算法难以实现对形状变化较大的非刚体目标的正确跟踪。 根据跟踪算法所用的预 测技术来划分,目前主要的跟踪算法有:基于均值漂移的方法、基于遗传算法的 方法、基于Kalman滤波器的方法、基于Monto Carlo的方法以及多假设跟踪的方 法等。 运动检测与目标跟踪算法模块 运动检测与目标跟踪算法模块 与目标跟踪 一、运动检测算法 1.算法效果 算法效果总体来说,对比度高的视频检测效果要优于对比度低的视频。 算法可以比较好地去除目标周围的浅影子,浅影的去除率在 80%以上。去影后目标的 完整性可以得到较好的保持,在 80%以上。在对比度比较高的环境中可以准确地识别较大 的滞留物或盗移物。 从对目标的检测率上来说,对小目标较难进行检测。一般目标小于 40 个像素就会被漏 掉。对于对比度不高的目标会检测不完整。总体上来说,算法在对比度较高的环境中漏检率 都较低,在 以下,在对比度不高或有小目标的场景下漏检率在 6%以下。 精细运动检测的目的是在较理想的环境下尽量精确地提取目标的轮廓和区域, 以供高层 进行应用。同时在分离距离较近目标和进行其它信息的进一步判断也具有一定的优势。 反映算法优缺点的详细效果如下所示: 去影子和完整性 效果好 公司内视频 左边的为去影前,右边的 为去影后的结果,可以看出在 完整 性和去影率上 都有所 突 出。 这两个视频的共周特点 城市交通 是,影子都是浅影子,视频噪 声不太明显。目标与背景的对 比度比较高。 效果差 这两个视频的特点是影子 都是深影子。虽然影子没有去 掉,但是物体的完整性是比较 高的。主要原因就是场景的对 路口,上午 十点 比度比较高。 滞留物检测和稳定性 效果好 会议室盗移 效果好的原因,一是盗移或 滞留目标与背景对比度较大,二 是目标本身尺寸较大。 另外盗移物或滞留物在保持 各自的状态期间不能受到光照变 化或其它明显运动目标的干扰, 要不然有可能会造成判断的不稳 定。 效果差 会议室 遗留 物 大部分时间内,滞留的判断 都是较稳定的,但是在后期出现 了不稳定。主要原因是目标太小 的原故。 因此在进行滞留物判断时, 大目标,对比度较高的环境有利 于判断的稳定性和准确性。 漏检率 效果好 城市交通 在对比度高的环境下, 目标相对都较大的情况下 (大于 40 个像素) 可以很 , 稳定的检测出目标。 在这种 条件下的漏检率通常都是 非常低的,在 以下。 效果差 行人-傍晚 和“行人”目录下 的 其 它 昏 暗 条件 下的视频 在对 比度较低的 情况 下,会造成检测结果不稳 定。漏检率较高。主要原因 是由于去影子造成的。 这种 对比度下的漏检率一般在 6%以下。 除了 对比度低是 造成 漏检的原因外, 过小的目标 也会造成漏检,一般是 40 个像素以下的目标都会被 忽略掉。 算法效率内存消耗(单位:b) .MD_ISRAM_data .MD_ISRAM_bss .MD_SDRAM_data 0x470 0x24 0x348 .MD_SDRAM_bss .MD_text 0x1a8480 0x6d40 速度 ms 运动区域占 2/3 左右时 CPU 占用率 一帧耗时 Max:57% Min: Avg: Max:23 Min: Avg:15 运动区域占 1/3 左右时 Max:45% Min: Avg:20% Max:18 Min: Avg:8 检测参数说明 检测参数说明 检测到的滞留物或盗走物的消失时间目前分别设定在 200 帧和 100 帧, 可以通过参数来 自行调整。 目前目标与背景的差异是根据局部光照强度所决定的, 范围在 4 个像素值以上。 目前参 数设置要求目标大小要在 20 个像素以上才能被检测到,可以通过参数来自行调整。 目标阴影的去除能力是可以调整的, 目前的参数设置可以去除大部分的浅影子和较小的 光照变化。 适用环境推荐光照条件较好(具有一定的对比度)的室内环境或室外环境。不易用它去检测过小的目 标,比如小于 40 个像素的目标。室外环境不易太复杂。输出目标为精细轮廓目标,可以为 后面高层应用提供良好的信息。 二、目标跟踪 稳定运行环境要求此版本跟踪算法与运动检测算法紧密结合, 对相机的架设和视频的背景环境和运动目标 数量运动方式有一定要求: 背景要求: 由于运动跟踪是基于运动检测的结果进行的, 所以对背景的要求和运动检测一样, 背景要求: 运动目标相对于背景要有一定反差。 运动目标:由于运动检测中,对较小的目标可能过滤掉。所以运动目标的大小要符合运动检 运动目标: 测的要求。运动目标的速度不能太大,要保证前后帧运动目标的重合面积大于 10 个像素。此阈值可修改(建议不要随意修改,过小,可能把碎片当成原目标分 裂出来的小目标,过大,可能失去跟踪。当然可试着调节以适应不同场景)。该 算法对由于运动检测在地面上产生的碎片抗干扰性比较差, 运动目标和碎片相遇 时,容易发生融合又分离的现象,造成轨迹混乱。消失目标和新生目标很容易当 成同一目标处理,所以可能出现一个新目标继承新生目标的轨迹。 运动方式: 运动目标的最大数量由外部设定。 但运动跟踪对运动目标比较稀疏的场景效果比 运动方式: 较好。 算法对由于运动检测在运动目标上产生的碎片有一定的抗干扰。 算法没对 物体的遮挡进行处理。对于两运动目标之间的遮挡按融合来处理。 拍摄角度: 拍摄角度:拍摄视野比较大,且最好是俯视拍摄。
你好 你有完整的论文么? 有的话可不可以给我发一下 急需的 谢谢啊!!
出版专著:Mao X., Li Z. Multimodal Intelligent Tutoring Systems[M]. E-Learning--Organizational Infrastructure and Tools for Specific Areas. Feb, 2012. ISBN:978-9-5351-0053-9.(专著章节)毛峡,薛雨丽. 人机情感交互[M]. 科学出版社, 2011年7月1日. ISBN: 978-7-0303-1799-5. (专著)Mao X., Li Z. Web-based Affective Human-agent Interaction Generation[M]. Ronald Hartung (Ed.), Agent and Multi-agent system technology for Internet and Enterprise Systems, Springer-Verlag Berlin Heidelberg 2010, pp. 323-345,2010 ISBN: 978-3-642-13525-5. (专著章节)Mao X, Xue Y, Li Z, et al. Layered Fuzzy Facial Expression Generation: Social, Emotional and Physiological[M]. Affective Computing,Focus on Emotion Expression, Synthesis and Recognition, I-Tech Education and Publishing, pp. 83-106, May 2008, ISBN 978-3-902613-23-3. (专著章节)主要论文:SCI收录:X. Wu, X. Mao, L. Chen, Y. Xue, and A. Rovetta, Kernel optimization using nonparametric Fisher criterion in the subspace, Pattern Recognition Letters, vol. 54, pp. 43-49, 2015. (SCI)Yi J, Mao X, Chen L, et al. Illuminant direction estimation for a single image based on local region complexity analysis and average gray value[J]. Applied optics, 2014, 53(2): 226-236. (SCI)Yi J, Mao X, Chen L, et al. Facial expression recognition considering individual differences in facial structure and texture[J]. Computer Vision, IET, 2014, 8(5): 429-440.(SCI)Yuan S, Mao X, Xue Y, et al. SQR: a simple quantum representation of infrared images[J]. Quantum Information Processing, 2014, 13(6): 1353-1379.(SCI)Chen L, Mao X, Wei P, et al. Speech emotional features extraction based on electroglottograph[J]. Neural computation, 2013, 25(12): 3294-3317.(SCI)Yuan S, Mao X, Chen L, et al. Quantum digital image processing algorithms based on quantum measurement[J]. Optik-International Journal for Light and Electron Optics, 2013, 124(23): 6386-6390.(SCI)Mao X, Liu Y L, Chen L J, et al. A More Precise Empirical Formula for Estimating Normalized Fog Attenuation in the Millimeter-Wave Frequency Range 30~ 100 GHz[J]. Journal of Infrared, Millimeter, and Terahertz Waves, 2013, 34(3-4): 308-315.(SCI)Wang X,Mao X, Caleanu C D, et al. Statistical shape analysis for face movement manifold modeling[J]. Optical Engineering, 2012, 51(3): 037004-1-037004-8.(SCI)Chen L, Mao X, Wei P, et al. Mandarin emotion recognition combining acoustic and emotional point information[J]. Applied Intelligence, 2012, 37(4): 602-612.(SCI)Zheng H C, Mao X, Xue Y L, et al. Evaluation for detection probability of infrared point target under complicated backgrounds[J]. Journal of Electromagnetic Waves and Applications, 2012, 26(11-12): 1528-1537.(SCI)Chen L, Mao X, Xue Y, et al. Speech emotion recognition: Features and classification models[J]. Digital Signal Processing, 2012, 22(6): 1154-1160.(SCI)Li Z, Mao X. Emotional eye movement generation based on Geneva Emotion Wheel for virtual agents[J]. Journal of Visual Languages & Computing, 2012, 23(5): 299-310.(SCI)Mao X, Jiang L, Xue Y. Affect Computation of Chinese Short Text[J]. IEICE TRANSACTIONS on Information and Systems, 2012, 95(11): 2741-2744.(SCI)Diao, W. H., Mao, X, Zheng, H C, Xue, Y. L., & Gui, V. (2012). Image Sequence Measures for Automatic Target Tracking[J]. Progress In Electromagnetics Research, 130, 447-472(SCI)Li, Z., Mao, X. (2012). EEMML: the emotional eye movement animation toolkit[J]. Multimedia Tools and Applications, 1-21(SCI)Catalin-Daniel Caleanu, Xia Mao, Gilbert Pradel, Sorin Moga, Yuli Xue. Combined pattern search optimization of feature extraction and classification parameters in facial recognition[J]. Pattern Recognition Letters 32 (9),1250-1255,2011(SCI)W. H. Diao, X. Mao, . Metrics for Performance Evaluation of Pre-processing Algorithm In Infrared Small Target Images[J]. Progress In Electromagnetics Research, , 2011(SCI)Yu-Li Xue, Xia Mao, Catalin-Daniel Caleanu, ShanWei Lv, Layered Fuzzy Facial Expression Generation of Virtual Agent[J]. Chinese Journal of Electronics 19 (1), 69-74,2010 (SCI)Wang ., Mao, X., Caleanu. . Nonlinear shape-texture Manifold learning[J]. IEICE Transaction on Information and Systems 93 (8), 2016-2019, 2010(SCI)X. Mao, . Emotion Recognition Based on Parametric Filter and Fractal Dimension [J]. IEICE Transactions on Information and Systems 93 (8), 2324-2326, 2010(SCI)Kang Huang, Xia Mao. Novel Metric of Relative Characteristics of Small Targets and Backgrounds in Infrared Images[J]. Optical Engineering, 49(10), 2010 (SCI)Kang Huang, Xia Mao. Detectability of infrared small targets[J]. Infrared Physics & Technology, 53(3), 208- 217, 2010 (SCI)Xia Mao, Zheng Li. Generating and Describing Affective Eye Behaviors[J]. IEICE Transaction on Information and Systems, IEICE Press, 2010 (SCI)Xia Mao, Zheng Li. Agent Based Affective Tutoring Systems: A Pilot Study[J]. Computer & Education, Elsevier Press, 2010 (SCI)Wei-he Diao, Xia distance evaluation method for infrared imaging system under complicated backgrounds[J]. Electronics Letters. 45(25), 2009 (SCI)Xia Mao, Wei-he Diao. Criterion to evaluate the quality of infrared small target images [J]. In: International Journal of Infrared and Millimeter Waves,2008 (SCI)Xia Mao, Yu-Li Xue, Lee-Lung Cheng, Yun Sun. Harmonious Graphics Generating Based on the 1/f Function Theory. Chaos, Solitons & Fractals, v 32, n 2, April, 2007, 521-525 (SCI)Mao Xia, et al. Study on the Affective Property of music[J]. Chaos,Solitons & Fractals,. 2005 (SCI)Mao Xia, et al. Affective Property of Image and Fractal Dimension [J].Chaos,Solition & Fractal, . 905-910 (SCI)EI/ISTP收录:Wu X, Mao X, Chen L, et al. View-Invariant Gesture Recognition Using Nonparametric Shape Descriptor[C]//Pattern Recognition (ICPR), 2014 22nd International Conference on. IEEE, 2014: X, Liu X, Feng T, et al. A communication protocol of man overboard system based on BeiDou [C]//Intelligent Transportation Systems (ITSC), 2014 IEEE 17th International Conference on. IEEE, 2014: 1910-1911.易积政, 毛峡, 薛雨丽。 基于特征点矢量与纹理形变能量参数融合的人脸表情识别[J]. 电子与信息学报刘运龙,薛雨丽,袁素真,毛峡。基于局部均值的红外小目标检测算法[J]. 红外与激光工程. 2013.毛峡,刘运龙,薛雨丽. 基于未加权区域采样的直线反走样算法[J]. 北航学报. 2013.袁素真, 毛峡, 陈立江, 薛雨丽. 基于双量子比特态测量的量子自适应中值滤波[J]. 北京航空航天大学学报Wu X, Mao X, Chen L, et al. Combined Motion and Region-Based 3D Tracking in Active Depth Image Sequence[C]//Green Computing and Communications (GreenCom), 2013 IEEE and Internet of Things (iThings/CPSCom), IEEE International Conference on and IEEE Cyber, Physical and Social Computing. IEEE, 2013: J, Mao X, Xue Y, et al. Facial Expression Recognition Based on t-SNE and AdaboostM2[C]//Green Computing and Communications (GreenCom), 2013 IEEE and Internet of Things (iThings/CPSCom), IEEE International Conference on and IEEE Cyber, Physical and Social Computing. IEEE, 2013: L, Mao X, Wei P, et al. Speech Synthesis Research Based on EGG[C]//Green Computing and Communications (GreenCom), 2013 IEEE and Internet of Things (iThings/CPSCom), IEEE International Conference on and IEEE Cyber, Physical and Social Computing. IEEE, 2013: J, Mao X, Chen L. Fast Motion Estimation Algorithm Based on H. 264[C]//Green Computing and Communications (GreenCom), 2013 IEEE and Internet of Things (iThings/CPSCom), IEEE International Conference on and IEEE Cyber, Physical and Social Computing. IEEE, 2013: L,Mao X, Xue Y L, et al. Speech Emotional Features Measured by Power-law Distribution based on Electroglottography[C]//BIOSIGNALS. 2012: X, Luo N, Xue Y L. Emphasizing on the Timing and Type-Enhancing the Backchannel Performance of Virtual Agent[C]//ICAART (2). 2012: 259-263.毛峡,李硕. 基于AVS音频编码的信息隐藏方法[J]. 华中科技大学学报, 2012.毛峡,李硕. AAC窗型判别和量化模块的改进算法[J] 信号处理, Xue, Xia Mao and Qing Chang. Facial Action Unit Recognition and Inference for Facial Ecpression Analysis[C]. VISIGRAPP Zheng, Xia Mao, Lin Jiang and Yuli Xue. Detection probability evaluation method for infrared point target under complicated backgrounds[C]. 11th International Conference on Quantitative InfraRed X, Jiang L, Xue Y. Textual Affect Detection in Human Computer Interaction[M]//Intelligent Autonomous Systems 12. Springer Berlin Heidelberg, 2013: X, Wang C, Xue Y. Expression Intensity Recognition Based on Multilayer Hybrid Classifier[M]//Intelligent Autonomous Systems 12. Springer Berlin Heidelberg, 2013: 739-748.陈立江,毛峡,Mitsuru Ishizuka. 基于Fisher准则与SVM的分层语音情感识别[J]. 模式识别与人工智能, 2012.毛峡,刘言,梁晓庚. 极坐标框架两轴平台光轴稳定算法[J]. 兵工学报, 2011.毛峡,常乐,刁伟鹤复杂背景下红外点目标探测概率估算[J]. 北航学报, 2011.王晓侃, 毛峡, Mitsuru Ishizuk.基于非线性流形学习的人脸面部运动估计[J]. 电子与信息学报, 2011.黄康,毛峡,梁晓庚.红外小目标图像背景杂波量化方法[J]. 光学学报, 2011.黄康, 毛峡, 梁晓庚. 红外小目标图像背景杂波量化方法[J].光学学报, Caleanu,Xia Mao,Vigil Tiponut, Yuli Xue. Direct Search as Unsupervised Training Algorithm for Neural Networks[A]. 14th WSEAS Int. Conf. on Systems, Z, Mao of Virtual Agent's Pupil Size, Blink Rate and Saccade on Person Impressions[J]. 10th International Conference on Intelligent Virtual Agents (IVA'10), Philadelphia, USA. 2010.毛峡, 常乐,刁伟鹤. 复杂背景下红外点目标探测概率估算[J]. 北京航空航天大学学报.薛雨丽,毛峡, Catalin-Daniel Caleanu, 常青. 基于社交、情感和生理的分层模糊表情生成[J]. 模式识别与人工智能. 2010.黄康, 毛峡,梁晓庚, 一种新的红外背景抑制滤波算法[J]. 航空学报, 31(6), .Xia Mao,Zheng Li. Emotional Eye Movement Markup Language for Virtual Agents[A], 10th International Conference on Autonomous Agents and Multiagent Systems (AAMAS'10), Toronto, Canada 2010.刁伟鹤, 毛峡.一种新的红外目标图像质量评价方法[J]. 航空学报,2010.刁伟鹤,毛峡.自动目标识别中的图像序列质量评价方法[J]. 电子与信息学报,2010.薛雨丽,毛峡,Catalin-Daniel Caleanu,吕善伟.遮挡条件下的鲁棒表情识别方法[J], 北京航空航天大学学报,2010.刁伟鹤, 毛峡, 梁晓庚. 复杂背景红外成像系统作用距离估算方法[J]. 北京航空航天大学学报, 35(8), 1022-1026, 2009.黄康, 毛峡, 胡海勇,梁晓庚. 复杂背景下红外弱小运动目标检测的新方法,航空学报, 30(9), 1754-1760, Mao, Zheng Li, Lei Liu. Providing Expressive Eye Movement to Virtual Agents[A]. 11th International Conference on Multimodal Interfaces (ICMI-MLMI'09), Doctoral Spotlight Session. MIT Media Lab, pp. 241-244, Boston, MA, USA (2009).Xia Mao, Zheng Li, YuLi Xue. Emotional Gaze Behaviors Generation in Human-agent Interaction[A]. 27th ACM International Conference on Human Factors in Computing Systems (ACMCHI'09), Extended Abstracts, pp. 3691-3696. Boston, MA, USA, Mao, Zheng Li. Implementing Emotion-Based User-Aware E-Leaning[A]. 27th ACM International Conference on Human Factors in Computing Systems (ACMCHI'09), Extended Abstracts, pp. 3787-3792. Boston, MA, USA, Mao, Zheng Li, YuLi Xue. Emotional Gaze Behaviors Generation in Human-agent Interaction[A]. 27th ACM International Conference on Human Factors in Computing Systems (ACMCHI'09), Extended Abstracts, pp. 3691-3696. Boston, MA, USA, Mao, Zheng Li, Hai-Yan Bao. Extension of MPML with Emotion Recognition Functions Attached[A]. Proceeding of IVA08, Tokyo, Japan Mao, Zheng Li, Hai-Yan Bao. Generating and Describing Affective Human-agent Interaction[A]. Proceeding of ICNC08, Jinan, China, Mao, Zheng Li, Hai-Yan Bao. A Rough Set and SVM Based Approach to Chinese Textual Affect Sensing[A].Proceedings - 8th International Conference on Intelligent Systems Design and Applications, Taipei, China, Mao, Hai-Yan Bao, Zheng Li. Intelligent Emotion Decision System for Autonomous Agents[A]. Proceedings - 8th International Conference on Intelligent Systems Design and Applications, Taipei, China, Fu, Xia Mao. Speaker Independent Emotion Recognition Based SVM/HMMs Fusion System[A]. IEEE International Conference On Audio, Language And Image Processing (ICALIP), Shanghai, China, Fu, Xia Mao, LiJiang Chen. Speaker Independent Emotion Recognition Using HMMs Fusion System with Relative Speech Features. International Conference on Intelligent Networks and Intelligent Systems (ICINIS) , Wuhan, China, 2008.刁伟鹤,毛峡, 董旭阳. 一种红外小目标图像质量的评定方法[J]. 北京航空航天大学学报, Xia, Zhang Bing, Luo Yi. Emotion Recognition Based on a Hybrid of HMM/ANN[A]. 7th WSEAS Int. Conf. on Applied Informatics and Communications, Athens, Greece, Xia, Xue Yu-Li, Li Zheng and Diao WeiHe. Modeling of Layered Fuzzy Facial Expression Generation[A]. 12th Conf. on Huamn-Computer Interaction, Beijing, China, Xia, Xue YuLi, Li Zheng and Hu HanYong. Research on Multiple Facial Expressions of Emotions[A]. 5th Conf. on Computing, Communications and Control Technologies, Orlando, Florida, USA, 2007.毛峡, 赵兴圆,沈巍. 一种基于模糊决策的矩形目标提取算法[J]. 北京航空航天大学学报.2007.毛峡, 薛雨丽等. BHU人脸表情数据库的设计与实现[J]. 北京航空航天大学学报, (02): Xue,Xia UNIVERSITY FACIAL EXPRESSION DATABASE AND MULTIPLE FACIAL EXPRESSION RECOGNITIO[A]. International Conference on Machine Learning and Cybernetics 2006.毛峡, 孟庆宇. 基于小波分析和神经网络的脑电信号分类方法[J]. 北京航空航天大学学报., 31(10): Xia,et al. Analysis and Synthesis of Two Dimensional Fractional Brownian Motion Based on Wavelet[A]. The 6th World Multi-Conference on SYSTEMICS, CYBERNETICS AND INFORMATICS, America, Xia, et al. Study on Transforming From Painting to EURASIP – IEEE Region 8 International Symposium on Video/Image Processing and Multimedia Communications. (VIPromCom – 2002 ), Xia, et al. Analysis of Affective Characteristics and Evaluation of Harmonious Feeling of Image Based on 1/f Fluctuation Theory [A]. International Conference on Industrial & Engineering Applications of Artificial Intelligence & Expert Systems(IEA/AIE 2002)[C], Australia,: 780-789.毛峡等. 1/f波动数据的产生及其舒服感评价[J].北京航空航天大学学报,2002, 28(3):253-256.毛峡等. 基于小波的2-D分形布朗运动分析与合成[J].电子学报, .毛峡等. 图像的情感特征分析及其和谐评价[J]. 电子学报, Xia,et al. Characterization of Dried Seaweed Fluctuation Analysis[A]. of Japan [C], 1997,
一种用于三维空间杂波环境机动目标跟踪的数据互联方法,《电子与信息学报》2009年 第4期被动传感器阵列中基于粒子滤波的目标跟踪,《电子与信息学报》2009年 第4期一种新的嵌入式Linux高性能定时器实现方法,《信号处理》2009年 第3期一种新的红外弱小目标检测与跟踪算法,《信号处理》2008年 第6期被动传感器网基于修正Riccati方程的系统优化设计,《信号处理》2008年 第5期基于SIS框架和蚁群算法的非线性多目标跟踪,《电子与信息学报》2008年 第9期基于人类视觉系统的自适应数字水印算法,《上海交通大学学报》2008年 第7期一种基于电子签章的二值图像数字水印算法,《信号处理》2008年 第3期基于身份的网络化制造安全协同商务平台,《计算机工程》2008年 第13期基于Clifford代数传感器网络覆盖理论的路径分析,《电子学报》2007年 第B12期传感器网络高阶模糊覆盖分析,《电子学报》2007年 第B12期传感器网络最佳情况模糊覆盖问题研究,《电子学报》2007年 第B12期一种基于蚁群算法的多目标跟踪数据关联方法,《电子学报》2008年 第3期基于数据仓库的投资决策支持系统设计研究,《微电子学与计算机》2008年 第2期量子球壳聚类,《西安电子科技大学学报》2008年 第1期基于身份的安全邮件认证体系设计与分析,《计算机科学》2008年 第2期异类传感器系统目标快速定位方法,《系统工程与电子技术》2007年 第12期一种基于并行计算熵迁移策略的多分辨DOM数据生成算法,《中国科学技术大学学报》2007年 第12期基于模糊Hough变换的被动传感器系统航迹起始方法,《系统工程与电子技术》2007年 第11期THz信号处理与分析的研究现状和发展展望,《电子学报》2007年 第10期模糊数据互联滤波器及其在机动目标跟踪中的应用,《系统仿真学报》2007年 第20期分布式异类传感器网异步采样下的航迹起始算法,《系统工程与电子技术》2007年 第9期机动目标跟踪中数据互联新方法,《电子与信息学报》2007年 第10期一种新的视界覆盖遗传算法,《西安电子科技大学学报》2007年 第5期基于运动特征的远距离红外目标检测方法,《电子与信息学报》2007年 第8期被动传感器网基于模糊综合贴近度的航迹起始,《电子学报》2007年 第8期基于IBE的跨网络电子公文安全交换平台,《微计算机信息》2007年 第18期一种基于身份的无可信第三方签名方案,《深圳大学学报:理工版》2007年 第3期基于图像梯度场序列的双向GDIM光流计算方法,《电子学报》2007年 第7期一种基于身份的短数字签名方案,《微计算机信息》2007年 第21期分布式异类传感器网Hough变换航迹起始算法,《深圳大学学报:理工版》2007年 第2期基于DWT和DCT域的二值图像数字水印算法,《计算机与数字工程》2007年 第3期基于并行计算熵的同构集群负载均衡算法,《深圳大学学报:理工版》2007年 第1期基于unscented粒子滤波的红外弱小目标跟踪,《系统工程与电子技术》2007年 第1期一种空域DCT与时域DWT相结合的鲁棒视频数字水印算法,《中国体视学与图像分析》2006年 第4期图像插值方法对互信息局部极值的影响分析,《电子与信息学报》2006年 第10期网状被动传感器系统优化设计, 《系统工程与电子技术》2006年 第12期基于小波变换和目标运动特性的红外弱小目标检测, 《红外》2006年 第9期基于小波变换的红外弱小目标检测新方法,《红外技术》2006年 第7期在线CA的安全增强方案研究,《计算机工程》2006年 第11期基于ADSP—BF561车载多媒体系统,《现代电子技术》2006年 第3期空间分析中视界覆盖问题的研究,《系统工程与电子技术》2005年 第11期模糊观测数据的关联和目标跟踪,《信号处理》2005年 第4期从航空影像中自动提取高层建筑物,《计算机学报》2005年 第7期城市航空影像中基于模糊Retinex的阴影消除,《电子学报》2005年 第3期一种新的自适应图像模糊增强算法,《西安电子科技大学学报》2005年 第2期基于OAR模型的航空影像高层建筑自动提取,《深圳大学学报:理工版》2005年 第1期红外热图像序列中基于人体模型的目标头部定位方法,《激光与红外》2005年 第2期直线Snakes及其在建筑物提取中的应用,《西安电子科技大学学报》2005年 第1期网状被动传感器系统视线交叉目标定位方法,《电子与信息学报》2005年 第1期一种新的道路描述子:对称边缘方向直方图,《电子学报》2005年 第1期基于对称边缘方向直方图自动提取主要道路,《中国体视学与图像分析》2005年 第2期分布式被动传感器网异步采样下的机动目标跟踪,《系统仿真学报》2005年 第6期一种基于频带一致性的多模态图像校准算法,《通信学报》2005年 第4期基于模糊熵的自适应图像多层次模糊增强算法,《电子学报》2005年 第4期一种安全增强的基于椭圆曲线可验证门限签名方案,《计算机研究与发展》2005年 第4期密码学与数字水印在电子印章中的应用,《微机发展》2004年 第11期一种安全实用的电子公文系统设计与实现, 《现代电子技术》2004年 第21期基于DSP的PCI图像采集卡设计,《现代电子技术》2004年 第4期基于DSP组建短波电台无线数据传输网络的系统设计,《电子设计应用》2004年 第2期基于直方图的自适应高斯噪声滤波器,《系统工程与电子技术》2004年 第1期短波电台无线数据传输网络的组建,《现代电子技术》2004年 第3期半抑制式模糊C-均值聚类算法,《中国体视学与图像分析》2004年 第2期基于模糊推理的自动多级图像分割,《中国体视学与图像分析》2004年 第1期航空影像中立交桥的自动检测,《中国体视学与图像分析》2004年 第1期网状被动传感器系统航迹初始状态估计,《信号处理》2004年 第6期被动传感器系统分层快速关联算法,《电子学报》2004年 第12期一种基于模糊运算的多目标多传感器跟踪算法,《系统工程与电子技术》2004年 第11期异步被动传感器系统模糊Hough变换航迹起始算法,《系统工程与电子技术》2004年 第11期窗户纹理的时频描述及其在建筑物提取中的应用,《中国图象图形学报:A辑》2004年 第10期基于模糊熵的支撑矢量预选取方法,《复旦学报:自然科学版》2004年 第5期基于物方几何约束提取建筑物垂直边缘,《中国图象图形学报:A辑》2004年 第9期分布式网状被动传感器系统定位误差分析,《西安电子科技大学学报》2004年 第5期分布式网状被动传感器系统量测数据关联,《系统工程与电子技术》2004年 第12期基于核方法的分类型属性数据集模糊聚类算法,《华南理工大学学报:自然科学版》2004年 第9期基于模糊决策的密集多回波环境下航迹起始算法,《雷达与对抗》2004年 第3期红外传感器阵列基于信息冗余性的目标定位,《系统工程与电子技术》2004年 第8期基于核方法的模糊聚类算法,《西安电子科技大学学报》2004年 第4期一种用于模式识别的多色Voronoi图,《系统工程与电子技术》2004年 第7期基于DSP的短波电台无线数据传输网络实现,《深圳大学学报:理工版》2004年 第3期基于直方图的自适应图像去噪滤波器,《电子学报》2004年 第7期自适应模糊Hough变换,《电子学报》2004年 第6期基于主动秘密共享的安全容忍入侵方案,《兰州交通大学学报》2004年 第1期基于模糊熵的多值图像恢复方法,《西安电子科技大学学报》2004年 第2期
随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。我整理了图像识别技术论文,欢迎阅读!
图像识别技术研究综述
摘要:随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。图像识别是利用计算机对图像进行处理、分析和理解,由于图像在成像时受到外部环境的影响,使得图像具有特殊性,复杂性。基于图像处理技术进一步探讨图像识别技术及其应用前景。
关键词:图像处理;图像识别;成像
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)10-2446-02
图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。
1 图像处理技术
图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。
1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。
2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。
3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。
4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。
5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。
2 图像识别技术
图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:
指纹识别
指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。
人脸识别 目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。
文字识别
文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。
3 结束语
人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。
参考文献:
[1] 胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.
[2] 胡学龙.数字图像处理[M].北京:电子工业出版社,2011.
[3] 范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.
[4] 晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.
[5] 陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.
[6] Sanderson C,Paliwal K Fusion and Person Verification Using Speech & Face Information[C].IDIAP-RR 02-33,Martigny,Swizerland,2002.
点击下页还有更多>>>图像识别技术论文
随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。我整理了图像识别技术论文,欢迎阅读!
图像识别技术研究综述
摘要:随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。图像识别是利用计算机对图像进行处理、分析和理解,由于图像在成像时受到外部环境的影响,使得图像具有特殊性,复杂性。基于图像处理技术进一步探讨图像识别技术及其应用前景。
关键词:图像处理;图像识别;成像
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)10-2446-02
图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。
1 图像处理技术
图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。
1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。
2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。
3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。
4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。
5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。
2 图像识别技术
图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:
指纹识别
指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。
人脸识别 目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。
文字识别
文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。
3 结束语
人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。
参考文献:
[1] 胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.
[2] 胡学龙.数字图像处理[M].北京:电子工业出版社,2011.
[3] 范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.
[4] 晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.
[5] 陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.
[6] Sanderson C,Paliwal K Fusion and Person Verification Using Speech & Face Information[C].IDIAP-RR 02-33,Martigny,Swizerland,2002.
点击下页还有更多>>>图像识别技术论文
SDNET: MULTI-BRANCH FOR SINGLE IMAGE DERAINING USING SWIN 最近,流行的transformer具有全局计算特性,可以进一步促进图像去雨任务的发展。本文首次将Swim-transformer引入图像去雨领域,研究了Swim-transformer在图像去雨领域的性能和潜力。具体来说,我们对Swim-transformer的基本模块进行了改进,设计了一个三分支模型来实现单幅图像的去雨。前者实现了基本的雨型特征提取,而后者融合不同的特征进一步提取和处理图像特征。此外,我们还采用jump connection来融合深层特征和浅层特征。实验表明,现有的公共数据集存在图像重复和背景相对均匀的问题。因此,我们提出了一个新的数据集Rain3000来验证我们的模型。 Transformer[28]最初是自然语言处理(NLP)领域的一个模型,用于并行处理单词向量,以加速模型推理。它的全局计算特性适用于远距离传递特征。这正是计算机视觉领域中卷积运算所不擅长的。Dosovitskiy等人[29]将图像分割成16x16个图像块,将不同的图像块作为不同的词输入到transformer中,提高了图像分类的精度。近年来,人们从深度[30]、多尺度[31]等角度应用transformer来完成相关任务。然而,Transformer也有不可忽视的缺点,例如计算量与图像大小之间存在二次关系,这限制了它的应用环境。Liu等人[32]提出的Swin-transformer使用滑动窗口使模型具有线性计算复杂度,通过跨窗口连接改善了窗口间的信息交换,最终提高了模型在图像分类、目标检测和实例分割等方面的性能。 本文提出了一种新的图像去雨网络SDNet,它是利用Swim-transformer强大的特征表示能力构建的端到端去雨网络。具体地说,我们改进了Swim-transformer的基本模块,重新设计了一个双分支模型,实现了单图像去雨。前者实现了基本的雨型特征提取,后者融合了不同分支的特征。此外,我们采用jump connection来融合深度特征和浅层特征,以提高网络模型的性能。 本文贡献如下: 最近有大量的研究工作将transformer引入CV域,并取得了良好的效果。具体来说,Dosovitskiy等人[29]将图像分成16X16个图像块,然后将其拉伸成一维向量,然后送入网络中完成图像分类任务。Chen等人[38]提出了一种基于卷积运算的transformer与Unet相结合的TransUnet方法,实现医学图像的分割。蒋等[39]设计了与对抗生成网络结构相同的图像生成transformer。transformer中的self-attention导致模型计算直线增长,导致transformer不能在低计算能力的硬件上运行。Liu[32]提出了一种利用滑动窗口方法使网络计算线性增长并加速网络推理的方法。我们的方法是基于这种方法来实现一个单一的图像去雨任务的融合特征。 本文的方法是基于这种方法[32]来实现一个单一的图像去雨任务,融合不同分支的特征、深度特征和浅层特征。 Transformer是一个功能强大的网络模块,可以取代CNN操作。但其中的Muti-Head Attention导致模型的计算量迅速增加,导致transformer模型无法在许多底层硬件中测试和使用,注意力的数学表达式如下:本文使用一个简单而强大的前馈网络作为主干,如图2所示。SDnet网络基本上由三个多分支融合模块组成,称为MSwt,一个多分支模块MSwt-m和两个基本block模块。此外,还增加了跳转连接,目的是融合深特征和浅特征,以提高网络去雨的性能。为了更灵活地构建网络,提出了Basic-block的概念,并设计了两个三分支特征融合块。如图4和图5所示,与后者相比,前者有一个用于融合特征的附加基本块。数学表达式如下: 其中F(·)表示基本块的操作。x表示模块Mswt的输入。这种设计的思想来源于自我注意中的多头注意机制。通过学习F1、F2、F3,可以自适应地学习不同的特征。将输入映射到不同的子空间,分别提取不同的特征。与自我注意不同的是,我们对提取的特征求和,而不是级联操作。通过F4融合增加的特征,实现进一步的特征提取。由于设计思想来源于多头注意机制,多分支具有与该机制相同的特点,即在一定范围内,分支越多,模型性能越好。为了平衡模型的规模和模型的性能,我们选择了三个分支进行特征提取。 虽然transformer可以保持特征在长距离传播,但是仍然需要在网络中结合深特征和浅特征,为此我们设计了一个没有特征融合的Mswt模块,我们称之为Mswt-m,如图5所示,其数学表达式如下: F1、F2、F3将输入映射到三个不同的空间进行特征提取,对提取的特征求和,然后与第二个Mswt模块的输出求和,再经过一个基本块,实现深度特征和浅层特征的融合,如图2中的小跳跃连接所示,而图2中相对较长的跳跃连接则考虑了主要特征中包含的丰富的空间和纹理信息,有助于完成深度特征中缺失的纹理信息。 其中,O为雨图像,B为对应标签。是绝对差(SAD)之和,用于计算相似预测图像和标签之间的像素损失,如等式6所示。SSIM(结构相似性)是结构相似性,最初用作评估两个图像内容的结构相似性的度量。Ren等人[41]证明了SSIM作为损失函数在图像降额任务中的有效性的负面作用,其数学表达式如等式7所示。尽管使用该损失函数可以获得高SSIM度量,但图像仍然存在失真和低峰值信噪比(PSNR)。identity loss(等式8)由CycleGAN[42]导出,CycleGAN[42]用于约束生成图像的颜色丢失,这里我们使用它来约束图像去雨后的图像样式,这减少了图像失真,提高了网络性能。α , β , λ 是SAD损失、SSIM损失和identity loss的系数。在本文中,分别设置为、4和1。 实验使用Tesla V100 16G GPU进行训练,使用Pytorch框架和(Adam)[43],初始学习率为5× 10−4,减少到5× 10−5和5× 10−6当训练迭代次数分别为总迭代次数的3/5和4/5时。输入模型的图像大小设置为231×231. batch size为5。 我们提出了一个全新的数据集用于网络训练和消融实验。该数据集是从ImageNet中随机抽取的10万幅图像,保证了图像的多样性。从Efficientderain[12]降雨模式数据集中随机选择一到四种降雨模式,并添加到选定的图像中。我们最终选择了3000张合成图像作为训练集,400张作为测试集。我们把这个数据集命名为Rain3000。此外,我们还使用公开的数据集Rain100L和Rain100H[44]来验证SDnet模型。两个公开的数据集都包含1800个训练图像和200个测试图像。 使用SSIM和PSNR作为评价指标,这两种指标已被广泛用于评价预测图像的质量。PSNR是根据两幅图像之间的像素误差来计算的,误差越小,值越大,图像越相似,除雨效果越好。相反,图像去雨的效果越差 首先,本文提出了一种基于Swin-transformer的三分支端到端除雨网络,它充分利用了Swin-transformer强大的学习能力,用一种改进的Swin-transformer代替卷积运算,并设计了一个多分支模块来融合不同空间域的信息,使用跳转连接来融合深特征和浅特征。此外,我们提出了一个新的数据集,由3000个训练对和400个测试对组成。该数据集是基于ImageNet生成的,具有丰富的背景和雨型组合,便于模型的推广。我们提出的模型在数据集Rain3000和公共数据集Rain100L、Rain100H上都达到了最佳性能。我们的工作还有些不足。例如,在参数数目相同的情况下,哪种方法更适合于并行或串行的图像去噪任务还没有详细探讨。以及是否可以使用多个不同大小的滑动窗口来实现窗口间的进一步信息交换,以提高网络降容的性能。此外,我们正在使用更简单的前馈网络,更复杂的网络仍然值得研究
医学影像技术论文范文
在日常学习、工作生活中,大家都经常接触到论文吧,论文是学术界进行成果交流的工具。你写论文时总是无从下笔?以下是我帮大家整理的医学影像技术论文,欢迎阅读,希望大家能够喜欢。
【摘要】 医学图像在临床应用或科研中的物理问题、算法和软硬件设计操作等,是医学物理学的重要分支。医学影像是人体信息的载体,可用于教学和科研、治疗和疾病诊断。
治疗中的医学影像可以用于制定治疗计划、在治疗过程实施影像监督,以及通过对治疗监督是采集的数据的图像重建实现对治疗计划的验证。当前医学影像的世界前沿是功能成像
主要内容是对人的生理功能和心理功能成像。这些成像方法和技术的发展以及在医疗界中的广泛使用,必将引起医学领域研究和新的治疗方案的革命。
【关键词】 医学影像;影响物理;成像技术
1引言
人体成像包括对健康人的成像和对病人的成像,对于前者的成像主要用于科研和教学,后者主要用于医学临床诊断和治疗。医学影像物理和技术是医学物理学的重要分支,研究的对象包括了所有人体成像。
目前临床广泛使用的模态按照成像时使用的物质波不同,分为X射线成像、γ射线成像、磁共振成像和超声成像。
2对目前各种医学成像模态现状的分析
射线成像
X射线成像模态分为平面X射线成像和断层成像。人体不同器官和组织对X射线的吸收可以用组织密度进行表征,因此,可以利用平面x射线、x射线照相术对人体内脏器官和骨骼的损伤和病灶进行诊断和定位
同时也把胶片带进了医学领域。随着x射线显像增强技术的发展,x射线的血管造影术和其他脏器的专用x线机相继诞生,扩大了x射线成像的应用范围。平面x射线成像的未来发展方向是数字化的x光机技术其中,x线机是全世界的发展方向,但是其价格使得大多数用户望而怯步。
作为传统影像技术中最为成熟的成像模式之一的x射线断层成像,其速度对于心脏动态成像完全没有问题,加上显像增强剂,还可以对用于血管病变及其血脑屏障是否被病灶破坏进行检查,属于功能成像的范畴。当前,三维控件x射线断层成像的实验室样机已经问世,将会为x射线成像带来新的生命力。
核磁共振成像
目前,各种各样的核磁共振设备产品已经大量进入市场。核磁共振成像集中体现了各种高新技术在医学成像设备中的应用。目前核磁共振主要应用包括人脑认知功能成像,用于揭示大脑工具机制的认知心理实验测量。
核医学成像
核医学成像包括平面和断层成像两种方式。目前,以单光子计算机断层成像和正电子断层成像为主,为动物正电子断层成像主要是用于基础研究,而平面的γ相机已经处于被淘汰的水平。
核医学成像设备可以定量地检测到由于基因突变而引起的大分子运动紊乱继而引起的脏器功能变化,例如代谢紊乱、血流变化等。这是其他设备如超声波检查不可能完成的任务。
这就是临床医学上所说的早期诊断,核医学影像设备能够快速发展归功于此。但是核医学成像存在空间分辨率差、病理和周围组织的相互关系很难准确定位的确定,因此,还需要医学物理工作的不懈努力。
超声波成像
超声波是非电离辐射的成像模态,以二维成像的功能为主,也包括平面和断层成像两类产品。超声波成像由于其安全可靠、价格低廉,多以在诊断、介入治疗和预后影像检测中得到发展。
目前,超声波设备已有超过x射线成像的势头。同样,超声波成像也存在一定的缺点,如图像对比度差、信噪比不好、图像的重复性依赖于操作人员等。
3关于医学软件问题
基本情况分析
成像的硬件设备要完成功能离不开医学软件的支持,对于这些医学软件按照和硬件设备的关系,可分为三个层次:
第一层,工作和硬件紧密结合的软件。主要功能是负责成像设备的运动控制,对数据的采集,图像预处理和重建,完成数据分析。
第二层,主要负责对医疗器械产生的数据进行分析、处理软件。这种软件的应用需要来自医学物理人员,软件编程人员和医生三方的合作,目前,由于我国还没有建立这种三方合作机制,这类软件应用情况明显滞后。
第三层,主要功能是完成医学信息的整合的软件,用于医疗过程中医疗信息,医学工作的管理。例如PACS。这种软件也需要医生的参与,但是并没有依赖性。
PACS是医疗发展信息化的体现,是医学影像技术集成管理和开拓影像资源应用范围的重要技术手段。PACS将医学影像中的各种软件和图像工作站连接起来,使之成为局域网中的节点,实现了资源的共享。不同科室的医生在完成对病人的信息收集和诊断后可以完成信息的录入。还可以利用商业设备上采集的数据运用于病人的诊疗中,结合数据和医学影像,对诊断信息综合处理,以此提高诊断的准确率。
4医学影像物理和技术学科今后的发展
虽然存在各种不同的医学影像模态,但是目标只有一个,即为了更好的进行医学研究诊断,随着物理和计算机技术的发展,医学影像技术会随之提高。为了更好的为医疗服务,在今后的发展中,医学影响物理和技术学科还需在以下几方面继续努力。
第一,用于成像的物质波产生装置还需要不断进行提升,为更好的满足成像需求,在提高波源产生物质波的同时,还需要改变物质波的束流品质;
第二,将物质波和人体组织发生相互作用的规律模型化,为减少误诊率和定位误差,把模型参数的最佳化,改善从影像中提取信息的质量和速度。同时努力消除探测中的噪声和伪影;
第三,把探测的信号收集,放大、成形实现数字化;
第四,为满足影像诊断和治疗中的监督需要,高质量的实现图像重建和显示等。
在科学技术方面,开展医学影像在脑功能成像研究中的应用、临床诊断中的应用等,有利于拓宽医学影像的市场。
5结语
本文介绍了当今主流的几种医学成像技术,对各种成像方式的优缺点进行了阐述,对日后医学影像物理和技术的发展提出了自己的看法,希望能为那些为医疗服务的工作者们提供一些参考。随着医学影像物理和技术的不断进步,医疗服务行业的科学化加速发展。
参考文献
[1]黄浩,施红,陈伟炜,俞允,林多,许茜,俞向梅,洪全兴,魏国强.医学影像技术学专业教育的问题与思考[J].教育教学论坛.2013(11)
[2]彭文献,黄敏,罗敏.基于岗位需求培养医学影像技术学生专业意识的探讨[J].浙江医学教育.2011(03)
【摘 要】随着科学技术的进步,医学影像技术在医疗领域中的地位将更为重要。本文谈了医学影像技术发展史,总结了近年来取得的新进展。
【关键词】医学影像技术
医学影像技术主要是应用工程学的概念及方法,并基于工程学原理发展起来的一种技术,其实医学影像技术还是医学物理的重要组成部分,它是用物理学的概念和方法及物理原理发展起来的先进技术手段。医学影像信息包括传统X线、CT、MRI、超声、同位素、电子内窥镜和手术摄影等影像信息。它们是窥测人体内部各组织,脏器的形态,功能及诊断疾病的重要方法。随着医疗卫生事业的.发展,以胶片为主要方式的显示、存储、传递X-ray摄像技术已不能满足临床诊断和治疗发展的需求,医疗设备的数字化要求日益强烈,全数字化放射学、图像导引和远程放射医学将是放射医学影像发展的必然趋势。
1 传统摄影技术在摸索中进行
计算机X线摄影
X射线是发展最早的图像装置。它在医学上的应用使医生能观察到人体内部结构,这为医生进行疾病诊断提供了重要的信息。在1895年后的几十年中,X射线摄影技术有不少的发展,包括使用影像增强管、增感屏、旋转阳极X射线管及断层摄影等。但是,由于这种常规X射线成像技术是将三维人体结构显示在二维平面上,加之其对软组织的诊断能力差,使整个成像系统的性能受到限制。从50年代开始,医学成像技术进入一个革命性的发展时期,新的成像系统相继出现。70年代早期,由于计算机断层技术的出现使飞速发展的医学成像技术达到了一个高峰。到整个80年代,除了X射线以外,超声、磁共振、单光子、正电子等的断层成像技术和系统大量出现。这些方法各有所长,互相补充,能为医生做出确切诊断,提供愈来愈详细和精确的信息。在医院全部图像中X射线图像占80%,是目前医院图像的主要来源。在本世纪50年代以前,X射线机的结构简单,图像分辨率也较低。在50年代以后,分辨率与清晰度得到了改善,而病人受照射剂量却减小了。时至今日,各种专用X射线机不断出现,X光电视设备正在逐步代替常规的X射线透视设备,它既减轻了医务人员的劳动强度,降低了病人的X线剂量;又为数字图像处理技术的应用创造了条件。随着计算机的发展数字成像技术越来越广泛地代替传统的屏片摄影现阶段,用于数字摄影的探测系统有以下几种: (1)存储荧光体增感屏[计算机X射线摄影系统(computer )]。
(2)硒鼓探测器。(3)以电荷耦合技术(charge Coupled )为基础的探测器 。(4)平板探测器(Flat panel Detector)a:直接转换(非晶体硒)b:非直接转换(闪烁晶体)。这些系统实现了自动化、遥控化和明室化,减少了操作者的辐射损伤。
X-CT
CT的问世被公认为伦琴发现X射线以来的重大突破,因为他标志了医学影像设备与计算机相结合的里程碑。这种技术有两种模式,一种是所谓“先到断层成像”(FAT),另一种模式是“光子迁移成像”(PMI)。
磁共振成像
核磁共振成像,现称为磁共振成像。它无放射线损害,无骨性伪影,能多方面、多参数成像,有高度的软组织分辨能力,不需使用对比剂即可显示血管结构等独特的优点。
数字减影血管造影
它是利用计算机系统将造影部位注射造影剂的透视影像转换成数字形式贮存于记忆盘中,称作蒙片。然后将注入造影剂后的造影区的透视影像也转换成数字,并减去蒙片的数字,将剩余数字再转换成图像,即成为除去了注射造影剂前透视图像上所见的骨骼和软组织影像,剩下的只是清晰的纯血管造影像。
2 数字化摄影技术
数字X射线摄影的成像技术包括成像板技术、平行板检测技术和采用电荷耦合器或CMOS器件以及线扫描等技术。成像板技术是代替传统的胶片增感屏来照相,然后记录于胶片的一种方法。平行板检测技术又可分为直接和间接两种结构类型。直接FPT结构主要是由非品硒和薄膜半导体阵列构成的平板检测器。间接FPT结构主要是由闪烁体或荧光体层加具有光电二极管作用的非品硅层在加TFT阵列构成的平板检测器。电荷耦合器或CMOS器件以及线扫描等技术结构上包括可见光转换屏,光学系统和CCD或CMOS。
3 成像的快捷阅读
由于成像方法的改进,除了在成像质量方面有明显提高外,图像数量也急剧增加。例如随着多层CT的问世,每次CT检查的图像可多达千幅以上,因此,无法想象用传统方法能读取这些图像中蕴含的动态信息。这时在显示器上进行的“软阅读”正在逐渐显示出其无可比拟的优越性。软拷贝阅读是指在工作站图像显示屏上观察影像,就X线摄影而言这种阅读方式能充分利用数字影像大得多的动态范围,获取丰富的诊断信息。
4 PACS的广阔发展空间
随着计算机和网络技术的飞速发展,现有医学影像设备延续了几十年的数据采集和成像方式,已经远远无法满足现代医学的发展和临床医生的需求。PACS系统应运而生。PACS系统是图像的存储、传输和通讯系统,主要应用于医学影像图像和病人信息的实时采集、处理、存储、传输,并且可以与医院的医院信息管理系统放射信息管理系统等系统相连,实现整个医院的无胶片化、无纸化和资源共享,还可以利用网络技术实现远程会诊,或国际间的信息交流。PACS系统的产生标志着网络影像学和无胶片时代的到来。完整的PACS系统应包含影像采集系统,数据的存储、管理,数据传输系统,影像的分析和处理系统。数据采集系统是整个PACS系统的核心,是决定系统质量的关键部分,可将各种不同成像系统生成的图象采入计算机网络。由于医学图像的数据量非常大,数据存储方法的选择至关重要。光盘塔、磁带库、磁盘陈列等都是目前较好的存储方法。数据传输主要用于院内的急救、会诊,还有可以通过互联网、微波等技术,以数据的远距离传输,实现远程诊断。影像的分析和处理系统是临床医生、放射科医生直接使用的工具,它的功能和质量对于医生利用临床影像资源的效率起了决定作用。综上所述,PACS技术可分为三个阶段,(1)用户查找数据库;(2)数据查找设备;(3)图像信息与文本信息主动寻找用户。
5 技术——分子影像
随着医学影像技术的飞速发展,在今天已具有显微分辨能力,其可视范围已扩展至细胞、分子水平,从而改变了传统医学影像学只能显示解剖学及病理学改变的形态显像能力。由于与分子生物学等基础学科相互交叉融合,奠定了分子影像学的物质基础。Weissleder氏于1999年提出了分子影像学的概念:活体状态下在细胞及分子水平应用影像学对生物过程进行定性和定量研究。
分子成像的出现,为新的医学影像时代到来带来曙光。基因表达、治疗则为彻底治愈某些疾病提供可能,因此目前全世界都在致力于研究、开创分子影像与基因治疗,这就是21世纪的影像学。 新的医学影像的观察要超出目前的解剖学、病理学概念,要深入到组织的分子、原子中去。其关键是借助神奇的探针--即分子探针。到目前为止,分子影像学的成像技术主要包括MRI、核医学及光学成像技术。一些有识之士认为;由于诊治兼备的介入放射学已深入至分子生物学的层面,因此,分子影像学应包括分子水平的介入放射学研究。
6 学科的交叉结合
交叉学科、边缘学科是当今科学发展的趋势。影像技术学最邻近的学科应为影像诊断学。前者致力于解决信息的获取、存储、传输、管理及研发新的技术方法;后者则将信息与知识、经验结合,着重于信息的内容,根据影像做出正常解剖结构的辨认及病变的诊断。两者相辅相成,互为依托。所以,影像技术学的发展离不开影像诊断学更密切地沟通与结合将为提高、拓展原有成像方式及开辟新的成像方式做出有益的贡献。医用影像诊断装置用于详细地观察人体内部各器官的结构,找出病灶的位置毫克大小,有的还可以进行器
官功能的判断 。还有医用影像诊断装备情况,已成了衡量医院现代化水平的标志。
7 浅谈医学影像技术的下一个热点
医疗保健事业在经济上的窘迫使得90年代以来,成为一个没有大规模推广一种新的影像技术的、相对沉寂的时期,延续了一些现有影像技术的发展,使得他们中至今还没有一种影像技术能对影像学产生巨大的影响。随着科技的发展,最近逐渐发展起来的一批有希望的影像技术。如:磁共振谱(MRS),正电子发射成像(PET)单光子发射成像(SPECT),阻抗成像(EIT)和光学成像(OCT或NRI)。他们有可能很快成为大规模应用的影像技术,将为脑、肺、乳房及其他部位的成像提供新的信息。
磁源成像
人体体内细胞膜内外的离子运动可形成生物电流。这种生物电流可产生磁现象,检测心脏或脑的生物电流产生的磁场可以得到心磁图或脑磁图。这类磁现象可反映出电子活动发生的深度,携带有人体组织和器官的大量信息。
PET和SPECT
单光子发射成像(SPECT)和正电子成像(PET)是核医学的两种CT技术。由于它们都是接受病人体内发射的射线成像,故统称为发射型计算机断层成像(ECT)。ECT依据核医学的放射性示踪原理进行体内诊断,要在人体中使用放射性核素。ECT存在的主要问题是空间分辨率低。最近的技术发展可能促进推广ECT的应用。
阻抗成像(EIT)
EIT是通过对人体加电压,测量在电极间流动的电流,得到组织电导率变化的图像。 目的在于形成对体内某点阻抗的估计。这种技术的优点是,所采用的电流对人体是无害的,因而对成像对象无任何限制。这种技术的时间分辨率很好,因而可连续监测实际的应用,已实现以视频帧速的医用EIT的实验样机。
光学成像(OTC或NIR)
近期的一些实质性的进展表明,光学成像有可能在最近几年内发展成为一种能真正用于临床的影像设备。它的优点是:光波长的辐射是非离子化的,因而对人体是无伤害的,可重复曝光;它们可区分那些在光波长下具有不同吸收与散射,但不能由其它技术识别的软组织;天然色团所特有的吸收使得能够获得功能信息。它正在开辟它的临床领域。
MRS
MRS是一种无创研究人体组织生理化的极有用的工具。它所得到的生化信息可与人体组织代谢相关联,并表明它正常组织的方式有差别。目前MRS还没有常规用于临床,但已有大量技术正在进行正式适用。
上述的几个先进的技术,究竟哪一个能成为医学影像技术的热点,我们认为应要有最大效益、安全和经济是最为重要的。在逝去的20世纪,医学影像技术经历了从孕育、成长到发展的过程,回顾过去可以断言它在防治人类疾病及延长平均寿命方面是功不可没的。在一切“以人类为本”的21世纪中,人们将继续用医学影像技术来为人们的健康服务。
主要研究方向及感兴趣的领域信号与信息处理/模式识别与智能系统:1.图像检测与跟踪(红外、医学)2.被动多传感器目标定位与跟踪3.辐射源识别与分类(雷达、通信)4.现代信号处理、模式识别5、专用DSP系统研发智能信息处理:1.智能信息处理理论与方法 先后承担国家自然科学基金、国防预研、国防基金、863创新基金、国防重点实验室基金,以及横向合作科研项目20余项,代表性科研项目有:1、国家自然科学基金:基于非线性滤波的红外弱小目标检测与跟踪新方法研究2、国家自然科学基金:基于被动多传感器的目标跟踪方法研究3、陕西省自然科学基金:人脸画像与图像识别方法研究;4、跨行业基金:××目标分类与架次识别技术;5、跨行业基金:××红外弱示目标探测方法研究;6、跨行业基金:××微弱信号接收检测方法研究。横向科研合作项目:1、红外预警图像显示与跟踪;2、红外图像目标检测及参数提取系统;3、非相干散射雷达信号处理与系统实现;4、复杂杂波背景下的微弱信号检测、分选、识别技术;5、医学影像信息处理技术;在国际和国内重要期刊和国际会议发表SCI、EI检索论文100余篇。 目前主要承担的科研项目有:1、 国家自然科学基金:基于被动多传感器的目标跟踪方法研究2、 非相干散射雷达信号系统;3、 复杂环境微弱信号检测与识别方法;4、 医学图像分析与处理; 1、指导研究生:以培养获得博士学位15人,获得硕士学位120人2、主讲课程:研究生(博士、硕士):现代信号处理—高阶统计量分析;本科生:随机信号处理,专业教育。