图像融合是多传感器信息融合领域的一个重要分支[1],它是指将来自同一目标的不同传感器的信息通过一定的算法融合到一幅图上,从而获得比在单幅图上更完整、更精确的信息。图像融合在军事(如军事侦察、识别伪装)和非军事(如医疗诊断、遥感、计算机技术等)领域得到广泛的应用。就遥感图像融合而言,目前大致分4种类型:多种分辨率的融合处理、多时相的融合处理、多种传感器类型的融合处理、多波段大容量的融合处理。本文研究的对象属于最后一种,即不同光谱获得的图像。这里使用基于小波变换的塔式结构的优点是小波变换具有紧凑性、正交性、很好的方向性,这使得小波变换可以很好地提取不同尺度上的显著特征,相对于高斯—拉普拉斯金字塔技术而言,不仅可以产生更好的融合结果,而且进行反向变换时稳定性更好;另外小波变换的塔式结构还使得不管原图像的长度是否2的幂次方,最终变换后的图像与原图像尺寸相同,这使得开发实用的并行算法系统成为可能。本文正是基于这点,在对图像小波多分辨分解叙述的基础上,构造了一种图像融合算法,最后对算法进行了仿真,并对结果进行了分析。1图像的小波变换定义1多分辨分解设fj+1∈V2j+1,由V2j+1=V2j W2j可得,存在fj∈V2j,gj∈W2j,有fj+1=fj+gj对于图像f(x,y)而言,由文献[2]可得图像的Mallat二进小波的塔式分解为fj+1(x,y) =∑k,mCj,k,mj,k,m+∑ε=1,2,3∑k,mDεj,k,mΨεj,k,m(1)式中:Cj,k,m=∑l,nhl-2khn-2mCj+1,l,n;D1j,k,m=∑l,nhl-2kgn-2mCj+1,l,nD2j,k,m=∑l,ngl-2khn-2mCj+1,l,n;D3j,k,m=∑l,ngl-2kgn-2mCj+1,l,n在图像小波分解的表达式中Cj,k,m, D1j,k,m, D2j,k,m, D3j,k,m,分别对应图像的低频子带及水平、垂直与对角线3个方向的高频子带, Cj,k,m为图像在aj分辨率下的离散逼近,D1j,k,m, D2j,k,m, D3j,k,m为2j分辨率下的离散细节。{hk}k∈z可看作低通滤波器系数, {gk}k∈z可看作高通滤波器系数,为尺度函数,Ψ为正交小波函数。{j,k,m|k,m,∈z}构成Vj2的规范正交基,{Ψεj,k,m|j,k,m∈z}构成W2j的规范正交基。另外,通过小波分解,除了低频子带都是一些正的变换值外,其它的3个高频子带都包含了一些在零附近的变换值,在这些子带中,较大的变换值对应着亮度急剧变化的点,也就是图像中的显著特征,如边缘、亮线及区域轮廓。既然小波变换具有很好的空域及频域局部性,融合的效果就是:对来自同一目标的两个不同传感器所获解的图象A和B,融合前在图像A中若比图像B中显著,融合后图像A中的目标就被保留,图像B中的目标就被忽略;对不同的场景,比如图像A中的目标的外部轮廓比较明显,图像B中目标的内部轮廓比较明显,这种情况,图像A、B中目标的小波变换系数将在不同的分辨率水平上占统治地位,从而在最终的融合图像中,图像A中的外部结构与图像B中的内部结构都被保留。因此通过融合可以实现在单幅图像上的片面的、不完整、不精确的信息得到更一致更精确的体现。最后对组合后的变换系数进行反向小波变换,就可得到融合后的图像。2基于区域的图像增强算法在图像的融合算法中,图像不同,图像的数据表征不同,融合算法也各不相同,目前采用的融合方法主要有[3]:基于像素的代数组合法、统计/数值法以及与颜色有关的技术。但是我们知道图像中的有用特征通常大于1个像素,因此基于像素的选择方法可能不是最适合的,近几年又提出了基于区域的选择方法,比较有代表性的是文献[4]中提出的基于区域的均值选择法,该方法用一M×N的窗口对图像块进行求方差运算,计算结果作为与窗口中心像素对应的一种度量方法,中心像素的选择方法为:如果两幅图像方差在对应位置上的度量值相近,取2者的均值作为输出的新值,否则取较大的值作为输出。文献[5]中提出利用不同的特征选择算子,有方向的计算对应细节图像的局域能量,由局部能量构造匹配度及加权因子,从而对图像进行加权运算。这里以均值、方差、相关等统计参量构造一种新的区域融合算法。以下计算以两幅图像为例,对3幅以上的图像融合算法与此类似,具体步骤如下:首先,利用M×N (一般选M,N为奇数,常用的窗口为3×5或5×5)窗口计算小波分解各子带系数的均值和方差,子带中以(x,y)位置为中心的区域均值与方差分别为mi(x,y) =1M×N∑Mm=1∑Mn=1fi(x+ m -M+12,y+ n -N+12) (2)σ2i(x,y) =1M×N∑Mm=1∑Mn=1(fi(x+ m -M+12,y+ n -N+12)- mi(x,y))2(3)图像1以(x,y)位置为中心与图像2对应区域的协方差为β2(x,y)=1M×N∑Mm=1∑Mn=1(fi(x+m-M+12,y+n-N+12)-m1(x,y))×(f2(x+m-M+12,y+n-N+12)-m2(x,y))(4)构造匹配度ρ及加权系数W:ρ=β2σ1σ2;Wmax=1-12ρ;Wmin=1-Wmax然后,利用下式对两幅图像中的对应子带像素进行融合计算f(x,y)=Wmax·MAX(f1(x,y),f2(x,y))+Wmin·MIN(f1(x,y),f2(x,y)) (5)这里f1(x,y),f2(x,y)是上述对应窗口中心位置的两幅图像的像素灰度值。这样就完成了2j分辨率下的数据融合,最后对融合后的子带系数进行反变换就可得到融合后的图像。需要的话给我你的邮箱,发到你邮箱!