精品人妻无码一区二区三区软件 ,麻豆亚洲AV成人无码久久精品,成人欧美一区二区三区视频,免费av毛片不卡无码

您現(xiàn)在的位置是:首頁計算機應用論文

計算機應用論文顯著區(qū)域檢測算法綜述

發(fā)布時間: 1

  人類可以快速準確地識別視覺場中的顯著區(qū)域。在機器上模擬人類的這種能力對于使機器能夠像人類一樣處理視覺內容是至關重要的。在過去的幾十年內,已有大量的顯著性檢測方法進入了公開發(fā)表。這些方法中的大部分[1-4]都趨向于預測人眼視覺注視點。然而這些人眼視覺注視點只是一些空間中的離散點,并不能準確地標識整個顯著區(qū)域[5-6]。

  摘要:檢測視覺上顯著的區(qū)域對于很多計算機視覺應用都是非常有幫助的,例如:內容保持的圖像縮放,自適應的圖像壓縮和圖像分割。顯著區(qū)域檢測成為視覺顯著性檢測領域的重要研究方向。文**紹了顯著區(qū)域檢測算法的研究現(xiàn)狀并分析了典型的顯著區(qū)域檢測方法。首先,將現(xiàn)有的顯著區(qū)域檢測算法進行了分類和分析。然后,在一個包含1000幅圖像的公開數(shù)據(jù)集上對典型的顯著區(qū)域檢測算法進行了評測。最后對現(xiàn)有的顯著區(qū)域檢測算法進行了總結并展望了下一步發(fā)展方向。

  關鍵詞:顯著區(qū)域檢測,視覺顯著性檢測,評測

  0引言

  近些年來,一些科研單位和研究人員已經開始密切關注于顯著區(qū)域檢測方法的構建工作,如洛桑聯(lián)邦理工學院的SabineSüsstrunk研究員,以色列理工學院的AyelletTal教授,微軟亞洲研究院的研究人員,清華大學的胡世民教授等。顯著區(qū)域檢測方法對以下領域發(fā)揮著重大的助益作用:圖像分割[7]、物體檢測[8]、內容保持的圖像縮放[9]等。本文將對顯著區(qū)域檢測算法的研究現(xiàn)狀進行介紹,同時對典型的顯著區(qū)域檢測算法進行分析。

  文章內容組織結構為:第2節(jié)對現(xiàn)有的顯著區(qū)域檢測算法進行了分類和分析;第3節(jié)對典型的顯著區(qū)域檢測算法進行了評測;最后在第4節(jié)給出了總結,并展望了下一步的研究工作。

  1顯著區(qū)域檢測算法分類及分析

  感知方面的研究成果表明[10]:在低層視覺顯著性中,對比度是最重要的影響因素,F(xiàn)有的顯著區(qū)域檢測算法通過計算每個圖像子區(qū)域同其一定范圍內的相鄰區(qū)域的對比度來度量該圖像子區(qū)域的顯著性。而依據(jù)用于計算對比度的相鄰區(qū)域空間范圍的不同,現(xiàn)有的顯著區(qū)域檢測算法可分為兩類:基于局部對比的算法[6,11-12]和基于全局對比的算法[13-18]。下面分別對其探討如下。

  1.1基于局部對比的顯著區(qū)域檢測算法

  基于局部對比的顯著區(qū)域檢測算法通過計算每個圖像子區(qū)域或像素同其周圍一個小的局部領域的對比度來度量該圖像子區(qū)域或像素的顯著性。Ma等人[11]提出了一種基于局部對比和模糊生長的顯著區(qū)域檢測算法。該方法首先對輸入圖像進行均值濾波和降采樣。然后,該方法對新產生的低分辨率圖像中的每個像素計算其與周圍N個像素的LUV顏色向量的歐幾里得距離之和,并將此值作為該像素的顯著值。為了從產生的顯著圖中提取顯著區(qū)域,Ma等人[11]運用模糊生長(fuzzygrowing)的方法提取顯著區(qū)域。Liu等人[6]為了更加準確地檢測顯著區(qū)域,提出了一系列新的局部區(qū)域和全局特征用于計算顯著性。這些特征包括:多尺度對比,中心-周圍直方圖和顏色空間分布。該方法通過學習一個條件隨機場來高效地結合上述這些特征用于檢測顯著區(qū)域。由上可知,因為只是通過局部對比來檢測顯著區(qū)域,所以基于局部對比的方法趨向于關注邊緣周圍的區(qū)域,而不會突出整個顯著區(qū)域(在生成的顯著圖中即表現(xiàn)為邊緣周圍的區(qū)域具有高的顯著值,而顯著區(qū)域內部的顯著值則較低)。這個問題可以稱其為“不一致突出顯著區(qū)域”問題。

  1.2基于全局對比的顯著區(qū)域檢測算法

  基于全局對比的顯著區(qū)域檢測算法將整幅圖像作為對比區(qū)域來計算每個圖像子區(qū)域或像素的顯著值。Achanta等人[13]從頻率域角度出發(fā),首次提出了一種基于全局對比的顯著區(qū)域檢測的方法。該方法將經過高斯低通濾波圖像中的每個像素值和整幅圖像的平均像素值之間的歐幾里得距離作為該點的顯著值。該方法非常簡單,時間消耗非常低,且實驗結果在查準率-差全率方面的效果也堪稱優(yōu)良。該方法使得顯著區(qū)域檢測向實用化的方向更前進了一步。然而Achanta等人提出的方法[13]在以下兩種情況下會失效:

  (1)顯著區(qū)域的顏色占圖像中的大部分,通過方法[11]計算后,背景會具有更高的顯著值;

 。2)背景中含有少量突出的顏色,這樣背景中的這部分顏色的顯著值也會非常高。第1期景慧昀,等:顯著區(qū)域檢測算法綜述智能計算機與應用第4卷

  針對以上缺陷,作者又在文章[18]中將此方法完成了進一步的改進。作者發(fā)現(xiàn)檢測顯著區(qū)域邊緣和檢測顯著區(qū)域中心所需要的圖像頻段是不同的,由此而依據(jù)像素點越在圖像中心越可能接近區(qū)域中心這樣一個假設,來調整均值濾波的帶寬,使得位于顯著區(qū)域不同位置的像素點則有不同的均值濾波帶寬。而且,即將經過濾波后的圖像中每個像素值和該像素所在的對稱子窗口內的像素平均值的歐幾里得空間距離作為該點的顯著值。經過這樣的調整,算法的時間復雜度有所提高,但是實驗結果性能卻有較大提升。

  Cheng等人在文章[15]中提出了兩種簡單快速且更為準確的顯著區(qū)域檢測方法。第一種方法只采用顏色的全局對比,作者將每個像素點和圖像中其它所有像素的Lab顏色向量的歐幾里得距離之和的1/N(N為該圖的像素點個數(shù))作為該點的顯著值。為了更快速地開展計算,作者對圖像中的顏色進行了量化,以顏色為單位計算每種顏色和圖像中其它所有顏色的歐幾里得距離。第一種方法中只考慮了顏色的全局對比,并未考慮空間位置關系,使得和顯著區(qū)域顏色接近的背景區(qū)域的顯著值也較高。作者在加入空間位置關系后又一次提出了方法二:首先對圖像進行分割,獲得一定數(shù)量的子區(qū)域。基于子區(qū)域,將子區(qū)域之間的空間位置關系作為權值計算該子區(qū)域與圖像其它所有子區(qū)域之間的相似度之和。方法2比方法1的時間復雜度略高(主要是由于引入了圖像分割操作,該操作比較耗時),但是實驗結果得到了較大提高。通過仿真驗證,Cheng等人[15]提出的方法簡單高效。He等人[17]在Cheng的研究基礎上,提出了結合全局對比和顏色空間分布的顯著區(qū)域檢測方法。作者指出顏色的空間分布越緊湊,該類顏色就應具有更高的顯著性,反之亦然。該方法將每類顏色所屬像素空間位置的方差作為衡量顏色空間分布的指標,生成顏色空間顯著圖。其后將顏色空間顯著圖和直方圖對比度顯著圖或區(qū)域對比度顯著圖進行疊加得到最終的顯著圖。Perazzi等人[16]也提出了一個基于對比度和空間分布的顯著區(qū)域檢測方法。

  上述這些基于全局對比的顯著區(qū)域檢測方法可以在一定程度上消減“不一致突出顯著區(qū)域”問題。但是當顯著區(qū)域非常大或者圖像背景非常復雜時,這些基于全局對比的方法就趨向于突出背景區(qū)域而不是顯著區(qū)域了。因而該問題可以稱之為“突出圖像背景”問題。

  2顯著區(qū)域檢測算法測試

  本節(jié)使用Achanta等人[13]提出的公開可用的測試圖像庫來評價現(xiàn)有典型的顯著區(qū)域檢測算法的性能。該測試圖像庫包含了1000幅自然圖像以及與其相對應標識顯著區(qū)域的二值基準圖像,并將查準率-查全率曲線作為衡量顯著區(qū)域檢測算法性能的評價指標。

  圖1顯示了近期6個性能最先進的顯著區(qū)域檢測方法(MZ[11]、LC[14]、FT[13]、HC[15]、RC[15]、SF[16])在Achanta數(shù)據(jù)集上的評測結果。這些方法中,對于FT、HC、RC和SF,本節(jié)使用作者的原始的實現(xiàn)程序來生成對應的顯著圖。而對于MZ和LC方法,本節(jié)直接使用Ma等人[11]和Cheng等人[15]所提供的顯著圖。由圖1可以看出SF在Achanta等人[13]提供的測試集上取得了最好的檢測性能。

  3結論與展望

  本文對現(xiàn)有的顯著區(qū)域檢測方法進行概述。現(xiàn)有的顯著區(qū)域檢測方法是利用局部鄰域或者整幅圖像作為對比區(qū)域來計算顯著性的。從本質上而言,現(xiàn)有方法使用的并不恰當?shù)膶Ρ葏^(qū)域導致了其相應具有的“不一致突出顯著區(qū)域”和“突出圖像背景”兩個問題。在進行對比度計算之前,首先實現(xiàn)對比區(qū)域預估計的顯著區(qū)域檢測方法將成為下一步的發(fā)展趨勢。

  參考文獻

  [1]ITTIL,KOCHC,NIEBURE.Amodelofsaliency-basedvisualattentionforrapidsceneanalysis[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1998,20(11):1254–1259.

  [2]MURRAYN,VANRELLM,OTAZUX,etal.Saliencyestimationusinganon-parametriclow-levelvisionmodel[C]//IEEEConferenceonComputerVisionandPatternRecognition.2011:433–440.

  [3]HOUX,ZHANGL.Saliencydetection:Aspectralresidualapproach[C]//IEEEConferenceonComputerVisionandPatternRecognition.2007:1–8.

  [4]BANS,JANGY,LEEM.A?ectivesaliencymapconsideringpsychologicaldistance[J].Neurocomputing,2011,74(11):1916–1925.

  [5]LIUT,SUNJ,ZHENGN,etal.Learningtodetectasalientobject[C]//IEEEConferenceonComputerVisionandPatternRecognition.2007:1–8.


轉載請注明來自:http://www.jinnzone.com/jisuanjiyingyonglw/33182.html