本發明涉及目標跟蹤技術領域。
背景技術:
在公安系統中,辦案人員經常要對可疑人員以及可疑車輛進行可視跟蹤追查。基于辦案的隱蔽性,目前主要的可視追蹤方式為人眼追蹤或者定點設備追蹤。人眼追蹤有著追蹤方便靈活等優點,但是追蹤效率不高,容易跟丟追蹤對象。定點設備追蹤有著準確率高的優點,但設備一般都是固定裝置,體積相對比較龐大,移動性差,跟蹤的范圍有限,且在多目標情況下無法根據需要實現人為自由選擇目標物體進行跟蹤,跟蹤目標丟失率較大,精度較低。
專利公開號為CN103020983A的中國專利公開了一種用于目標跟蹤的人機交互裝置及方法,屬于目標跟蹤技術領域。該裝置包括頭盔設備,在頭盔設備上設置有第一信息處理單元、顯示裝置、視線追蹤系統和多個攝像頭;攝像頭實時拍攝頭盔設備周圍的場景視頻并將拍攝的場景視頻傳輸給第一信息處理單元;第一信息處理單元接收和處理場景視頻,并將處理后的場景視頻發送給顯示裝置;顯示裝置用于顯示處理后的場景視頻;視線追蹤系統通過對使用者的人眼視線追蹤,確定使用者選擇跟蹤的場景中的目標,鎖定目標并進行實時跟蹤。
上述專利雖然解決了定點裝置的移動性能差特點,但其采用頭盔方式,佩戴不方便,且設備占據較大的空間。
技術實現要素:
本發明的目的是提供一種基于特征共識性的目標追蹤眼鏡。它能有效地解決此類裝備體積較大的問題。
本發明另一個目的提供一種基于特征共識性的目標追蹤方法,它能有效的處理跟蹤目標的算法,結合了基于運動分析的跟蹤方法和基于圖像匹配的跟蹤方法,將光流法與特征匹配法組合,計算追蹤目標特征點的相對位置與縮放、旋轉比例,通過聚類判斷是否為追蹤目標的特征點,并由此判斷是否為追蹤目標。
本發明的目的是通過以下技術方案來實現的:一種基于特征共識性的目標追蹤眼鏡,所述眼鏡包括鏡架、鏡腿和普通太陽鏡片,鏡架的兩邊分別設有鏡腿一與鏡腿二,鏡架上設有微型攝像機,鏡腿二上設有中央處理控制器,中央處理控制器上設有開關按鈕,鏡架左邊的普通太陽鏡片后面設有OLED有機屏鏡片。
本發明第二個目的是通過以下技術方案來實現的:
本發明的使用方法包括如下步驟:
步驟一、開啟眼鏡開關按鈕,微型攝像機拍攝眼鏡前方的場景視頻,
眼鏡佩戴者選取追蹤對象;
步驟二、中央處理控制器對場景視頻以及追蹤對象進行處理,在OLED有機屏鏡片上顯示處理后的場景視頻以及追蹤對象;
步驟三、通過OLED有機屏鏡片上的追蹤對象與普通太陽鏡片中看到的場景,鎖定所述目標并進行實時追蹤。
具體為以下過程:
⑴檢測初始視頻幀追蹤目標框內以及框外的所有特征點和特征描述,將框內的特征描述值賦予K1;
⑵檢測第t幀檢測視頻幀中追蹤對象的特征點P;
⑶將視頻幀中追蹤對象的特征點P與初始視頻幀框內以及框外的所有特征點和特征描述進行全局匹配,獲取匹配的特征點M,利用第t幀視頻幀中追蹤對象的特征點P,使用光流法得到追蹤對象t+1幀時特征點的位置T;
⑷對匹配的特征點M和利用光流法得到的特征點T進行融合,得到t+1幀時總的特征點R;
⑸根據K1計算t+1幀時總的特征點R相對初始幀特征點的縮放比例、旋轉比例;
⑹根據上面兩步驟得到的數據計算每一個特征點的Vote,采用聚類的方法選取最大的類也就是最一致的VoteC,判斷VoteC的長度是否大于最小閾值;
⑺如果是,將VoteC轉換回有效特征點,計算最后新的旋轉矩形框的參數,追蹤對象在矩形框中;如果不是,追蹤對象不在視頻中。
本發明與現有技術相比的優點和效果在于:眼鏡佩戴者在跟蹤特定目標時,不受空間地域限制。眼鏡體積小,攜帶方便,并且在追蹤目標時不易被察覺。
附圖說明
圖1為本發明眼鏡示意圖;
圖2為本發明使用方法流程圖;
圖3為本發明的目標追蹤方法流程圖;
具體實施方式
為了使本發明的目的、技術方案及優點更加清楚明白,以下結合附圖及實施例,對本發明進行進一步詳細說明。
實施列:
圖1為本發明實施例1基于特征共識性的目標追蹤眼鏡示意圖。本實施例提供了一種基于特征共識性的目標追蹤眼鏡,所述眼鏡包括鏡架1、鏡腿和普通太陽鏡片6,鏡架1的兩邊分別設有鏡腿一2與鏡腿二3,鏡架1上設有微型攝像機5,鏡腿二3上設有中央處理控制器4,中央處理控制器4上設有開關按鈕8,鏡架1左邊的普通太陽鏡片6后面設有OLED有機屏鏡片7。
圖2為本發明實施例2基于特征共識性的目標追蹤眼鏡使用方法流程圖。本實施例提供了本發明的使用方法,該方法包括如下過程:
步驟1:開啟眼鏡開關按鈕,微型攝像機拍攝眼鏡前方的場景視頻。眼鏡佩戴者選取追蹤對象。
步驟2:中央處理控制器對場景視頻以及追蹤對象進行處理。在OLED有機屏鏡片上顯示處理后的場景視頻以及追蹤對象。
步驟3:通過OLED有機屏鏡片上的追蹤對象與普通太陽鏡片中看到的場景,鎖定所述目標并進行實時追蹤。
圖3為本發明基于特征共識性的目標追蹤方法流程圖。該方法在步驟3過程中實現,該方法包括如下步驟:
步驟3.1:檢測初始視頻幀追蹤目標框內以及框外的所有特征點和特征描述。
步驟3.2:將框內的特征描述值賦予K1。
步驟3.3:第t幀檢測視頻幀中追蹤對象的特征點P。
步驟3.4:將視頻幀中追蹤對象的特征點P與初始視頻幀框內以及框外的所有特征點和特征描述進行全局匹配,獲取匹配的特征點M。
步驟3.5:利用第t幀視頻幀中追蹤對象的特征點P,使用光流法得到追蹤對象t+1幀時特征點的位置T。
步驟3.6:對匹配的特征點M和利用光流法得到的特征點T進行融合,得到t+1幀時總的特征點R。
步驟3.7:根據K1計算t+1幀時總的特征點R相對初始幀特征點的縮放比例、旋轉比例。
步驟3.8:根據步驟A7、A8得到的數據計算每一個特征點的Vote。
步驟3.9:采用聚類的方法選取最大的類也就是最一致的VoteC。
步驟3.10:判斷VoteC的長度是否大于最小閾值。
步驟3.11:如果是,將VoteC轉換回有效特征點,計算最后新的旋轉矩形框的參數,追蹤對象在矩形框中。
步驟3.12:如果不是,追蹤對象不在視頻中。