原標題:北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

1 新智元報道

來源:參考消息、arxiv

編輯:劉小芹

【新智元導讀】北京大學資訊科學技術學院田永鴻等三名研究人員研發了根據汽車外觀特徵,而非掃描車牌號來精確識別攝像頭拍攝的車輛的新技術。研究人員稱該項技術也能用於人臉識別和行人檢測,能為偵破盜竊車輛等案件提供幫助。

論文:https://arxiv.org/pdf/1708.02386.pdf

據《參考消息》830日引西媒報道,北京大學資訊科學技術學院田永鴻等三名研究人員研發了根據汽車外觀特徵精確識別攝像頭拍攝的車輛的新技術。該系統不再依靠掃描車牌號,而是基於對車輛外觀特徵的記錄和分析,如輪廓線條、碰撞損傷或漆面刮痕等,依據這些特徵數據搜索出機動車的型號和註冊資訊。

研究人員將這一多任務學習框架命名為「Repression Network (RepNet)」,識別車輛依據的指標分為兩類,一類是車輛外觀的「一般細節」,如顏色、品牌、型號等;另一類是車輛的外觀缺陷和損傷。

報道稱,在當前階段,還無法確定Repression Network系統將於何時投入應用,因為其應用可能會被認為侵犯了隱私權。但可以確定的是,如果利用該系統對影片監控系統記錄的車輛影像進行識別,一定能為偵破盜竊車輛等案件提供幫助。

研究人員在論文中描述了根據汽車外觀特徵精確識別攝像頭拍攝的車輛影像的新技術。他們表示,這種系統也能用於識別人臉特徵。

研究人員稱,公共安全系統監控攝像頭的大規模使用,創造了一個龐大的圖像和影片資料庫,為車輛識別和搜索提供了重要的技術支持。雖然車牌是汽車的一個重要身份特徵,但許多監控攝像頭並非是為掃描車牌設計的,此外車牌識別系統在識別混淆字元時的表現非常糟糕,比如區分 8 和 B,O、D 或 0,因此他們提出這種以車輛外觀特徵數據為依據的精確識別系統。

論文:Learning a Repression Network for Precise Vehicle Search

作者:Qiantong Xu, Ke Yan, Yonghong Tian

北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

摘要

在公共安全中監控攝像頭使用的日益增多凸顯了大型圖像資料庫對於車輛搜索(vehicle search)的重要性。精確車輛搜索(precise vehicle search)的目的是根據給定的需查詢的車輛圖片,搜索出所有實例。這是一項具有挑戰性的任務,因為不同的汽車外形都非常相似。為了解決這個問題,我們提出一個新的多任務學習框架,名為 Repression Network (RepNet),用以同時從粗粒度和細粒度級別學習每張汽車圖像的辨別特徵。此外,從屬性分類方法的高準確率得到啟發,我們提出一種桶搜索(bucket search)方法,在減少檢索時間的同時仍然保持競爭力。我們對經修改的VehcileID [1]數據集進行了廣泛的實驗,實驗結果表明,我們的 RepNet 實現了 state-of-the-art 的性能,並且 bucket search 的方法將檢索時間縮短了約24倍。

北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

圖1:具有PRL的RepNet中不同層的特徵的顯著性圖(saliency map)。在顯著性圖中,亮度越高的區域表示原始圖像中該區域的資訊越多,嵌入到給定的特徵向量中。上圖第1列是查詢圖像(query image),第2列至第5列分別顯示4個特徵向量的顯著性圖:Fbase,Fmodel,Fcolor和FSLS-3。

北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

圖2:RepNet將三個一組的圖像作為輸入,並通過三個網路(包括卷積組,FC層和具有共享權重的Repression層(REP))進行饋送。輸出特徵的名稱和大小列在每一層上方和下方。 Repression層採用兩個特徵向量FSLS-1和FACS作為輸入。只有每個組中的 anchor image 被用於屬性分類,即只有它的網路具有FC層和FACS之後的損失函數。

北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

圖3:具有PRL的RepNet中不同層的特徵的顯著性圖和具有相同結構但有repression層的網路。第一列是query image,右邊的兩組4列分別是從兩個網路分別學習四個特徵向量(Fbase,Fmodel,Fcolor和FSLS-3)的顯著性圖。

實驗結果

北大團隊研發「車臉」識別系統,不看車牌看外觀特徵實現精確識別

圖4:不同模型的精度曲線。LS和BS是線性搜索(linear search)和桶搜索(bucket search)的縮寫。

結論

在這篇論文中,我們提出了一個多任務學習框架,用於有效地生成屬性分類和相似性學習的細粒度特徵表示。Repression層被設計用於將從特徵分類學習的資訊嵌入到表示每輛車的特定細節特徵中,並且還用於平衡兩個FC層流的權重比例。通過向VehicleID數據集添加一個新屬性,我們用修訂後的數據集進行了廣泛的實驗,證明了我們的框架和repression層的有效性——linear search具有更高的圖像檢索精度,以及bucket search使檢索時間更少。這些優點值得進一步調查RepNet學習細粒度特徵表示,例如引入哈希函數來生成二進位特徵或將卷積組分成兩組。此外,我們的框架還可以推廣到更廣泛的應用,例如人臉識別和行人檢索。