訂閱電子報∣ 友善列印字體大小 文章分享-Facebook 文章分享-Plurk 文章分享-Twitter
貼合應用場景是關鍵 “AI+人臉識別”如何為安防賦能?
獲取產業訊息零時差!立即訂閱電電公會電子報。
由於安防領域大資料及規模化的特性,令其成為當今AI和人臉識別技術首發落地的應用市場。而在AI的賦能下,人臉識別技術在安防領域可謂是如虎添翼,大顯身手。不過,由於兩者之間的磨合還處於早期,加之深度學習技術自身的不確定性,“AI+人臉識”在實際專案運作當中也會出現不少問題,比如搜索性能不佳以及計算負荷度高等,這都給諸如雲從以及飛搜科技這類“AI+人臉識別”核心演算法及技術方案供應商提出了更多挑戰。

就目前的技術水準來看,包括全球頂級科技企業Facebook以及Google在內,技術的發展仍不那麼完美,這也就意味著人臉識別與AI之間的結合還需要較長時間的技術研究和變革過程,北京飛搜科技有限公司首席專家董遠告訴記者:“當前,人臉識別與AI的結合仍困難重重,主要表現在以下幾個方面:首先,活體判別是一大難題,如何防止使用者使用圖片、面具以及視頻來做冒充者進行惡意攻擊,這是廠商需要不斷發力的重點;其次,當前的技術水準,1:1的基本上可以達到實用水準,但1:N(人臉搜索,當N達到上萬或上千萬時)的性能非常令人不滿意;而且,“AI+人臉識別”的計算負荷度偏高,一個較強的伺服器僅能帶動幾十路的攝像機,如果實際專案中有幾萬路攝像頭,則需要更多的伺服器,這無疑會帶來成本的快速疊加;最後,低解析度、戴眼鏡、雙胞胎、小孩以及黑人的人臉識別準確率仍然不高。"對此,董遠認為未來仍然需要人臉識別技術廠商不斷的在核心演算法上進行持續大規模的投入,方能逐步攻克這些技術難題。”

在陳琳看來,人臉識別技術是一項場景性非常強的領域。比如在不同場景之間,有配合的1:1識別、無配合1:1識別(即不能要求物件在攝像頭前站好,攝像頭從隱蔽處抓拍人臉),其應用難點與技術路線有非常大的差別,甚至其核心技術能力不在於演算法本身,而在於對場景的深耕研究。陳琳認為,目前的技術除了需要解決諸如雙胞胎、模糊、光線變化以及針對億萬級人臉檢索系統的實現等技術本身的難題以外,具體的技術以及方案設計還需要針對各個應用場景來考慮,只有充分貼近應用場景的技術才能在實際的項目中表現出很好的應用效果,一味的指望技術的萬能是不現實的。

此外,作為安防領域的一大應用型技術,人臉識別對抗攻擊能力及安全性也十分看重,陳琳表示:“就安全性方面來講,目前主要是存在一些攻擊手段。對此,我們通過分析人臉皮膚紋理以及人臉的微小動作帶來的規律變化,可以更好的防止視頻和面具等攻擊。除此之外,我們還具備3D模型、紅外活體、靜默活體等技術,可以根據不同的場景需求來進行自由調節。不過,與其他技術類似,活體檢測也存在成本,易用性以及安全性之間的平衡,對於安防這類追求安全性的應用場景,我們則採用紅外雙目活體檢測技術,有效的規避了視頻、照片以及模型等各種攻擊。”

董遠對此表示認同,不過他更加側重於從技術更迭的角度來看待人臉識別安全性的問題,他認為一直以來,人臉識別技術就是在技術開發者和惡意攻擊者之間不斷的攻防戰中得到快速發展的。就目前的技術更迭週期來看,人臉識別每半年都會有一次質的飛躍,安全性也會隨之快速提升,特別是人臉識別核心演算法方面。如果企業想要停止人臉識別演算法的研發,轉而採用當前的人臉識別技術來做未來1-3年或更長時間的產品應用開發,這是非常不現實的,在性能和安全保障能力等多方面都會經不起市場的考驗,也正是這個原因,使得一些老的人臉識別企業在市場上被淘汰,同時誕生出一批新的擁有核心演算法技術的公司。

儘管擁有強大的AI賦能,但僅靠人臉識別就想要實現完美的安防布控是遠遠不夠的。因此,未來還需要多技術相互結合的方式,方能讓人臉識別在龐大的安防應用體系中充分實現自身的價值。此外,作為一項以基礎資料資源為核心驅動力的技術,AI想要真正體現價值並充分發揮“AI+人臉識別”在安防領域的應用能力,資料資源的獲取至關重要,這也將決定各大方案提供商整體的市場競爭實力。

對此,董遠認為,人臉識別要想在安防體系中發揮自身價值,僅憑一己之力是不夠的,未來還需要多模態技術的相互結合,比如引入語音辨識、行為步態識別、多攝像頭資料交互共同分析,才能更好的解決視頻監控中的人臉識別精度問題。而在深度學習方面,主要的驅動資源在於資料,這裡特指標定好的資料而不是粗資料(Raw Data)。而且,標注好的資料成本是非常高的,就目前的AI技術來看,獲取標定好的資料仍需要耗費很大的精力。此外,在不同的領域,資料之間也會存在一定的差別,不能夠通用是主要難題,這給業內廠商提出了更大的挑戰。

雲從科技有限公司CFO陳琳對此也十分贊同,並表示對於仰仗AI提供分析能力的人臉識別安防應用來說,資料量的大小將顯得十分關鍵。大資料是深度學習的燃料,沒有大量的資料支援,深度學習也不可能充分發揮自身潛力。而從我們自身的角度來講,資料的獲取主要有兩大來源,其一是結構化的陣列資料,而另外一個則是聯合實驗室內的人證資料。首先,在結構化的陣列資料獲取上,我們採用了128個攝像頭組成的採集陣列,可以同步拍攝到同一個人在不同角度、不同光照條件下的資料,並且角度都是精確的,利用結構化的資料,我們採用了多工學習的策略,將這些結構化的資料引入到訓練當中,極大的提高了深度學習的效率;此外,聯合實驗室讓我們有機會在上億的資料上進行訓練,如何充分利用好如此巨量的資料同時又能較快的訓練出模型,我們通過嘗試難樣本調訓策略及優化Softmax分類器,可以有效的在上億級別的資料上進行訓練;最後,採用GAN(生成對抗網路)等前沿的技術,自動生成類比真實場景的資料,再加入到學習當中去,從而形成一個自學習的過程。

除此,要在如此巨量的資料集上進行深度學習訓練,對硬體也會有很多要求。陳琳告訴記者:“開源的深度學習實現基本上都是基於單塊GPU的,因為他們沒有那麼大規模的資料。但是,要想在上億級別的資料上進行訓練,必須要依靠多機、多卡的分散式訓練,目前開源架構並沒有一套高效的訓練平臺。因此,我們也是在現有框架的基礎上,自主開發了分散式訓練平臺,性能比開源架構要高出10倍以上。同時,我們也已經和Nvidia建立了深入的合作關係,Nvidia會在GPU的高級應用上來幫助我們更好的提高效率,從而在實際應用中充分發揮AI的技術能力。”(責編:振鵬)
訂閱電子報 友善列印 字體大小:
獲取產業訊息零時差!立即訂閱電電公會電子報。