訂閱電子報∣ 友善列印字體大小 文章分享-Facebook 文章分享-Plurk 文章分享-Twitter
讓科技變得更加「可信任」,富士通要打開AI黑盒子
數位時代陳君毅
獲取產業訊息零時差!立即訂閱電電公會電子報。

為了讓富士通2019年的願景「可信任的未來成真」,可以解釋的AI,也就是打開部分AI黑盒子的技術,將是富士通發展的重點。

當日本年號從「平成」走向「令和」,日本的ICT龍頭富士通(Fujitsu)也將在6月正式迎來新社長時田隆仁,他首度在5月舉行的2019年的富士通論壇(Fujitsu Forum)發表談話,主題圍繞在富士通2019年的新願景「信賴」。

現在,所有人類都面臨著伴隨科技發展帶來的挑戰。如AI能帶來許多方便,卻始終帶著「黑盒子」的特性;網路安全的不確定性、隱私問題與假新聞等議題,也讓所有人不斷反思科技飛馳發展的反作用力。

對此,富士通的解方是「信任、信賴」,其中可解釋的AI(explainable AI)是重點的發展核心。

透過「知識圖譜」技術,讓AI決策過程可解釋

現在深度學習(deep learning)的能力甚至已經超越了人類孩童。舉例來說,CNN(卷積神經網路,Convolutional Neural Network)技術讓電腦辨識的能力大幅提升。2015年微軟研究團隊在圖像辨識領域的成果已經超越人類,在同樣的圖像辨識測驗中錯誤率較人眼還低。

但人類卻始終沒有辦法打開AI的黑盒子(Black Box),面對深度學習複雜的神經網路難以理解其判斷原理,只知道把資料丟進去,AI就會辨識結果。一樣舉圖像辨識為例,當我們教AI辨識貓的圖片,AI會判斷一張圖片有多少比例是貓,卻不會告訴我們怎麼做。「它應該要告訴我們,是靠毛、眼睛還是耳朵特徵來判別一隻貓。」富士通亞洲區域長國澤有通解釋道。

不過,當AI的決策攸關到人命、司法判決,無法解釋決策的過程,將會考驗人類對於AI的信任程度。根據富士通所做的數位轉型調查,有52%的人認為無法相信AI、有63%的人認為AI需要清楚的解釋。因此「可解釋的AI」,是讓人類更信任AI的技術。

新上任的富士通社長時田隆仁則舉了更多關於科技「信任」的例子,如現在很多企業採用AI來做初步的面試篩選,但如果AI學習的資料來源有種族、性別的成見,也無法公正地做出決策。

富士通的Deep Tensor機器學習技術,就透過整合知識圖譜(knowledge graph)的方式,讓AI的思考有跡可循。目前應用場域包含醫學方面的診斷,富士通實驗室將Deep Tensor用於找尋基因突變與疾病間的關聯。

透過大量基因組學(genomic medicine)的學術文獻,在深度學習中加入更易懂的知識圖譜,讓人類得以解讀。目前還需要更多可以應用的場域,來擴大可解釋AI的可行性與準確性。

富士通新社長:想靠科技打造可信任的未來

時田隆仁先前任職於富士通的全球服務執行中心(Global Delivery Centers),在全球八個國家共有1.4萬名員工,向富士通的客戶提供客服跟外包研發的工作,以及各式各樣的IT基礎架構服務與管理服務。

不斷在多個服務中心飛來飛去的時田隆仁,體驗過各種不同國家的多樣性與文化。「我想把自己體驗的國際化,充分運用到富士通的經營上。」時田隆仁說。

最後,他也不忘向所有人精神喊話,「富士通具有將夢想轉換成現實的DNA,希望透過科技創造可信任的未來,以及更富足的生活。」

訂閱電子報 友善列印 字體大小:
獲取產業訊息零時差!立即訂閱電電公會電子報。