訂閱電子報∣ 友善列印字體大小 文章分享-Facebook 文章分享-Plurk 文章分享-Twitter
對話AI先驅布萊克:AI人才競爭白熱化 巨頭賭注太大
獲取產業訊息零時差!立即訂閱電電公會電子報。
三十五年前,擁有電腦視覺博士學位的人一點都不酷,因為人工智慧那時還在幻滅的低谷中徘徊不前。那個時候,電腦視覺演算法可能需要一天的時間來處理一個單一的圖像。但是,時代變了。

安德魯-布萊克教授于1983年獲得電腦視覺博士學位,除此之外,他現在還是FiveAI的科學顧問,他說:“目前公司爭奪人才的競爭非常激烈。”FiveAI是英國一家自動駕駛汽車軟體初創公司,它的目標是在2019年在倫敦的街道上測試無人駕駛汽車。

布萊克創立了微軟的電腦視覺小組,並在劍橋大學微軟研究院任董事總經理,其中他參與了Kinect感測器的開發。Kinect感測器可以說預示了電腦視覺將會冉冉升起(儘管Kinect本身並沒有實現微軟的希望,在消費市場上成功)。

布萊克現在還是英國阿蘭·圖靈研究所(Alan Turing Institute)的研究主管,該研究所旨在支援資料科學研究,包括機器學習和人工智慧,還包括探索人工智慧和大資料的倫理和社會影響。

Uber和穀歌也在研發無人駕駛汽車。在這場爭奪人工智慧技術的激烈競爭中,像FiveAI這樣的初創公司如何能與優步和穀歌這樣的科技巨頭較量呢?另外,從整個人類社會的角度看,這些強大的科技巨頭們正在竭盡所能地試圖突破人工智慧技術,這究竟是一種風險,還是一種機遇?人工智慧技術可以說已被幾家科技巨頭所壟斷了,而且為此設計出了一套非常具體的商業議程,人工智慧技術是否會因此而受限,它能在這種情況下繼續取得進步嗎?

布萊克說:“我覺得人工智慧的生態系統實際上相當有活力。”不過,他作為一名先驅研究員在科技巨頭公司旗下已工作多年,這個身份使得他的觀點說服力不大。“在大學裡有很多有才華的人,而且他們都是以一種開放的方式在工作——因為學者們都是有原則的,他們甚至可以說是一群固執的傢夥。”

布萊克表示,他曾考慮在1999年創辦一家初創公司。但後來他決定在微軟工作,因為那樣他可以專注於發明創造,而不必擔心業務方面的事情,這對他來說是一個更好的選擇。在加入微軟之前,他的研究工作包括研發能夠作出即時反應的視覺系統,應用於機器人中,這在90年代中期是一件新鮮事。

“不同的人想要用不同的方式來做這件事。有些人想去大公司,有些人想要創業,有些人想留在大學,因為教授能帶領一群學生和博士後,這樣工作效率高。”布萊克說,“這些選擇都很好。在大學裡工作很自由,這一點依然十分吸引人。因此,我不認為人工智慧生態系統的活力正在消失。”

不過,他承認對人工智慧人才的爭奪現在正處於白熱化階段。他指出,例如,一群學者創立了Geometric Intelligence公司,僅運營了一年左右,在2016年年底就被Uber收購了。“收購的金額沒有對外透露,但我認為這是一筆金額巨大的收購。”談到這家初創公司的收購價格時,布萊克說道,“這就說明瞭人工智慧這個領域有多熱門。這些學者聚在一起,他們有一些很棒的想法。這一次,他們沒有選擇去寫一篇研究論文,而是決定把它變成智慧財產權。我猜他們肯定是申請了專利,諸如此類的。然後Uber看到了,覺得他們確實需要這個技術,接著Geometric Intelligence就變成了Uber的人工智慧部門。”

人工智慧技術在學術上取得的成就很快就被傳送到巨大的商業母艦中,布萊克沒有輕易斷言他認為這對社會來說是件好事還是壞事。但他講了一件軼事來說明這一領域的競爭有多麼激烈,因為一些科技巨頭正競相爭奪市場的主導地位。他對美國科技類博客TechCrunch說:“我最近想找個人來做一家大公司的顧問,這個大公司想要瞭解人工智慧,需要一個顧問。他們想要一個非常資深的業內人士……我想找一個跟競爭對手公司沒有什麼聯繫的人。但你知道嗎,真的沒有人——我就是找不到一個跟競爭對手完全無關的人。他們可能仍是一所大學的教授,但他們要不就是在為這家公司做諮詢,要不他們就是這家公司的兼職員工。每個人都參與其中。人工智慧這一領域令人非常興奮,但競爭也非常激烈。”

“中國政府目前也十分關注人工智慧和其產業戰略的內容,並認同人工智慧是國家生產力的關鍵技術。因此,教育和培訓是其中非常重要的部分。我們如何才能創造出更多的傑出技術呢?”他補充道。2015年,阿蘭·圖靈研究所由英國五所大學設立,通過培訓博士生,加上調來的一批研究人員,希望能培養出新一代學者,推動人工智慧取得新的突破。

“過去十年我們在深度學習上取得了重大突破,但我認為不只是突破而已,我們已經做到了。”布萊克說,“人們寫的論文數量比以往任何時候都多。人工智慧正在進入一個更加成熟的階段,至少在使用深度學習方面是如此。我相信我們絕對可以做到。但論對深度學習的理解,其基礎數學這就是另一回事了。”他補充說:“在教育和專業技能方面,公司和大學對人才的需求絕對是驚人的。而且我相信我們還需要培養更多的人才。”

回到科技巨頭主導人工智慧研究的問題上,布萊克指出,這其中的許多公司正在開發公共工具包以幫助推動更廣泛的人工智慧生態系統的活動,比如穀歌、亞馬遜和微軟就這麼做了。與此同時,學術方面取得的成就公開透明,也在説明增加人工智慧生態系統的活力,比如加州大學伯克利分校研究的深度學習框架Caffe。因此,布萊克的觀點是,儘管沒有使用穀歌、Uber或Facebook這樣的龐大資源,少數有才華的人仍然可以掀起波瀾。

他說:“通常情況下,只有一兩個人——當幾個人一起在做正確的事情時,這是非常靈活的。電腦科學的一些偉大進步就是這樣產生的。並不一定需要上百人一起工作,哪怕只有幾個人,只要方向方法正確,都有機會成功。我們都看過很多這樣的情況。”“管理一個大團隊是很複雜的。”他補充道,“有時候,真正開闢道路並取得突破的,往往都是一小群人。”

也就是說,他同意獲取資料,或者更確切地說,“與你的問題相關的資料”,是建立人工智慧演算法的關鍵所在。他說:“當然,過去十年取得的巨大進步依賴於資料的可獲得性。所以,我們已經學會了,或者我們已經明白了,如何建立能夠學習大資料的演算法。”

而且,科技巨頭們自然也能從自己的使用者生成的資料引擎中獲取資訊,為他們提供一個訓練和打磨人工智慧模型的內置存儲庫——儘管有爭議,但這就是那些小公司沒有的優勢,比如,Facebook數十億用戶每天都在生成資料集。

儘管穀歌擁有旗下的人工智慧部門DeepMind,但它仍然需要通過與協力廠商機構建立夥伴關係來獲取某些高價值的資料集。比如與英國國家醫療服務體系的合作,自2015年末以來,DeepMind健康一直在獲取數百萬人的醫療資料,而這些醫療資料的保管人正是由公共資金支援的英國國家醫療服務體系,目的是打造出具有診斷醫療效益的人工智慧。

不過,不得不說,穀歌龐大的資源和公眾形象確實是一大優勢。如果一個小公司向英國國家醫療服務體系請求獲得寶貴的(和高度敏感的)公共部門醫療資料,很可能會遭到拒絕。而且,正如DeepMind所說的那樣,小公司肯定不太可能被邀請參與進來。因此,如果是穀歌DeepMind提出“免費”幫助並共同設計一款醫療保健應用,或者提出用其程式資源和專業技術來換取資料時,這顯然是另一種結局。

當被問及他是否認為DeepMind應該公佈其人工智慧道德委員會的成員名單時,布萊克拒絕回答。(“下一個問題!”)如果他是這一匿名委員會的成員之一,他也不會承認(也不會否認)。(想瞭解更多布萊克教授對人工智慧和倫理的思考,請看本文末尾的採訪內容。)

但他並沒有立即認同人工智慧創新必然是以個人隱私為代價這一觀點。例如,有些人認為,蘋果在人工智慧競爭中處於不利地位,因為它不會像穀歌或Facebook那樣,在不受限制的情況下對使用者進行資料採擷和配置(蘋果公司更傾向於選擇進行本地資料處理,並應用模糊保密技術,比如差異化隱私,只用提供使用者人工智慧,不需要提交所有資訊)。

布萊克也不認為人工智慧的黑盒子是完全不可接受的。”這是一個關鍵點,因為人工智慧技術非常強大,要確保人們能正確理解人工智慧的社會的影響,在必要的情況下,為避免出現偏見,必須合理監管。“

另外他表示,人工智慧道德領域的研究還處於較早的階段。“在過去的一兩年中,人工智慧道德方面的演算法大量湧現,比如實驗演算法,以及關於演算法的論文。這些演算法研究如何將透明、公平、尊重隱私的道德原則納入機器學習演算法中,目前還沒有定論。我認為人們才剛剛開始思考這個問題,因為人們最近才意識到這將是一個關鍵的問題。因此,這項工作正在進行中。但人們有一種強烈的緊迫感,因為大家意識到這一點至關重要。所以讓我們一起來看這將如何演變吧。”

在蘋果的問題上,他認為人工智慧創新和隱私不一定是相互排斥的。“未來將會有好的技術解決方案。”他接著說,“我們必須努力工作,認真思考。廣泛的人工智慧包括機器學習和其他電腦科學領域如差異化隱私,我對此有信心,大家都知道這個話題熱度很高,而人們真的在努力工作解決這個問題。我們還沒有找到所有的答案,但我很有信心,我們會找到很好的辦法。”

當然,在人工智慧方面,並非所有的資料獲得都是平等的。布萊克說,他的學術興趣來源於構建一個機器學習系統的主意,他想造一個機器學習系統,在它學習的過程中它不需要太多外界説明就從資料中提取有用的理解,而不是必須在有人監督的情況下才能進行學習。

“讓我著迷的一件事是,人類都是在沒有大資料的情況下進行學習的。這件事並不是那麼簡單。”他指出,蹣跚學步的孩子們瞭解周圍世界的情況,並不需要知道他們看到的每一樣事物的名稱。孩子們可能會被數次告知杯子是“杯子”,但並不是每一個他們遇到的杯子都是“杯子”。如果機器能夠以同樣的精益方式從原始資料中學習,那麼這將給人工智慧領域帶來變革。布萊克認為,破解無人監督學習將是人工智慧研究人員面臨的下一個重大挑戰。

“我們現在必須區分兩種資料——原始資料和標籤資料。標籤資料的價格很高。而那些沒有標籤的資料,只是你在流覽世界的過程中得到的體驗,但你還是會從中受益。所以標籤資料之間有一種非常有趣的合作關係,標籤資料並不多,而且很難獲得。但沒有標籤的資料很多,並且無時無刻不在流動。”

“因此,我認為這將是未來10年人工智慧和機器學習面臨的巨大挑戰,我們如何才能最大限度地利用有限且昂貴的標籤資料?我認為,未來5到10年,大家最關注的將是找到獲取無標籤資料最有效的方法並從中受益,並認識到標籤資料非常短缺。”

“我們要怎麼做呢?我們如何才能獲得它呢?自動駕駛汽車將是一項很有前途的技術,它顯然將受益於這一領域的突破。因為人類駕駛的汽車已經配備了攝像頭,而且如果這些機器能夠從無標籤的資料中學習,來自汽車的資料流程也可以用於訓練車輛自動駕駛。”

FiveAI的網站表示這也是它的目標,它正在用“更強的人工智慧”來解決自動駕駛汽車在複雜的城市環境中安全航行的挑戰,而不需要“高度精確的3D地圖和當地語系化”。這個挑戰被標榜為“自主的最高級別L5”。

布萊克補充說:“我個人很感興趣人類是如何用不同方式學習的。目前,我們的機器正在學習這個。人類並不是一直都在從大資料中學習。人能夠從少得可憐的資料中學習。”他引用了麻省理工學院的Josh Tenenbaum的研究,來展示人類是如何在接觸一到兩種東西後學習新事物的。“我們在做什麼?”他想知道。“這是一個令人著迷的挑戰。我認為,這是一個非常重要的問題。目前,我們真的不知道答案。我認為,世界各地的研究機構將會有一場大競賽,來看看並瞭解人類是如何學習的。”

他推測,推動前進的答案可能在於回顧人工智慧的歷史,比如用概率或邏輯推理之類的方法,但之前沒有成功,因為它們並沒有帶來深度學習所代表的突破,但這或許值得我們重新思考下一篇章的內容。他說:“早期的先驅們試圖用邏輯來做人工智慧,但出於種種原因,這絕對行不通。但邏輯似乎有一種屬性,或許我們可以從這一點上進行研究,那就是通過邏輯我們能夠高效並令人尊重地獲取資料,但是獲得資料的成本很高。所以,即使是一份資料,也要窮盡它。用邏輯學習的一個特性是,可以非常快速地進行學習,只需要一個或兩個例子就行。”

人工智慧研究走在時尚最前沿,現在有那麼多未來的賭注壓在人工智慧上,它可能需要回顧一下,才能實現下一個重大突破,這是一個不錯的想法。不過,鑒於布萊克將深度網路的成功描述為“整個人工智慧領域的一個意外驚喜”(即該技術“已經有了很好的效果”),很明顯,我們很難去預測人工智慧的未來發展,並且不能用直覺預測。

隨著我們採訪的結束,最後我有一個想法,在經過30多年的人工智慧研究之後,布萊克能提出他自己對人類智力的定義嗎?“哦!採訪的最後一個問題,很難回答。”布萊克用笑聲來結束這個問答。

為什麼深度學習那麼像黑匣子?“我想這有點像實證研究。聯想實驗物理學和理論物理學,很多時候,我們在實驗物理學中找到一些新發現,接著理論物理學就會花很多時間試圖弄明白到底發生了什麼。但是第一次找到這個發現是在實驗觀察的時候。這或許有些出人意料。我認為深度網路也是這樣的。整個領域,它的運作效果和它運作過程本身都令人驚訝。這都是實驗得到的發現。而實際的物體本身,如果你想知道的話,是相當複雜的。因為我們已經知道深度網路所有的這些層。處理輸入的過程,可能會變成十倍多。當你把資料通過所有這些層進行轉換時,你很難知道複合效應是什麼,還要對所有這些操作序列進行數學運算。我覺得這有點像烹飪。”

在設計專用的硬體設備的問題上,布萊克說:“英特爾會建造整個處理器,同時他們還會為整個資料中心建造所需的設備,包括處理器和電子板,以及所有連接這些處理器的連接資料中心的線路。這種佈線實際上不僅僅是連一根電線——他們稱其為互聯。它本身就是一款智慧電子產品。因此,英特爾已經掌握了整個系統。在圖靈研究所,我們與英特爾合作。我們想問這個問題:如果你真的能自由設計資料中心的全部內容,你怎麼能建立對資料科學最好的資料中心?在很大程度上,這意味著對機器學習最好……支援機器學習的硬體肯定是關鍵。”

被問到自動駕駛汽車面臨什麼挑戰,布萊克說:“自動駕駛汽車面臨的一大挑戰是,它是建立在機器學習技術的基礎上的。我們可以說,這是相當可靠的。如果你讀過機器學習的論文,單一的技術通常是能達到99%正確。這對大多數機器學習技術來說是相當驚人的。但是99%的可靠性對於自動駕駛汽車這樣的安全關鍵技術來說還是遠遠不夠的。所以我認為最有趣的事情之一是,你如何結合技術使自動駕駛技術擁有非常高的可靠性,這是從總體來說,在輔助水準上,而不是單個演算法的水準,當然這是自動駕駛系統中的必要需求。當然,安全是一個關鍵考慮因素。我們所做的所有工程和我們所做的研究都將圍繞安全原則——而不是事後的安全考慮,或附加條件,它必須在一開始就考慮到。”

在倫理道德與人工智慧工程的關係問題上,布萊克說:“這是人工智慧領域在過去幾年中非常關注的一件事,而且有很多研究……在圖靈研究所,我們有一個很重要的道德項目,一方面我們有哲學和法律相關學科的顧問,思考演算法的道德如何在實踐中發揮作用,然後我們也讓科學家們去閱讀這些資訊,並問自己,如果我們想讓人工智慧體現道德準則,我們該如何設計演算法。所以我認為,自動駕駛涉及的一項重要道德原則,很可能是透明度——當出現問題時,你想知道它為什麼會出錯。這不僅僅是為了問責制,也是出於實用的工程目的,如果你在設計一個工程系統,而且它沒有達到你的目的,你需要瞭解其中的哪些部分沒有發揮作用,我們需要把注意力集中在哪裡。從工程的角度來看,這是好事,從公共責任和理解的角度來看,這也是好事。“

”當然,我們希望公眾盡可能地對這些技術感到滿意。公眾信任將是一個關鍵因素。過去就有過這樣的例子,科學家們認為這些技術並沒有立即得到公眾的認可,比如轉基因作物。早期與公眾的溝通不足以讓他們信任技術,因此我們要從這些案例中吸取教訓。我想很多人都在關注道德問題,人工智慧的道德問題將會變得非常重要。”

 

訂閱電子報 友善列印 字體大小:
獲取產業訊息零時差!立即訂閱電電公會電子報。