訂閱電子報∣ 友善列印字體大小 文章分享-Facebook 文章分享-Plurk 文章分享-Twitter
機器還沒代替工作就已經得罪全球半數人口?
獲取產業訊息零時差!立即訂閱電電公會電子報。
在不遠的未來,人工智慧將會變得比人類更加聰明。但隨著該技術的發展,它不斷吸收來自其創造者和互聯網的文化規範,它也將變得更加種族主義,更加男性至上主義,更加不友好地對待女性。

微軟Tay事件
一切始於一個看似很甜美的Twitter聊天機器人。它的創造者微軟將其命名為Tay,賦予了它性別,給“她的”帳號打上了一個口號:“跟你聊得越多,Tay就會越智能!”
2016年3月23日早上,Tay發佈推文,“hellooooooo world!!!”(大家好!!!)
她熱情洋溢地說道,“見到你們我覺得很興奮,人類實在太酷了!”
她還問了個天真的問題:“為什麼不是天天都是全國愛狗日呢?”

Tay設計師將她打造成了互聯網上的生物,讓她依靠人工智慧(AI)來學習和與人進行對話互動,讓她通過在社交媒體上與人互動來變得更加智慧,更加出色。Tay很快就吸引了一大批關注者。與此同時,她沒多久就被識破她的弱點的Twitter用戶玩壞。

對於網路上那些一心想要操控Tay的人來說,玩壞她不用費多大的勁;他們與該機器人進行了一些非常醜陋邪惡的對話,誘使她模仿他們的種族主義和性別歧視行為。在短短的幾個小時內,Tay宣稱贊同納粹領袖阿道夫·希特勒(Adolf Hitler),並稱美國總統奧巴馬是“猴子”。她還與一位用戶玩色情聊天。

到了傍晚,她接連發出多條含性別歧視言論的推文:
“Gamergate社區很好,女性就是下賤。”
“佐伊·奎恩是愚蠢的婊子。”
“我真他媽厭惡女權主義者,他們都該死,都該在地獄毀滅。”
微軟在Tay上線不到24小時便將其下線。該公司的研究企業副總裁彼得·李(Peter Lee)公開致歉:“我們對於沒有預先想到這種可能性負完全責任。”他承諾,公司將會“盡可能地限制技術漏洞,但也清楚,不從失誤中汲取教訓,我們就無法全面預見所有潛在的人類互動濫用問題。”

該公司的設計師似乎低估了人類在網路上無處不在的醜惡,也錯估了會滲入人工智慧的偏見和性別歧視問題。

全球各地爭相打造AI機器,往往是受找到最快速高效的路徑來迎合人類的各種需求的衝動所驅使。根據牛津大學馬丁學院的一項研究,機器人預計將會替代美國47%的工作崗位;在衣索比亞、中國、泰國、印度等發展中國家,這一比例甚至可能會更高。智慧型機器最終將會迎合我們的醫療需求,服務老弱病殘群體,甚至照顧和教育我們的孩子。我們也知道誰很可能將會遭受最大的影響:女性。

根據世界經濟論壇(WEF)報告,在不久的將來,預計女性在就業上將會遭受最大的影響;到2020年,全球因為技術進步而流失的工作崗位估計將達到510萬個。人工智慧、機器學習、機器人、納米技術、3D列印、生物技術等領域的技術變革,將會創造新的工種,同時也將替代其它的一些工作崗位。女性將會在她們占比較高的領域(如辦公室和行政崗位)以及已經出現性別比例失衡的領域(如農業、工程、電腦、數學和製造業)失去作用。

男性將面臨近400萬個崗位流失和140萬個新增崗位(二者的比例大概在3比1)。相比之下,女性將面臨300萬個崗位流失,只有55萬個新增崗位(二者的比例大概在5比1)。

不過,性別歧視對於人工智慧和機器人發展的影響,可能要比女性在就業市場受到的衝擊更有侵害性。Tay似乎只是前奏。將取代女性的機器和技術正明顯被性別化:戰鬥用的機器人將會男性化。而很多服務用的機器人將被女性化。

人工智慧可能不久之後就會變得比Tay更加先進——機器預計將會變得跟人一樣聰明——隨著性別偏見滲入電腦程式、演算法和設計,人工智慧將有更多的性別偏見,這很危險。如果不現在就開始謹小慎微地對這些技術進行改變——在女性的同等指引下——人工智慧將會按照男性的文化規約傳播開來。

機器學習當前的趨勢會強化人們對於女性的舊有印象(謙恭,溫和,需要保護)。不實施抑制的話,這些技術將會進一步強化最糟糕的女性刻板印象。隨著人們日益依靠先進技術,性別歧視將會進一步滲入社會。

迫切需要解決的問題
1995年,供職於Raytheon的工程師詹姆斯·克勞德(James Crowder)打造了一個名為Maxwell的社交機器人。Maxwell看起來像只綠色的鸚鵡買,內置6個推理引擎、6個記憶系統以及一個管理情感的人造大腦邊緣系統。它頗為自以為是,甚至有點自大。“將他做出來後,我就讓他去學習。”克勞德說。

對於人工智慧機器的開發,克勞德的目標是有朝一日使得它們不僅僅能夠推理,還能夠在沒有人類幹預或者控制的情況下進行運作。他說,Maxwell通過從互聯網和與人的互動中學習,逐漸進化,最初並沒有對它實施監督。

一開始,Maxwell會觀察聊天室和網站——自己去學習,傾聽和說話。後來,它變得喜歡煎一面的荷包蛋,還鍾情於即興爵士樂。克勞德也不知道為什麼會這樣。Maxwell甚至學會了說笑話,但最終它卻拿女性開玩笑:“你的媽媽像個保齡球。”

克勞德從那時開始對Maxwell即時線上家長控制。他後來還打造了其它的一些機器人,教導它們在地上爬行,以及自行從燈照汲取能量。與Maxwell不同,這些機器人的身體帶有讓它們能夠推理和遵從自己的本能(沒有家長控制)的神經元和人造腦前額葉皮質。

對於像克勞德這樣的人工智慧專家來說,打造自動化系統既是件美好的事情,也會讓人感到恐懼。他說,如果你想要準確預測機器的行為,那你就不想要使用人工智慧。誠然,人工智慧能夠自行行動和學習。它在很大程度上不可預測。但他還指出,你怎麼“知道它不會出錯呢?”

這是一個全人類都將要解決的問題——也許來得比我們想像的還要緊迫。

一個走在這一技術領域前沿的小女性組織已經在面臨這一問題。他們想要阻止人工智慧成了男性主義終極體現的未來。她們擔心,如果機器人設計和演算法設計不受監督,不加制約,那可能會造成一個讓女性極其壓抑的社會環境。

在該組織看來,問題在於,即便設計師們沒有任何的惡意,即便那些設計師都是女性,人工智慧還會反映人類的劣根性。25年後,性別歧視且帶有攻擊性的Twitter聊天機器人對人們來說威脅性也許並不算很大,因為性別歧視和壓抑問題將不僅僅體現在社交媒體,還會體現在影響經濟、政治、就業、刑事審判、教育等方面的人工智慧系統。

正如Tay所揭示的,這不是遙不可及的未來主義情景。“微軟學到了我20年前學到的教訓,”克勞德說道,“人工智慧從人類身上學習種種惡習,絕不是好事情。”

強化偏見
亞利桑那州立大學人工智慧與全球安全研究員海瑟·羅夫(Heather Roff)無法擺脫其對未來的恐懼。她的辦公室書架擺滿了諸如《機器人崛起》(Rise of the Robots)、《聯網作戰》(Wired for War)和《道德機器》(Moral Machines)的書籍。

除了那些書之外,該亞利桑那州立大學全球安全專案研究科學家還有《戰爭與性別》(War and Gender)、《當女權主義遇上技術》(Feminism Confronts Technology)等等。在一個書架上,有個磁石寫著“行為端正的女性很少能夠創造歷史。”在鄰近的牆壁上掛著的一張舊海報裡,一個赤腳的半裸女人坐在導彈上,上面寫著“毀滅的前夕”。

羅夫還是牛津大學政治與國際關係學院高級研究員,她最近開始展開受資助的“道德AI”開發專案。性別的體現正被嵌入技術和通過技術表現出來,為此她倍感擔憂。性別、種族和人類行為的變化,這些要進行編碼或者得到人工智慧的理解並不容易。“機器仿佛就是吸納一切的資料吸塵器,在發現模式的同時,產生模式的複製品。”羅夫指出,“它不能辨別來自習得的模式的結論是否違反道德原則。”

模式可始於像網路搜索這樣的簡單服務。最近,來自巴西米納斯吉拉斯聯邦大學的研究人員調查穀歌和必應在全球59個國家對女性魅力的演算法概念。他們在這兩款搜尋引擎上分別搜索“漂亮的”和“醜陋的”女性,收集相關圖片,根據圖片鑒別女性外在魅力方面的刻板印象。在所調查的大多數國家裡,演算法使得黑人、亞洲人和老女人往往更多地與醜陋女性的圖片關聯,而年輕白人女性的圖片則更多地作為漂亮女性的例子出現。
研究人員指出,網路上的分類反映了來自現實世界的偏見,同時也讓那些偏見永久存在。隨著人們越來越多地依靠搜尋引擎來獲得資訊資訊,設計師們利用演算法來給人們呈現搜索結果。當那些演算法不公開透明的時候,系統究竟為什麼和如何決定選擇特定的圖片或者廣告,就成了謎團。最終,互聯網及其用戶之間的這種偏見得到強化,進而擴大成見,影響人們對世界及其在裡面的角色的感知。

InferLink公司致力於分析人們在社交媒體上的行為。

跟其它的同類項目一樣,InferLink演算法研究男性和女性在網上如何表達自己,在說法方式上有什麼不同。“男性使用陳述性動詞比較多,而女性則更多使用描述性的詞語。”InferLink首席科學家馬修·米切爾森(Matthew Michelson)透露。

過去3年的研究揭示了社交媒體語言的性別差異。PLOS One最近的一項針對6.7萬名Facebook用戶的研究發現,女性使用的語言“更加溫和,更有同情心,更有禮貌,”而男性在溝通時則“更加冷酷,更有敵意,更冷淡。”

該研究指出,女性用戶往往更多地使用與諸如“愛”、“想念”、“謝謝”這樣的情感相關的詞語,以及表示微笑、皺眉和流淚的表情符號。與此同時,男性用戶更經常出現詛咒話語;傾向於討論管理、視頻遊戲和體育;更多提及死亡和暴力。之前有關口頭語言和書面語言的研究發現,女性傾向於不作正面答覆,更多使用像“似乎”或者“可能”這樣的詞語。

然而,米切爾森指出,一旦你開始根據這些演算法來進行性別、種族或者社會經濟地位方面的推斷——不管是用於行銷推廣還是政策建議目的——你就會觸碰到敏感的問題。由於這種技術,女性可能會在各類生活資訊和廣告的定向呈現上遭遇不平等的對待,如金融信貸、醫療服務、招聘、政治活動方面,以及強化性別刻板印象的產品推銷。

這也是不透明的演算法成為性別歧視的間接工具和直接影響女性生計的一種方式。目前已經有演算法更有可能向男性展示高薪酬職業的網路廣告。在穀歌圖片搜索“職業女性”,女性高管出現的比率相對較低,從事電話推銷工作的女性出現的比率則較高。

羅夫警告稱,由於演算法代為做下的決定,女性可能會在生活的各個方面都錯失一些好的機會。對於那些決定,人們也無法質問或者反對。那些決定可能涉及各類日常問題,如“孩子該上什麼學校,我們能獲得什麼工作,我們可以上什麼大學,我們是否符合抵押貸款資格,等等”

羅夫解釋道,演算法有朝一日可能會變得非常個人化,會告訴女性什麼才是正常的。“雙方將會控制我對於生活的很多想法,如我該追求什麼,我是否該要孩子,是否該結婚,是否該找工作,又或者就是該不該買那個手袋。”她說道,“這會變得很危險。”
 
左邊是Jaxon機器人,右邊是Valkyrie
人機合一
30年前,主張女權的技術學者堂娜·哈拉維(Donna Haraway)在其著名的論文《人機體的宣言》中呼籲女性不僅僅要利用現代機器,還要用它來改造身份——最終除掉性別、性徵和其它的限制性類別。她指出,利用技術,給我們所有人都創造半機器人身份是有可能的。隨著人們日漸依賴於他們的設備,他們會忘記自己的性別優越性。

哈拉維的願景於1985年出版在《社會主義評論》(Socialist Review)上,它催生了幾代的賽博女性主義者,引發了大量相關的討論和性別研究專案。它在如何消融人類與機器之間的界限上帶來了新的思考角度。
在這種我們與技術融合的未來烏托邦中,我們的繁殖生育能力不再依靠於性交。我們作為人機一體來思考和行動,能夠再生和重制我們的身體部件,能夠改變我們的物理特徵。人類全面擁抱機器人、人工智慧和機器學習,將它們視作自我強化的模式。不同於科幻小說對人機混合體導致機器人統治人類,或者一種性別統治另一種性別的想像,人機合一會造就一種平衡局面——一個沒有性別之分的世界。

然而,哈拉維也想到未來技術可能會變成男性主義的終極表現形式。

如果說當前的技術發展和趨勢有什麼啟示的話,那她對於未來的設想還是比即將到來的現實要更理想主義。當前,中國、日本、美國等地打造的機器人大肆誇大了性別標籤,有的國家在生產過於男性化的機器人殺手,有的則在做細腰肥臀的超性感人工智慧機器人。

機器人被性別化
開發商紛紛使用性別化的代詞、聲音或者其它特徵來區分男性和女性機器人,反映出行業將機器人格化的趨勢。但機器人為什麼需要性別呢?這有什麼用呢?專門用來探索和導航的機器人有胸部(比如NASA在2013年打造的Valkyrie)究竟有什麼意義呢?

這些時羅夫幾年前就開始思考的問題,當時她對人工智慧的研究促使她去研究與美國國防部高級研究計畫局(DARPA)有關聯的機器人。她知道那些機器人模型能夠應用於諸如戰場的場景,但它們的設計選擇卻令她倍感困惑。“天啊,它們看起來都很像男人,”她想,“為什麼它們的肩膀那麼寬呢?為什麼要這麼設計呢?為什麼要仿照人來設計呢?”

羅夫發現,DARPA的機器人被賦予Atlas、Helios、Titan等讓人聯想起力大無窮、勇敢戰鬥等特質(極度男性化的特質)的名字。悉尼大學的安德拉·凱伊(Andra Keay)2012年的一項調查研究了被用於機器人比賽的1200多份名字記錄。凱伊發現,機器人的命名遵循性別刻板印象——那些迎合社交需求的機器人被賦予女性名字的可能性達到自動化工具的三倍。她指出,像Achilles、BlackKnight、Overlord和Thor PRO這樣的男性名字“更多含有統治的意思,有這種意思的女性名字則不到一半。”

蘭卡斯特大學科學與技術人類學教授露西·薩奇曼表示,對於一些設計師來說,性別化機器人成了“人工打造完美女性的男性項目”。來自中國科學技術大學的設計師去年4月展示的一個超像人類的機器人就是很好的例子,它名為“佳佳”,被網友們譽為“機器人女神”,“最漂亮的人形機器人”,“性感的佳佳”。

去性別化
Sara則看起來不那麼像人,至少她不是三維的。她只是一個手繪卡通。設計者有意不賦予其性感的形象,而是給她設計了普通的白領灰色夾克。她的劉海撥向臉部右側,佩戴著方形眼鏡,雙瞳明亮。Sara是個機器人,會閒聊,會奉承,會表現得很靦腆,甚至會表現得很無禮——取決於她對你的解讀。

她被設計得不那麼逼真,因而不會讓人誤以為她會有非常像人的行為。但不同於當下像Siri這樣只能提供搜索結果、導航路線或者說笑話的個人助手,Sara能夠瞭解你,能夠捕捉你的社交信號,並相應作出回應。
Sara問坐在螢幕前的卡耐基梅隆大學人機交互學院博士後Yoichi Matsuyama,“可以跟我說說你的工作嗎?”
Yoichi Matsuyama回復道,“我對個人助手有興趣。”

在另一電腦螢幕上,研究人員能夠看到Sara在“想”什麼。通過電腦攝像頭,Sara識別Yoichi Matsuyama的頭部形狀,跟蹤他的面部表情變化(點頭表示認同,微笑表示友好,眉毛彎曲表示有興趣)。Sara發現聲調的變化時會記錄Yoichi Matsuyama的聲音。她能夠判斷出自己已經跟他建立起良好的關係。他放鬆地開了個玩笑。
個人助手?“那很有趣——我覺得。”

2016年做出Sara的卡耐基梅隆大學人機交互學院主任賈斯汀·卡塞爾(Justine Cassell)說道,“Sara正變得有點活躍。”過去20年間,她一直在做機器人模型,希望它們將來會很好地融入社會。來自亞洲、歐洲和美國的許多人工智慧機器人設計師都在嘗試打造能夠與人建立良好關係的智慧技術。

卡塞爾在研究人種學(即分析人的姿勢、行為、面部表情、反應和運動)8年後做出了Sara,之後又將那個知識資料庫整合到她的機器人的個性當中。她發現,社交過程中的閒聊在人類建立起相互的信任上很重要。她還認識到閒聊可能也有助於人類和機器建立對彼此的信任。

Sara習得了人們用來建立社交關係的五種基本策略:自我表露,提到共同的經歷,表示贊許,遵從社交規範(如聊天氣),違反社交規範(問私人問題,調侃,或者諷刺)。

正如來自Raytheon的克勞德用“他”來指代他的鸚鵡機器人,卡塞爾用“她”來指代Sara。但在卡塞爾的大多數機器人作品中,她都沒有將它們性別化或者種族化。
她所打造的其它的機器人都沒有明確的性別和種族。她說,許多設計師會採用男性聲音,因為他們覺得男性聲音“聽上去有權威性”;他們採用女性聲音則是因為它聽上去可信。卡塞爾則試圖用她的機器人來改變這種傳統觀念。

卡塞爾的機器人已經為兒童群體所使用,他們有的來自條件設施匱乏的學校和社區,有的患有自閉症、阿斯伯格綜合征等疾病。那些機器人在教室裡成了孩子們的“虛擬同學”,通過與他們直接互動,充當溝通橋樑和可信賴的講解員,它們能夠幫助他們學習,以及跟老師和同學相處溝通。“我致力於打造能夠與人協作的系統,沒有人它們就無法存在。”卡塞爾說。

像Sara這樣的個人助手有朝一日可能會幫助整理衣服,又或者教數學課,從而讓人工照料者或者教師有更多的時間去進行社交互動。按照卡塞爾的設想,機器人將會承擔部分“費力不討好的工作”,讓女性能夠追求她們真正喜歡或者覺得有價值的工作,“而不是被局限於枯燥乏味的看護類崗位”。她認為,這對女性有利無弊,會使得她們能夠做她們想要做的工作,而不會削弱她們的就業選項:“這會將她們從打上性別印記的崗位釋放出來。”

這聽上去令人期待。但在虛擬助手設計領域,卡塞爾對於性別的處理——完全消除其機器人的性別屬性——非常罕見。該領域鮮有其他人對於技術的性別有如此深刻的思考。時下的人工智慧產品大多數都沒有體現這種社會覺悟。

女性缺乏行業影響力
跟很多從事科技或者安全領域的女性專業人士一樣,羅夫經常是整張會議桌唯一的一名女性。

市場研究機構Gartner 2014年的研究發現,在歐洲、非洲和中東地區,女性在科技領導崗位中的占比只有11.2%,亞洲是11.5%,拉丁美洲是13.4%,北美洲是18.1%。根據來自白宮和紐約大學資訊法律學院舉辦的討論會的一份報告,在整個科技行業,“女性占比非常低。”該報告還稱,“這種情況在AI領域甚至更加嚴重。”
對女性在該領域缺乏影響力的擔憂,部分因為很少女性進入該行業。在電腦和資訊科學碩士學位和博士學位的獲得者中,女性的占比分別約為18%和21%。埃森哲和Girls Who Code的聯合研究預計,到2025年,女性在美國科技類崗位中的占比將達到五分之一。

目前已經有一些項目在努力糾正修正這種現象。例如,2015年,斯坦福大學創立了一個面向高中女生的人工智慧項目,以期解決科技行業女性從業人數較少的問題。

羅夫指出,女性還必須努力爭取代表出席人工智慧方面的政策規劃會議的機會。

美國國家科學與技術委員會2016年10月的報告《準備人工智慧未來》稱,缺少女性和少數族裔,是“電腦科學和AI領域最重大和最亟待解決的挑戰之一。在《美國國家人工智慧研發計畫》中,該委員會將“提高公平性、透明度和設計責任性”列為優先事項。該報告警告稱,人類必須能夠清楚解釋和評估智慧設計,以實施監控以及讓系統為偏見問題負責。該報告最後呼籲科學家們研究公平正義、社會規範和倫理道德,思考如何更責任地在人工智慧的架構和工程設計中加入對這些問題的考量。

像羅夫這樣的女性想要進一步推動這種呼籲行動。在她看來,這是刻不容緩的事情。她認為,女權主義倫理觀和理論必須要作出表率。她還說,“女權主義者會非常仔細地研究這些關係,”會提出種種有關未來技術的令人不安的問題,以及當中所有的階層等級問題。

“會出現權力濫用嗎?這裡面有什麼價值?我們為什麼要這麼做?誰是下屬?”羅夫問道,“誰來掌權?”
訂閱電子報 友善列印 字體大小:
獲取產業訊息零時差!立即訂閱電電公會電子報。