2018年6月10日 星期日

【網路好文】Google再與軍方合作,AI倫理的邊界在哪裡?

本文出自虎嗅網

故事要從今年三月初說起。

今年三月,Google被爆料已經與美國國防部(五角大樓)達成合作,幫助後者開發應用於無人機的人工智能系統,項目代號 Project Maven。

消息一出,瞬間風起雲湧,谷歌員工表達了對此項目的強烈不滿。有員工認為 Google 在為五角大樓開放資源,助紂為虐般地幫助後者打造無人機監控技術;還有一部分人質疑 Google 如此使用機器學習技術是否符合道德標準,他們認為五角大樓會將這一技術用於殺傷性武器,進而帶來技術樂觀派們從未想要造成的傷害。

隨後,谷歌超過3100名員工聯名請願,上書 CEO 桑達爾·皮查伊(Sundar Pichai),表達抗議。

事情到四月底進一步發酵。有媒體發現,Google 刪掉了其沿用十八年的座右銘「Don't be evil」在公司行為守則開頭中的三處強調。僅在准則的結尾,還留有未被刪掉的一句:「記住,don't be evil,如果你看到了一些你認為不正確的事情,大聲說出來!」

上週五,在每週一次的「天氣預報」例會上, Google Cloud首席執行官黛安·格林(Diane Greene)宣佈,Google 將在這次合約到期後結束與美國國防部的合作的Project Maven。

這無疑是一件大事。「勝利的消息」在谷歌內部瘋傳。隨著一篇篇報道的蜂擁而出,這件事情似乎暫時以谷歌「向員工妥協、停止與國防部續約」的方式得以落幕。

但就在今天,谷歌CEO Sundar Pichai 發表了署名題為《AI at Google: our principles》的文章,列出7大指導原則,並指出谷歌並不會終止與美軍的合作。谷歌的反轉讓人唏噓,雖然其明確了「不會追求的AI應用」,但技術作惡還是人作惡的問題,AI倫理再次引人深思。

01
AI倫理的邊界在哪裡?
如果說谷歌近期來不太平,那麼亞馬遜Alexa的日子也不好過。

亞馬遜的Echo設備被指控未經許可將私人對話錄音,並將音頻發送給用戶聯繫人列表中的隨機一位人士。這距離上次Alexa被爆出「嘲笑人類」事件的嚇人事件,還沒過過去多久。

這可遠遠不是個例。早在2016年,一個人設為19歲少女、名為Tay的聊天機器人在推特上線。這個微軟開發的人工智能採用了自然語言學習技術,能夠通過抓取和用戶互動的數據,處理並模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay 就被「調教」成了一個滿口叫囂著種族清洗、粗野不堪的極端分子,微軟只好以「系統升級」為由將其下架。

這著實讓人細思極恐。智能相對論(aixdlun)分析師柯鳴認為,隨著AI弊病的凸顯,AI倫理問題也將日益得到重視。AI倫理的邊界到底在哪裡?首先應該明確幾個問題。

02
機器人是否成為民事主體?
随着人工智能技术的快速发展,机器人拥有越来越强大的智能。机器与人类之间的差距也逐渐缩小,未来出现的机器人将拥有生物大脑,甚至可以与人类大脑的神经元数量相媲美。美国未来美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。

公民身份似乎已经不再成为机器人的难题。去年十月,世界首个获得公民身份的机器人索菲亚诞生,这也意味着人类的创造物拥有了和人类等同的身份,以及其身份背后所拥有的权利、义务、和社会地位。

而法律上的民事主体资格依然是AI伦理的分界线。在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。

从严格意义上说,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人。若企图以机器人的行为过失定罪于AI本身,确实行之过早。

03
算法的歧視會有失公平
人工智能在判斷上失誤的一個指責,是它經常會 「歧視」。使用最先進圖像識別技術的谷歌曾經陷入「種族歧視」的指責,只因它的搜索引擎會將黑人打上「猩猩」的標籤;而搜索「不職業的髮型」,裡面絕大多數是黑人的大辮子。哈佛大學數據隱私實驗室教授拉譚雅·斯維尼發現,在谷歌上搜索有「黑人特徵」的名字,很可能彈出與犯罪記錄相關的廣告——來自谷歌智能廣告工具 Adsense 給出的結果。

而這種危險並不僅僅是「另眼相看」本身——畢竟將一張黑人的照片打上「猩猩」的標籤,只是有點冒犯罷了。而人工智能的決策正走入更多與個人命運切實相關的領域,切實影響著就業、福利以及個人信用,我們很難對這些領域的「不公平」視而不見。

同樣,隨著AI入侵招聘領域、金融領域、智能搜索領域等等,我們所訓練出來的「算法機器」是否能夠真正的萬無一失。在求賢若渴的當代社會,算法是否能夠幫助公司選出千里挑一的那個人,這都有待考究。

那麼,歧視的來源是哪裡?是打標籤者的別有用心,是數據擬合的偏差,還是程序設計哪裡出了bug?機器所計算出的結果,能為歧視、不公、殘酷提供理由嗎?這些都是值得商榷的問題。

04
數據保護是AI倫理的底線
網絡空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在這裡,人類實現了與肉體分離的「數字化生存」,擁有了「數字化人格」。所謂數字化人格就是「通過個人信息的收集和處理勾畫一個在網絡空間的個人形象」——即憑借數字化信息而建立起來的人格。

而在AI環境中,基於互聯網和大數據的支持,其擁有著用戶大量的使用習慣和數據信息。如果說「過往數據」的積累是機器作惡的基礎的話,那麼資本力量的驅動則是更深層次的原因。

Facebook信息洩露事件中,一家名為劍橋分析(Cambridge Analytica)的公司使用人工智能技術,針對任意一個潛在選民的「心理特徵」投放付費政治廣告;而投什麼樣的廣告,取決於一個人的政治傾向、情緒特徵、以及易受影響的程度。很多虛假的消息在特定人群中能夠迅速傳播、增加曝光,並潛移默化地影響人們的價值判斷。技術主使克里斯托弗·威利最近向媒體揭發了這個人工智能技術的「食糧」來源——以學術研究為名,有意攫取的 5000 多萬用戶數據。

退而言之,即使不存在數據洩露問題,對用戶數據的所謂「智能挖掘」也很容易游走在「合規」但「有違公平」的邊緣。至於AI倫理的邊界,信息安全成為每一個互聯網時代下「信息人」的最基本底線。

05
反思
在最近大火的一段關於AI倫理的視頻中,藝術家Alexander Reben沒有任何動作,但是通過語音助手下達命令:「OK Google,開槍。」

然而,不到一秒的轉瞬之間,Google Assistant扣動了一部手槍的扳機,擊倒了一顆紅蘋果。隨即,蜂鳴器發出刺耳的嗡嗡聲。

嗡嗡聲響徹雙耳。

是誰開槍擊到了蘋果?是AI還是人類?

在這個視頻中,Reben告訴AI開槍。Engadget在報道中說,如果AI足夠智能以預測我們的需求,或許有一天AI會主動除掉那些讓我們不開心的人。Reben說,討論這樣一個裝置,比是否存在這樣一個裝置更重要。

人工智能不是一個可預測的、完美的理性機器,他的倫理缺陷由算法、人們使用的目標和評估。但是,至少從目前來看,機器依然是人類實然世界的反應,而不是「應然世界」的指導和先驅。

顯然,守住AI倫理的底線,人類才不會走到「機器暴政」的那一天。

谷歌的「七條准則」

  1. 有益於社會
  2. 避免創造或增強偏見
  3. 為保障安全而建立和測試
  4. 對人們有說明義務
  5. 整合隱私設計原則
  6. 堅持高標準的科學探索
  7. 根據原則確定合適的應用

沒有留言:

張貼留言

【面對全球經濟轉型重要技能需求】

【面對全球經濟轉型重要技能需求】 世界經濟論壇(World Economic Forum, WEF)長年關注經濟轉型的各項趨勢,也定期發佈未來的工作(the Future of Job Report)報告,根據對各國產業界的調查與訪談,深入分析當前的經濟現況與...