好萊塢,你的AI 電影犯了9 個錯誤

0

CoverPhotoCredit:Shinya Suzuki, CCBY-A.ND.

編者按:本文作者Seth Redmore 是機器學習、文本分析公司Lexalytics 的CMO,他最近刊文,就好萊塢的AI 電影做了評價。他認為好萊塢對AI 的理解有一些問題,誤導了觀眾,真正的AI與電影描述的大有不同。

當好萊塢沒有拍動漫電影時,它在鼓搗AI。為什麼呢?因為AI將會改變我們的靈魂,它迫使我們思考一些問題:作為人類究竟意味著什麼?思考是什麼?我們在世界的位置是怎樣的?這些都會受到AI的影響。這個問題值得我們從哲學層面好好探討,一些重量級導演——比如雷利史考特、斯皮爾伯格、斯坦利·庫布里克、斯派克·瓊斯都將電影作為一個平台,試圖搞清AI世界的樣貌,以及生活在AI世界又是怎樣的。罪惡AI有著悠久的歷史,可能是因為我們設立一個大反派,“它只是一台機器”,可以讓人類領袖看起來更像英雄,也可能是隨著時間的流逝,科幻小說的反烏托邦色彩越來越濃重。

雖然好萊塢在一些地方觸及了要害,但是許多時候有藝術放縱之嫌。讓我們來看看好萊塢在AI方面犯了哪些錯,為什麼犯錯:

  • 智能VS 知覺VS 智慧

好萊塢青睞“人類一樣的”智能,因為這樣就可以跳過一個深刻的AI哲學命題:定義智能,確定是否有什麼東西展現出智能行為。這些問題形成哲學的一個分支,它促使我們思考意識、智能、知覺和智慧的自然特點。這些術語是高度關聯的,但是彼此有很大的不同。在好萊塢眼中,知覺(獲得主觀體驗的能力)一般來說與智慧是一樣的,智慧就是根據過往經驗和理解採取行動的能力。給智能定義更難一些,要在人工環境中定義更難,比如在圍棋中定義。電影總是喜歡武斷,它會挑一個術語拿來使用,還會挑一個具有挑戰性的思想問題,它們這樣做只為靠近一種理念:給定機器比人類弱、好、嚇人、聰明、強。

  • 完全忽略編程

在AI世界遊歷一下的確是很有趣的事,在迪斯尼電影《機器人瓦力》中,瓦力將Roomba(iRobot公司智能掃地機器人)一樣的機器人提升到了新水平,它既是垃圾壓縮機,又是環境保護主義者。為什麼瓦力會轉化?因為它突然獲得了“知覺”(當然還有智慧),從哪裡獲得的?可能瓦力最開始時只是一個AI,在收集垃圾的過程中不斷學習,不斷超越。這是一個狹窄的AI領域,它孕育出感覺,比如愛、懷舊。沒錯,瓦力可以清理插接站附近的場所,但是它居然可以收集東西,作為業餘愛好,到底是如何學習的?為何能學習?聽起來我們有點吹毛求疵,畢竟大家都喜歡這部電影。不過那裡有成千上萬的機器人,可能還是幾百萬。難道說瓦力自學成才,通過魔法一樣的過程獲得了智力?

  • 深入恐怖谷

2001年斯皮爾伯格推出一部電影《人工智能》,講述一個機器人小孩的故事,他叫大衛,這是一個編程機器人,具備“愛”的能力。電影表達的一些觀點是正確的,比如大衛會按程序辦事,不過它忽視了一個大問題:恐怖谷。1970年,日本機器人專家Masahiro Mori提出“恐怖谷”理論,也就是說機器人看起來如果太像人類,又不是完美的人類,人類就會形成負反應。你也許會說,與其說這部電影是科幻片,不如說是幻想片,或者說所有這些問題在遙遠的未來都會解決,不過還有一些相似的電影,它們也與人型機器人有關,你無法用這樣的解釋為好萊塢推脫。

如果存在不正確的地方,人類會發現,發現的能力超級強,如果是肢體語言、面部表現不合適,人類發現的能力更強。最成功的人型機器人必然會有一些誇張的能力,就像動漫中看到的一樣。這樣一來,設計人型機器人時就避開了“恐怖谷”,因為有足夠的線索可以告訴我們它明顯不是真正的人類。        

  • 一個人就能造出來

自弗蘭肯斯坦以來,“創造生命的瘋狂科學家”這種想法一直存在,將四肢拼接需要的技術知識比開發AI少得多。好萊塢給人這樣一種印象:關於AI軟件,一個獨立的個體就可以開發出來,不只如此,硬件也是即插即用的設備。2015年的電影《機械姬》更謹慎一些,它深入重複AI旅程,讓我們看到一個發明人獨自開發了AI,像人類一樣的AI,還開發出人形身體與AI匹配,所有這些都是從地下室開發出來的。

雖然使用AI工具變得越來越容易,AI還可以解決某些商業問題,但是它們不是人型AI。沒錯,當你與聊天機器人對話時,你會認為自己在與真人對話,但是與一個聊天機器人聊20分鐘你就會拋棄這種想法。科幻有一個根本宗旨:它要設立一個世界或者確定一種情況,然後科學地、一致地探索世界的可能性。《機械姬》探索了AI故事最乏味的部分。她是如何啟動的?沒錯,她逃亡了,之後呢?電影更接近逃亡,加了一點AI,而不是真正的探索性科幻。

  • 高速發展

這個論點與上面的論點相去不遠,在好萊塢電影中,AI的發展速度太快了。可能是因為好萊塢設想AI是創造活動的成果,而不是科幻,簡單來講,AI就是一時靈感的產物。在斯皮爾伯格的《人工智能》中,一年半的時間就從0發展出100%像人類的AI,至於《機械姬》,幾年就有了驚人的人型機器人。

有些人可能會拿出“奇點論”解釋,也就是說AI開發出可以開發AI的AI,12週之內就出現了翻天覆地的變化。它被叫作“奇點”,因為它是“事件視界(event horizo n)”,所謂事件視界存在於黑洞中,從理論上講它相當於奇點,事件視界是一個硬邊界,外部的觀察者無法利用任何物理方法獲得事件視界以內的任何事件的信息,或者受到事件視界以內事件的影響。如果可以自我複制,智力就可以在幾小時或者幾天之內構建出更棒的智力,至於會發生什麼事,我們完全無法預測。可能我們一旦跨越了邊界,就可以在一年之內開發出真正的人類AI,不過邊界在哪裡呢?我們不知道。

  • AI並不意味著一定有暴行

在1927年的電影《大都會》中,機器人有暴力傾向,從《大都會》到《終結者》,再到《2001:太空漫遊》的HAL,好萊塢講了許多AI兇猛的故事。不過人類之所以害怕AI,可能是擔心自己會退化,並不是因為自己在邏輯上真的害怕AI。除非我們對AI編程讓它威脅人類(在類似的事情上會有嚴格的製衡),AI真正的威脅在於工作,在執行特定的信息收集和模式識別任務時,人類可能沒有AI那麼有效率,也沒有那麼一致。

AI將會影響工作市場,這是事實。它能否幫助人類走向後稀缺(Post-scarcity,商品、 服務、 信息都可以被人們無償佔有,貨幣也將不復存在)社會,增加收入並讓收入更公平,這些都還不知道。如果感興趣,你可以讀讀奧巴馬的白宮報告,名字叫作“Preparing for the Future of Artificial Intelligence”(為AI未來做好準備),它清晰描述了AI會對未來造成什麼影響。我們已經看見了敵人,它就是我們自己,不是機器。

  • 遠不只是圖靈測試

1982年,雷利史考特推出了《銀翼殺手》,它是根據Philip K Dick的短篇事故《機器人會夢到電動羊嗎?》改編的,它通過人性測試機器將圖靈測試介紹給公眾。不過AI遠不只是圖靈測試那麼簡單。圖靈測試通過自然語言對話判斷機器人行為,看它是否能與人類區分開來。通過圖靈測試的確是一個很有趣的挑戰,但它並不是AI的目標。AI研究要創造出可以感知環境的程序,成功達到特定目標:在許多環境中,除了人類還沒有什麼可以達成目標。似乎其目標就是輔助人類,而不是模仿人類。

  • 狹窄的定義

AI是什麼?它不是即將出來的東西,而是已經存在的東西。按照好萊塢的描述,AI和我們很相似,有這種理解可能因為好萊塢限制了我們的視野,只讓我們看到一個定義非常狹窄的AI。《機器人管家》中的人型機器人,《Mother in Alien》或者《Icarus II in Sunshine》電影中飛船的聲音,它們全都是通用人工智能。今天的AI是用來執行特定任務的,比如識別圖像、下棋、評估保險索賠。

  • AI可能不等於人類智力

2013年,Spike Jonze拍攝的電影《她》獲得奧斯卡提名,它講述了一名男子與“Sam”的浪漫故事,Sam是一個智能OS,安裝在男子的計算機上。Sam可以推斷,可以創造,還具備推理技巧,她有很高的智力,超過了人類。另外,Sam還可以感知到情緒,可以建立關係,從各個層面講她都是人類,但是沒有肉體。《她》建立在一種假定之上:將成功的AI智力與人類智力放在一起,我們無法區分,不只如此,它實際上就是人類智力,更快,更聰明。當我們將智力人格化時,實際上就是為智力添加了人類熟悉的特性,比如情緒、意識、自我、良心,甚至還包括自我保護本能。智力類型很多,不是只有人類智力,所以說,我們開發的智力系統並不一定會像人類一樣思考、感覺或者行動。

想一下谷歌DeepMind AlphaGo AI。讓我們回到原點,你可能會說它已經具備一定程度的智慧:能夠根據過往經驗和理解採取行動。現在,我們再假設它獲得了一定程度的知覺,也就是說它可以感覺、可以理解、可以獲得內在體驗。怎樣與這樣的AI溝通呢?只能在圍棋世界溝通。每一局棋都是同一類型的溝通,能夠用其它模式嗎?比如你將棋子放在棋盤上,表達一種基本的數學原理。它有足夠的信息推斷你想傳達的意思嗎?或者只是認為你下了奇怪的棋步,將你從棋盤上踢走?AI不能擁有知覺,我們沒有理由這樣認為。如果真的有了知覺,世界又會怎樣呢?

我們也許應該少思考一與AI“智能”部分有關的東西,多關注“人工”部分。

本文獲36克氫轉載,作者為編譯組楊志芳編輯,原文在此

這篇文對你有幫助嗎?歡迎分享轉發!

About Author

Comments are closed.