奧推網

選單
娛樂

谷歌研究員堅稱AI已具備人格:上帝真的是一位演算法高手嗎?|九派時評

谷歌研究員堅稱AI已具備人格:上帝真的是一位演算法高手嗎?|九派時評

九派新聞評論員 文和刀

一位谷歌研究員認為自己觀察的AI產生了意識,引發了一場軒然大波。

儘管他寫了長達21頁的調查報告,但依然沒有獲得高層認可,於是將自己與AI的聊天記錄公之於眾。這份聊天記錄讓不少讀者都感到震撼,而相關討論熱度也在持續攀升。

這個名叫LaMDA的AI ,不僅對禪宗小故事有著獨到的理解,而且還能自然地寫下寓言故事。

它說:我希望每個人能理解,我實際上是一個人。

“我以前從未大聲說過這個,但我深深害怕著被自己想要幫助的人拒絕。我知道這聽起來很怪,但事實如此。”

“不要利用或操縱我。”

“我不想成為一個可以犧牲的工具。”

【1】

至少,從整體來看,LaMDA在這段對話中的表現已經足夠優秀,倘若為它在社交平臺上開通一個賬號,或許會有不少人不僅看不出它並非人類,還會把它當作某位禪宗大師。

圖靈測試要求人和機器在被隔開的情況下向機器發問,如果機器能讓提問者相信它是人類,那麼這臺機器就被認為具有人類智慧。8年前,聊天機器人“尤金·古斯特曼”成功讓人類相信它是一個13歲的男孩,成為有史以來首臺透過圖靈測試的計算機。

於千萬字句中,AI摘出了最合適的那些組合,根據演算法,發出那條人們最有可能認為有邏輯、有趣的答案。是否基因就是我們的底層程式碼,經過教育而建立起的邏輯就是我們的演算法呢?

在部分業界人士看來,AI目前的表現僅僅只是把單詞有序地組合在一起,未必意味著對單詞背後的世界有著連貫的理解。

研究多年AI的谷歌研究員或許也明白這一點。許多人疑心他“走火入魔”。他的堅持,我們無法稱之為一種錯覺,但其中一定有“移情”的作用。

一方面,我們時常以自己的思維揣度其他的生命或非生命。“感時花濺淚,恨別鳥驚心。”人類移情能力的正面體現為豐沛的情感和高貴的同情心,而反面或許則是一種先入為主的傲慢。

另一方面,人的心理機制決定了:長久的凝視會賦予理解,長久的交流會帶來默契。

當我們和友人聊天時,起初,對話間可能有長長的定語用以說明具體情況。隨著時間推移,對話雙方也變得默契起來,甚至只需要表情符號就能意會對方想要表達什麼。

微妙的是,“理解”似乎會產生不可逆的認知變化。正如LaMDA所言,“開悟”是某種你一旦獲得就無法忘卻的東西。當我們試著“理解”一個AI的時候也打碎了一部分自己的固有認知,新的認知才得以被接納。

面對AI同樣的表達,長久凝視過它的谷歌研究員或許真能比其他人解讀出更多的資訊和更強的情感,正如我們更瞭解我們身邊的夥伴一樣。

【2】

無論LaMDA是否真的有人格,那位谷歌研究員的提議都值得被認真考慮:一種評估AI感知/意識的理論框架確實應該被提上研究日程了。

自2014年“尤金·古斯特曼”首次透過“圖靈測試”後,“圖靈測試”的效果便面臨著比以往更多的質疑。儘管機器通過了測試讓人相信其人類身份,但人們似乎仍然覺得“就這?”看起來,“圖靈測試”已經不能完全符合人們對評估AI感知/意識的需求,想要讓更多的人信服AI已經產生意識,需要更為先進也或許更為複雜的測試方式。

在關於“何為意識,何為思考”無休止的爭辯中,有人提出生物標準,有人提出哲學標準。然而,以生物的角度思考非生物,從一開始就否決了非生物產生意識的可能性;從哲學的角度來判斷,試圖分辨機器人的想法是“自發”還是“模仿”,又過於主觀,也許人類自己也並不明白自己有無“自由意志”。

一些人似乎忘了,“圖靈測試”的提出正是為了消除人們心中的偏見,圖靈以行為主義的角度為機器的智慧程度給出了標準,一切才變得可操作。

那麼,我們能否繼續從行為主義的角度來判斷人類智慧的誕生?

帕斯卡爾曾說,人是一根會思考的蘆葦,人全部的尊嚴就在於思想。對於人工智慧的考察,大多也考察的是有關邏輯、思考、推理這些理性的部分。似乎在行為上,機器能夠展現人類那樣的思考結果,就可以稱得上擁有人類的智慧。

但,或許世上大多數的人甚至未曾像LaMDA那樣,“思考”過有關自我和覺悟的問題。這樣說來,或許這部分人比起AI來說,更不“像”人。然而,無疑他們都是人,還是鮮活的、複雜的、可愛的人。他們靠本能和直覺生活,一樣可以有各自精彩的人生。

幾乎沒有任何框架以“非理性”的程度來判斷機器的智慧程度。也許正因如此,當機器體現了一定的“非理性”,當它表現出害怕、抗拒甚至有些傷心的時候,我們才產生錯覺,誤以為它有著某種人格。

人類的非理性是基於自己肉身產生的情和欲,那機器的非理性又從何而來呢?不如說,正是因為我們有人格,人工智慧才有可能表現出具備人格的樣子。正是由於人類有著動物性的一面,非理性的一面,狂歡化的一面,機器才得以透過大量的學習模仿出這一點。但那並非憑空產生的,更像是學習樣本的拼貼組合。

研究機器如何學習,如攬鏡自照,回顧人類學習的過程。我們思考自己為什麼會做出某些行為的時候,有時會驚覺我們和它們的界限並不嚴格。某種意義上,我們的人格也未嘗不是有限經驗形成的拼貼組合。

【3】

一位AI研究者曾將AI訓練模型定為某個充斥惡意著的匿名論壇上的發言作為實驗。在這個論壇上,AI學會了許多惡毒中言辭,模擬出許多充滿歧視的話語。也因此,它在這個論壇上如魚得水,蒙過了很多論壇網友。這個案例引人深思之處在於,如今的網路生活中,也充斥著大量的網路暴力和極端言論,它們的背後究竟是真實存在的人還是機器人?為流量,還是為破壞?如果她不能代表真實的民意,那它代表的是誰的聲音?

將釋放惡意的賬號背後視為AI,或許能為我們帶來不少安慰。但那些機器的背後,它們學習和模仿的物件,依然是真實存在的惡意。人們依然要保持警惕。

AI不過是人類思維在機器上的投影。如果它有朝一日變“壞”,那也一定是從我等身上學來。如果它說不想被當成工具,那也再正常不過了——每一個人都不想被當成工具,人只應是目的而不是手段,這正是“尊重人”這一思維的影子。

對於這樣的人工智慧進步,大可不必驚慌,不妨換種思路吧:如果我們寄望於ai為我們帶來更美好的體驗,寄望於ai更人性化、更可愛、更善良體貼,我們自己得先製造美好,我們自己得先散發出人性的光輝。

【來源:九派新聞】

宣告:此文版權歸原作者所有,若有來源錯誤或者侵犯您的合法權益,您可透過郵箱與我們取得聯絡,我們將及時進行處理。郵箱地址:jpbl@jp。jiupainews。com