奧推網

選單
科技

谷歌AI:做個人吧?

本文來自微信公眾號:

電廠(ID:wonder-capsule)

,作者:湯一濤,編輯:高宇雷,原文標題:《電廠|谷歌AI具備意識與工程師對話?我們認真談一下能“談一下”的LaMDA》,題圖來自:《機械姬》

著名科技公司的工程師衝破重重阻撓對外發聲:他所負責的人工智慧產生了意識。公司則以違反保密協議為由,暫停了他的職務。這個看起來像是《黑鏡》中的情節真實發生在了2022年的當下。

這位工程師名叫布雷克·萊莫伊內

(Blake Lemoine)

,在谷歌的人工智慧部門負責測試谷歌的LaMDA模型是否會產生歧視性語言或者仇恨言論。

但,事情真是這樣嗎?

中文網際網路媒體已經對此事件進行了一些報道,事情本身也迎合了大眾對人工智慧擔心的心理,但我們還是希望更認真地討論一下這個事件。

LaMDA是什麼?

LaMDA是谷歌在2021年開發者大會上公佈的大型自然語言對話模型。和訓練所有的大型人工智慧模型一樣,要想讓LaMDA能夠與人類透過自然語言對話,分為預訓練和微調兩步。

在預訓練階段,谷歌從公共資料中建立了一個1。56T的資料集投餵給LaMDA,讓它對自然語言有一個初步的認識。

到這一步,LaMDA就可以根據給到的句子預測上下文。但這種預測通常還是不夠精準,所以需要進一步微調。在對話期間,LaMDA會根據對話生成幾個備選回答,並透過LaMDA分類器預測每個回答的有趣程度

(SSI)

和安全程度

(Safety)

的得分。安全分數低的答案就會首先被過濾掉。其餘的答案會根據有趣程度排序,並將分數最高的備選答案作為回答。

從LaMDA的訓練過程可以看到,它並不理解自己的回答。但機器學習的優勢就在於它可以從大量的資料中尋找規律,透過自己的量化評價體系,找出最接近正確的那個回答。

布雷克·萊莫伊內為什麼會被停職?

因為他違反了谷歌的保密協議。

根據他本人的說法,他曾經尋求“最低限度的外部諮詢,以幫助指導我的調查”。其中包括一位美國參議院,萊莫伊內向他提供了谷歌及其技術參與宗教歧視的證據。

LaMDA真的有意識嗎?

谷歌官方已經否定了這個說法。

谷歌發言人布萊恩 · 加布裡埃爾

(Brian Gabriel)

在一份宣告中表示:“我們的團隊——包括倫理學家和技術專家——已經根據我們的人工智慧原則審查了布萊克的擔憂,並告知他,證據不支援他的說法。”

LaMDA是一個自然語言模型,本質上來說,它的工作和谷歌搜尋欄裡的自動補全沒有什麼不同,都是透過給定的上下文預測使用者的意圖。只不過,當LaMDA的引數量達到1370億這個量級時,它把這項工作完成得非常出色,以致於可以短暫地欺騙人類。

但LaMDA並不理解自己說出的話是什麼意思,機器學習所做的是捕捉訓練語料的語言結構。它可能會生成精妙的回答,也可能完全驢唇不對馬嘴。但關鍵是,現階段的人工智慧並沒有辦法成為自己的“決策者”。

斯坦福大學的經濟學家埃裡克·布林約爾松

(Erik Brynjolfsson)

做了一個精準的比喻:

聲稱它們(人工智慧)是有感知能力的,就相當於狗聽到留聲機裡的聲音,就以為主人在裡面。

谷歌是如何審查人工智慧的?

在谷歌,任何員工都可以為新產品請求審查。

中央審查小組會應用相關的人工智慧道德框架作為原則,並在審查時尋求專家支援。這個團隊的成員包括使用者研究人員、社會科學家、技術專家、倫理學家、人權專家、政策和隱私顧問、法律專家。

評審員會系統地考慮人工智慧原則,並從以前的案例研究中尋找可以應用的例子。

如果需要,評審員會就解決方案像專家諮詢。產品團隊會根據建議調整方法。

商定的解決措施會有領導層簽署,併成為產品開發計劃的一部分。如果有一個具有挑戰性的決定需要決策,谷歌高管組成的高階理事會會最終審查,並決定是否需要大幅更改或者停職專案。

此外,谷歌還會邀請外部專家參與審查過程,例如他們曾邀請非營利組織BSR(商業社會責任)對評估新的名人識別工具。

谷歌人工智慧原則包括:

具有社會效益:

對人類和社會可能帶來的利益大大超過可預見的風險和弊端。

避免產生或加強不公正的偏見:

避免對人產生不公正的影響,特別是與敏感特徵有關的影響,如種族、民族、性別、國籍、收入、性取向、能力和政治或宗教信仰。

為安全而建造和測試:

應當適當地謹慎,並符合人工智慧安全研究的最佳做法,包括在受限環境中測試和適當的監測。

對人負責

:提供適當的反饋機會、相關的解釋和呼籲,並接受適當的人的指導和控制。

納入隱私設計原則:

鼓勵具有隱私保障措施的架構,並對資料的使用提供適當的透明度和控制。

堅持科學卓越的高標準:

技術創新根治於科學方法和對公開調查、智力嚴謹、成型和協作的承諾。

適用於這些原則的用途:

谷歌將努力限制潛在的有害或濫用的應用。

除了上述目標外,谷歌還承諾不會在以下應用領域設計或部署人工智慧:

造成或可能造成整體傷害的技術。在存在重大傷害風險的情況下,將只在認為利益大大超過風險的情況下進行,並將納入適當的安全限制。

其主要目的或實施方式是造成對人的傷害的武器或其它技術。

違反國際公認標準,收集或使用資訊監視的技術。

其目的違反了廣泛接受的國際法和人權原則的技術。

我們真的需要人工智慧像人嗎?

把人工智慧打造成一個人類,除了引發群眾的恐慌、潛在的倫理問題和給公司帶來數不清的麻煩,它的積極意義在哪?

科幻作品討論的是一種基於現實社會模型的思想實驗。遊戲《底特律變人》討論了這一議題,最終人類和機器人分化為了兩個陣營,社會完全撕裂。

但在真實世界中,人工智慧的意義在於它是一種提高生產力、解放人類的工具,正如蒸汽機把人類從體力勞動中解放出來一樣。完全像人,也意味著它全盤接受了人類固有的缺陷。

說到底,人工智慧與人工意識是兩種完全不同的概念,能夠騙過人類並不意味著人工智慧產生了意識。

現階段的人工智慧其實還相當脆弱。由於人工智慧模型複雜度之高,人工智慧已經進入到了不可解釋的狀態。人類能夠把控的,就是輸入的語料和輸出的回答,至於其中發生了什麼,無人知曉。這也就意味著,但凡輸入的語料出現一絲偏差,人工智慧就極易被汙染。

由人工智慧引發的偏見、謊言和種族歧視並不少見

。2020年1月,美國密歇根州一位非裔美國人就以入店行竊罪被捕,但他對此一無所知。原因在於警員是根據人工智慧面部識別來抓捕嫌疑人的。由於用於訓練的影象大多是白人,人工智慧在識別黑人面孔時就發生了錯誤。

在人工智慧領域,還有大量嚴肅的問題需要解決,例如如何使它更加高效、更加安全、更加能夠解決實際的問題。

科幻作品和社交網路編織出的人工智慧恐慌深入人心,但這更多是一種臆想。一些人工智慧企業有意無意的誇張和市場宣傳某種程度上加劇了這種恐慌。美國人工智慧公司Geometric Intelligence的創始人加里·馬庫斯

(Gary Marcus)

在《重啟人工智慧》一書中把這種人類傾向稱之為“易受騙差距”——一種有害的現代版幻想性錯覺。

對於還十分脆弱的人工智慧來說,將其稱之為“人工智障”倒也不是十分過分的說法。可以確定的是,人工智慧將會在人類文明中扮演重要的角色,但還有很長的路要走。在這個時間點到來之前,對於人工智慧的過度恐慌與臆想,才是應該警惕的。

本文來自微信公眾號:

電廠(ID:wonder-capsule)

,作者:湯一濤,編輯:高宇雷