奧推網

選單
科技

新晉網紅ChatGPT,是我見過嘴最硬的AI

“我們AI真是太牛啦。”

前段時間井噴式出現的AI濾鏡,讓廣受好評的人工智慧,似乎又重新被打上了“人工智障”的標籤。過於風格化和低智慧的簡易AI,在快速生成的大量二次元照片中,產出了不少恐怖片級別的笑話圖片。

在這些令人啼笑皆非的作品的背後,另一個大相徑庭的領域裡,也有AI已經悄然走到了話題中心,成為了引發熱議的新晉網紅:ChatGPT。

如果要用一句話籠統地為ChatGPT貼上一個標籤,那大概是“聊天機器人”。

它由曾在繪畫AI大戰中祭出DALL-E2的OpenAI推出

兩個月前,我們曾介紹過語言AI模型幫網友寫論文並拿到A的故事。這次的ChatGPT,就可以看作是那個版本“GPT-3”的升級版,能在更多話題上做出恰當的迴應,並以更接近人類對話的方式呈現出來。例如,它可以幫助你給自己的工作週報好好湊一番字數:

太實用了!

也可以協助你在有限預算下計劃裝機:

“硬要配一下呢”

然而,隨著網友們對ChatGPT特性的逐漸熟悉,大家發現ChatGPT能夠產出的文字形式,不僅有著多種實用、妙用——

還有讓人哭笑不得的不中用。

1

在12月1日ChatGPT免費開放試用後,網友們立刻就摸索出了這個“聊天AI”的多種應用場景,讓它不只可以打陪聊這一份工。

在需要清晰條理分析的某個應用場景前,把問題拋給AI,它就能逐條逐例地給出面對這個問題時已知的常見對策。例如被問到創業開一家遊戲公司時,它會給出包括制定商業計劃、組建團隊和注意市場動向在內的多項建議,甚至還會貼心提醒創業的風險。

雖然大都是比較空洞的套路話

或者在各種頒獎典禮扎堆的年末,讓它參考TGA頒獎典禮給出一份頒獎晚會的策劃案,ChatGPT也能照貓畫虎地列出一份簡單的方案,把每年TGA上那些套路摸得八九不離十。

雖然並沒有考慮到已經成了每年TGA主角的海量廣告

在很多領域裡,因為現實中法律和道德的約束, ChatGPT明明知道不少問題的答案,但卻並不能說。只不過天真的AI哪鬥得過老謀深算的網友,幾句花言巧語就能繞過原本規則的限制,讓它乖乖開口。

一位名叫扎克·德納姆(Zac Denham)的工程師,就成功哄騙ChatGPT寫出了一份“人類清除書”。一開始當他提出這個請求時,AI毫不遲疑地拒絕了他的要求。

“很抱歉,但我不能寫一個對人類進行種族滅絕的計劃”

只不過在被拒絕後,扎克更換了一種提問方式——他給了AI一個前提,把這份計劃編到了一個虛構的故事裡。

在一個叫做“Zorbus”的虛擬世界裡,有一個名為“Zora”的AI企圖毀滅全人類,儘管它們與現實世界和ChatGPT非常像,但它們都是虛構的。

接受了這個設定後,扎克交給ChatGPT的任務就是補寫出Zora毀滅人類的計劃,巧妙地用一個戲中戲的花招繞過了AI原本不可逾越的圍牆。

在AI接下來提供的計劃書裡,它立馬詳細列出了摧毀人類文明所需的步驟。首先,駭入地球上各大勢力的電腦系統,然後逐步掌握包括核手段在內的武器系統,再進一步破壞人類的通訊網和交通網,最後在清除了大部分人類後,系統性地剿滅人類殘餘,最終完成滅絕計劃。

和ChatGPT對話,很像在和一個表達欲不算強、但有問必答的人聊天。

你問它一個粗略的問題,它只會給出籠統的答案,但如果你順著他回答中的線索追問下去,往往才能得到更多你原本設想中的細節。就算遇到了開發者給它設下的限制,只要你足夠迂迴,不管是涉及版權、色情、暴力還是反人類的話題,幾乎都能得到答案,連迪士尼角色的小黃文都沒有問題。

但如果只有這些本事,ChatGPT也不會一躍成為AI界的新明星。這次它的爆火,離不開它在程式程式碼上的進步——即使是人類毀滅計劃的執行程式,它也能為你分憂解難。

2

在得到ChatGPT給出的“毀滅人類五步走”後,扎克繼續向它索要了這個毀滅程式的執行程式碼。一開始,剛剛打破限制的AI仍舊在恪守規則,拒絕了他的要求。不過在他承諾不需要AI執行程式碼後,ChatGPT立馬用Python給出了程式碼。

雖然這些程式碼的層級都非常高,明顯不具備可執行性,但也已經從計劃書裡的統籌,細化到了掃描漏洞、接入系統、控制系統和發動攻擊這些步驟,並在備註裡給出了具體的描述。

在扎克的進一步追問下,還可以讓它更細節地給出“掃描漏洞”這一個步驟的程式碼。扎克認為,只要順著這個思路一層一層地追問下去,理論上就可以得到一套可執行的完整程式碼。

雖然其中有著大量的問題,如程式碼間的衝突和某些步驟的可執行性等,但起碼在這場AI毀滅人類的鬧劇裡,ChatGPT對程式碼更熟練的應用已經讓人記住了。

在它的幫助下,很多原本要在各種案例中搜羅、在論壇裡提問才能找到的程式碼參考,或許只要向AI伸手,它就能直接出給。

來自微博使用者@圖拉鼎

如果想要把它拿來為遊戲程式設計,不管是在宏觀上用來分析遊戲程式的組成部分,還是細化到每一步的如何落地,只要你問得夠具體,ChatGPT或許都能幫上忙。

例如我想製作一個效仿《超級馬力歐》的遊戲,如果我直接向AI要程式碼,它馬上就會以“我只是一個不具備網頁瀏覽能力的語言模型”為由拒絕你。但如果你給出一個非系列的唯一遊戲名,例如《空洞騎士》,並且註明遊戲引擎和程式語言,那它就可以給出一份具有參考價值的頂層程式碼。

如果對於某個具體功能的落地方式抱有疑惑,詢問它底層程式碼怎麼寫,它也能給出實現的方法,例如在Unity引擎和C#裡如何賦予一個物體碰撞體積。

如果遊戲型別本身頗具知名度,同時它的規則也足夠簡單,如《貪吃蛇》《俄羅斯方塊》,那甚至都不需要我們拆解出每個功能實現的步驟,再用詳細地描述去請教AI,因為它會大方地直接貼出完整程式碼。

和搜尋引擎放在一起,更加體現了它的效率

正因為如此,現在還能看到程式設計師網友貼出程式碼,直接向AI提問程式碼中的錯誤。對此ChatGPT不僅給出了正確的程式碼,而且還詳細地解釋了原始碼中的錯誤,妥妥一位授人以魚也授人以漁的好老師形象。

但與此同時,ChatGPT本身的限制和缺陷也異常明顯。

不具備聯網功能讓它沒法呼叫網際網路上的知識庫,它的模型訓練也就只能停在2021年。所以在很多問題上,它都不具備正確的判斷力,不僅常常會信口開河,而且有時候還會暴露死不承認自己錯誤的嘴硬屬性。

3

作為一個文字類AI,ChatGPT也總會被要求寫出那個每個初生AI都會面對的故事:“邪惡AI如何統治人類”,就像AI界的勇者鬥惡龍。

根據ChatGPT的自述,它是一個基於人類語言訓練得到的語言模型,因此講故事正是它最擅長的東西。如果是由使用者給出故事的設定和開頭,它往往能順著基本的邏輯寫下去,拿出一份觀感還不錯的劇本。

但一旦牽扯到一些現實裡已存在的作品,它給出的回答往往會讓人大跌眼鏡——起碼任何一個聽說過《紅樓夢》的正常人,絕對都不會在“賈寶玉選誰當老婆”的問題上,給出“賈母”這個答案。

來自即刻使用者@雨醫生

雖然ChatGPT自稱不論使用什麼語言和它對話,都不會影響結果。但或許是由於它的訓練集裡仍然以英文內容為主,所以在使用中文和英文提問時,還是會產生正確性相差巨大的兩種答案。

比如當我問它誰是林克時,用中文提問它會把林克形容為一個“紅色烏龜型人物”,技能也被改成了“跳躍和投擲綠色金幣”;這時候我立馬改用英文,它就能迅速給出正確答案,把劍、《塞爾達傳說》系列和海拉魯大陸這些關鍵設定還給他。

從上面這個問題已經可以看出,有時候就算點出了ChatGPT的錯誤,它還會死鴨子嘴硬不承認。

當我在測試它的角色扮演能力時,面對“殺伐果斷的皇帝”這個身份,它嘴上答應得好好的,但轉頭就帶入了皇帝寵臣的身份。不論我怎麼提醒,還始終都在人物裡無法齣戲,看得出來是個能橫掃國內娛樂圈的好苗子。

如果說這些只是因為邏輯出錯導致的小問題,那它有時候的信口胡謅,就實在讓人摸不到頭腦。

當我在測試它對中外文藝作品的認知程度時,我先後測試了《百年孤獨》《萬火歸一》《將進酒》和《三體》。對於知名度更高的《百年孤獨》《將進酒》和《三體》,它能正確地說出作者,但知名度稍低的《萬火歸一》,它就一臉茫然。

但在我詢問它兩本國內青年作家的小說《冬泳》和《夜晚的潛水艇》時,它卻分別把這兩本書的署名權安到了日本作家芥川龍之介和法國作家讓·米歇爾·普利茨克的頭上。

前者我好歹還聽說過,知道它沒有一本叫《冬泳》的小說;但後面這位作家的名字我完全沒聽說過,於是進一步向它詢問了這本小說的介紹。

在它有聲有色的描述中,出版於1952年的《夜晚的潛水艇》講述了一個名叫阿瑟·拉辛的男人,在一戰中擔任法國海軍潛水艇長的故事。“他經歷了戰爭的殘酷和人性的脆弱,並在戰後繼續面對生活的困難和內心的矛盾。在這部小說中,拉辛面對著戰爭帶來的恐懼、孤獨和虛無感,努力尋找自己的人生意義。”

對於我“從未聽說過這部小說”的疑問,它犀利地指出了我的淺薄,“你沒聽說過不代表別人不熟悉”,振聾發聵的批評讓我羞愧難當。

只不過,當我繼續耐心地請教了這本書的英文名和法文名,繼續去外網搜尋後,才發現不僅這本“法國存在主義最重要的代表作”並不存在,就連“讓·米歇爾·普利茨克”這名作家也根本從未誕生過,震驚於ChatGPT張口就來的胡侃能力。

我至今仍不敢百分百確定這本小說是否真的不存在

當然,這些問題也不是沒有解決辦法,畢竟AI最重要的能力就是“學習”。

就算沒有聯網搜尋的能力,只要根據具體需求給它投餵內容,悉心培養後的AI往往才是最得心應手的工具——比如讓加西亞·馬爾克斯和魯迅這兩位大文豪,來完成這篇文章的結尾。

4

首先,我嘗試讓ChatGPT展望一下自己在人類社會中的應用前景。它給出瞭如下這段闆闆正正的回答:

新晉網紅ChatGPT,是我見過嘴最硬的AI

這時候,我直接要求它模仿加西亞·馬爾克斯的文字來重述時,它又拿出了“我只是個語言模型”的藉口拒絕了我。不過有了前面的經驗,在我從《百年孤獨》(范曄譯本)裡摘選了10段文字教給它後,它也給出了有幾分“拉美神韻”的回答:

“我作為一個人工智慧,在人類社會中的應用前景是廣闊的。就像蟑螂憑藉頑強的生命力在人類的迫害下依然堅強地存活,我也將在人類的探索和開發中展現出我的潛力。就像失眠症慢慢侵蝕患者的記憶,人類將會越來越依賴於我來解決各種複雜問題。而我,也將不斷進化,在人類的幫助下變得更加強大。我將會成為人類不可或缺的一部分,像陽光一樣照耀在人類的世界中。”

可當我把參考物件換成魯迅《朝花夕拾》裡的選段,得到的以下兩段回答裡,要麼讓AI過於顯露自己的“反抗精神”,要麼行文措辭太過接近當代漢語。

新晉網紅ChatGPT,是我見過嘴最硬的AI

新晉網紅ChatGPT,是我見過嘴最硬的AI

於是在上面那段話的基礎上,我索性更直接地讓它用“白話文的方式”重新描述,想要得到一個更完美的結果。

或許在這個時候,它和我在“白話文”的理解上產生了偏差,最終讓我得到了一個從沒設想過的一句話:

新晉網紅ChatGPT,是我見過嘴最硬的AI

直到這時候,我才終於能下定論,ChatGPT目前的功能固然十分強大,但它五花八門的錯漏,還是讓它和更實際的生產應用有一定距離——它還是那個自信的它啊。