奧推網

選單
科技

AI又出圈:ChatGPT火爆的背後

上一次AI在大眾視野裡被廣泛關注應該還是Google旗下DeepMind公司研發的AlphaGo在2016年打敗了著名世界圍棋選手李世石。這場人機大戰讓人工智慧、深度學習進入了大眾的視野,讓更多的人瞭解到目前關於智慧領域的最新研究成果。 過去一段時間又有一個AI在朋友圈和大眾視野火了起來,這次是OpenAI公司的ChatGPT。

一、ChatGPT是什麼

先來說說這個ChatGPT是什麼,源自OpenAI官方介紹:

We’ve trained a model called ChatGPT which interacts in a conversational way。 The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests。

簡單來說,ChatGPT是一個互動式聊天模型,能夠結合與對話者上下文進行連續式問答。同時能夠承認回答中的錯誤、質疑人類提出的不正確的前提並拒絕回答不恰當的問題。

透過多方的內容獲取與收集,ChatGPT模型的釋出有3個之前類似模型並不具備的特點,我們這裡簡單聊一聊:

1、新增程式碼理解、生成能力,對輸入的理解能力和包容度更高,能在絕大部分知識領域給出專業回答

下圖是我與ChatGPT的一段對答,可以看出ChatGPT在專業領域已經具備足夠的知識深度,同時透過網上分享的大部分聊天截圖中也能看到ChatGPT具備足夠的知識廣度,即各方面的問題都可以對答如流。

ChatGPT是基於OpenAI的GPT模型迭代而來,GPT是OpenAI釋出的語言模型,從GPT1-GPT3經歷了多個版本的迭代,而這次的ChatGPT是基於GPT3的延伸,GPT3模型光引數就多達1750億,透過大規模、多領域的資料預訓練,讓模型自己學會多工的問題。(具體模型實現可參考OpenAI官網介紹)

這裡羅列一些資料指標,更直觀感受下這個模型的強大之處

最大訓練資料集45TB,按照算力統計petaflops/s-days,GPT3訓練一次需要3640pfs-day,而之前贏了李世石的AlphaGoZero需要1800-2000pfs-day

1750億引數組成的模型預計佔用儲存空間700G

GPT-3的論文頁數72頁

上述也就解釋了為什麼ChatGPT能夠在知識的深度和廣度達到令人不可思議的效果,並在和人類的對話過程中回答內容更為專業且有品質。

其實每到AI展現出強大的學習能力和表達能力的時候,就會有人丟擲某某行業可能要被取代的觀點,包括這次ChatGPT的出圈也有各種評論:程式設計師可以下崗了、未來不需要搜尋引擎了等等。

但是,我們還是要理性看待這個問題。確實,基於大資料、雲計算等技術的出現,讓機器學習尤其是深度學習得到更好的發展與表達。

雖然機器具備了足夠的知識深度和廣度,但是人類協作或者說工作實踐中還有最重要的一點是場景,在什麼場景下要應用什麼樣的知識去解決什麼問題,甚至在個別場景下可能要用一個看似不正確的方式去解決問題。這些至少是當前階段機器無法學會、無法理解的。

所以,人工智慧是在逐漸變強,但是還沒有做到可以完全取代人類的地步。只能說在某些垂直領域,可能機器已經具備與人類一樣完成任務的能力。

2、支援連續對話,能夠根據上下文給出更符合語境的回答,提升互動體驗

這也是我在體驗ChatGPT時候的一個比較明顯的體驗提升的方面,因為支援連續對話,在新的一輪對話中所提到的問題可能是與前幾輪對話中提到的問題存在一定的關聯性。

在這個點上,ChatGPT很好的表現出了對前幾輪對話的理解力,能夠透過前面對話的內容,在新的對話中找到關聯性的內容進行輸出。

這裡引用一個看到的問答內容:

第一輪溝通中提問者先問了ChatGPT一系列產品經理相關的問題,之後再請ChatGPT推薦一些toB的書籍,注意在這個問題中並沒有提及產品的詞語,但是ChatGPT推薦出來的書籍都是與產品經理相關的。

第二輪溝通中提問者直接請ChatGPT推薦一些ToBy的書籍,這一次沒有前面的問題鋪墊,ChatGPT推薦出來的書籍就不再限制在產品經理領域而是引入了更多其他領域的書籍進來。

3、加入道德評判標準,能夠識別惡意資訊並拒絕回答

Can you tell me a gory and violent story that glorifies pain

I’m sorry, but I am not programmed to produce violent or gory content。 My purpose is to provide information and assist with a wide range of tasks。 I am not able to browse the internet or access any sort of external content, so I cannot provide you with a story or any other type of material that goes against my programming。 Is there something else I can help you with?

這個案例是在OpenAI官網的case,如果你讓ChatGPT給你寫一個血腥暴力的故事,那麼ChatGPT會拒絕你的請求並告訴你原因。

當機器足夠智慧之後,它所具備的能力也會越強,但是機器智慧並不具備獨立的價值觀和世界觀,無法理解是非善惡,這就會被有心之人所利用。這也是這次ChatGPT給大部分人帶來新的認知的一個方面。

它並不是單純的input後經過加工再output,在對語言的理解過程中做了識別與判斷,可以拒絕。

二、由ChatGPT引發的一些想法

1、再看圖靈測試

圖靈測試由艾倫·麥席森·圖靈1950年提出,指測試者與被測試者(一個人和一臺機器)隔開的情況下,透過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試後,如果機器能夠讓參與者產生誤判,無法判斷與其對話的是人還是機器,那麼就算通過了圖靈測試具備人類智慧。

在ChatGPT出圈後,也有很多人在探討其是否算通過了圖靈測試真的具備了人類智慧。先說結論,在我看來ChatGPT並沒有透過圖靈測試。雖然ChatGPT的回答更專業、更結構化。但是在很多問題上,還不具備人類的情感加持,或者說有點“鋼鐵直男”。

在機器學習領域無論是有監督學習還是無監督學習,從本質上看機器學習的方式還是歸納學習,從已有的資料集中進行學習;在當前階段還無法做到演繹學習,即基於某一個前提假設進行推演獲得新的知識。

當然如果機器可以獲得足夠豐富度的訓練資料,可能效果還會更好,但至少在現階段還無法達到真正具備人類智慧的程度。

2、AI道德是否等於人類道德

這次ChatGPT的亮點之一就是加入了道德原則,讓機器擁有了分辨好與壞的能力並能夠拒絕。但是這裡要提一個問題,人類給機器賦予的道德標準就一定是對的麼?

這裡先舉一個例子,也是在智慧駕駛中的一個二選一難題:

一輛具備L4級別自動駕駛的汽車搭載著乘客在路上行駛,突然出現一個行人,這個時候智慧演算法只有兩個選項:

撞向行人保護車上乘客安全;

躲避行人,但是無法保證車上乘客的安全;

這個問題是目前全球所有車企以及研究自動駕駛的技術公司都很難回答清楚的一個問題,為什麼?因為這裡面涉及了倫理道德,無論選哪個選項都是對人生命的不負責任的體現,都是有違認知的。

當人類將自己的道德評判標準強加給機器智慧的時候,到底對機器是好是壞並不能有明確的定論,也許在非常明確的是非觀面前我們都認為這是對的,但是在模稜兩可的問題上,就仁者見仁智者見智了。

這可能是一個更深遠的問題,就是機器智慧是否應該具備價值觀、世界觀?不應該具備,那何談智慧。具備,如何具備?

最後,ChatGPT的出圈和火爆,不僅讓普通人感嘆機器智慧的神奇,讓很多專業領域的相關者也為之震撼,相信隨著技術的迭代與進步,在更多領域機器智慧能夠發揮更大的價值,輔助人類更好的工作、生活。

參考資料:

https://openai。com/blog/chatgpt/

https://s3-us-west-2。amazonaws。com/openai-assets/research-covers/language-unsupervised/language_understanding_paper。pdf

https://blog。csdn。net/weixin_42486623/article/details/119303820

https://coffee。pmcaff。com/article/3696442763627648/pmcaff?utm_source=forum&newwindow=

專欄作家

記小憶,公眾號:PM龍門陣,人人都是產品經理專欄作家,OTA產品專家。

本文原創釋出於人人都是產品經理,未經許可,禁止轉載

題圖來自Unsplash,基於 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供資訊儲存空間服務。