蕭簫 發自 凹非寺
量子位 | 公眾號 QbitAI
聊天、讀書或聽講時,你有意識到自己正在瘋狂“腦補”嗎?
其實,你的大腦就像一個
自動補全機
一樣,每時每刻都在猜別人要說什麼。
不僅如此,大腦還會不斷地將我們從外界獲取的資訊
(影象、聲音和文字等)
與腦內的預測進行比較。
基於這一理論,研究人員搞出了不少NLP模型,包括語音識別、自動補全等,但他們卻發現,人的“腦補”能力還是比這些AI更優秀。
所以,究竟是不是人的大腦和AI“腦補”的方法不一樣?
現在,一群來自馬普所和奈梅亨大學
(Radboud University)
的科學家,決定直接測一測人們“腦補”時發出的腦電波。
對這些腦電波特徵進行分析後,他們發現了背後更詳細的原因。
收集大腦聽書時的“反應”
此前,科學家們已經發現,大腦會對外界事物進行預測,來引導自己處理資訊。
但大腦究竟是
基於哪些條件
(詞類/音素/語義等)
做出的預測,不同條件之間是否會相互影響,一直沒有明確定論。
例如,單詞和語義究竟是怎麼影響大腦預測的,預測單詞會不會對語義造成影響,都還不清楚。
因此,科學家們想出了一個方法:讓志願者們聽有聲書,觀察他們的大腦反應,並採用
GPT-2
來對預測內容進行一個定量分析,將預測結果進行對比。
他們先找來19名志願者,測量並記錄他們1小時的
腦電波
(EEG)
;隨後,又收集了3名志願者9小時的
腦磁圖
(MEG)
,來定位大腦中具體位置的神經活動。
其中,腦電波小組聽的是一小時《老人與海》,每次時長180秒,一共播放20次;腦磁圖小組聽的是9個小時《福爾摩斯探案集》,每次1小時,並被要求在兩次間隔之間回答具體問題。
隨後,從不同維度對這些資料進行分析,並得出了幾點結論。
優先考慮“更高階”的預測條件
研究人員先是驗證發現,大腦的預測是
持續不斷地
產生的。
在這個過程中,科學家們也發現了AI預測和人腦的相似性。
例如,如果預測結果不符合實際情況
(猜錯了)
,大腦就會感到“驚奇”,變得空前活躍。
隨後,他們將有聲書的內容分成幾個層次,包括
詞性
(動詞/名詞/形容詞)
、
音素
(音標)
和
語義
(用GPT-2做預測)
這幾個“級別”。
然後,透過MRI還原了大腦在進行不同層次預測時的“視覺化圖”。
結果顯示,大腦在用詞性、語義和音素進行預測時,不同層次之間會相互進行影響。
也就是說,更“高階”的預測條件會影響優先順序較低的預測條件,如語義
(上下文)
就會對音素預測產生影響。
例如在“They say his father was a _____。”這句話中,如果僅僅憑藉
音素
預測下一個音節,和透過
上下文
進行預測的結果是不一樣的。
如果只用音素和頻率進行預測,大機率會認為單詞音標會以/fɔ/開頭,但結合上下文的話,就更容易做出“fisherman”,也就是/fi/開頭的單詞預測。
這樣看來,或許也能透過將幾個層次的預測條件結合起來,增加語音識別或自動補全等AI的準確性。
作者介紹
一作Micha Heilbron,目前是內梅亨大學和馬普所研究院,研究方向是認知和計算神經科學,對於生成模型對語言處理中的作用感興趣。
Kristijan Armeni,目前在約翰霍普金斯大學讀博後,博士畢業於內梅亨大學,研究方向是自然語言處理和認知神經科學。
同樣參與研究的幾名作者Jan-Mathijs Schoffelen、Peter Hagoort、Floris P。 de Lange也分別來自內梅亨大學和馬普所。
對於這項研究,有網友提出了自己的觀點,即大腦本身就是一種機制,會基於一種反饋迴路做出決策和行動。
但也有網友從自己感受來看,大腦這個“預測機器”似乎經常出錯。
對此有網友提出了自己的觀點:
畢竟大腦是個生存機器,而不是“真相檢測儀”。如果說謊能促進健康,那麼你的大腦便會選擇說謊。
論文地址:
https://www。pnas。org/doi/abs/10。1073/pnas。2201968119
參考連結:
[1]https://news。ycombinator。com/item?id=32395840
[2]https://www。mpi。nl/news/our-brain-prediction-machine-always-active
— 完 —
量子位 QbitAI · 頭條號簽約