編譯|來咖智庫 豆豆
編輯|龔巖
最近 43 歲的谷歌研究員上交了一份長達(dá)21頁紙的調(diào)查報告,試圖讓高層相信AI已經(jīng)產(chǎn)生了自我意識,結(jié)果被高層勒令回家,帶薪休假。這件事在科技圈引發(fā)了激烈的討論。有專家指出,這不過是語言模型罷了,并不意味著人工智能真的產(chǎn)生了意識。想象有這樣一臺計算機(jī),它能夠用更好的措辭來完成你的句子;或使用一段旋律作曲,聽上去就像是你自己寫的(即便你永遠(yuǎn)也不會去寫);或創(chuàng)造數(shù)百行計算機(jī)代碼來解決問題,使你能夠?qū)P挠谄渌y的工作。在某種意義上,計算機(jī)其實(shí)就相當(dāng)于當(dāng)年推動工業(yè)革命的動力織布機(jī)和蒸汽機(jī)的延續(xù)。但計算機(jī)也屬于一種新的類別的機(jī)器,因?yàn)樗軌虿蹲秸Z言、音樂和編程符號,并以看起來有創(chuàng)造性的方式應(yīng)用。有點(diǎn)像人類自身。
能實(shí)現(xiàn)這些的“大模型”(Foundation Models)代表著人工智能(Artificial Intelligence,AI)領(lǐng)域的突破。它們也有望帶來革命,這次會影響到從前工業(yè)革命從未涉及的高級腦力勞動。前方的道路并不清晰,畢竟AI在以前也翻過車。但已經(jīng)到了關(guān)注機(jī)器智能領(lǐng)域未來新事物的前景與挑戰(zhàn)的時候了。
在十年前崛起并于現(xiàn)在占據(jù)AI統(tǒng)治地位的深度學(xué)習(xí)(Deep Learning,DL)領(lǐng)域,大模型是其中取得的最新前沿進(jìn)展。深度學(xué)習(xí)系統(tǒng)大體上基于人腦中的神經(jīng)元網(wǎng)狀結(jié)構(gòu),會經(jīng)歷數(shù)百萬甚至數(shù)十億文本、圖像或音頻等樣本的“訓(xùn)練”。近年來,越來越大的深度學(xué)習(xí)系統(tǒng)的訓(xùn)練時間和金錢成本暴漲,引發(fā)了人們對于該技術(shù)已經(jīng)達(dá)到極限的擔(dān)憂。有些人開始擔(dān)憂“AI寒冬”的出現(xiàn)。但大模型顯示,通過建設(shè)更大、更復(fù)雜的深度學(xué)習(xí)系統(tǒng),確實(shí)能夠持續(xù)解鎖令人驚嘆的新能力。沒有人知道其極限在哪里。
由此得到的模型是一種新型、有創(chuàng)意、非人類的智能。這些系統(tǒng)足夠成熟,既能夠深刻把握語言,又能夠有連貫性地打破規(guī)則。一條狗看不懂《紐約客》雜志的笑話,但AI卻能夠解釋其笑點(diǎn)在哪里。說實(shí)話,這一點(diǎn)甚至連有些人類讀者都做不到。
大模型有一些令人驚奇且有用的特性,其中最怪異的就是其“突創(chuàng)性”行為。也就是說,理解笑話的能力和根據(jù)情勢匹配諺語等技巧并非刻意設(shè)計的結(jié)果,而是取決于模型的規(guī)模和深度。就像是快速閃過的靜態(tài)圖像會給人在移動的感覺一樣,上萬億的二進(jìn)制計算決策融入了動態(tài)的人類理解和創(chuàng)意的幻影,以至于(如果不考慮哲學(xué)家的說法)看起來與真實(shí)事物極度類似。甚至這些系統(tǒng)的創(chuàng)造者也對其能力感到驚異。
該智能是廣泛且有適應(yīng)性的。沒錯,大模型有可能會表現(xiàn)得像個白癡,但人類有時又何嘗不是。如果你的問題是誰在1625年獲得了諾貝爾物理學(xué)獎,它可能會回答伽利略、培根或開普勒,卻沒意識到首個獎項(xiàng)1901年才頒出。然而,它們有早期AI所不具備的適應(yīng)能力。這也許是由于,在某種程度上,在把握繪畫、創(chuàng)意寫作、計算機(jī)編程等截然不同領(lǐng)域符號的規(guī)則之間有相似之處。這種廣度意味著大模型可以有很多應(yīng)用領(lǐng)域,包括通過預(yù)測蛋白質(zhì)如何3D折疊來幫助尋找新藥,從數(shù)據(jù)組中尋找有趣的表格,通過查閱大型數(shù)據(jù)庫來尋找開放性問題的能夠打開新的求知領(lǐng)域的答案。
這很令人興奮,并一定會帶來巨大的(大多數(shù)仍只能靠想象的)益處。但隨之而來的還有煩惱。人們會不可避免地恐懼,創(chuàng)造性強(qiáng)到令創(chuàng)造者都感到驚奇的AI系統(tǒng)可能會變壞。事實(shí)上,大模型離達(dá)到好萊塢鐘愛的那種有感知力的殺手機(jī)器人的程度還遠(yuǎn)著呢。終結(jié)者們一般都很專注、有強(qiáng)迫癥,不了解自身行動的全面后果。大模型AI與之相比則很模糊。此外,人們還擔(dān)心,訓(xùn)練這些模型要耗費(fèi)大量的能源,以及由此產(chǎn)生的污染。然而,AI正在變得更加高效,它們在開發(fā)推動向可再生能源轉(zhuǎn)變的科技方面也可能發(fā)揮至關(guān)重要的作用。
人們更加深遠(yuǎn)的擔(dān)憂在于,該由誰來控制這些大模型。訓(xùn)練Google的PaLM這樣的超大型系統(tǒng)每次要耗費(fèi)1000萬美元,并需要獲取大量的數(shù)據(jù)——算力和數(shù)據(jù)都是越多越好。這帶來了科技集中于少量科技公司或政府手中的潛在威脅。
如果這樣的話,訓(xùn)練數(shù)據(jù)能夠使世界的偏見更加根深蒂固,而且是以特別令人窒息和不快的方式。你愿意相信一個對于真實(shí)世界的全部感知都來自于上網(wǎng)的十歲小孩嗎?各國政府訓(xùn)練的AI會被用于國際意識形態(tài)爭端嗎?那些在線上沒有得到充分展現(xiàn)文化的未來會怎樣?
此外還有可獲得性的問題。目前為止,最大的大模型都是非公開的,以防止其被用于制造假新聞等惡意目的。初創(chuàng)企業(yè)OpenAI設(shè)計了一款名為DALL-E 2的模型,試圖禁止其制作暴力或色情的圖像。公司害怕濫用是對的,但這些模型越強(qiáng)大,限制其使用就更會制造新的特權(quán)階層。自我監(jiān)管不太可能解決該難題。
多年以來,人們都在說AI驅(qū)動的自動化對從事重復(fù)、日常工作的人構(gòu)成威脅,藝術(shù)家、作家和程序員會更安全。大模型對這種假設(shè)提出了挑戰(zhàn)。但它們也顯示,AI如何能夠被作為提升生產(chǎn)力的助手來使用。這種機(jī)器智能不能夠復(fù)制人類,但卻提供了完全不一樣的東西。如果處理得當(dāng),它將很可能會輔助人類而不是篡權(quán)。