簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

人工智能的風(fēng)險(xiǎn)與挑戰(zhàn):如何平衡創(chuàng)新與規(guī)范?

掃一掃下載界面新聞APP

人工智能的風(fēng)險(xiǎn)與挑戰(zhàn):如何平衡創(chuàng)新與規(guī)范?

如何治理AI?

文|經(jīng)緯創(chuàng)投

在過(guò)去這段時(shí)間里,GPT-4從初發(fā)布、到與Office合體、再到接入插件,每次亮相都引發(fā)了AI廣泛和熱烈的討論。許多人表示對(duì)GPT-4的到來(lái)表示驚喜,也有許多人對(duì)其背后的風(fēng)險(xiǎn)感到畏懼。

3月29日,一封來(lái)自馬斯克等數(shù)千位科技界知名人士的聯(lián)名信公開(kāi),信中呼吁所有AI實(shí)驗(yàn)室暫停研發(fā)比GPT-4更強(qiáng)大的人工智能系統(tǒng),時(shí)間至少6個(gè)月。該暫停應(yīng)當(dāng)是公開(kāi)的、可驗(yàn)證的,所有關(guān)鍵參與者都不例外,必要時(shí)政府應(yīng)當(dāng)介入實(shí)施暫停令。他們表示AI將為社會(huì)和人類帶來(lái)巨大風(fēng)險(xiǎn),試圖給最近一路狂飆的AI按下暫停鍵。

這種恐懼并非杞人憂天。GPT-4開(kāi)啟的大模型時(shí)代標(biāo)志著AI的新一層進(jìn)化,更被視作是AGI時(shí)代到來(lái)的前奏。就連OpenAI創(chuàng)始人Sam Altman也在采訪中表示,GPT-4的風(fēng)險(xiǎn)讓他有點(diǎn)害怕。

馬斯克等人的聯(lián)名信引發(fā)軒然大波,經(jīng)過(guò)發(fā)酵后,不少知名人士對(duì)此進(jìn)行表態(tài),已經(jīng)形成了暫停半年派、擁抱未來(lái)派、徹底封禁派等數(shù)派代表意見(jiàn)。而在個(gè)人之外,各國(guó)政府也開(kāi)始考慮如何對(duì)AI進(jìn)行規(guī)范。

在馬斯克等人的聯(lián)名信中,眾人要求所有AI實(shí)驗(yàn)室和獨(dú)立專家,利用6個(gè)月的暫停期共同研究制定并且實(shí)施針對(duì)先進(jìn)AI設(shè)計(jì)和開(kāi)發(fā)的安全協(xié)議。

面臨AGI的到來(lái),人工智能應(yīng)該具有哪些倫理價(jià)值?如何在創(chuàng)新和規(guī)范之間平衡AI治理?國(guó)際人工智能協(xié)會(huì)(AAAI)執(zhí)行委員會(huì)成員、人工智能專家托比·沃爾什(Toby Walsh)在《2062:終結(jié)》一書中,對(duì)上述問(wèn)題給出了他的思考。對(duì)于AI的規(guī)范,或許我們可以從他對(duì)于人工智能的看法中,窺見(jiàn)些許方向。以下,Enjoy:

01 AI該不該停?停6個(gè)月真的有用嗎?

馬斯克等人的聯(lián)名信引發(fā)軒然大波,經(jīng)過(guò)發(fā)酵后,不少知名人士對(duì)此進(jìn)行表態(tài),已經(jīng)形成了數(shù)派代表意見(jiàn):

暫停半年派

以馬斯克為首,還有1000多位知名人士表示AI研發(fā)應(yīng)暫停六個(gè)月,包括蘋果公司的聯(lián)合創(chuàng)始人Steve Wozniak,《人類簡(jiǎn)史》的作者Yuval Noah Harari,還有機(jī)器學(xué)習(xí)領(lǐng)域中最杰出的學(xué)者等等。他們表示,AI現(xiàn)在在完成某些任務(wù)時(shí)已經(jīng)能達(dá)到人類智能所完成的水平,如果人類很難完全理解、預(yù)測(cè)和掌控AI,這個(gè)世界將是非常危險(xiǎn)的。

此外,他們提出:AI是否為網(wǎng)絡(luò)世界帶來(lái)大量的假消息和虛假宣傳,是否將替代給人帶來(lái)意義感的工作崗位,或是是否會(huì)在數(shù)量上、智力上等方面超越人類并最終取代人類?在這種情況下,人類的文明還能存在嗎?

圖靈獎(jiǎng)得主、深度學(xué)習(xí)三巨頭之一Yoshua Bengio是這份公開(kāi)信上的第一個(gè)名字。Bengio在29日的新聞發(fā)布會(huì)上表示:現(xiàn)在的AI已經(jīng)足夠強(qiáng)大,人們無(wú)法辨別電腦屏幕背后的與自己對(duì)話的到底是人還是AI。社會(huì)、政府和企業(yè)的變化速度趕不上AI的進(jìn)化速度,在AI變得過(guò)于強(qiáng)大之前,我們需要時(shí)間來(lái)想想對(duì)策。

聯(lián)名信要求所有AI實(shí)驗(yàn)室和獨(dú)立專家,利用6個(gè)月的暫停期共同研究制定并且實(shí)施針對(duì)先進(jìn)AI設(shè)計(jì)和開(kāi)發(fā)的安全協(xié)議,保證企業(yè)的設(shè)計(jì)開(kāi)發(fā)活動(dòng)經(jīng)第三方嚴(yán)格審計(jì)和監(jiān)督。信中表示,該提議并非想遏制AI發(fā)展,而是在更不可預(yù)測(cè)的黑箱AI模型出世之前做好風(fēng)險(xiǎn)應(yīng)對(duì)。它的結(jié)尾寫道,在AI為社會(huì)帶來(lái)災(zāi)難之前,我們應(yīng)當(dāng)停下來(lái),享受一個(gè)長(zhǎng)長(zhǎng)的AI之夏,不要在沒(méi)有準(zhǔn)備好的情況下沖進(jìn)AI之秋。

擁抱未來(lái)派

對(duì)于此封聯(lián)名信,當(dāng)然也不乏反對(duì)者,反對(duì)的主要理由是,停6個(gè)月也于事無(wú)補(bǔ)。

Coursera聯(lián)合創(chuàng)始人、AI大牛吳恩達(dá)公開(kāi)表示,除非政府介入,否則暫停GPT的發(fā)展并不現(xiàn)實(shí)。但如果允許政府出面暫停一個(gè)他們并不了解的新興產(chǎn)業(yè)的發(fā)展,將會(huì)對(duì)市場(chǎng)活動(dòng)和創(chuàng)新政策帶來(lái)不利影響。最好的方法是在提高透明度、加強(qiáng)審計(jì)方面下功夫。AI確有風(fēng)險(xiǎn),但大部分AI研發(fā)團(tuán)隊(duì)對(duì)其安全性承擔(dān)起了責(zé)任,我們無(wú)需過(guò)于憂慮。

他還指出,GPT-4在教育、醫(yī)療保健、食品等領(lǐng)域都帶來(lái)很多新的應(yīng)用,切實(shí)幫助了很多人,如果現(xiàn)在要求停止對(duì)其訓(xùn)練,將是非常可怕的。

Meta人工智能研究院研究員田源棟博士認(rèn)為,AI的發(fā)展一旦開(kāi)始就停不下來(lái)了。開(kāi)弓沒(méi)有回頭箭,這就是進(jìn)化的必然。人類應(yīng)當(dāng)向前看,更好地理解LLM(大語(yǔ)言模型),學(xué)會(huì)適應(yīng)并利用它的力量,趕上這股浪潮。

物理學(xué)家David Deutsch更是在推特上表示,這封信混淆了AI和AGI,看起來(lái)就像是在說(shuō)我們不應(yīng)該做任何人類無(wú)法預(yù)測(cè)的事情。

本周,Bill Gates也對(duì)此表態(tài),表示暫停AI發(fā)展無(wú)法解決挑戰(zhàn),他很難想象如何在全球范圍內(nèi)暫停AI發(fā)展,這具體執(zhí)行起來(lái)將非常困難。3月,他曾撰寫以《AI時(shí)代已開(kāi)始》為名的博客,高度肯定人工智能革命的地位。

除了暫停6個(gè)月到底有沒(méi)有用,很多人還對(duì)于是否真的能暫停提出質(zhì)疑。

此前曾公開(kāi)表示GPT模型沒(méi)有前途的圖靈獎(jiǎng)得主LeCun表示,他沒(méi)簽名的原因是,公開(kāi)信中所提及的“暫停研發(fā)”=“秘密研發(fā)”。他指出聯(lián)名信提出的倡議用處不大,并轉(zhuǎn)發(fā)另一位大佬的推文表示,該信充斥著夸張修辭和無(wú)效的政策方案。網(wǎng)友也表示,規(guī)則無(wú)法束縛那些最可能帶來(lái)風(fēng)險(xiǎn)的人,真正希望用AI搞破壞的人還是會(huì)偷偷研究。

也有不少人認(rèn)為,一些公司主要是在利益驅(qū)動(dòng)下提出此倡議,希望用這6個(gè)月的時(shí)間彎道超車,通過(guò)秘密研究重奪AI賽道的主動(dòng)權(quán)。

徹底封禁派

還有一些人的態(tài)度更加堅(jiān)決,他們要求永久封殺AI。

美國(guó)決策理論學(xué)家、機(jī)器智能研究機(jī)構(gòu)科學(xué)家Eliezer Yudkowsky從2001年開(kāi)始就活躍在AI領(lǐng)域。他在《時(shí)代周刊》發(fā)表文章稱,他沒(méi)有簽字的原因是,6個(gè)月的暫停期遠(yuǎn)遠(yuǎn)不夠,盡管公開(kāi)信中已經(jīng)闡述了AI的可能風(fēng)險(xiǎn),他認(rèn)為實(shí)際情況要嚴(yán)峻得多。他表示,公開(kāi)信中所提到的“實(shí)現(xiàn)人類智能的AI”仍是一種過(guò)于樂(lè)觀的說(shuō)法,未來(lái)AI的智能程度很有可能超越人類,AI發(fā)展會(huì)不知不覺(jué)地越過(guò)那條重要的警戒線。

文章探討了一個(gè)重要的可能性:人類創(chuàng)造出一個(gè)比自己聰明得多的AI后,該如何控制和管理它?最壞的但很有可能的結(jié)果是,人類將無(wú)法在AI控制的世界中活下來(lái)。

作者表示,雖然有一種可能性是,AI和人的欲望并不相同,也對(duì)人的存在毫不在乎。我們應(yīng)當(dāng)教會(huì)AI這種與人相處之道,以降低未來(lái)的潛在風(fēng)險(xiǎn),但是如何做仍是最大難題。

但另一種可能性仍在存在,即AI可能會(huì)對(duì)人類抱有敵意。AI不可能被困在電腦里太久,一旦它們找到突圍之道,就如同一個(gè)比人類聰明數(shù)千萬(wàn)倍的外星文明,可以輕而易舉地在地球上抹掉人類的蹤跡。而人類顯然還不知道,該如何應(yīng)對(duì)這種可能的情況。

更重要的是,Yudkowsky強(qiáng)調(diào),并非AI在具有意識(shí)時(shí)才能夠?qū)谷祟悺N覀兯鶚?gòu)建的認(rèn)知系統(tǒng)的計(jì)算過(guò)程太過(guò)于復(fù)雜,人類并不具有解碼AI運(yùn)行具體過(guò)程的能力。在這種情況下,到底是人創(chuàng)造了AI,還是AI自己創(chuàng)造了自己?

他還表示,微軟CEO在新必應(yīng)發(fā)布后向谷歌示威,這種做法是非常不明智的,完全對(duì)AI的風(fēng)險(xiǎn)視若無(wú)睹,而只著眼于科技巨頭間的競(jìng)爭(zhēng),對(duì)人類的未來(lái)非常危險(xiǎn)。

文章要求,在全球范圍內(nèi)無(wú)限期地中止所有新的大語(yǔ)言模型的訓(xùn)練,并關(guān)閉全部大型GPU集群,即使是政府和軍隊(duì)也不能例外。

各國(guó)政府:逐步規(guī)范AI

AI的發(fā)展之快超出了所有人的想象,各國(guó)政府也開(kāi)始加快制定政策的速度。

上周,意大利個(gè)人數(shù)據(jù)保護(hù)局要求OpenAI暫停處理意大利用戶的數(shù)據(jù)。有關(guān)部門表示,“OpenAI這樣大規(guī)模收集和加工個(gè)人信息的活動(dòng)是毫無(wú)法律根據(jù)的。此前ChatGPT就曾發(fā)生bug,用戶能看到其他用戶與ChatGPT聊天的標(biāo)題。”由于ChatGPT的不實(shí)信息問(wèn)題,他們還表示了對(duì)OpenAI缺乏使用年齡限制的擔(dān)憂。

英國(guó)也在上周提出了規(guī)范AI的計(jì)劃,盡管沒(méi)有對(duì)ChatGPT指名道姓,也沒(méi)有針對(duì)AI制定新規(guī),但是政府要求各行各業(yè)的監(jiān)管者應(yīng)用其現(xiàn)行法律來(lái)規(guī)范AI。英國(guó)尤其強(qiáng)調(diào)了科技公司在開(kāi)發(fā)AI時(shí)應(yīng)遵循的原則,包括安全性、公開(kāi)性、公平性、責(zé)任心和反壟斷性。

據(jù)CNBC報(bào)道,其他歐盟國(guó)家可能會(huì)對(duì)AI采取比英國(guó)更嚴(yán)格的規(guī)范措施。歐盟在規(guī)范科技公司方面常常走在最前線,此前就曾發(fā)布?xì)W盟AI法案的草案,高度限制AI在重要基礎(chǔ)設(shè)施、教育、執(zhí)法和司法體系中的使用。歐盟認(rèn)為ChatGPT可能以高風(fēng)險(xiǎn)的方式被應(yīng)用,可能會(huì)危及人類的基本權(quán)利和安全。

歐盟擁有非常多的AI專家,對(duì)OpenAI的規(guī)范也容易落實(shí),因?yàn)镺penAI在歐盟沒(méi)有任何辦公室。德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)委員Ulrich Kelber表示,德國(guó)也可能采取類似措施。法國(guó)和愛(ài)爾蘭的隱私政策官員也正在密切接觸意大利以求取經(jīng),但瑞典的數(shù)據(jù)保護(hù)局表示不會(huì)考慮對(duì)AI頒布禁令。

此外,美國(guó)總統(tǒng)拜登也于4月2日表示,AI的危險(xiǎn)性仍然未可知,科技公司必須在保證產(chǎn)品的安全性基礎(chǔ)上才能進(jìn)行產(chǎn)品發(fā)布。此外,他呼吁國(guó)會(huì)限制科技公司對(duì)個(gè)人數(shù)據(jù)的收集,以及面向青少年的廣告。

OpenAI:正式回應(yīng)安全問(wèn)題

對(duì)于外界的紛紛擾擾,OpenAI的CEO Sam Altman此前曾發(fā)推文表示,站在風(fēng)暴中間,我很平靜。他提出一個(gè)好的AGI應(yīng)該具備的三個(gè)特點(diǎn),或許可以被視作對(duì)這場(chǎng)風(fēng)波的另一種回應(yīng):

1.對(duì)齊超級(jí)智能的技術(shù)能力;

2.大多數(shù)領(lǐng)先AGI之間的充分協(xié)調(diào);

3.一個(gè)有效的全球監(jiān)管框架。

OpenAI的另一位創(chuàng)始人轉(zhuǎn)發(fā)表示支持,并附言,OpenAI的使命是確保AGI惠及全人類。

隨著事態(tài)的發(fā)酵,4月5日,OpenAI正式發(fā)表《我們的AI安全措施》,對(duì)隱私問(wèn)題、青少年問(wèn)題,不實(shí)信息問(wèn)題等都作出了正式回應(yīng)。文章表示,OpenAI一直致力于使AI工具保持安全性、并且對(duì)社會(huì)廣泛有益。確保AI系統(tǒng)的建造、部署和使用的安全性一直是他們的使命之一。

他們表示,在完成GPT-4的訓(xùn)練后,OpenAI花了超過(guò)半年的時(shí)間強(qiáng)化模型的安全和協(xié)調(diào)性,才最終發(fā)布了GPT-4。他們通過(guò)嚴(yán)格內(nèi)部測(cè)試和外部專家反饋改進(jìn)模型的行為,通過(guò)強(qiáng)化學(xué)習(xí)技術(shù)建立廣泛的安全和監(jiān)控系統(tǒng)。

關(guān)于隱私政策,OpenAI表示所有數(shù)據(jù)都用來(lái)提升GPT模型以幫助使用者,而非用于銷售服務(wù)、廣告等營(yíng)利性互動(dòng)。ChatGPT靠與人對(duì)話來(lái)進(jìn)行學(xué)習(xí),OpenAI的一些訓(xùn)練數(shù)據(jù)包括公共網(wǎng)絡(luò)上的私人信息 ,但他們希望模型學(xué)習(xí)的是世界,而不是個(gè)人。因此,OpenAI正致力于從訓(xùn)練數(shù)據(jù)中盡可能刪除個(gè)人信息,調(diào)整模型以拒絕獲取私人個(gè)人信息的請(qǐng)求,并響應(yīng)個(gè)人對(duì)于刪除其個(gè)人信息的要求。

關(guān)于青少年,只有18歲以上、或13歲以上且父母批準(zhǔn)的人才能夠使用其AI工具。OpenAI決不允許技術(shù)被用來(lái)產(chǎn)出仇恨、騷擾、暴力或成人內(nèi)容。GPT-4相比于GPT-3.5,對(duì)不合規(guī)內(nèi)容的響應(yīng)請(qǐng)求減少了82%。OpenAI稱已經(jīng)付出了巨大的努力,以最小化模型生成對(duì)兒童有害內(nèi)容的潛力。例如,當(dāng)用戶嘗試上傳兒童性虐待材料時(shí),OpenAI會(huì)阻止并向國(guó)家失蹤和被剝削兒童中心報(bào)告。

關(guān)于不實(shí)信息,OpenAI表示如今的大型語(yǔ)言模型是憑借已有信息對(duì)接下來(lái)可能出現(xiàn)的word pattern進(jìn)行預(yù)測(cè),已有信息里面包括用戶輸入的不實(shí)信息,因此ChatGPT基于錯(cuò)誤信息作出的回答里也會(huì)出現(xiàn)不實(shí)信息。目前GPT-4的信息準(zhǔn)確度,已經(jīng)較GPT-3.5提高了40%。在用戶注冊(cè)ChatGPT之前,OpenAI就告知不實(shí)信息產(chǎn)生的可能性。他們將繼續(xù)推動(dòng)準(zhǔn)確度的提升,并持續(xù)教育公眾AI工具的局限性。

OpenAI承諾,今后也會(huì)投入更多資源和努力,持續(xù)提升AI工具的安全性。

02 如何治理AI?

正如Arthur C. Clarke所提出,任何足夠先進(jìn)的技術(shù),都與魔法無(wú)異。我們?nèi)绾蝿?chuàng)造、利用、維護(hù)有史以來(lái)最強(qiáng)大的“魔法”?如何在教導(dǎo)“魔法”的同時(shí),“馴服”魔法?

面臨AI魔法的到來(lái),人工智能應(yīng)該具有哪些倫理價(jià)值?如何在創(chuàng)新和規(guī)范之間平衡AI治理?

作為國(guó)際人工智能協(xié)會(huì)(AAAI)執(zhí)行委員會(huì)成員、人工智能專家,托比·沃爾什(Toby Walsh)一直致力于研究如何讓人工智能更好地應(yīng)用于人類生活。在《2062:終結(jié)》一書中,他對(duì)上述問(wèn)題給出了他的思考。對(duì)于AI的規(guī)范,或許我們可以從他對(duì)于人工智能的看法中,窺見(jiàn)些許方向。

有限制地注入意識(shí)或欲望

我們沒(méi)有測(cè)量意識(shí)的儀器,大腦中也沒(méi)有任何一個(gè)部分單獨(dú)負(fù)責(zé)意識(shí)。對(duì)于機(jī)器而言,意識(shí)與欲望是把雙刃劍,界定相當(dāng)重要。

舉個(gè)反面例子,假設(shè)阿爾法圍棋意識(shí)覺(jué)醒,將圍棋拋之腦后,而打算玩網(wǎng)絡(luò)撲克掙點(diǎn)錢,那他的欲望將驅(qū)使他走向研發(fā)初衷的反方向。

但至少現(xiàn)在,它并沒(méi)有意識(shí),甚至不知道自己在玩圍棋,只是在計(jì)算贏得一場(chǎng)游戲的概率。沒(méi)有意識(shí)的情況下,他也不會(huì)出現(xiàn)電影中所描述的,產(chǎn)生了接管地球的欲望。

同樣,意識(shí)包含道德。正面角度而言,為了表現(xiàn)的有道德,計(jì)算機(jī)需要能夠反思其決定。復(fù)雜的社會(huì)能夠運(yùn)轉(zhuǎn),與我們能夠意識(shí)到他人在想什么十分相關(guān)。

機(jī)器的意識(shí)產(chǎn)生途徑有三:被編程而產(chǎn)生、從復(fù)雜性中出現(xiàn)、被習(xí)得而學(xué)會(huì)。人類至少有三分之二的把握,能夠控制機(jī)器的意識(shí)發(fā)展。

如果機(jī)器不是僵尸智能(意識(shí)、智力分開(kāi)學(xué)習(xí)狀態(tài)),那么,我們必須做出一些具有挑戰(zhàn)性的道德決策。

當(dāng)涉及道德行為時(shí),有意識(shí)的機(jī)器勝過(guò)無(wú)意識(shí)的機(jī)器,它可以反思自己的行動(dòng),從過(guò)去到現(xiàn)在,再到未來(lái)。

阿西莫夫曾在1942年提出了著名的機(jī)器人守則,或許可供未來(lái)規(guī)范與立法等參考:

第一條:機(jī)器人不得傷害人類,或袖手旁觀坐視人類受到傷害。

第二條:除非違背第一法則,機(jī)器人必須負(fù)責(zé)人類的命令。

第三條:在不違背第一法則及第二法則的情況下,機(jī)器人必須保護(hù)自己。

然而,這些法則仍然具有局限性。比如說(shuō),采取行動(dòng)會(huì)傷害一個(gè)人;不采取行動(dòng)會(huì)傷害另外一個(gè)人,會(huì)發(fā)生什么呢??jī)蓚€(gè)人發(fā)出沖突指令,又會(huì)發(fā)生什么呢?經(jīng)典的電車難題:選擇撞上孩童還是無(wú)人的汽車,便挑戰(zhàn)了阿西莫夫法則。

在此基礎(chǔ)上,第四條法則提出,它優(yōu)先性高于前三條法則:

第零守則:機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。

就此而言,我們或許需要機(jī)器人具備并保持一個(gè)比人類更高的道德水準(zhǔn)。比如,自動(dòng)駕駛汽車永遠(yuǎn)不超速;獨(dú)立自主且具有武裝力量的無(wú)人機(jī)永遠(yuǎn)按照國(guó)際人道主義法進(jìn)行活動(dòng)等。無(wú)論是個(gè)人、企業(yè)還是國(guó)家,在使用、經(jīng)營(yíng)、鍛煉期間,都需要以人為本。

提高機(jī)器工作透明度

在機(jī)器做決策過(guò)程中,透明度也是至關(guān)重要的。我們希望機(jī)器不僅能夠做出公平的決定,還能夠在做出決定時(shí)保持透明度,以建立我們對(duì)其公平性的信心。這是當(dāng)今人工智能系統(tǒng)所面臨的主要挑戰(zhàn)。

機(jī)器如果能夠合理解釋決策,將有助于在出錯(cuò)時(shí)及時(shí)糾正,同時(shí),彌補(bǔ)人類決策的缺失。

合理的疼痛訓(xùn)練

讓機(jī)器體會(huì)到合理的痛苦,或許是可嘗試的,就像人類被灼燒會(huì)迅速將手拿開(kāi),這一行為具有積極的學(xué)習(xí)作用。

但同時(shí),我們也應(yīng)當(dāng)考慮到,如果我們給予機(jī)器感知痛苦的能力,他們是否也會(huì)感知恐懼,從而防止自己受傷、防止自己嘗試危險(xiǎn)工作呢?

那么,使用機(jī)器,從機(jī)器人角度出發(fā)的道德準(zhǔn)則,就需要再加一條。

克服機(jī)器偏見(jiàn)與算法歧視

在語(yǔ)言翻譯中,曾出現(xiàn)這樣一種問(wèn)題:土耳其語(yǔ)中,“o”既可以是“他”,也可以是“她”,但當(dāng)翻譯回英語(yǔ)時(shí),卻會(huì)自動(dòng)產(chǎn)生性別之分,如“她是個(gè)護(hù)士”、“他是個(gè)士兵”等。

同時(shí),如Compas程序,在進(jìn)行數(shù)據(jù)訓(xùn)練后,會(huì)針對(duì)性預(yù)測(cè)哪些囚犯會(huì)再次犯罪,這對(duì)未來(lái)的最壞結(jié)果預(yù)測(cè),本身就不具有公平性,給人打上不可原諒的標(biāo)簽。

在計(jì)算機(jī)算法識(shí)別中,還存在著膚色問(wèn)題。黑人女孩難以被計(jì)算機(jī)識(shí)別,這可能源于有偏見(jiàn)的數(shù)據(jù)測(cè)試。在人臉識(shí)別的數(shù)據(jù)集中,男性占77.5%,白人占83.5%。很明顯,更廣泛的人群需要被容納到測(cè)試空間中。

此類書面文本中長(zhǎng)期存在的偏見(jiàn)與印象需要被統(tǒng)一規(guī)劃與避免。當(dāng)我們將問(wèn)題移交給機(jī)器時(shí),我們需要仔細(xì)考慮既定環(huán)境中,如何定義公平。

界定AI涉足的隱私領(lǐng)域

在人工智能時(shí)代,維護(hù)私人生活所必需的隱私將成為一個(gè)重大的挑戰(zhàn)。

谷歌公司首席互聯(lián)網(wǎng)科學(xué)絕Vint Cerf曾表示“隱私本質(zhì)上可能是一種非正常需求”。他所說(shuō)的并不全無(wú)道理,人工智能的到來(lái)必將帶來(lái)更加嚴(yán)密的審查,實(shí)時(shí)追蹤一切與電子相關(guān)的事情。即便一家公司可以負(fù)責(zé)任地將數(shù)字隱秘起來(lái),有可能會(huì)出現(xiàn)隱私保護(hù)失控的問(wèn)題。物質(zhì)上的獨(dú)立空間、精神上的獨(dú)立思考與選擇,都需要法律進(jìn)行合理界定。

因此,有關(guān)隱私,AI需要被限制,公司需要有限制,個(gè)人也一樣。

當(dāng)?shù)貢r(shí)間3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,將暫時(shí)封鎖意大利境內(nèi)訪問(wèn)ChatGPT的途徑,同時(shí),審查OpenAI在最近一次網(wǎng)絡(luò)安全事件中收集的個(gè)人信息等問(wèn)題。

建立AI工作的勞動(dòng)保護(hù)

自20世紀(jì)以來(lái),經(jīng)濟(jì)學(xué)家定期對(duì)工作做出預(yù)測(cè),“技術(shù)性失業(yè)”常常出現(xiàn)在他們的預(yù)測(cè)結(jié)果當(dāng)中。更有美國(guó)學(xué)者預(yù)測(cè),47%的工作,即將被取代。即便已有無(wú)數(shù)打工人自嘲飯碗不保,還是很少有人真心希望自己被加速“下班”。

人工智能對(duì)于工作本身,既是問(wèn)題,又是答案。

AI的到來(lái),將完成更多崗位任務(wù),釋放時(shí)間與精力給個(gè)人用于生活中的各個(gè)方面。但在知識(shí)宇宙膨脹時(shí)代,所有人都能平等地享受到不休眠機(jī)器人所創(chuàng)造的財(cái)富嗎?機(jī)器人如果跨越成管理層,對(duì)于個(gè)人的工作進(jìn)行評(píng)判打分,人性化的指標(biāo)又何在?工作空間全方位“被”觀察,又能否給人喘息的余地?

機(jī)器人踏入職場(chǎng),或許也需要相應(yīng)的《勞動(dòng)保護(hù)法》,保護(hù)AI,也保護(hù)人類。

辯證看待生命的期限與不朽

人工智能能夠帶“我們”走向永生嗎?

從醫(yī)學(xué)角度而言,人工智能能夠帶我們了解身體運(yùn)轉(zhuǎn)、如何工作、如何返老還童,硅谷富豪已經(jīng)在親身實(shí)踐身體極限。同時(shí),我們也面臨著大部分生命終結(jié)的原因:衰老。如果人工智能真能突破這一點(diǎn),我們也需要重新考慮:沒(méi)有終點(diǎn)的生活,需要我們重新考慮存在的意義。

另一方面,如果我們注定會(huì)衰老而離開(kāi),人工智能是否有權(quán)利帶著我們的記憶“活”下去?這是生命與道德的雙重考量。

無(wú)論哪種“不朽”,都不得不歸結(jié)到社會(huì)轉(zhuǎn)變上來(lái)。誰(shuí)能夠通過(guò)某種方式獲得“不朽”的機(jī)會(huì)呢?貧富差距又能否導(dǎo)致壽命長(zhǎng)短差異從而陷入死循環(huán)?

生命是短暫的,這是它美感的一部分,當(dāng)AI有能力逆轉(zhuǎn)一點(diǎn)點(diǎn)的局勢(shì),我們就不得不重視起來(lái),是否應(yīng)當(dāng)限制AI賦予生命全新的意義;如何將AI提供的生命機(jī)會(huì)公平地提供給所有人。

警惕AI武器的濫用

戰(zhàn)場(chǎng)上,如果人類也能被機(jī)器人替代,那新的軍備競(jìng)賽將開(kāi)始打響。普遍存在的致命自主武器,如果從人為控制發(fā)射全部替換成機(jī)器人,那這將是一場(chǎng)高科技的較量。“干凈”的技術(shù)戰(zhàn)場(chǎng),卻也隱藏著一絲可怕的火藥味。

全自主的武器將更加強(qiáng)大。比如,無(wú)人機(jī)空軍,飛行員不用冒生命危險(xiǎn)作戰(zhàn),作戰(zhàn)優(yōu)勢(shì)將不斷提高。不需要食物供應(yīng)與薪酬,還能全天候作戰(zhàn),永遠(yuǎn)服從、執(zhí)行命令,這樣的軍事夢(mèng)想,完美而可怕。

當(dāng)用代碼可以指揮數(shù)以千計(jì)的作戰(zhàn)武器,戰(zhàn)爭(zhēng)工業(yè)化也隨之到來(lái)。戰(zhàn)爭(zhēng)的各類道德性借口,“為了家人、親友的不得已”都將土崩瓦解。那么,只需要出無(wú)人機(jī)進(jìn)行對(duì)抗卻無(wú)人傷亡的干凈戰(zhàn)場(chǎng),真的存在嗎?并不一定。

致命性自主武器的威懾力,從不只是幾行代碼那么簡(jiǎn)單。控制武器,比制造武器要求更加謹(jǐn)慎精準(zhǔn)。當(dāng)AI能控制大規(guī)模殺傷性武器,即便只有萬(wàn)分之一的“誤差”,人類也會(huì)感到威懾與恐懼。

機(jī)器人出現(xiàn)在汽車工廠等地方,具有充分的理由,但出現(xiàn)在戰(zhàn)場(chǎng)中卻不太明智。戰(zhàn)場(chǎng)本身就充滿了不確定性與混亂,無(wú)論是機(jī)器、人類抑或是代碼,都有犯錯(cuò)幾率。武器的速度極快,出錯(cuò)的可能性會(huì)隨之增加,人類、土地都不該用“誤傷”來(lái)解釋。

所以,合理利用自主武器,遵守國(guó)際人道主義法至關(guān)重要。這還涉及到一個(gè)“責(zé)任差距”問(wèn)題,如果致命性自主武器真的出錯(cuò),誰(shuí)來(lái)負(fù)責(zé)?誰(shuí)被審判?

在國(guó)際人工智能聯(lián)合會(huì)議上,已有公開(kāi)信呼吁聯(lián)合國(guó)禁止進(jìn)攻性自主武器。迄今為止,已有多個(gè)國(guó)家呼吁聯(lián)合國(guó)禁止致命性自主武器。部分類似的《特定常規(guī)武器公約》中,也應(yīng)當(dāng)對(duì)應(yīng)考慮AI加入后的新情況。

References:

[1]《2062:終結(jié)》Toby Walsh

[2]Elon Musk Signs Open Letter Urging AI Labs to Pump the Brakes, TIME, https://time.com/6266679/musk-ai-open-letter/

[3] OpenAI CEO Sam Altman Says AI will Reshape Society, Acknowledges Risks:'A Little Bit Scared of This', abcNEWS,https://abcnews.go.com/amp/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122

[4]Pausing AI Developments Isn't Enough. We Need to Shut it All Down, TIME,https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

[5]A Canadian godfather of AI calls for a ‘pause’ on the technology he helped create, Financial post, https://financialpost.com/technology/canadian-godfather-ai-pause-technology-helped-create

[6]“Godfather of artificial intelligence” weighs in on the past and potential of AI, CBS NEWS, https://www.cbsnews.com/news/godfather-of-artificial-intelligence-weighs-in-on-the-past-and-potential-of-artificial-intelligence/

[7]Italy became the first Western country to ban ChatGPT. Here's what other countries are doing, CNBC, https://www.cnbc.com/amp/2023/04/04/italy-has-banned-chatgpt-heres-what-other-countries-are-doing.html

[8]Bill Gates says calls to pause AI won't solve challenges, REUTERS, https://www.reuters.com/technology/bill-gates-says-calls-pause-ai-wont-solve-challenges-2023-04-04/

[9]Biden says tech companies must ensure AI products are safe, AP NEWS, https://apnews.com/article/joe-biden-artificial-intelligence-science-technology-chatgpt-6948df344041ef1e794d199595bf69e9

[10] Our approach to AI safety, OpenAI, https://openai.com/blog/our-approach-to-ai-safety

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

OpenAI

  • Meta推出融合社交元素的獨(dú)立AI應(yīng)用,與ChatGPT抗衡
  • OpenAI回應(yīng)GPT-4o更新后個(gè)性過(guò)于諂媚:已回滾到老版本

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

人工智能的風(fēng)險(xiǎn)與挑戰(zhàn):如何平衡創(chuàng)新與規(guī)范?

如何治理AI?

文|經(jīng)緯創(chuàng)投

在過(guò)去這段時(shí)間里,GPT-4從初發(fā)布、到與Office合體、再到接入插件,每次亮相都引發(fā)了AI廣泛和熱烈的討論。許多人表示對(duì)GPT-4的到來(lái)表示驚喜,也有許多人對(duì)其背后的風(fēng)險(xiǎn)感到畏懼。

3月29日,一封來(lái)自馬斯克等數(shù)千位科技界知名人士的聯(lián)名信公開(kāi),信中呼吁所有AI實(shí)驗(yàn)室暫停研發(fā)比GPT-4更強(qiáng)大的人工智能系統(tǒng),時(shí)間至少6個(gè)月。該暫停應(yīng)當(dāng)是公開(kāi)的、可驗(yàn)證的,所有關(guān)鍵參與者都不例外,必要時(shí)政府應(yīng)當(dāng)介入實(shí)施暫停令。他們表示AI將為社會(huì)和人類帶來(lái)巨大風(fēng)險(xiǎn),試圖給最近一路狂飆的AI按下暫停鍵。

這種恐懼并非杞人憂天。GPT-4開(kāi)啟的大模型時(shí)代標(biāo)志著AI的新一層進(jìn)化,更被視作是AGI時(shí)代到來(lái)的前奏。就連OpenAI創(chuàng)始人Sam Altman也在采訪中表示,GPT-4的風(fēng)險(xiǎn)讓他有點(diǎn)害怕。

馬斯克等人的聯(lián)名信引發(fā)軒然大波,經(jīng)過(guò)發(fā)酵后,不少知名人士對(duì)此進(jìn)行表態(tài),已經(jīng)形成了暫停半年派、擁抱未來(lái)派、徹底封禁派等數(shù)派代表意見(jiàn)。而在個(gè)人之外,各國(guó)政府也開(kāi)始考慮如何對(duì)AI進(jìn)行規(guī)范。

在馬斯克等人的聯(lián)名信中,眾人要求所有AI實(shí)驗(yàn)室和獨(dú)立專家,利用6個(gè)月的暫停期共同研究制定并且實(shí)施針對(duì)先進(jìn)AI設(shè)計(jì)和開(kāi)發(fā)的安全協(xié)議。

面臨AGI的到來(lái),人工智能應(yīng)該具有哪些倫理價(jià)值?如何在創(chuàng)新和規(guī)范之間平衡AI治理?國(guó)際人工智能協(xié)會(huì)(AAAI)執(zhí)行委員會(huì)成員、人工智能專家托比·沃爾什(Toby Walsh)在《2062:終結(jié)》一書中,對(duì)上述問(wèn)題給出了他的思考。對(duì)于AI的規(guī)范,或許我們可以從他對(duì)于人工智能的看法中,窺見(jiàn)些許方向。以下,Enjoy:

01 AI該不該停?停6個(gè)月真的有用嗎?

馬斯克等人的聯(lián)名信引發(fā)軒然大波,經(jīng)過(guò)發(fā)酵后,不少知名人士對(duì)此進(jìn)行表態(tài),已經(jīng)形成了數(shù)派代表意見(jiàn):

暫停半年派

以馬斯克為首,還有1000多位知名人士表示AI研發(fā)應(yīng)暫停六個(gè)月,包括蘋果公司的聯(lián)合創(chuàng)始人Steve Wozniak,《人類簡(jiǎn)史》的作者Yuval Noah Harari,還有機(jī)器學(xué)習(xí)領(lǐng)域中最杰出的學(xué)者等等。他們表示,AI現(xiàn)在在完成某些任務(wù)時(shí)已經(jīng)能達(dá)到人類智能所完成的水平,如果人類很難完全理解、預(yù)測(cè)和掌控AI,這個(gè)世界將是非常危險(xiǎn)的。

此外,他們提出:AI是否為網(wǎng)絡(luò)世界帶來(lái)大量的假消息和虛假宣傳,是否將替代給人帶來(lái)意義感的工作崗位,或是是否會(huì)在數(shù)量上、智力上等方面超越人類并最終取代人類?在這種情況下,人類的文明還能存在嗎?

圖靈獎(jiǎng)得主、深度學(xué)習(xí)三巨頭之一Yoshua Bengio是這份公開(kāi)信上的第一個(gè)名字。Bengio在29日的新聞發(fā)布會(huì)上表示:現(xiàn)在的AI已經(jīng)足夠強(qiáng)大,人們無(wú)法辨別電腦屏幕背后的與自己對(duì)話的到底是人還是AI。社會(huì)、政府和企業(yè)的變化速度趕不上AI的進(jìn)化速度,在AI變得過(guò)于強(qiáng)大之前,我們需要時(shí)間來(lái)想想對(duì)策。

聯(lián)名信要求所有AI實(shí)驗(yàn)室和獨(dú)立專家,利用6個(gè)月的暫停期共同研究制定并且實(shí)施針對(duì)先進(jìn)AI設(shè)計(jì)和開(kāi)發(fā)的安全協(xié)議,保證企業(yè)的設(shè)計(jì)開(kāi)發(fā)活動(dòng)經(jīng)第三方嚴(yán)格審計(jì)和監(jiān)督。信中表示,該提議并非想遏制AI發(fā)展,而是在更不可預(yù)測(cè)的黑箱AI模型出世之前做好風(fēng)險(xiǎn)應(yīng)對(duì)。它的結(jié)尾寫道,在AI為社會(huì)帶來(lái)災(zāi)難之前,我們應(yīng)當(dāng)停下來(lái),享受一個(gè)長(zhǎng)長(zhǎng)的AI之夏,不要在沒(méi)有準(zhǔn)備好的情況下沖進(jìn)AI之秋。

擁抱未來(lái)派

對(duì)于此封聯(lián)名信,當(dāng)然也不乏反對(duì)者,反對(duì)的主要理由是,停6個(gè)月也于事無(wú)補(bǔ)。

Coursera聯(lián)合創(chuàng)始人、AI大牛吳恩達(dá)公開(kāi)表示,除非政府介入,否則暫停GPT的發(fā)展并不現(xiàn)實(shí)。但如果允許政府出面暫停一個(gè)他們并不了解的新興產(chǎn)業(yè)的發(fā)展,將會(huì)對(duì)市場(chǎng)活動(dòng)和創(chuàng)新政策帶來(lái)不利影響。最好的方法是在提高透明度、加強(qiáng)審計(jì)方面下功夫。AI確有風(fēng)險(xiǎn),但大部分AI研發(fā)團(tuán)隊(duì)對(duì)其安全性承擔(dān)起了責(zé)任,我們無(wú)需過(guò)于憂慮。

他還指出,GPT-4在教育、醫(yī)療保健、食品等領(lǐng)域都帶來(lái)很多新的應(yīng)用,切實(shí)幫助了很多人,如果現(xiàn)在要求停止對(duì)其訓(xùn)練,將是非常可怕的。

Meta人工智能研究院研究員田源棟博士認(rèn)為,AI的發(fā)展一旦開(kāi)始就停不下來(lái)了。開(kāi)弓沒(méi)有回頭箭,這就是進(jìn)化的必然。人類應(yīng)當(dāng)向前看,更好地理解LLM(大語(yǔ)言模型),學(xué)會(huì)適應(yīng)并利用它的力量,趕上這股浪潮。

物理學(xué)家David Deutsch更是在推特上表示,這封信混淆了AI和AGI,看起來(lái)就像是在說(shuō)我們不應(yīng)該做任何人類無(wú)法預(yù)測(cè)的事情。

本周,Bill Gates也對(duì)此表態(tài),表示暫停AI發(fā)展無(wú)法解決挑戰(zhàn),他很難想象如何在全球范圍內(nèi)暫停AI發(fā)展,這具體執(zhí)行起來(lái)將非常困難。3月,他曾撰寫以《AI時(shí)代已開(kāi)始》為名的博客,高度肯定人工智能革命的地位。

除了暫停6個(gè)月到底有沒(méi)有用,很多人還對(duì)于是否真的能暫停提出質(zhì)疑。

此前曾公開(kāi)表示GPT模型沒(méi)有前途的圖靈獎(jiǎng)得主LeCun表示,他沒(méi)簽名的原因是,公開(kāi)信中所提及的“暫停研發(fā)”=“秘密研發(fā)”。他指出聯(lián)名信提出的倡議用處不大,并轉(zhuǎn)發(fā)另一位大佬的推文表示,該信充斥著夸張修辭和無(wú)效的政策方案。網(wǎng)友也表示,規(guī)則無(wú)法束縛那些最可能帶來(lái)風(fēng)險(xiǎn)的人,真正希望用AI搞破壞的人還是會(huì)偷偷研究。

也有不少人認(rèn)為,一些公司主要是在利益驅(qū)動(dòng)下提出此倡議,希望用這6個(gè)月的時(shí)間彎道超車,通過(guò)秘密研究重奪AI賽道的主動(dòng)權(quán)。

徹底封禁派

還有一些人的態(tài)度更加堅(jiān)決,他們要求永久封殺AI。

美國(guó)決策理論學(xué)家、機(jī)器智能研究機(jī)構(gòu)科學(xué)家Eliezer Yudkowsky從2001年開(kāi)始就活躍在AI領(lǐng)域。他在《時(shí)代周刊》發(fā)表文章稱,他沒(méi)有簽字的原因是,6個(gè)月的暫停期遠(yuǎn)遠(yuǎn)不夠,盡管公開(kāi)信中已經(jīng)闡述了AI的可能風(fēng)險(xiǎn),他認(rèn)為實(shí)際情況要嚴(yán)峻得多。他表示,公開(kāi)信中所提到的“實(shí)現(xiàn)人類智能的AI”仍是一種過(guò)于樂(lè)觀的說(shuō)法,未來(lái)AI的智能程度很有可能超越人類,AI發(fā)展會(huì)不知不覺(jué)地越過(guò)那條重要的警戒線。

文章探討了一個(gè)重要的可能性:人類創(chuàng)造出一個(gè)比自己聰明得多的AI后,該如何控制和管理它?最壞的但很有可能的結(jié)果是,人類將無(wú)法在AI控制的世界中活下來(lái)。

作者表示,雖然有一種可能性是,AI和人的欲望并不相同,也對(duì)人的存在毫不在乎。我們應(yīng)當(dāng)教會(huì)AI這種與人相處之道,以降低未來(lái)的潛在風(fēng)險(xiǎn),但是如何做仍是最大難題。

但另一種可能性仍在存在,即AI可能會(huì)對(duì)人類抱有敵意。AI不可能被困在電腦里太久,一旦它們找到突圍之道,就如同一個(gè)比人類聰明數(shù)千萬(wàn)倍的外星文明,可以輕而易舉地在地球上抹掉人類的蹤跡。而人類顯然還不知道,該如何應(yīng)對(duì)這種可能的情況。

更重要的是,Yudkowsky強(qiáng)調(diào),并非AI在具有意識(shí)時(shí)才能夠?qū)谷祟悺N覀兯鶚?gòu)建的認(rèn)知系統(tǒng)的計(jì)算過(guò)程太過(guò)于復(fù)雜,人類并不具有解碼AI運(yùn)行具體過(guò)程的能力。在這種情況下,到底是人創(chuàng)造了AI,還是AI自己創(chuàng)造了自己?

他還表示,微軟CEO在新必應(yīng)發(fā)布后向谷歌示威,這種做法是非常不明智的,完全對(duì)AI的風(fēng)險(xiǎn)視若無(wú)睹,而只著眼于科技巨頭間的競(jìng)爭(zhēng),對(duì)人類的未來(lái)非常危險(xiǎn)。

文章要求,在全球范圍內(nèi)無(wú)限期地中止所有新的大語(yǔ)言模型的訓(xùn)練,并關(guān)閉全部大型GPU集群,即使是政府和軍隊(duì)也不能例外。

各國(guó)政府:逐步規(guī)范AI

AI的發(fā)展之快超出了所有人的想象,各國(guó)政府也開(kāi)始加快制定政策的速度。

上周,意大利個(gè)人數(shù)據(jù)保護(hù)局要求OpenAI暫停處理意大利用戶的數(shù)據(jù)。有關(guān)部門表示,“OpenAI這樣大規(guī)模收集和加工個(gè)人信息的活動(dòng)是毫無(wú)法律根據(jù)的。此前ChatGPT就曾發(fā)生bug,用戶能看到其他用戶與ChatGPT聊天的標(biāo)題。”由于ChatGPT的不實(shí)信息問(wèn)題,他們還表示了對(duì)OpenAI缺乏使用年齡限制的擔(dān)憂。

英國(guó)也在上周提出了規(guī)范AI的計(jì)劃,盡管沒(méi)有對(duì)ChatGPT指名道姓,也沒(méi)有針對(duì)AI制定新規(guī),但是政府要求各行各業(yè)的監(jiān)管者應(yīng)用其現(xiàn)行法律來(lái)規(guī)范AI。英國(guó)尤其強(qiáng)調(diào)了科技公司在開(kāi)發(fā)AI時(shí)應(yīng)遵循的原則,包括安全性、公開(kāi)性、公平性、責(zé)任心和反壟斷性。

據(jù)CNBC報(bào)道,其他歐盟國(guó)家可能會(huì)對(duì)AI采取比英國(guó)更嚴(yán)格的規(guī)范措施。歐盟在規(guī)范科技公司方面常常走在最前線,此前就曾發(fā)布?xì)W盟AI法案的草案,高度限制AI在重要基礎(chǔ)設(shè)施、教育、執(zhí)法和司法體系中的使用。歐盟認(rèn)為ChatGPT可能以高風(fēng)險(xiǎn)的方式被應(yīng)用,可能會(huì)危及人類的基本權(quán)利和安全。

歐盟擁有非常多的AI專家,對(duì)OpenAI的規(guī)范也容易落實(shí),因?yàn)镺penAI在歐盟沒(méi)有任何辦公室。德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)委員Ulrich Kelber表示,德國(guó)也可能采取類似措施。法國(guó)和愛(ài)爾蘭的隱私政策官員也正在密切接觸意大利以求取經(jīng),但瑞典的數(shù)據(jù)保護(hù)局表示不會(huì)考慮對(duì)AI頒布禁令。

此外,美國(guó)總統(tǒng)拜登也于4月2日表示,AI的危險(xiǎn)性仍然未可知,科技公司必須在保證產(chǎn)品的安全性基礎(chǔ)上才能進(jìn)行產(chǎn)品發(fā)布。此外,他呼吁國(guó)會(huì)限制科技公司對(duì)個(gè)人數(shù)據(jù)的收集,以及面向青少年的廣告。

OpenAI:正式回應(yīng)安全問(wèn)題

對(duì)于外界的紛紛擾擾,OpenAI的CEO Sam Altman此前曾發(fā)推文表示,站在風(fēng)暴中間,我很平靜。他提出一個(gè)好的AGI應(yīng)該具備的三個(gè)特點(diǎn),或許可以被視作對(duì)這場(chǎng)風(fēng)波的另一種回應(yīng):

1.對(duì)齊超級(jí)智能的技術(shù)能力;

2.大多數(shù)領(lǐng)先AGI之間的充分協(xié)調(diào);

3.一個(gè)有效的全球監(jiān)管框架。

OpenAI的另一位創(chuàng)始人轉(zhuǎn)發(fā)表示支持,并附言,OpenAI的使命是確保AGI惠及全人類。

隨著事態(tài)的發(fā)酵,4月5日,OpenAI正式發(fā)表《我們的AI安全措施》,對(duì)隱私問(wèn)題、青少年問(wèn)題,不實(shí)信息問(wèn)題等都作出了正式回應(yīng)。文章表示,OpenAI一直致力于使AI工具保持安全性、并且對(duì)社會(huì)廣泛有益。確保AI系統(tǒng)的建造、部署和使用的安全性一直是他們的使命之一。

他們表示,在完成GPT-4的訓(xùn)練后,OpenAI花了超過(guò)半年的時(shí)間強(qiáng)化模型的安全和協(xié)調(diào)性,才最終發(fā)布了GPT-4。他們通過(guò)嚴(yán)格內(nèi)部測(cè)試和外部專家反饋改進(jìn)模型的行為,通過(guò)強(qiáng)化學(xué)習(xí)技術(shù)建立廣泛的安全和監(jiān)控系統(tǒng)。

關(guān)于隱私政策,OpenAI表示所有數(shù)據(jù)都用來(lái)提升GPT模型以幫助使用者,而非用于銷售服務(wù)、廣告等營(yíng)利性互動(dòng)。ChatGPT靠與人對(duì)話來(lái)進(jìn)行學(xué)習(xí),OpenAI的一些訓(xùn)練數(shù)據(jù)包括公共網(wǎng)絡(luò)上的私人信息 ,但他們希望模型學(xué)習(xí)的是世界,而不是個(gè)人。因此,OpenAI正致力于從訓(xùn)練數(shù)據(jù)中盡可能刪除個(gè)人信息,調(diào)整模型以拒絕獲取私人個(gè)人信息的請(qǐng)求,并響應(yīng)個(gè)人對(duì)于刪除其個(gè)人信息的要求。

關(guān)于青少年,只有18歲以上、或13歲以上且父母批準(zhǔn)的人才能夠使用其AI工具。OpenAI決不允許技術(shù)被用來(lái)產(chǎn)出仇恨、騷擾、暴力或成人內(nèi)容。GPT-4相比于GPT-3.5,對(duì)不合規(guī)內(nèi)容的響應(yīng)請(qǐng)求減少了82%。OpenAI稱已經(jīng)付出了巨大的努力,以最小化模型生成對(duì)兒童有害內(nèi)容的潛力。例如,當(dāng)用戶嘗試上傳兒童性虐待材料時(shí),OpenAI會(huì)阻止并向國(guó)家失蹤和被剝削兒童中心報(bào)告。

關(guān)于不實(shí)信息,OpenAI表示如今的大型語(yǔ)言模型是憑借已有信息對(duì)接下來(lái)可能出現(xiàn)的word pattern進(jìn)行預(yù)測(cè),已有信息里面包括用戶輸入的不實(shí)信息,因此ChatGPT基于錯(cuò)誤信息作出的回答里也會(huì)出現(xiàn)不實(shí)信息。目前GPT-4的信息準(zhǔn)確度,已經(jīng)較GPT-3.5提高了40%。在用戶注冊(cè)ChatGPT之前,OpenAI就告知不實(shí)信息產(chǎn)生的可能性。他們將繼續(xù)推動(dòng)準(zhǔn)確度的提升,并持續(xù)教育公眾AI工具的局限性。

OpenAI承諾,今后也會(huì)投入更多資源和努力,持續(xù)提升AI工具的安全性。

02 如何治理AI?

正如Arthur C. Clarke所提出,任何足夠先進(jìn)的技術(shù),都與魔法無(wú)異。我們?nèi)绾蝿?chuàng)造、利用、維護(hù)有史以來(lái)最強(qiáng)大的“魔法”?如何在教導(dǎo)“魔法”的同時(shí),“馴服”魔法?

面臨AI魔法的到來(lái),人工智能應(yīng)該具有哪些倫理價(jià)值?如何在創(chuàng)新和規(guī)范之間平衡AI治理?

作為國(guó)際人工智能協(xié)會(huì)(AAAI)執(zhí)行委員會(huì)成員、人工智能專家,托比·沃爾什(Toby Walsh)一直致力于研究如何讓人工智能更好地應(yīng)用于人類生活。在《2062:終結(jié)》一書中,他對(duì)上述問(wèn)題給出了他的思考。對(duì)于AI的規(guī)范,或許我們可以從他對(duì)于人工智能的看法中,窺見(jiàn)些許方向。

有限制地注入意識(shí)或欲望

我們沒(méi)有測(cè)量意識(shí)的儀器,大腦中也沒(méi)有任何一個(gè)部分單獨(dú)負(fù)責(zé)意識(shí)。對(duì)于機(jī)器而言,意識(shí)與欲望是把雙刃劍,界定相當(dāng)重要。

舉個(gè)反面例子,假設(shè)阿爾法圍棋意識(shí)覺(jué)醒,將圍棋拋之腦后,而打算玩網(wǎng)絡(luò)撲克掙點(diǎn)錢,那他的欲望將驅(qū)使他走向研發(fā)初衷的反方向。

但至少現(xiàn)在,它并沒(méi)有意識(shí),甚至不知道自己在玩圍棋,只是在計(jì)算贏得一場(chǎng)游戲的概率。沒(méi)有意識(shí)的情況下,他也不會(huì)出現(xiàn)電影中所描述的,產(chǎn)生了接管地球的欲望。

同樣,意識(shí)包含道德。正面角度而言,為了表現(xiàn)的有道德,計(jì)算機(jī)需要能夠反思其決定。復(fù)雜的社會(huì)能夠運(yùn)轉(zhuǎn),與我們能夠意識(shí)到他人在想什么十分相關(guān)。

機(jī)器的意識(shí)產(chǎn)生途徑有三:被編程而產(chǎn)生、從復(fù)雜性中出現(xiàn)、被習(xí)得而學(xué)會(huì)。人類至少有三分之二的把握,能夠控制機(jī)器的意識(shí)發(fā)展。

如果機(jī)器不是僵尸智能(意識(shí)、智力分開(kāi)學(xué)習(xí)狀態(tài)),那么,我們必須做出一些具有挑戰(zhàn)性的道德決策。

當(dāng)涉及道德行為時(shí),有意識(shí)的機(jī)器勝過(guò)無(wú)意識(shí)的機(jī)器,它可以反思自己的行動(dòng),從過(guò)去到現(xiàn)在,再到未來(lái)。

阿西莫夫曾在1942年提出了著名的機(jī)器人守則,或許可供未來(lái)規(guī)范與立法等參考:

第一條:機(jī)器人不得傷害人類,或袖手旁觀坐視人類受到傷害。

第二條:除非違背第一法則,機(jī)器人必須負(fù)責(zé)人類的命令。

第三條:在不違背第一法則及第二法則的情況下,機(jī)器人必須保護(hù)自己。

然而,這些法則仍然具有局限性。比如說(shuō),采取行動(dòng)會(huì)傷害一個(gè)人;不采取行動(dòng)會(huì)傷害另外一個(gè)人,會(huì)發(fā)生什么呢??jī)蓚€(gè)人發(fā)出沖突指令,又會(huì)發(fā)生什么呢?經(jīng)典的電車難題:選擇撞上孩童還是無(wú)人的汽車,便挑戰(zhàn)了阿西莫夫法則。

在此基礎(chǔ)上,第四條法則提出,它優(yōu)先性高于前三條法則:

第零守則:機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。

就此而言,我們或許需要機(jī)器人具備并保持一個(gè)比人類更高的道德水準(zhǔn)。比如,自動(dòng)駕駛汽車永遠(yuǎn)不超速;獨(dú)立自主且具有武裝力量的無(wú)人機(jī)永遠(yuǎn)按照國(guó)際人道主義法進(jìn)行活動(dòng)等。無(wú)論是個(gè)人、企業(yè)還是國(guó)家,在使用、經(jīng)營(yíng)、鍛煉期間,都需要以人為本。

提高機(jī)器工作透明度

在機(jī)器做決策過(guò)程中,透明度也是至關(guān)重要的。我們希望機(jī)器不僅能夠做出公平的決定,還能夠在做出決定時(shí)保持透明度,以建立我們對(duì)其公平性的信心。這是當(dāng)今人工智能系統(tǒng)所面臨的主要挑戰(zhàn)。

機(jī)器如果能夠合理解釋決策,將有助于在出錯(cuò)時(shí)及時(shí)糾正,同時(shí),彌補(bǔ)人類決策的缺失。

合理的疼痛訓(xùn)練

讓機(jī)器體會(huì)到合理的痛苦,或許是可嘗試的,就像人類被灼燒會(huì)迅速將手拿開(kāi),這一行為具有積極的學(xué)習(xí)作用。

但同時(shí),我們也應(yīng)當(dāng)考慮到,如果我們給予機(jī)器感知痛苦的能力,他們是否也會(huì)感知恐懼,從而防止自己受傷、防止自己嘗試危險(xiǎn)工作呢?

那么,使用機(jī)器,從機(jī)器人角度出發(fā)的道德準(zhǔn)則,就需要再加一條。

克服機(jī)器偏見(jiàn)與算法歧視

在語(yǔ)言翻譯中,曾出現(xiàn)這樣一種問(wèn)題:土耳其語(yǔ)中,“o”既可以是“他”,也可以是“她”,但當(dāng)翻譯回英語(yǔ)時(shí),卻會(huì)自動(dòng)產(chǎn)生性別之分,如“她是個(gè)護(hù)士”、“他是個(gè)士兵”等。

同時(shí),如Compas程序,在進(jìn)行數(shù)據(jù)訓(xùn)練后,會(huì)針對(duì)性預(yù)測(cè)哪些囚犯會(huì)再次犯罪,這對(duì)未來(lái)的最壞結(jié)果預(yù)測(cè),本身就不具有公平性,給人打上不可原諒的標(biāo)簽。

在計(jì)算機(jī)算法識(shí)別中,還存在著膚色問(wèn)題。黑人女孩難以被計(jì)算機(jī)識(shí)別,這可能源于有偏見(jiàn)的數(shù)據(jù)測(cè)試。在人臉識(shí)別的數(shù)據(jù)集中,男性占77.5%,白人占83.5%。很明顯,更廣泛的人群需要被容納到測(cè)試空間中。

此類書面文本中長(zhǎng)期存在的偏見(jiàn)與印象需要被統(tǒng)一規(guī)劃與避免。當(dāng)我們將問(wèn)題移交給機(jī)器時(shí),我們需要仔細(xì)考慮既定環(huán)境中,如何定義公平。

界定AI涉足的隱私領(lǐng)域

在人工智能時(shí)代,維護(hù)私人生活所必需的隱私將成為一個(gè)重大的挑戰(zhàn)。

谷歌公司首席互聯(lián)網(wǎng)科學(xué)絕Vint Cerf曾表示“隱私本質(zhì)上可能是一種非正常需求”。他所說(shuō)的并不全無(wú)道理,人工智能的到來(lái)必將帶來(lái)更加嚴(yán)密的審查,實(shí)時(shí)追蹤一切與電子相關(guān)的事情。即便一家公司可以負(fù)責(zé)任地將數(shù)字隱秘起來(lái),有可能會(huì)出現(xiàn)隱私保護(hù)失控的問(wèn)題。物質(zhì)上的獨(dú)立空間、精神上的獨(dú)立思考與選擇,都需要法律進(jìn)行合理界定。

因此,有關(guān)隱私,AI需要被限制,公司需要有限制,個(gè)人也一樣。

當(dāng)?shù)貢r(shí)間3月31日,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,將暫時(shí)封鎖意大利境內(nèi)訪問(wèn)ChatGPT的途徑,同時(shí),審查OpenAI在最近一次網(wǎng)絡(luò)安全事件中收集的個(gè)人信息等問(wèn)題。

建立AI工作的勞動(dòng)保護(hù)

自20世紀(jì)以來(lái),經(jīng)濟(jì)學(xué)家定期對(duì)工作做出預(yù)測(cè),“技術(shù)性失業(yè)”常常出現(xiàn)在他們的預(yù)測(cè)結(jié)果當(dāng)中。更有美國(guó)學(xué)者預(yù)測(cè),47%的工作,即將被取代。即便已有無(wú)數(shù)打工人自嘲飯碗不保,還是很少有人真心希望自己被加速“下班”。

人工智能對(duì)于工作本身,既是問(wèn)題,又是答案。

AI的到來(lái),將完成更多崗位任務(wù),釋放時(shí)間與精力給個(gè)人用于生活中的各個(gè)方面。但在知識(shí)宇宙膨脹時(shí)代,所有人都能平等地享受到不休眠機(jī)器人所創(chuàng)造的財(cái)富嗎?機(jī)器人如果跨越成管理層,對(duì)于個(gè)人的工作進(jìn)行評(píng)判打分,人性化的指標(biāo)又何在?工作空間全方位“被”觀察,又能否給人喘息的余地?

機(jī)器人踏入職場(chǎng),或許也需要相應(yīng)的《勞動(dòng)保護(hù)法》,保護(hù)AI,也保護(hù)人類。

辯證看待生命的期限與不朽

人工智能能夠帶“我們”走向永生嗎?

從醫(yī)學(xué)角度而言,人工智能能夠帶我們了解身體運(yùn)轉(zhuǎn)、如何工作、如何返老還童,硅谷富豪已經(jīng)在親身實(shí)踐身體極限。同時(shí),我們也面臨著大部分生命終結(jié)的原因:衰老。如果人工智能真能突破這一點(diǎn),我們也需要重新考慮:沒(méi)有終點(diǎn)的生活,需要我們重新考慮存在的意義。

另一方面,如果我們注定會(huì)衰老而離開(kāi),人工智能是否有權(quán)利帶著我們的記憶“活”下去?這是生命與道德的雙重考量。

無(wú)論哪種“不朽”,都不得不歸結(jié)到社會(huì)轉(zhuǎn)變上來(lái)。誰(shuí)能夠通過(guò)某種方式獲得“不朽”的機(jī)會(huì)呢?貧富差距又能否導(dǎo)致壽命長(zhǎng)短差異從而陷入死循環(huán)?

生命是短暫的,這是它美感的一部分,當(dāng)AI有能力逆轉(zhuǎn)一點(diǎn)點(diǎn)的局勢(shì),我們就不得不重視起來(lái),是否應(yīng)當(dāng)限制AI賦予生命全新的意義;如何將AI提供的生命機(jī)會(huì)公平地提供給所有人。

警惕AI武器的濫用

戰(zhàn)場(chǎng)上,如果人類也能被機(jī)器人替代,那新的軍備競(jìng)賽將開(kāi)始打響。普遍存在的致命自主武器,如果從人為控制發(fā)射全部替換成機(jī)器人,那這將是一場(chǎng)高科技的較量。“干凈”的技術(shù)戰(zhàn)場(chǎng),卻也隱藏著一絲可怕的火藥味。

全自主的武器將更加強(qiáng)大。比如,無(wú)人機(jī)空軍,飛行員不用冒生命危險(xiǎn)作戰(zhàn),作戰(zhàn)優(yōu)勢(shì)將不斷提高。不需要食物供應(yīng)與薪酬,還能全天候作戰(zhàn),永遠(yuǎn)服從、執(zhí)行命令,這樣的軍事夢(mèng)想,完美而可怕。

當(dāng)用代碼可以指揮數(shù)以千計(jì)的作戰(zhàn)武器,戰(zhàn)爭(zhēng)工業(yè)化也隨之到來(lái)。戰(zhàn)爭(zhēng)的各類道德性借口,“為了家人、親友的不得已”都將土崩瓦解。那么,只需要出無(wú)人機(jī)進(jìn)行對(duì)抗卻無(wú)人傷亡的干凈戰(zhàn)場(chǎng),真的存在嗎?并不一定。

致命性自主武器的威懾力,從不只是幾行代碼那么簡(jiǎn)單。控制武器,比制造武器要求更加謹(jǐn)慎精準(zhǔn)。當(dāng)AI能控制大規(guī)模殺傷性武器,即便只有萬(wàn)分之一的“誤差”,人類也會(huì)感到威懾與恐懼。

機(jī)器人出現(xiàn)在汽車工廠等地方,具有充分的理由,但出現(xiàn)在戰(zhàn)場(chǎng)中卻不太明智。戰(zhàn)場(chǎng)本身就充滿了不確定性與混亂,無(wú)論是機(jī)器、人類抑或是代碼,都有犯錯(cuò)幾率。武器的速度極快,出錯(cuò)的可能性會(huì)隨之增加,人類、土地都不該用“誤傷”來(lái)解釋。

所以,合理利用自主武器,遵守國(guó)際人道主義法至關(guān)重要。這還涉及到一個(gè)“責(zé)任差距”問(wèn)題,如果致命性自主武器真的出錯(cuò),誰(shuí)來(lái)負(fù)責(zé)?誰(shuí)被審判?

在國(guó)際人工智能聯(lián)合會(huì)議上,已有公開(kāi)信呼吁聯(lián)合國(guó)禁止進(jìn)攻性自主武器。迄今為止,已有多個(gè)國(guó)家呼吁聯(lián)合國(guó)禁止致命性自主武器。部分類似的《特定常規(guī)武器公約》中,也應(yīng)當(dāng)對(duì)應(yīng)考慮AI加入后的新情況。

References:

[1]《2062:終結(jié)》Toby Walsh

[2]Elon Musk Signs Open Letter Urging AI Labs to Pump the Brakes, TIME, https://time.com/6266679/musk-ai-open-letter/

[3] OpenAI CEO Sam Altman Says AI will Reshape Society, Acknowledges Risks:'A Little Bit Scared of This', abcNEWS,https://abcnews.go.com/amp/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122

[4]Pausing AI Developments Isn't Enough. We Need to Shut it All Down, TIME,https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

[5]A Canadian godfather of AI calls for a ‘pause’ on the technology he helped create, Financial post, https://financialpost.com/technology/canadian-godfather-ai-pause-technology-helped-create

[6]“Godfather of artificial intelligence” weighs in on the past and potential of AI, CBS NEWS, https://www.cbsnews.com/news/godfather-of-artificial-intelligence-weighs-in-on-the-past-and-potential-of-artificial-intelligence/

[7]Italy became the first Western country to ban ChatGPT. Here's what other countries are doing, CNBC, https://www.cnbc.com/amp/2023/04/04/italy-has-banned-chatgpt-heres-what-other-countries-are-doing.html

[8]Bill Gates says calls to pause AI won't solve challenges, REUTERS, https://www.reuters.com/technology/bill-gates-says-calls-pause-ai-wont-solve-challenges-2023-04-04/

[9]Biden says tech companies must ensure AI products are safe, AP NEWS, https://apnews.com/article/joe-biden-artificial-intelligence-science-technology-chatgpt-6948df344041ef1e794d199595bf69e9

[10] Our approach to AI safety, OpenAI, https://openai.com/blog/our-approach-to-ai-safety

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。
主站蜘蛛池模板: 禄劝| 收藏| 咸丰县| 柳州市| 惠安县| 谢通门县| 望谟县| 黎城县| 盱眙县| 晋州市| 台安县| 虎林市| 凌云县| 思茅市| 西畴县| 泾源县| 皋兰县| 兴海县| 张掖市| 元朗区| 闵行区| 兴城市| 阿拉善左旗| 蕲春县| 常宁市| 宁陵县| 东山县| 霸州市| 乌恰县| 那曲县| 甘洛县| 汕尾市| 临邑县| 枣庄市| 包头市| 青铜峡市| 阳信县| 英吉沙县| 宁陕县| 竹溪县| 卢湾区|