簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

AI“滅絕”人類前,OpenAI已經被罵慘了

掃一掃下載界面新聞APP

AI“滅絕”人類前,OpenAI已經被罵慘了

“智械危機”可能會爆發。

文|鋅財經 孫鵬越

編輯|大風

OpenAI的瓜還在繼續,甚至已經上升到人類存亡的歷史高度。

就在上周,頭部AI公司OpenAI和谷歌的13位員工(7名OpenAI前員工和4名現任員工,1名谷歌DeepMind現任員工和1名前員工),公開發表了一封名為《對先進人工智能發出警告的權利》的聯名信。

在信中,他們用一種極為驚悚的語調表示:“人工智能可能帶來的人類滅絕風險”。

大權獨攬的山姆·奧特曼

目前,這封公開信已經引發AI世界的大地震。

甚至還獲得了兩位2018年圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、喬弗里·辛頓(Geoffrey Hinton)的署名支持。

OpenAI和谷歌的員工們在信中曝光出一個非常驚悚的言論:

“AI公司掌握了他們正在研究的人工智能技術的真正風險所在,但由于他們不需要向政府披露太多信息,因此他們系統的真正能力仍是一個‘秘密’。如果沒有適當的監管,人工智能系統可以強大到足以造成嚴重危害,甚至‘滅絕人類’。”

據信中所說,當前AI公司已經了解到安全性的嚴重程度,但是在高層內部正在產生分歧甚至分裂,大多數高層認為利潤至上,小部分高層認為安全性更為重要。

不得不說,這封公開信戳中了OpenAI的內部問題,甚至隱晦指出去年爆發的“OpenAI政變危機”,以及首席科學家伊利亞·蘇斯克沃(Ilya Sutskever)的下臺。

去年11月,OpenAI爆發政變,首席科學家伊利亞·蘇斯克沃聯合董事會,將CEO山姆·奧特曼和總裁格雷格·布羅克曼開除。

這場宮斗鬧劇吸引了全世界的目光,最終導致背后金主微軟的下場,伊利亞·蘇斯克沃政變失敗,山姆·奧特曼官復原職。

據悉,雙方最大的矛盾點,就在于AI安全性。

山姆·奧特曼加速OpenAI商業化,在不確定安全性是否會帶來嚴重后果的前提下,依然成立GPT應用商店,允許私人創建GPT機器人,開放“灰色機器人”入駐ChatGPT。

在OpenAI主要負責AI監督工作的伊利亞·蘇斯克沃,堅持AI安全才是OpenAI的核心,而非商業化,對山姆·奧特曼大刀闊斧的加速商業化進程非常不滿。

在2023年爆發過多次高層會議爭斗之后,最終實施政變。

在政變失敗后,山姆·奧特曼徹底將OpenAI變成“一言堂”,解除多位政見不合的董事職位,將伊利亞·蘇斯克沃雪藏半年后開除。

共同創建OpenAI的10年老搭檔黯然出局,但山姆·奧特曼依然沒有收手,甚至將安全部門視為“亂黨黨羽”,也要一一肅清。

伊利亞·蘇斯克沃負責的超級對齊團隊,原本是為能夠智勝和壓倒創造者的超級智能人工智能的出現做準備,在伊利亞·蘇斯克沃離開后,團隊直接解散,幾名相關研究人員離職。

制約OpenAI風險控制團隊解散,負責AI安全的“最后一把鎖”被山姆·奧特曼砸碎,只能說在他眼里,AI安全并沒有利益和金錢重要。

全球400多位大佬聯名警告

排除異見,讓關于“安全性”的秘密保留在公司內部。

這個做法并不能滿足山姆·奧特曼,作為猶太裔的他,多疑是種天性。于是山姆·奧特曼強制性要求員工離職后一周內簽署一份極其嚴格的“離職協議”:

前OpenAI員工必須遵守的“保密條款”和“不貶低條款”,禁止任何時間、任何場合批評OpenAI,而且即使承認保密協議的存在也是違反該協議的行為;

如果離職員工拒絕簽署,或者違反協議規定,他們可能會失去既得股權,價值數百萬美元。

同時,這份“離職協議”的期限是:終生,直至死亡。

不得不說,作為硅谷最有權勢的CEO,山姆奧特曼下手真狠。如果把這份“警惕員工”的保密精神,用在AI安全上,可能就不會有所謂的人類AI危機了。

最為“癲”的事情來了,山姆·奧特曼一邊被外界指責忽視AI安全,一邊又在國際AI領域非營利組織“人工智能安全中心”(Center for AI Safety)聯名發布公開信,表達了對一些高級人工智能所帶來嚴重風險的擔憂。

是的,不止你會寫信,我也會。

從規模上看,“人工智能安全中心”的聯名信目前已有400多名全球的人工智能領域科學家、企業高管等簽署,影響力更為深遠。

全文只有簡短的一句話:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

(減輕人工智能帶來的人類滅絕風險,應該與大流行病和核戰爭等其他影響社會的大規模風險一同成為全球性的優先事項。)

狠話雖然放出去了,但沒人執行。

在目前的頭部AI公司中,普遍對AI安全性并不關注。OpenAI背后的金主微軟,早在2023年3月就裁撤了整個人工智能部門內道德與社會團隊。

在互聯網巨企眼中,市場份額遠遠比“虛無縹緲”的安全性更為關鍵。

AI會不會變成“智械危機”?

將AI視為“大流行病、核戰爭”同等致命危險,并不是危言聳聽。

在人工智能 (AI) 技術的飛速發展下,機器人逐漸成為我們日常生活和工作中的重要組成部分。以目前AI的發展情況來說,人工智能對人類造成生存風險,至少有兩種可能。

第一種:短期內的AI危機,就是在AI智能程度還不夠完善,人類會利用AI來顛覆社會安全。例如,等到AI大模型集體開源的時候,一些不法之徒利用不加限制的開源代碼,采購一些英偉達GPU、再向微軟租個云服務器,大批量制造出“灰色機器人”。

這些不加節制、又難以溯源的AI,對人類社會的破壞堪比一枚“電子核彈”。

第二種:遠期的AI危機,則更接近電影、游戲中的“智械危機”。

當AI來到超級智能的時代,由于智力水平可能遠超過人類,超級智能看待人類如同人類看待螞蟻,很多人據此認為超級智能將與人類爭奪資源,甚至危及到人類的生存。

面對可能對人類社會造成影響的AI危機,谷歌旗下DeepMind公司,在今年初就起草了“機器人憲法”,以確保AI機器人不會傷害人類。

以艾薩克?阿西莫夫的“機器人三大定律”為前提,“機器人憲法”明確要求AI機器人在家庭、辦公室、工廠等環境場景中,機器人的行為將受到嚴格的限制,以確保它們在執行任務時不會對人類、動物、尖銳物體甚至電器造成傷害。

此外,該憲法還強調了機器人的自主性和創造性,使得它們能夠在人類無法勝任的環境中執行任務。

或許,機器人憲法給AI時代開了個好頭,但面臨日益嚴峻的AI安全性問題上,普通人需要得到的保護還不夠多。

最起碼,先讓那些互聯網巨企們知道,AI并不簡簡單單是筆賺錢的生意,還有可能成為一枚“電子核彈”。

本文為轉載內容,授權事宜請聯系原著作權人。

OpenAI

  • OpenAI與微軟商討未來合作
  • 搶占微軟地盤?OpenAI或開發能聊天的“AI版Office”

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

AI“滅絕”人類前,OpenAI已經被罵慘了

“智械危機”可能會爆發。

文|鋅財經 孫鵬越

編輯|大風

OpenAI的瓜還在繼續,甚至已經上升到人類存亡的歷史高度。

就在上周,頭部AI公司OpenAI和谷歌的13位員工(7名OpenAI前員工和4名現任員工,1名谷歌DeepMind現任員工和1名前員工),公開發表了一封名為《對先進人工智能發出警告的權利》的聯名信。

在信中,他們用一種極為驚悚的語調表示:“人工智能可能帶來的人類滅絕風險”。

大權獨攬的山姆·奧特曼

目前,這封公開信已經引發AI世界的大地震。

甚至還獲得了兩位2018年圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、喬弗里·辛頓(Geoffrey Hinton)的署名支持。

OpenAI和谷歌的員工們在信中曝光出一個非常驚悚的言論:

“AI公司掌握了他們正在研究的人工智能技術的真正風險所在,但由于他們不需要向政府披露太多信息,因此他們系統的真正能力仍是一個‘秘密’。如果沒有適當的監管,人工智能系統可以強大到足以造成嚴重危害,甚至‘滅絕人類’。”

據信中所說,當前AI公司已經了解到安全性的嚴重程度,但是在高層內部正在產生分歧甚至分裂,大多數高層認為利潤至上,小部分高層認為安全性更為重要。

不得不說,這封公開信戳中了OpenAI的內部問題,甚至隱晦指出去年爆發的“OpenAI政變危機”,以及首席科學家伊利亞·蘇斯克沃(Ilya Sutskever)的下臺。

去年11月,OpenAI爆發政變,首席科學家伊利亞·蘇斯克沃聯合董事會,將CEO山姆·奧特曼和總裁格雷格·布羅克曼開除。

這場宮斗鬧劇吸引了全世界的目光,最終導致背后金主微軟的下場,伊利亞·蘇斯克沃政變失敗,山姆·奧特曼官復原職。

據悉,雙方最大的矛盾點,就在于AI安全性。

山姆·奧特曼加速OpenAI商業化,在不確定安全性是否會帶來嚴重后果的前提下,依然成立GPT應用商店,允許私人創建GPT機器人,開放“灰色機器人”入駐ChatGPT。

在OpenAI主要負責AI監督工作的伊利亞·蘇斯克沃,堅持AI安全才是OpenAI的核心,而非商業化,對山姆·奧特曼大刀闊斧的加速商業化進程非常不滿。

在2023年爆發過多次高層會議爭斗之后,最終實施政變。

在政變失敗后,山姆·奧特曼徹底將OpenAI變成“一言堂”,解除多位政見不合的董事職位,將伊利亞·蘇斯克沃雪藏半年后開除。

共同創建OpenAI的10年老搭檔黯然出局,但山姆·奧特曼依然沒有收手,甚至將安全部門視為“亂黨黨羽”,也要一一肅清。

伊利亞·蘇斯克沃負責的超級對齊團隊,原本是為能夠智勝和壓倒創造者的超級智能人工智能的出現做準備,在伊利亞·蘇斯克沃離開后,團隊直接解散,幾名相關研究人員離職。

制約OpenAI風險控制團隊解散,負責AI安全的“最后一把鎖”被山姆·奧特曼砸碎,只能說在他眼里,AI安全并沒有利益和金錢重要。

全球400多位大佬聯名警告

排除異見,讓關于“安全性”的秘密保留在公司內部。

這個做法并不能滿足山姆·奧特曼,作為猶太裔的他,多疑是種天性。于是山姆·奧特曼強制性要求員工離職后一周內簽署一份極其嚴格的“離職協議”:

前OpenAI員工必須遵守的“保密條款”和“不貶低條款”,禁止任何時間、任何場合批評OpenAI,而且即使承認保密協議的存在也是違反該協議的行為;

如果離職員工拒絕簽署,或者違反協議規定,他們可能會失去既得股權,價值數百萬美元。

同時,這份“離職協議”的期限是:終生,直至死亡。

不得不說,作為硅谷最有權勢的CEO,山姆奧特曼下手真狠。如果把這份“警惕員工”的保密精神,用在AI安全上,可能就不會有所謂的人類AI危機了。

最為“癲”的事情來了,山姆·奧特曼一邊被外界指責忽視AI安全,一邊又在國際AI領域非營利組織“人工智能安全中心”(Center for AI Safety)聯名發布公開信,表達了對一些高級人工智能所帶來嚴重風險的擔憂。

是的,不止你會寫信,我也會。

從規模上看,“人工智能安全中心”的聯名信目前已有400多名全球的人工智能領域科學家、企業高管等簽署,影響力更為深遠。

全文只有簡短的一句話:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

(減輕人工智能帶來的人類滅絕風險,應該與大流行病和核戰爭等其他影響社會的大規模風險一同成為全球性的優先事項。)

狠話雖然放出去了,但沒人執行。

在目前的頭部AI公司中,普遍對AI安全性并不關注。OpenAI背后的金主微軟,早在2023年3月就裁撤了整個人工智能部門內道德與社會團隊。

在互聯網巨企眼中,市場份額遠遠比“虛無縹緲”的安全性更為關鍵。

AI會不會變成“智械危機”?

將AI視為“大流行病、核戰爭”同等致命危險,并不是危言聳聽。

在人工智能 (AI) 技術的飛速發展下,機器人逐漸成為我們日常生活和工作中的重要組成部分。以目前AI的發展情況來說,人工智能對人類造成生存風險,至少有兩種可能。

第一種:短期內的AI危機,就是在AI智能程度還不夠完善,人類會利用AI來顛覆社會安全。例如,等到AI大模型集體開源的時候,一些不法之徒利用不加限制的開源代碼,采購一些英偉達GPU、再向微軟租個云服務器,大批量制造出“灰色機器人”。

這些不加節制、又難以溯源的AI,對人類社會的破壞堪比一枚“電子核彈”。

第二種:遠期的AI危機,則更接近電影、游戲中的“智械危機”。

當AI來到超級智能的時代,由于智力水平可能遠超過人類,超級智能看待人類如同人類看待螞蟻,很多人據此認為超級智能將與人類爭奪資源,甚至危及到人類的生存。

面對可能對人類社會造成影響的AI危機,谷歌旗下DeepMind公司,在今年初就起草了“機器人憲法”,以確保AI機器人不會傷害人類。

以艾薩克?阿西莫夫的“機器人三大定律”為前提,“機器人憲法”明確要求AI機器人在家庭、辦公室、工廠等環境場景中,機器人的行為將受到嚴格的限制,以確保它們在執行任務時不會對人類、動物、尖銳物體甚至電器造成傷害。

此外,該憲法還強調了機器人的自主性和創造性,使得它們能夠在人類無法勝任的環境中執行任務。

或許,機器人憲法給AI時代開了個好頭,但面臨日益嚴峻的AI安全性問題上,普通人需要得到的保護還不夠多。

最起碼,先讓那些互聯網巨企們知道,AI并不簡簡單單是筆賺錢的生意,還有可能成為一枚“電子核彈”。

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 西宁市| 广平县| 特克斯县| 宜丰县| 桃江县| 咸丰县| 象州县| 北宁市| 民县| 泸溪县| 平利县| 石林| 新源县| 屏边| 平安县| 那坡县| 鹿邑县| 诸城市| 汤原县| 宁晋县| 黎平县| 吉首市| 漠河县| 微博| 平凉市| 亚东县| 南部县| 汝南县| 龙江县| 宜兰市| 沐川县| 菏泽市| 布尔津县| 南阳市| 哈尔滨市| 静海县| 南岸区| 分宜县| 花莲市| 沂水县| 葵青区|