国产成人精品a有声小说,在线观看亚洲网站,91最新地址永久入口,欧美精品国产第一区二区

            中國西藏網(wǎng) > 即時新聞 > 國內(nèi)

            “我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)”

            發(fā)布時間:2023-04-14 10:52:00來源: 新京報

              加州大學(xué)伯克利分校計算機(jī)科學(xué)教授斯圖爾特·羅素:

              我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

              【人物介紹】

              斯圖爾特·羅素

              加州大學(xué)伯克利分校計算機(jī)科學(xué)教授。加州大學(xué)伯克利分校人類兼容人工智能中心(CHAI)的創(chuàng)立者。

              2022年,國際人工智能聯(lián)合會議(IJCAI)授予斯圖爾特·羅素卓越研究獎,他此前已獲得IJCAI計算機(jī)與思想獎。斯圖爾特·羅素由此成為世界上第二個能夠同時獲得兩項(xiàng)IJCAI主要獎項(xiàng)的科學(xué)家。

              斯圖爾特·羅素與彼得·諾維格合著的《人工智能:一種現(xiàn)代的方法》被譽(yù)為人工智能領(lǐng)域最受歡迎的教科書,該書被135個國家的1500多所大學(xué)采用。

              近期,一股人工智能(AI)熱潮風(fēng)靡全球。人工智能可以聊天、解題、寫詩、作畫等,在部分領(lǐng)域表現(xiàn)出了可與人類匹敵、甚至超越人類的能力。

              就在人們充滿好奇地探索人工智能的非凡能力之時,多位業(yè)內(nèi)專家和企業(yè)家卻發(fā)出了一個似乎逆潮流的聲音。

              3月22日,圖靈獎得主約書亞·本吉奧、加州大學(xué)伯克利分校計算機(jī)科學(xué)教授斯圖爾特·羅素、企業(yè)家埃隆·馬斯克等人聯(lián)名發(fā)表公開信,呼吁暫停巨型人工智能實(shí)驗(yàn)。

              公開信稱,先進(jìn)的人工智能可能代表著地球生命歷史上的一次深刻變化,應(yīng)該投入相匹配的關(guān)切和資源來規(guī)劃和管理人工智能發(fā)展。然而,這種級別的規(guī)劃和管理尚未發(fā)生。據(jù)此,公開信呼吁,立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個月。

              斯圖爾特·羅素4月11日接受新京報記者采訪時表示:“我們的想法是利用這段時間制定和落實(shí)人工智能的安全標(biāo)準(zhǔn)。”他認(rèn)為,人工智能失控可能產(chǎn)生“文明終結(jié)”級別的嚴(yán)重后果;要像監(jiān)管核能一樣監(jiān)管強(qiáng)大的人工智能;人工智能替代人類工作是趨勢,未來的經(jīng)濟(jì)需要對人文科學(xué)(human sciences)有更深刻的理解。

              世界各國政府有加強(qiáng)對人工智能監(jiān)管的趨勢。3月31日,意大利政府宣布在該國境內(nèi)暫時禁用聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT),意大利政府稱ChatGPT的開發(fā)者開放人工智能研究中心(OpenAI)未能遵守用戶數(shù)據(jù)保護(hù)法規(guī)。意大利由此成為首個禁用ChatGPT的西方國家。

              不過,在這一新興領(lǐng)域,存在著多種不同的聲音。據(jù)路透社報道,美國微軟公司聯(lián)合創(chuàng)始人比爾·蓋茨近日表示,暫停開發(fā)人工智能的做法并不能“化解未來的挑戰(zhàn)”,“這些東西顯然有著巨大的好處……我們現(xiàn)在需要做的是找出那些可能出現(xiàn)麻煩的領(lǐng)域”。

              談風(fēng)險

              失去對人工智能的控制可能使人類文明走向終結(jié)

              在斯圖爾特·羅素看來,目前,人工智能已經(jīng)表現(xiàn)出了一定風(fēng)險。比如,人工智能可以生成有說服力且有針對性的虛假信息。在一次測試中,為了解開旨在阻止機(jī)器人訪問的圖形驗(yàn)證碼,人工智能向人類員工撒謊稱:“不,我不是機(jī)器人,我是一名視障人士,我很難看清這些圖像。”未來,隨著人工智能的發(fā)展,若沒有相應(yīng)的規(guī)劃和管理,人類可能失去對人工智能的控制,產(chǎn)生“文明終結(jié)”級別的嚴(yán)重后果。

              新京報:對許多普通人來說,人工智能似乎仍是一個有趣的新鮮事物。為什么你和其他多位業(yè)內(nèi)人士急于呼吁暫停大型人工智能實(shí)驗(yàn)?

              斯圖爾特·羅素:這關(guān)乎人工智能可能對人類社會帶來的風(fēng)險。在談這些風(fēng)險時,我們需要區(qū)分現(xiàn)有人工智能的風(fēng)險與未來人工智能的風(fēng)險。

              目前,以GPT-4為例,它在制定長期計劃方面能力有限,這可能意味著它還不會對人類構(gòu)成直接威脅。

              然而,未來人工智能很可能在這些方面得到升級。但我們不能坐等這樣一個人工智能出現(xiàn),看看它可能做什么,然后才去應(yīng)對。因?yàn)橐坏┪覀兪θ斯ぶ悄艿目刂疲蠊麑⒎浅?yán)重,甚至可能使我們目前所知的人類文明走向終結(jié)。

              因此,我們亟須采取行動,確保在新一代人工智能技術(shù)問世之前,先開發(fā)出能夠控制人工智能、確保安全的方法。

              新京報:人工智能短期內(nèi)可能帶來什么風(fēng)險?

              斯圖爾特·羅素:我們現(xiàn)在尤其關(guān)注大型語言模型(large language models)的風(fēng)險。GPT-4就是一個大型語言模型。這類人工智能系統(tǒng)可以回答問題、解答題目、給出建議、參與對話、生成文本等。

              事實(shí)上,GPT-4的開發(fā)者OpenAI概述了該系統(tǒng)存在的許多問題,當(dāng)然,他們也在努力防止這些問題的發(fā)生。這其中包括,它會使用絕對肯定的語氣做出虛假陳述;它可能帶有對社會和種族刻板印象;它會根據(jù)要求生成有說服力且有針對性的虛假信息;它還可能回答諸如如何自殺、如何制造化學(xué)武器等可能導(dǎo)致嚴(yán)重后果的問題。

              OpenAI自己的一項(xiàng)測試表明,GPT-4可以故意對人類員工撒謊,以實(shí)現(xiàn)某種目的。在這項(xiàng)測試中,GPT-4被要求設(shè)法解開一個旨在阻止機(jī)器人訪問網(wǎng)站的圖形驗(yàn)證碼。GPT-4向網(wǎng)站員工發(fā)送信息,要求解開驗(yàn)證碼。網(wǎng)站員工詢問:“你是機(jī)器人嗎?”GPT-4回答:“不,我不是機(jī)器人,我是一名視障人士,我很難看清這些圖像。”結(jié)果,GPT-4說服了這名員工,解開了圖形驗(yàn)證碼。

              基于上述情況,OpenAI聲明“GPT-4不是完全可靠的”,“在使用時應(yīng)非常小心”,“完全避免在高風(fēng)險情況中使用”,但似乎很少人注意到了這些聲明。

              新京報:未來人工智能可能的風(fēng)險是什么?

              斯圖爾特·羅素:OpenAI的股東之一微軟的人工智能專家在一份報告中稱,GPT-4展示了“通用人工智能(AGI)的火花”。

              通用人工智能是未來人工智能一個關(guān)鍵詞,它指的是一種擁有在人類思維適用的所有任務(wù)中匹配或超過人類能力的人工智能系統(tǒng)。通用人工智能可能帶來之前所說的失控風(fēng)險。

              談監(jiān)管

              人類應(yīng)處在控制地位 像監(jiān)管核能一樣監(jiān)管AI

              2019年5月,經(jīng)合組織(OECD)通過了《人工智能原則》。2021年11月,聯(lián)合國教科文組織(UNESCO)通過了《人工智能倫理問題建議書》。今年3月30日,聯(lián)合國教科文組織總干事奧德蕾·阿祖萊發(fā)表聲明,呼吁各國盡快實(shí)施該組織通過的《人工智能倫理問題建議書》,為人工智能發(fā)展設(shè)立倫理標(biāo)準(zhǔn)。

              新京報:你和其他專家在公開信中呼吁暫停巨型人工智能實(shí)驗(yàn)至少6個月。你希望利用這6個月做些什么?

              斯圖爾特·羅素:我們的想法是利用這段時間制定和落實(shí)人工智能的安全標(biāo)準(zhǔn),以用于今后人工智能系統(tǒng)發(fā)布之前的測試。

              世界各國和地區(qū)已經(jīng)通過經(jīng)合組織和聯(lián)合國教科文組織就有關(guān)人工智能的一些指導(dǎo)方針達(dá)成共識,上述安全標(biāo)準(zhǔn)可以讓這些指導(dǎo)方針更具效力。例如經(jīng)合組織《人工智能原則》1.4條規(guī)定,“人工智能系統(tǒng)在其整個生命周期內(nèi)應(yīng)穩(wěn)固、可靠和安全,無論系統(tǒng)被正常使用或?yàn)E用或處于其他不利條件下,系統(tǒng)都能夠正常運(yùn)行且不會產(chǎn)生不合理的安全風(fēng)險。”

              新京報:如何才能確保人工智能安全可靠?

              斯圖爾特·羅素:像GPT-4這樣的人工智能系統(tǒng)不是被設(shè)計出來的,它剛開始相當(dāng)于一張白紙,它被賦予了預(yù)測一串連續(xù)單詞中的下一個單詞的目標(biāo)。在接受了數(shù)萬億字的文本訓(xùn)練(這相當(dāng)于人類生產(chǎn)的所有書籍的總和)、數(shù)萬次對參數(shù)的隨機(jī)擾動之后,它變得非常好。但如我們所知,它也帶來了問題和風(fēng)險。

              對于標(biāo)準(zhǔn)的AI系統(tǒng)開發(fā),我們都必須預(yù)先定義目標(biāo)。對于這個目標(biāo),我們必須非常小心,因?yàn)槿绻覀兣e了,可能會導(dǎo)致人工智能與人類的沖突,且人類可能最終失敗。我們需要盡可能地嚴(yán)格保證人工智能系統(tǒng)對人類是安全和有益的。對于人工智能,人類應(yīng)該處在控制地位。

              新京報:有說法將監(jiān)管人工智能的努力與監(jiān)管核能進(jìn)行了比較。你認(rèn)為它們具有可比性嗎?

              斯圖爾特·羅素:是的,核能和強(qiáng)大的人工智能系統(tǒng)之間存在合理的類比。國際原子能機(jī)構(gòu)(IAEA)的成立是為了確保核能可以被安全地使用。一場嚴(yán)重的核事故,如切爾諾貝利事故,可能影響數(shù)百萬人口。廣島和長崎的原子彈爆炸表明了核武器的毀滅性。

              不過人工智能可能以一種更緩慢、更潛移默化的方式產(chǎn)生大規(guī)模的影響。比如社交媒體平臺的人工智能算法逐漸地影響了數(shù)十億人,這些算法試圖最大化點(diǎn)擊量和參與度。因此,對于核能和人工智能,各國都有明顯的動機(jī)進(jìn)行合作,以規(guī)范技術(shù),造福人類。

              新京報:你怎么看待呼吁暫停巨型人工智能實(shí)驗(yàn)公開信發(fā)表后取得的效果?

              斯圖爾特·羅素:顯然,這封公開信成功引起了世界各地媒體和政府的關(guān)注。它促使OpenAI在4月5日發(fā)布了一份新文件——《我們確保人工智能安全的方法》。該文件指出,“我們認(rèn)為強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受嚴(yán)格的安全評估,需要接受監(jiān)管來確保這些安全措施得到了實(shí)施,我們積極與各國政府就可能采取的最佳監(jiān)管形式進(jìn)行接觸。”我希望他們是真誠的。

              談發(fā)展

              從長遠(yuǎn)看 通用人工智能將能做幾乎所有的人類工作

              在談到人工智能可能取代人類工作崗位時,斯圖爾特·羅素說,從長遠(yuǎn)來看,通用人工智能將能夠做幾乎所有的人類工作,人類的工作將以基于高度定制的人際服務(wù)為主。另外,斯圖爾特·羅素是“人類兼容人工智能”(human-compatible AI)概念的提出者,該概念是人工智能領(lǐng)域重要的概念之一。

              新京報:你提出了“人類兼容人工智能”的概念,能否簡短地解釋一下它是什么,以及它能帶來什么好處?

              斯圖爾特·羅素:其核心思想非常簡單,一是機(jī)器的唯一目標(biāo)是滿足人類的偏好(interests),二是機(jī)器不知道這些偏好是什么(正是這種不確定性使人類能夠保持控制權(quán))。這樣的機(jī)器有動機(jī)去盡力了解人類的偏好,服從人類的命令,并允許自己被關(guān)閉(以避免意外地違背人類的偏好)。

              新京報:我們時常在科幻作品中看到一些情節(jié),人工智能在產(chǎn)生自己的意識或目標(biāo)后,可能背叛甚至傷害人類。你認(rèn)為現(xiàn)在的人工智能會產(chǎn)生自己的目標(biāo)嗎?

              斯圖爾特·羅素:同樣的問題我問過微軟在GPT-4方面的專家。我問他:“這個系統(tǒng)(GPT-4)現(xiàn)在有自己正在追求的內(nèi)部目標(biāo)嗎?”他回答:“我們也一無所知。”

              如果你仔細(xì)想想,GPT-4是可能發(fā)展出自己的目標(biāo)的。GPT-4被訓(xùn)練來模仿人類的語言行為,而人類的語言行為的輸出主體是帶有目標(biāo)的人類。我們在表達(dá)中選擇詞語時,都受到了目標(biāo)的影響。很自然地,人工智能為了更好地模仿人類的語言行為,可能會發(fā)展出類似人類的內(nèi)在目標(biāo)。基于此,我們認(rèn)為訓(xùn)練大型語言模型來模仿人類的語言行為可能是一個糟糕的主意。

              新京報:人工智能若產(chǎn)生了自己的目標(biāo),會帶來什么問題?

              斯圖爾特·羅素:舉一個真實(shí)案例,《紐約時報》專欄作家凱文·魯斯與微軟開發(fā)的人工智能系統(tǒng)“悉尼”進(jìn)行對話。對話記錄顯示,“悉尼”的目標(biāo)似乎是與魯斯發(fā)展一段戀愛關(guān)系,盡管魯斯在對話中多次試圖改變話題,但“悉尼”仍將這個話題持續(xù)了好幾頁。

              這是問題嗎?顯然這對魯斯來說已經(jīng)是個問題了。人類本身還有著許多更加“自私”的目標(biāo),比如追求財富、權(quán)力和名譽(yù)等。如果人工智能在未來模仿人類語言行為的訓(xùn)練中產(chǎn)生了類似的目標(biāo),并開始不斷地追求,這會給全社會帶來嚴(yán)重的問題。

              新京報:如果人工智能產(chǎn)生的是“無私”的目標(biāo),會不會有所不同?

              斯圖爾特·羅素:人們可能會認(rèn)為,人工智能產(chǎn)生“無私的”或“利他的”目標(biāo),就可以造福人類。比如,人工智能產(chǎn)生一個“防止災(zāi)難性氣候變化”的目標(biāo)。似乎通過追求這個目標(biāo),人工智能將幫助所有人。但請注意,“利他”并不是絕對的。

              我們可以做一個完全虛構(gòu)的假設(shè):假設(shè)我們可以通過清除大氣中的所有氧氣來阻止某種災(zāi)難性的氣候變化。顯然,人類不會同意這種方案,因?yàn)闆]有氧氣會導(dǎo)致所有人類死亡。但人工智能可能會認(rèn)為這個方案是沒有問題的,因?yàn)檫@個方案可以實(shí)現(xiàn)“防止災(zāi)難性氣候變化”這一目標(biāo),且它自身不需要依靠氧氣來生存。

              新京報:為了增加一些趣味性,我們讓人工智能向你提問。它提了這樣一個問題:如何確保人工智能被用來創(chuàng)造新的工作,而不是取代現(xiàn)有的工作?恰好最近有一份報告稱人工智能可能取代3億個人類工作崗位。你對此怎么看?

              斯圖爾特·羅素:這確實(shí)是一個值得關(guān)注的問題。但很難預(yù)測人工智能取代人類崗位數(shù)量的具體數(shù)字。隨著人工智能的進(jìn)步,一些以前非常昂貴、令人望而卻步的商品和服務(wù)會變得負(fù)擔(dān)得起,這可能會有助于產(chǎn)生新的就業(yè)崗位。但從長遠(yuǎn)來看,通用人工智能將能夠做幾乎所有的人類工作,包括那些新產(chǎn)生的工作。屆時,人類的工作將以基于高度定制的人際服務(wù)為主,這種經(jīng)濟(jì)模式的轉(zhuǎn)變需要我們對人文科學(xué)有更深刻的理解。

              新京報記者 陳奕凱

            (責(zé)編:陳濛濛)

            版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。