每日經(jīng)濟(jì)新聞 2023-06-10 21:45:07
◎如何確保越發(fā)強(qiáng)大和通用的人工智能系統(tǒng)安全可控,符合人類意圖和價(jià)值觀?這一問(wèn)題可能是本世紀(jì)人類社會(huì)面臨的最緊迫和最有意義的科學(xué)挑戰(zhàn)之一。OpenAI聯(lián)合創(chuàng)始人Sam Altman與北京智源人工智能研究院理事長(zhǎng)張宏江就此展開對(duì)話。
每經(jīng)記者 李少婷 每經(jīng)編輯 文多
圖片來(lái)源:主辦方提供
“未來(lái)的10年內(nèi),我們可能會(huì)擁有超強(qiáng)的AI系統(tǒng)。”6月10日上午,在2023北京智源大會(huì)“AI安全與對(duì)齊”專題論壇上,OpenAI聯(lián)合創(chuàng)始人Sam Altman(以下稱薩姆·奧特曼)對(duì)話北京智源人工智能研究院(BAAI)理事長(zhǎng)張宏江時(shí)說(shuō)道。
大模型時(shí)代,如何確保越發(fā)強(qiáng)大和通用的人工智能系統(tǒng)安全可控,且符合人類意圖和價(jià)值觀?這一問(wèn)題可能是本世紀(jì)人類社會(huì)面臨的最緊迫和最有意義的科學(xué)挑戰(zhàn)之一。
在薩姆·奧特曼看來(lái),隨著越來(lái)越強(qiáng)大的人工智能系統(tǒng)出現(xiàn),全球合作的價(jià)值變得前所未有的重要。他指出,推進(jìn)人工通用智能系統(tǒng)(AGI)安全是各方尋找共同利益的重要領(lǐng)域之一。
薩姆·奧特曼介紹,GPT-4從完成預(yù)訓(xùn)練到部署,花了8個(gè)月的時(shí)間來(lái)研究如何前置預(yù)判風(fēng)險(xiǎn)并給出對(duì)策,“GPT-4的對(duì)齊程度超過(guò)當(dāng)前所有的代碼”。
薩姆·奧特曼呼吁,必須為魯莽的開發(fā)和部署可能引發(fā)的問(wèn)題負(fù)起責(zé)任。援引《道德經(jīng)》中的“千里之行,始于足下”后,他表示:“最有建設(shè)性的第一步是與國(guó)際科技界展開合作,推動(dòng)建立一個(gè)關(guān)于增加AGI安全技術(shù)發(fā)展方面的透明度和知識(shí)共享的機(jī)制,發(fā)現(xiàn)緊急問(wèn)題的研究人員應(yīng)該與更多人共享研究成果”。
在回應(yīng)張宏江關(guān)于國(guó)際合作的相關(guān)問(wèn)題時(shí),薩姆·奧特曼指出,中國(guó)擁有一些世界上最優(yōu)秀的AI系統(tǒng),從根本上講,他認(rèn)為這使研究人員在解決許多不同的AI系統(tǒng)的問(wèn)題上,面臨困難。中國(guó)是世界上最好的地方,他真誠(chéng)希望中國(guó)和美國(guó)的研究人員能對(duì)此做出巨大貢獻(xiàn)。
以下為演講及問(wèn)答實(shí)錄,有部分刪減——
薩姆·奧特曼的演講
“我們必須為魯莽的開發(fā)和部署可能引發(fā)的問(wèn)題負(fù)起責(zé)任”
薩姆·奧特曼 圖片來(lái)源:主辦方提供
我最近在做全球巡回的訪問(wèn),期間穿越五大洲近20個(gè)國(guó)家,接觸了諸多的學(xué)生、開發(fā)者,這趟出行令人振奮,我們見證了全球各地的人們利用OpenAI的新技術(shù)來(lái)改變生活方式,我們也獲得了非常寶貴的意見,以便于讓我們的工具優(yōu)化得更好。此外,我也有機(jī)會(huì)拜訪了多位外國(guó)領(lǐng)導(dǎo)人,討論確保越來(lái)越強(qiáng)大的人工智能系統(tǒng)安全部署所需的各種基礎(chǔ)工作。
坦白說(shuō),世界的注意力主要集中在解決當(dāng)今的人工智能問(wèn)題上,很多問(wèn)題的解決非常迫切,我們還有很多工作要做,不過(guò)鑒于我們已經(jīng)取得的進(jìn)展,我相信我們會(huì)實(shí)現(xiàn)目標(biāo)。
今天,我想談?wù)勎磥?lái)。具體來(lái)說(shuō),我們正在看到人工智能能力的迅速增長(zhǎng),現(xiàn)在需要做的是負(fù)責(zé)任地將其應(yīng)用到世界中去??茖W(xué)的歷史告訴我們,技術(shù)進(jìn)步遵循指數(shù)曲線。這在農(nóng)業(yè)、工業(yè)和計(jì)算革命中得到了驗(yàn)證?,F(xiàn)在,我們親眼目睹人工智能變革,不僅因?yàn)槲覀冋谝娮C它,而且因?yàn)樗鼛?lái)的變革速度。
它正在迅速拓展人類的想象力。想象一下,在未來(lái)十年,人工通用智能系統(tǒng)(常稱為AGI)將會(huì)超過(guò)上世紀(jì)90年代初人類所具備的專業(yè)水平,這些系統(tǒng)最終可能超過(guò)人類最大體量公司的總體生產(chǎn)力。這里的潛在收益是巨大的。
人工智能革命將帶來(lái)可共享的財(cái)富,使改善人類互動(dòng)標(biāo)準(zhǔn)成為可能,但我們必須管理好風(fēng)險(xiǎn),并共同努力來(lái)實(shí)現(xiàn)預(yù)期目標(biāo)。我時(shí)常感謝一些人放棄他們應(yīng)有的權(quán)益來(lái)實(shí)現(xiàn)人類共同的目標(biāo),在今天很多領(lǐng)域仍然如此——大國(guó)之間經(jīng)常通過(guò)合作的方式來(lái)實(shí)現(xiàn)共同目標(biāo),這種形式的合作對(duì)關(guān)鍵的醫(yī)學(xué)和科學(xué)進(jìn)展都會(huì)帶來(lái)好處,比如根除小兒麻痹癥和天花等疾病,以及全球減少氣候變化風(fēng)險(xiǎn)的努力。
隨著越來(lái)越強(qiáng)大的人工智能系統(tǒng)的出現(xiàn),全球合作的利益變得前所未有的重要。如果我們不做好規(guī)劃,一個(gè)設(shè)計(jì)用于改善公共衛(wèi)生結(jié)果的未對(duì)齊的AI系統(tǒng),可能會(huì)通過(guò)提供不平衡的建議來(lái)破壞整個(gè)集體系統(tǒng)。同樣,一個(gè)旨在優(yōu)化農(nóng)業(yè)實(shí)踐的人工智能系統(tǒng)可能會(huì)無(wú)意中損害經(jīng)濟(jì)和造成資源消耗,缺乏對(duì)長(zhǎng)期可持續(xù)性的考慮,從而影響食物生產(chǎn)和環(huán)境平衡。我希望我們都能認(rèn)同,推進(jìn)AGI安全是我們尋找共同立場(chǎng)的最重要領(lǐng)域之一,我希望把時(shí)間都集中在我們已經(jīng)開始的領(lǐng)域。
其中一個(gè)領(lǐng)域是AGI治理。AGI的力量可以從根本上改變我們的文明,這突顯了有意義的國(guó)際合作、協(xié)調(diào)的必要性,每個(gè)人都會(huì)從積極的治理方法中受益。如果我們將這個(gè)核心的最先進(jìn)政策網(wǎng)絡(luò)化,AGI系統(tǒng)可以為全球經(jīng)濟(jì)創(chuàng)造無(wú)與倫比的經(jīng)濟(jì)豐富,解決共同的挑戰(zhàn),如氣候變化、全球健康安全,并在無(wú)數(shù)其他方面提升社會(huì)福祉,我深信這也是未來(lái)。我們深處同一個(gè)星球,需要明確投資AGI的安全性的意義。
我們必須為魯莽的開發(fā)和部署可能引發(fā)的問(wèn)題負(fù)起責(zé)任,其中最重要的兩個(gè)領(lǐng)域是:首先,我們需要建立起包容的國(guó)際準(zhǔn)則和標(biāo)準(zhǔn),并在所有國(guó)家對(duì)AGI的使用中建立平等、統(tǒng)一的防護(hù)措施。其次,我們需要國(guó)際合作,以可驗(yàn)證的方式在全球范圍內(nèi)建立對(duì)越來(lái)越強(qiáng)大的AGI系統(tǒng)安全開發(fā)的信任,我知道這并不容易。
在國(guó)際社會(huì)上,我們需要對(duì)安全進(jìn)行長(zhǎng)期的關(guān)注和投入,以確保我們做得正確?!兜赖陆?jīng)》提醒我們,“千里之行,始于足下”,最有建設(shè)性的第一步是與國(guó)際科技界展開合作,推動(dòng)建立一個(gè)關(guān)于增加AGI安全技術(shù)發(fā)展方面的透明度和知識(shí)共享的機(jī)制,發(fā)現(xiàn)緊急問(wèn)題的研究人員應(yīng)該與更多人共享研究成果。
我們需要更加深入地思考如何在鼓勵(lì)推動(dòng)國(guó)際合作的同時(shí)尊重和保護(hù)知識(shí)產(chǎn)權(quán)。如果我們做得好,這將為我們打開深化合作的新大門。更廣泛地說(shuō),我們應(yīng)該推動(dòng)并引導(dǎo)與安全研究一致的投資。
當(dāng)前,我們關(guān)注的是如何使AI系統(tǒng)成為一個(gè)有益和安全的助手,這對(duì)應(yīng)的是如何訓(xùn)練模型,使其在沒(méi)有安全威脅的前提下發(fā)揮積極作用,不過(guò),隨著AGI時(shí)代的接近,其帶來(lái)的潛在影響、問(wèn)題將呈指數(shù)級(jí)增長(zhǎng),所以,我們需要通過(guò)主動(dòng)應(yīng)對(duì)AGI帶來(lái)的潛在挑戰(zhàn),將未來(lái)災(zāi)難性后果的風(fēng)險(xiǎn)降至最低。
從GPT-4完成預(yù)訓(xùn)練到部署,我們花了八個(gè)月的時(shí)間來(lái)研究如何前置預(yù)判風(fēng)險(xiǎn)并給出對(duì)策。我們認(rèn)為我們走在了正確的道路上,GPT-4的對(duì)齊程度超過(guò)當(dāng)前所有的代碼。不過(guò),對(duì)于更高級(jí)的系統(tǒng),對(duì)齊仍然是一個(gè)尚未解決的問(wèn)題,我們認(rèn)為需要新的技術(shù)方法以及加強(qiáng)治理監(jiān)督,畢竟未來(lái)的AGI,可能是一個(gè)十萬(wàn)行二進(jìn)制代碼的系統(tǒng)。
人類監(jiān)督者很難判斷如此規(guī)模的模型是否在做一些有害的事情。因此,我們正在投資于幾個(gè)新的,并且希望能取得成果的方向,其中之一是可擴(kuò)展的監(jiān)督,嘗試使用AI系統(tǒng)來(lái)協(xié)助人類監(jiān)督其他AI系統(tǒng)。例如,我們可以訓(xùn)練一個(gè)模型來(lái)幫助人類監(jiān)督員找出其他模型代碼中的缺陷。
第二個(gè)方向是可解釋性。我們希望更好地理解模型內(nèi)部發(fā)生的事情,我們最近發(fā)表了一篇論文,使用GPT-4來(lái)解釋計(jì)算機(jī)的復(fù)雜狀態(tài)。雖然還有很長(zhǎng)的路要走,但我們相信先進(jìn)的機(jī)器學(xué)習(xí)技術(shù)可以進(jìn)一步提高我們解釋的能力。
最終,我們的目標(biāo)是訓(xùn)練AI系統(tǒng)具備更好地優(yōu)化自身的能力,這種方法的一個(gè)有前景的方面在于——它可以與AI的發(fā)展速度相適應(yīng)。隨著未來(lái)的模型變得越來(lái)越智能和強(qiáng)大,作為助手,我們將找到更好的學(xué)習(xí)技術(shù),在充分發(fā)揮AI的非凡好處的同時(shí)降低風(fēng)險(xiǎn)。
我們認(rèn)為,美國(guó)、中國(guó)乃至世界各地的研究人員,在應(yīng)對(duì)AI領(lǐng)域的技術(shù)挑戰(zhàn)上的合作,存在巨大潛力。試想,下人類可以利用AI來(lái)解決世界上最重要的問(wèn)題,大幅改善生存條件和質(zhì)量。
圖片來(lái)源:主辦方提供
張宏江對(duì)話薩姆·奧特曼
張宏江:您提到了正在和歐盟、其他AI領(lǐng)域溝通全球治理,現(xiàn)在進(jìn)展如何?我們距離AGI時(shí)代還有多遠(yuǎn),有沒(méi)有什么可以證明距離這一天還很遙遠(yuǎn)?假設(shè)我們發(fā)現(xiàn)了安全的人工智能,是否意味著也找到了不安全的人工智能?
薩姆·奧特曼:這很難預(yù)測(cè),仍然需要不斷地研究才能提供結(jié)論,并且這條路不會(huì)一帆風(fēng)順,但AGI可能很快就會(huì)發(fā)生,但在未來(lái)的10年內(nèi),我們可能會(huì)擁超強(qiáng)的AI系統(tǒng)。
在那種情況下,全球監(jiān)管就非常的緊迫,而且歷史上也出現(xiàn)過(guò)很多新技術(shù)改變世界的相關(guān)的案例,現(xiàn)在這種改變速度正變得更快,考慮到這種緊迫性,我認(rèn)為準(zhǔn)備好迎接這一切并就安全問(wèn)題作出正確回答非常重要。
張宏江:所以,您覺得這(正確回答安全相關(guān)的問(wèn)題)是我們的優(yōu)先事項(xiàng)?
薩姆·奧特曼:我想強(qiáng)調(diào)的是,我們并不確切知道(未來(lái)可能會(huì)如何),尤其是現(xiàn)在對(duì)人工智能的定義存在差異,但我認(rèn)為在10年內(nèi),我們應(yīng)該為一個(gè)擁有超強(qiáng)AI系統(tǒng)的世界做好準(zhǔn)備。
張宏江:您提到,OpenAI是一個(gè)致力于全球合作的機(jī)構(gòu),你們正在推動(dòng)的全球合作有哪些,獲得了哪些回應(yīng),有什么感受?
薩姆·奧特曼:我認(rèn)為人們非常重視AGI的風(fēng)險(xiǎn)和機(jī)遇。在過(guò)去的6個(gè)月里,相關(guān)討論已經(jīng)發(fā)生了很大變化。人們似乎真心致力于找到一種機(jī)制,既能讓我們享受這些好處,又能在全球范圍內(nèi)共同努力減輕風(fēng)險(xiǎn),我認(rèn)為我們?cè)谶@方面做得不錯(cuò)。
全球合作始終是困難的,但我認(rèn)為這種機(jī)遇和威脅確實(shí)能夠讓世界走到一起,我們可以為這些系統(tǒng)制定一個(gè)框架和安全標(biāo)準(zhǔn),這非常有幫助。
張宏江:在之前有沒(méi)有的成功的案例,您能舉個(gè)例子嗎?
薩姆·奧特曼:我們已經(jīng)消除了一些全球合作的障礙。我們已經(jīng)解決了技術(shù)上的困難,例如真實(shí)世界交易的問(wèn)題。有很多例子可以說(shuō)明我們已經(jīng)有所突破。
張宏江:您提到了先進(jìn)AI系統(tǒng)的對(duì)齊問(wèn)題,我也注意到在過(guò)去幾年中,許多AI系統(tǒng)都付出了很多努力來(lái)優(yōu)化其對(duì)齊性能,我們可以在近些年里完成對(duì)AI安全的研究嗎?
薩姆·奧特曼:我認(rèn)為“對(duì)齊”這個(gè)詞在不同的方式中被使用。我認(rèn)為我們需要解決整個(gè)挑戰(zhàn),即能夠安全地訪問(wèn)系統(tǒng)意味著什么。從傳統(tǒng)意義上講,讓模型按照用戶意圖進(jìn)行溝通的對(duì)齊是其中的一部分。還會(huì)有其他問(wèn)題,例如我們?nèi)绾悟?yàn)證系統(tǒng)正在按照我們的意愿行事,以及我們將系統(tǒng)與哪些價(jià)值觀對(duì)齊。我認(rèn)為重要的是全面考慮如何獲得安全的AI。
我認(rèn)為對(duì)齊工作還在不斷演變中。我們將納入市場(chǎng)上已有的工作模式。很多這些技術(shù)仍處于紙面之上,但是我們需要超越技術(shù)的其他因素。這是一個(gè)復(fù)雜的問(wèn)題。AI安全是最新的技術(shù)。因此,技術(shù)方面的創(chuàng)新是我們需要考慮的因素之一。我們需要思考關(guān)鍵的AI安全問(wèn)題。我們?nèi)绾螒?yīng)對(duì)這些挑戰(zhàn)?就像我們大多數(shù)人都是科學(xué)家一樣去思考。我們?yōu)槭裁匆鲞@個(gè)?這是一個(gè)非常復(fù)雜的問(wèn)題。我認(rèn)為,為了確保我們解決了技術(shù)方面的安全問(wèn)題,需要投入大量精力。
正如我之前提到的,確定我們要與之保持一致的價(jià)值觀并不是一個(gè)技術(shù)問(wèn)題。我們確實(shí)需要技術(shù)的參與,但這更是一個(gè)值得全社會(huì)深入討論的問(wèn)題。我們必須設(shè)計(jì)出公平的、有代表性和包容性的系統(tǒng)。正如您所指出的,我們不僅需要考慮AI模型本身的安全性,還需要考慮整個(gè)系統(tǒng)的安全性。因此,我們需要構(gòu)建安全的分類器和檢測(cè)器,以監(jiān)測(cè)符合用戶政策的情況。這一點(diǎn)很重要。
此外,我認(rèn)為很難預(yù)測(cè)和預(yù)先解決任何技術(shù)可能出現(xiàn)的問(wèn)題。因此,通過(guò)從實(shí)際使用中學(xué)習(xí)并快速部署數(shù)據(jù),觀察在一個(gè)國(guó)家中會(huì)發(fā)生什么,并給人們提供時(shí)間來(lái)學(xué)習(xí)、更新和思考這些模型將如何影響他們的生活,這也非常重要。
張宏江:中國(guó)、美國(guó)和歐洲是推動(dòng)人工智能和創(chuàng)新的三個(gè)主要力量。您認(rèn)為國(guó)際合作解決人工智能需求和決策方面的優(yōu)勢(shì)有哪些?這些優(yōu)勢(shì)如何結(jié)合起來(lái)產(chǎn)生影響?
薩姆·奧特曼:我認(rèn)為在人工智能安全性方面,普遍存在著需要許多不同觀點(diǎn)的情況。我們還沒(méi)有所有的答案,解決這個(gè)問(wèn)題非常困難且重要。正如我提到的,這不僅僅是一個(gè)技術(shù)問(wèn)題。使人工智能變得安全這件事,受益于了解不同國(guó)家和不同背景下用戶的偏好。
因此,我們需要許多不同的觀念來(lái)實(shí)現(xiàn)這一目標(biāo)。中國(guó)擁有世界上一些最優(yōu)秀的AI系統(tǒng),從根本上講,我認(rèn)為這使研究人員在解決許多不同的AI系統(tǒng)的問(wèn)題上,面臨困難。中國(guó)是世界上最好的地方,我真誠(chéng)希望中國(guó)和美國(guó)的研究人員能對(duì)此做出巨大貢獻(xiàn)。
張宏江:您能分享一些在這方面取得的成就嗎?在這項(xiàng)工作中,您的計(jì)劃或想法是什么?
薩姆·奧特曼:我認(rèn)為一個(gè)重要的進(jìn)展是人們開始對(duì)如何安全開發(fā)先進(jìn)AI系統(tǒng)的國(guó)際標(biāo)準(zhǔn)感到興奮了。我們希望在訓(xùn)練廣泛模型并在其部署之前,思考應(yīng)該進(jìn)行什么樣的測(cè)試。我們還就構(gòu)建反映人們目標(biāo)、價(jià)值觀和實(shí)踐的數(shù)據(jù)庫(kù)進(jìn)行了新的討論,人們可以利用這些數(shù)據(jù)庫(kù)來(lái)使他們的系統(tǒng)與之對(duì)齊,并探討了開展共享AI安全性研究的形式問(wèn)題。所以,這些可能是目前出現(xiàn)的三個(gè)最具體的事情。
張宏江:我在這里有一個(gè)很棒的問(wèn)題,來(lái)自觀眾——您是否打算重新開放GPT的源代碼,就像在3.0之前一樣?
薩姆·奧特曼:關(guān)于源代碼,我不太清楚,但可以確認(rèn)一下。我們開源了一些模型,而其他模型則不開源,但隨著時(shí)間的推移,我認(rèn)為我們可以期望開源的模型會(huì)更多,我沒(méi)有具體的模型或時(shí)間表,但這是我們正在努力的事情我不確定您是否聽說(shuō)過(guò),但是我主持了一個(gè)開源機(jī)構(gòu),我們?cè)陂_放源代碼方面付出了很多努力,包括模型。
我將采用一種算法來(lái)開發(fā)模型,并引入新的Python模型和A-15模型。我們相信需要傾聽并理解聽眾的反饋。
開源模型的發(fā)展已經(jīng)相當(dāng)多了。我認(rèn)為A-15模型也起著重要的作用,它為我們提供了額外的安全控制。您可以阻止某些用戶,可以阻止某些類型的微調(diào)。這是一個(gè)重要的回歸點(diǎn)。就目前模型的規(guī)模而言,我對(duì)此并不太擔(dān)心,但隨著模型變得越來(lái)越大,確保正確性可能會(huì)變得昂貴。我認(rèn)為開源一切可能不是最優(yōu)的路徑,盡管這確實(shí)是正確的路徑。我認(rèn)為我們只需小心地朝著這些節(jié)點(diǎn)前進(jìn)。
張宏江:是的,我認(rèn)為開源模型確實(shí)有優(yōu)勢(shì)。總結(jié)一下我所說(shuō)的,無(wú)論是GPT-4還是開源的模型及簡(jiǎn)化性AI,我們有沒(méi)有可能需要改變整個(gè)基礎(chǔ)設(shè)施或者模型的架構(gòu),使其像GPT-2一樣簡(jiǎn)單?對(duì)此您有何想法?從能力和安全性的角度來(lái)看,我們可能確實(shí)需要一些非常不同的架構(gòu)。
薩姆·奧特曼:我認(rèn)為我們將在這個(gè)能力上取得一些良好的進(jìn)展,但在當(dāng)前的模型類型中他們展現(xiàn)的效果更好,這是一個(gè)原因。但是,如果在10年后出現(xiàn)另一個(gè)巨大的飛躍,我也不會(huì)感到驚訝。我不記得很多年間有什么東西真正改變了的架構(gòu)。
另外,作為一名研究人員,我相信在座的許多人都會(huì)有這種好奇心,就是關(guān)于大模型和大容量模型的人工智能用戶體驗(yàn)方面的下一步發(fā)展方向。我們是否會(huì)很快落后于增長(zhǎng)曲線,或者下一個(gè)前沿是具有體現(xiàn)能力的模型,或者自主機(jī)器人是人工智能所關(guān)注的下一個(gè)前沿?我也非常好奇接下來(lái)會(huì)發(fā)生什么。我喜歡做這項(xiàng)工作的地方就是能夠處在研究的前沿,這是令人興奮和驚喜的,我們還沒(méi)有答案。因此,我們正在探索許多關(guān)于接下來(lái)可能出現(xiàn)什么、可能的新領(lǐng)域的想法。
當(dāng)然,并不是說(shuō)我們現(xiàn)在就能在序列中找到新的抗衰老模型,而是不用過(guò)于擔(dān)心具體的時(shí)間點(diǎn)。我們?cè)趧傞_始的時(shí)候就做過(guò)機(jī)器人方面的工作,并且我們對(duì)此非常興奮,也經(jīng)歷了困難。我希望有一天我們能夠回到這個(gè)話題。
張宏江:您還提到您正在研究如何制作更安全的模型,特別是使用CT4數(shù)據(jù),在CT6的神經(jīng)元有這個(gè)數(shù)據(jù)。這個(gè)工作在這個(gè)方向上是否有效?您是否能夠在未來(lái)(用這種方法)推進(jìn)人工智能領(lǐng)域?
我們將繼續(xù)在這方面努力。所以,如果我認(rèn)為我們會(huì)考慮到這一點(diǎn),它是否具有可擴(kuò)展性?因?yàn)槲以谙蛞蝗荷飳W(xué)科學(xué)家提問(wèn),他們專注于人類的學(xué)習(xí)。他們想借鑒這些思想并從中學(xué)習(xí),以研究人類在工作中的表現(xiàn)。觀察人工神經(jīng)元比觀察生物神經(jīng)元更容易。
薩姆·奧特曼:我認(rèn)為這對(duì)人工神經(jīng)網(wǎng)絡(luò)是可行的。我認(rèn)為使用更強(qiáng)大的模型或使用類似其他(生物)模型的模型的方法是可行的。但我不太確定如何將其應(yīng)用于人腦。另外,我們正在討論人工智能安全和API控制的話題。我們剛才在辯論,如果我們只有三個(gè)模型,那么我們會(huì)更安全。這就像一個(gè)核計(jì)劃。您不希望(每個(gè)人)擁有核武器。因此,當(dāng)我在控制模型數(shù)量時(shí),如果控制不了接觸模型和數(shù)據(jù)的人數(shù)的話是不安全的。
那么,我們是要控制模型的數(shù)量嗎?從人類的角度來(lái)看,無(wú)論是擁有少量模型還是大量模型,都不能讓我們更安全。更重要的是,我們是否有一種機(jī)制,確保任何柯林斯模型都需要經(jīng)過(guò)足夠的安全測(cè)試。我們是否有一個(gè)框架,讓那些創(chuàng)建了完備柯林斯模型的人具備足夠的資源和責(zé)任心,確保他們創(chuàng)造的東西是安全可靠的?來(lái)自麻省理工學(xué)院的教授Max是萊布尼茲研究所的一位教師,他提到了一種方法,但他認(rèn)為這個(gè)方法不夠具體。
從一個(gè)角度來(lái)看,我們可以研究如何控制隱私的泄露。如果您丟失了一封電子郵件,您仍然可以獲取一份副本。在這個(gè)過(guò)程中您無(wú)法證明它是怎么獲取到的。如果那家公司可以借用您的資料,那這將產(chǎn)生重大影響。我認(rèn)為有一些行業(yè)正在發(fā)展不同的許可框架,將新技術(shù)引入市場(chǎng),我認(rèn)為我們應(yīng)該借鑒它們。但我認(rèn)為從根本上說(shuō),我們有著很好的購(gòu)買數(shù)據(jù)的歷史。
張宏江:最后一個(gè)問(wèn)題,您對(duì)人工智能社區(qū)的設(shè)想是什么,以及在這個(gè)方向上可能具有很大推動(dòng)力的因素是什么?
薩姆·奧特曼:對(duì)我而言,沒(méi)有比安全性工作更令人興奮、活力四溢、充實(shí)且重要的事情了。我堅(jiān)信,如果您個(gè)人對(duì)一項(xiàng)重要的倡議非常認(rèn)可,您將會(huì)有無(wú)窮的力量去解決它。這對(duì)我們團(tuán)隊(duì)來(lái)說(shuō)確實(shí)如此。當(dāng)我們剛開始的時(shí)侯,我覺得成功的概率會(huì)非常低。但如果我們能夠找出如何構(gòu)建人工智能,那它肯定會(huì)產(chǎn)生巨大變革。我們必須進(jìn)行安全方面的工作對(duì)吧?這就是其中的一部分。但您不能阻止AI的發(fā)展。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP