每日經(jīng)濟新聞 2024-11-27 18:30:18
當?shù)貢r間11月26日,參與Sora測試的部分藝術(shù)家在Hugging Face泄露了該模型的訪問權(quán)限,以抗議OpenAI的壓榨行為,但三小時后OpenAIra的訪問權(quán)限。藝術(shù)家們稱,OpenAI利用他們無償勞動提升形象,卻未給合理報酬,還限制作品分享。此事也暴露出AI行業(yè)研發(fā)的不透明性。
每經(jīng)記者 蔡鼎 每經(jīng)實習記者 岳楚鵬 每經(jīng)編輯 蘭素英
一直被外界寄予極高期望的OpenAI文生視頻AI模型Sora自今年2月首次展示以來,就沒有任何關(guān)于何時正式發(fā)布的消息了。當?shù)貢r間11月26日,一些據(jù)稱參與了Sora測試的藝術(shù)家泄露了該模型的訪問權(quán)限(API),以抗議OpenAI對他們的壓榨行為。
當日,公共AI模型社區(qū)Hugging Face突然出現(xiàn)了一個文生視頻的項目。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統(tǒng))創(chuàng)建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。
圖片來源:Hugging Face項目截圖
通過這一前端,用戶可以通過輸入簡短的文字描述來生成分辨率高達1080p的10秒視頻。但項目創(chuàng)建三個小時后,OpenAI就關(guān)閉了所有藝術(shù)家對Sora的早期訪問權(quán)限。目前該項目已無法使用。在短短的三小時內(nèi),用戶通過這一項目生成了87個視頻并發(fā)布了出來。
圖片來源:測試視頻
目前OpenAI并沒有公開確認所謂的Sora泄露是否屬實。但是OpenAI強調(diào),參與其“研究預覽”是“自愿的,沒有義務(wù)提供反饋或使用該工具”。
OpenAI暫停Sora訪問權(quán)限這一舉動也暴露出AI行業(yè)的透明度問題。隨后,該藝術(shù)家團體發(fā)布了一個公開信網(wǎng)站,鼓勵任何與他們有相同觀點的人簽署這封公開信。截至發(fā)稿,這封信已經(jīng)收到550個簽名,包括馬斯克。
當?shù)貢r間11月26日,一小群參與Sora測試的藝術(shù)家在Hugging Face泄露了Sora的訪問權(quán)限,以表達對OpenAI的不滿。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統(tǒng))創(chuàng)建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。
此前,OpenAI向數(shù)百名藝術(shù)家開放了Sora的早期使用權(quán),以測試這款新的AI視頻生成器。但部分藝術(shù)家認為,OpenAI利用了他們的無償勞動,并利用他們來提升公司形象。
為引起外界對OpenAI這一行為的關(guān)注,他們在公共AI模型社區(qū)Hugging Face上發(fā)布了一個在線項目,允許公眾使用Sora生成視頻。
隨項目同時發(fā)布的還有一封言辭激烈的公開信。在信中,藝術(shù)家們將OpenAI比作“中世紀的封建領(lǐng)主”,譴責他們利用了藝術(shù)家的無私貢獻,卻并沒有給出合理的報酬。“我們獲得了Sora的使用權(quán),并承諾成為早期測試者、紅隊成員和創(chuàng)意合作伙伴。然而,我們認為,我們被引誘進行‘藝術(shù)洗白’,以告訴世界Sora對藝術(shù)家來說是一個有用的工具。”
這封信充斥著對OpenAI的不滿,藝術(shù)家們寫道:“我們不是你的無償研發(fā)人員。我們不是你的:免費錯誤測試人員、PR(公關(guān))傀儡、訓練數(shù)據(jù)和驗證令牌。”
盡管參與模型測試的藝術(shù)家有數(shù)百名,但只有少數(shù)作品進行展映,而且報酬極為有限,與OpenAI獲得的巨大公關(guān)和營銷價值相比,簡直是微不足道。更讓這些藝術(shù)家們憤怒的是,“每個影片都需要OpenAI團隊的批準才能分享。這個早期訪問計劃似乎更多關(guān)注的是公關(guān)和廣告,而不是創(chuàng)作表達和批評。”
他們在信中強調(diào),“我們并不反對將AI技術(shù)作為藝術(shù)工具使用(如果我們反對,可能就不會參加這個項目)。我們不同意的是藝術(shù)家項目的推出方式,以及該工具在可能公開發(fā)布之前的呈現(xiàn)方式。我們發(fā)布這個聲明,希望OpenAI能變得更加開放,對藝術(shù)家更加友好,并在支持藝術(shù)方面不只是公關(guān)作秀。”
他們還呼吁其他藝術(shù)家們使用開源的視頻生成工具來抵制OpenAI這種閉源公司。“開源視頻生成工具讓藝術(shù)家能夠在沒有門檻、商業(yè)利益或服務(wù)于任何公司的公關(guān)目的下,探索前衛(wèi)藝術(shù)。我們也鼓勵藝術(shù)家使用自己的數(shù)據(jù)集來訓練自己的模型。”
但在藝術(shù)家們上線Sora API項目后三小時,OpenAI迅速切斷了訪問權(quán)限。OpenAI發(fā)言人Niko Felix稱,公司將暫停所有用戶對Sora的訪問,同時調(diào)查情況。但是他拒絕說明這個項目是不是真的鏈接到了Sora模型。“Sora仍處于研究預覽階段,我們正努力在創(chuàng)造力與更廣泛的強大安全措施之間取得平衡。”
Felix同時說道:“我們alpha版本的數(shù)百名藝術(shù)家塑造了Sora的發(fā)展,幫助確定新功能和保障措施的優(yōu)先級。參與是自愿的,沒有提供反饋或使用該工具的義務(wù)。我們很高興為這些藝術(shù)家提供免費訪問權(quán)限,并將繼續(xù)通過贈款、活動和其他計劃為他們提供支持。我們相信AI可以成為一種強大的創(chuàng)意工具,并致力于讓Sora既實用又安全。”
在OpenAI暫停Sora訪問權(quán)限后,該藝術(shù)家團體發(fā)布了一個公開信網(wǎng)站,鼓勵任何與他們有相同觀點的人簽署這封公開信。
截至發(fā)稿,這封信已經(jīng)收到550個簽名,與OpenAI極其不對付的馬斯克也在其中。
圖片來源:公開信網(wǎng)站
這次事件在AI行業(yè)中并不常見,因為早期測試人員的反饋受到公司的嚴格控制,而且嚴厲的批評很少公開。通常,公司會親自挑選哪些外部人員可以提前訪問系統(tǒng),在某些情況下,公司會要求這些用戶簽署保密協(xié)議或獲得批準,然后才能公開分享系統(tǒng)生成的任何圖像、視頻或文本響應(yīng)。
但最近,越來越多的AI安全專家批評這種做法對獨立研究產(chǎn)生了寒蟬效應(yīng),降低了透明度,并阻礙了對公司行為的問責。斯坦福大學的基礎(chǔ)模型透明度指數(shù)顯示,沒有一家主要的基礎(chǔ)模型開發(fā)商能夠提供足夠的透明度(最高得分54分,滿分100分),這揭示了AI行業(yè)缺乏透明度。
OpenAI的員工此前也指責公司強迫員工簽署“封口協(xié)議”,不允許離職員工發(fā)表對公司負面言論,否則公司可以收回員工已有股權(quán)。離職員工也不得對外公開這些協(xié)議內(nèi)容。
為此,今年六月,OpenAI和谷歌DeepMind的一批員工聯(lián)合發(fā)布了一份名為《對AI發(fā)出警告》的公開信。
公開信預警,AI技術(shù)存在加劇不平等,操縱和誤導信息,失去控制并威脅人類的風險。AI公司技術(shù)迭代的同時產(chǎn)生了大量安全相關(guān)的非公開信息,它們沒有主動披露的動機。監(jiān)管部門對此難以形成有效制約,只能由現(xiàn)任或前任員工要求它們向公眾負責。
上述員工在公開信中對包括OpenAI在內(nèi)的AI公司提出了四點呼吁:其一,不強迫員工簽訂禁止批評公司的協(xié)議;其二,為公司現(xiàn)任和前任員工提供匿名的安全反饋機制;其三,允許現(xiàn)任和前任員工向董事會、監(jiān)管機構(gòu)、其他安全機構(gòu)提出對公司技術(shù)安全的擔憂;其四,公司不對公開分享風險相關(guān)機密信息的現(xiàn)任和前任員工進行報復。
正如Hugging Face的一則評論所說,“AI并非憑空而來。它建立在創(chuàng)意人員的肩膀上,而這些創(chuàng)意人員往往沒有得到認可。Sora泄密事件敲響了警鐘:沒有道德的創(chuàng)新就是剝削。”
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP