每經(jīng)記者 蔡 鼎 實習記者 岳楚鵬 每經(jīng)編輯 蘭素英 一直被外界寄予極高期望的權限OpenAI文生視頻AI模型Sora自今年2月首次展示以來,就沒有任何關于何時正式發(fā)布的被故消息了。當?shù)貢r間11月26日,意泄一些據(jù)稱參與了Sora測試的權限藝術家泄露了該模型的訪問權限(API),以抗議OpenAI對他們的被故壓榨行為。 當日,意泄公共AI模型社區(qū)Hugging Face突然出現(xiàn)了一個文生視頻的權限項目。項目團隊使用他們的被故身份驗證令牌(可能來自早期訪問系統(tǒng))創(chuàng)建了一個前端,讓所有Hugging Face的意泄用戶可以使用Sora生成視頻。 通過這一前端,權限用戶可以通過輸入簡短的被故文字描述來生成分辨率高達1080p的10秒視頻。但項目創(chuàng)建三個小時后,意泄OpenAI就關閉了所有藝術家對Sora的權限早期訪問權限。目前該項目已無法使用。被故在短短的意泄三小時內,用戶通過這一項目生成了87個視頻并發(fā)布了出來。 目前OpenAI并沒有公開確認所謂的Sora泄露是否屬實。但是OpenAI強調,參與其“研究預覽”是“自愿的,沒有義務提供反饋或使用該工具”。 OpenAI暫停Sora訪問權限這一舉動也暴露出AI行業(yè)的透明度問題。隨后,該藝術家團體發(fā)布了一個公開信網(wǎng)站,鼓勵任何與他們有相同觀點的人簽署這封公開信。截至發(fā)稿,這封信已經(jīng)收到550個簽名,包括馬斯克。 藝術家們怒了 當?shù)貢r間11月26日,一小群參與Sora測試的藝術家在Hugging Face泄露了Sora的訪問權限,以表達對OpenAI的不滿。項目團隊使用他們的身份驗證令牌(可能來自早期訪問系統(tǒng))創(chuàng)建了一個前端,讓所有Hugging Face的用戶可以使用Sora生成視頻。 此前,OpenAI向數(shù)百名藝術家開放了Sora的早期使用權,以測試這款新的AI視頻生成器。但部分藝術家認為,OpenAI利用了他們的無償勞動,并利用他們來提升公司形象。 為引起外界對OpenAI這一行為的關注,他們在公共AI模型社區(qū)Hugging Face上發(fā)布了一個在線項目,允許公眾使用Sora生成視頻。 隨項目同時發(fā)布的還有一封言辭激烈的公開信。在信中,藝術家們將OpenAI比作“中世紀的封建領主”,譴責他們利用了藝術家的無私貢獻,卻并沒有給出合理的報酬?!拔覀儷@得了Sora的使用權,并承諾成為早期測試者、紅隊成員和創(chuàng)意合作伙伴。然而,我們認為,我們被引誘進行‘藝術洗白’,以告訴世界Sora對藝術家來說是一個有用的工具。” 這封信充斥著對OpenAI的不滿,藝術家們寫道:“我們不是你的無償研發(fā)人員。我們不是你的免費錯誤測試人員、PR(公關)傀儡、訓練數(shù)據(jù)和驗證令牌。” 盡管參與模型測試的藝術家有數(shù)百名,但只有少數(shù)作品進行展映,而且報酬極為有限,與OpenAI獲得的巨大公關和營銷價值相比,簡直是微不足道。更讓這些藝術家們憤怒的是,“每個影片都需要OpenAI團隊的批準才能分享。這個早期訪問計劃似乎更多關注的是公關和廣告,而不是創(chuàng)作表達和批評?!?/p> 他們在信中強調,“我們并不反對將AI技術作為藝術工具使用(如果我們反對,可能就不會參加這個項目)。我們不同意的是藝術家項目的推出方式,以及該工具在可能公開發(fā)布之前的呈現(xiàn)方式。我們發(fā)布這個聲明,希望OpenAI能變得更加開放,對藝術家更加友好,并在支持藝術方面不只是公關作秀?!?/p> 他們還呼吁其他藝術家使用開源的視頻生成工具來抵制OpenAI這種閉源公司?!伴_源視頻生成工具讓藝術家能夠在沒有門檻、商業(yè)利益或服務于任何公司的公關目的下,探索前衛(wèi)藝術。我們也鼓勵藝術家使用自己的數(shù)據(jù)集來訓練自己的模型?!?/p> 但在藝術家們上線Sora API項目后三小時,OpenAI迅速切斷了訪問權限。OpenAI發(fā)言人Niko Felix稱,公司將暫停所有用戶對Sora的訪問,同時調查情況。但是他拒絕說明這個項目是不是真鏈接到了Sora模型?!癝ora仍處于研究預覽階段,我們正努力在創(chuàng)造力與更廣泛的強大安全措施之間取得平衡?!?/p> Felix同時說道:“我們alpha版本的數(shù)百名藝術家塑造了Sora的發(fā)展,幫助確定新功能和保障措施的優(yōu)先級。參與是自愿的,沒有提供反饋或使用該工具的義務。我們很高興為這些藝術家提供免費訪問權限,并將繼續(xù)通過贈款、活動和其他計劃為他們提供支持。我們相信AI可以成為一種強大的創(chuàng)意工具,并致力于讓Sora既實用又安全。” AI研發(fā)被指缺乏透明度 在OpenAI暫停Sora訪問權限后,該藝術家團體發(fā)布了一個公開信網(wǎng)站,鼓勵任何與他們有相同觀點的人簽署這封公開信。 截至發(fā)稿,這封信已經(jīng)收到550個簽名,與OpenAI極其不對付的馬斯克也在其中。 這次事件在AI行業(yè)中并不常見,因為早期測試人員的反饋受到公司的嚴格控制,而且嚴厲的批評很少公開。通常,公司會親自挑選外部人員提前訪問系統(tǒng),在某些情況下,公司會要求這些用戶簽署保密協(xié)議或獲得批準,然后才能公開分享系統(tǒng)生成的任何圖像、視頻或文本響應。 但最近,越來越多的AI安全專家批評這種做法對獨立研究產(chǎn)生了寒蟬效應,降低了透明度,并阻礙了對公司行為的問責。斯坦福大學的基礎模型透明度指數(shù)顯示,沒有一家主要的基礎模型開發(fā)商能夠提供足夠的透明度(最高得分54分,滿分100分),這揭示了AI行業(yè)缺乏透明度。 OpenAI的員工此前也指責公司強迫員工簽署“封口協(xié)議”,不允許離職員工發(fā)表對公司的負面言論,否則公司可以收回員工已有股權。離職員工也不得對外公開這些協(xié)議內容。 為此,今年6月,OpenAI以及谷歌DeepMind的一批員工聯(lián)合發(fā)布了一份名為《對AI發(fā)出警告》的公開信。 公開信預警,AI技術存在加劇不平等、操縱和誤導信息,失去控制并威脅人類的風險。AI公司技術迭代的同時產(chǎn)生了大量安全相關的非公開信息,它們沒有主動披露的動機。監(jiān)管部門對此難以形成有效制約,只能由現(xiàn)任或前任員工要求它們向公眾負責。 上述員工在公開信中對包括OpenAI在內的AI公司提出了4點呼吁:⒈不強迫員工簽訂禁止批評公司的協(xié)議;⒉為公司現(xiàn)任和前任員工提供匿名的安全反饋機制;⒊允許現(xiàn)任和前任員工向董事會、監(jiān)管機構、其他安全機構提出對公司技術安全的擔憂;⒋公司不對公開分享風險相關機密信息的現(xiàn)任和前任員工進行報復。 正如Hugging Face的一則評論所說,“AI并非憑空而來。它建立在創(chuàng)意人員的肩膀上,而這些創(chuàng)意人員往往沒有得到認可。Sora泄密事件敲響了警鐘:沒有道德的創(chuàng)新就是剝削?!?/p> |