每日經濟新聞 2024-08-21 17:45:13
◎OpenAI對B端市場的布局一年前就開始了。
每經記者 蔡鼎 每經編輯 高涵
美東時間8月20日(周二),OpenAI宣布將面向企業(yè)客戶推出“個性化定制服務”,允許使用各自的公司數據來“微調”(Fine-tuning)其目前最強大的AI模型GPT-4o。
有分析稱,對于OpenAI當前的旗艦模型來說,微調是全新的功能,GPT-4o及其前身GPT-4此前均未提供過微調功能。最新舉動說明各大AI模型研發(fā)公司針對企業(yè)客戶的競爭加劇。
從去年8月份推出面向大型企業(yè)的ChatGPT企業(yè)版(ChatGPT Enterprise),到11月份低調推出起步價為200萬美元企業(yè)定制版GPT-4,再到如今面向企業(yè)客戶推出“個性化定制服務”,OpenAI不斷在B端客戶方向上布局。
業(yè)內機構對OpenAI的營收推算顯示,企業(yè)端的用戶已經為OpenAI貢獻了近30%的收入。隨著OpenAI對B端市場布局的進一步完善,這個占比或將進一步上升。
不過,值得注意的是,OpenAI周二表示,為了微調模型,客戶必須將特定數據集上傳到OpenAI的服務器,這意味著與這些服務的所有交互數據都面臨著被暴露的風險。
其實,OpenAI對B端市場的布局一年前就開始了。
2023年8月,OpenAI推出了面向大型企業(yè)的ChatGPT企業(yè)版(ChatGPT Enterprise),稱這是迄今為止最強大的ChatGPT版本。據OpenAI介紹,除了和一般ChatGPT一樣執(zhí)行編寫電郵、起草文件和調試電腦代碼等任務外,當時的企業(yè)版還可提供企業(yè)級的安全和隱私,以及高級數據分析功能。外媒分析稱,ChatGPT Enterprise的推出意味著,OpenAI將全面開拓企業(yè)用戶戰(zhàn)場,與其最大金主和合作伙伴微軟直接競爭。
三個月后的2023年11月,OpenAI又低調推出了企業(yè)定制版GPT-4。根據OpenAI的說法,它會選擇一些特定客戶,基于這些客戶自己的私有數據,構建定制化的GPT-4模型,生成針對每個客戶業(yè)務的自定義結果。
OpenAI當時表示,推出每個客戶的定制流程需要花費幾個月的時間,起步價為200萬美元。200萬美元的價格雖然高昂,但值得注意的是,OpenAI提供的GPT-4定制服務水平可能遠遠高于大多數競爭對手。全新定制化服務,可以使OpenAI直接與Databricks、OctoML等公司競爭,后者也提供了使用客戶自有數據訓練開源模型的定制服務。
而為什么OpenAI早在一年前就“殺入”B端市場,從上個月機構對OpenAI營收的拆解可以看出,企業(yè)端用戶貢獻的營收已經超過了20%。
人工智能調研機構FutureSearch7月份得出的數據結果顯示,ChatGPT Plus訂閱是OpenAI最大的收入來源,貢獻了總收入的55%,約19億美元。在B端市場,OpenAI針對大型企業(yè)客戶的ChatGPT Enterprise為OpenAI貢獻了21%的收入,約7.44億美元。據估計,目前有120萬個企業(yè)用戶在使用ChatGPT Enterprise,每個賬戶每月收費50美元。
圖片來源:FutureSearch
面向中小企業(yè)和團隊用戶的ChatGPT Team為OpenAI貢獻了8%的收入,約2.9億美元。ChatGPT Team每個賬戶每月收費25美元,估計有98萬個用戶。最后,API接口服務為公司貢獻了15%的收入,約5.1億美元。也就是說,OpenAI的營收中已經有近30%(約10.34億美元)來自企業(yè)客戶。隨著OpenAI對B端市場布局的進一步深入,這個占比或還將進一步提升。
《每日經濟新聞》記者注意到,在去年11月“悄悄”推出企業(yè)定制版GPT-4時,就有聲音擔心企業(yè)數據安全的問題——在當時的定制服務框架下,OpenAI會利用客戶自有的大量內部文檔數據,定制訓練出一個功能更強、更適合公司業(yè)務需要的GPT-4版本。而在本周二宣布將面向企業(yè)客戶推出“個性化定制服務”時,網絡/數據安全的問題再次受到外界的廣泛關注。
OpenAI周二表示,為了微調模型,客戶必須將特定數據集上傳到OpenAI的服務器,OpenAI在官網公告中強調了“數據隱私與安全”。公司稱,“經過微調的模型完全由您控制,您完全擁有您的業(yè)務數據,包括所有輸入和輸出。這確保您的數據永遠不會被共享或用于訓練其他模型。我們還為經過微調的模型實施了分層安全緩解措施,以確保它們不會被濫用。例如,我們持續(xù)對經過微調的模型進行自動安全評估,并監(jiān)控使用情況,以確保應用程序遵守我們的使用政策。”
盡管如此,但外界對OpenAI使用企業(yè)內部數據訓練ChatGPT,以及數據泄露等方面的擔憂從未停止。其實,當企業(yè)使用OpenAI的ChatGPT時,大模型提供的和/或生成的對話數據都可能被用來訓練和微調OpenAI的模型。這意味著與這些服務的所有交互數據都面臨著被暴露的風險。
2023年3月底,在ChatGPT被接連發(fā)現意外泄露用戶聊天記錄后,意大利數據保護局(Garante per la Protezione dei Dati Personali)宣布將暫時禁用ChatGPT并對該工具涉嫌違反隱私規(guī)則展開調查。今年4月,加拿大開始對OpenAI“未經同意收集、使用和披露個人信息”的投訴進行調查。
去年年底,Open AI和微軟還被《紐約時報》提起訴訟,指控其未經許可使用《紐約時報》數百萬篇文章訓練聊天機器人。《紐約時報》表示,此類侵權行為降低了讀者訪問其網站的感知需求,減少了流量,并可能削減廣告和訂閱收入,從而威脅到高質量的新聞報道。Open AI和微軟反駁稱,使用受版權保護的作品來訓練人工智能產品是“合理使用”,這是一種管理未經許可使用受版權保護材料的法律原則。
不過,需要指出的是,這并不是OpenAI或ChatGPT的個例,其暴露出的隱私泄露、存儲敏感信息、未授權訪問等數據安全問題是大模型產品落地應用后可能普遍面臨的問題。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP