每日經(jīng)濟新聞 2024-09-13 11:49:04
每經(jīng)編輯 杜宇 每經(jīng)實習編輯 宋欣悅
AI技術發(fā)展至今,谷歌一直被認為是人工智能領域的“黃埔軍校”,近十年人工智能領域許多奠基性、開創(chuàng)性的工作均出自谷歌之手。而目前,幾乎所有大型模型的核心架構——Transformer,便源自谷歌2017年發(fā)表的標志性論文《注意力就是你所需的一切》(Attention Is All You Need)。
然而,在生成式AI的浪潮中,相較于OpenAI,谷歌卻顯得步伐稍緩。無論是轟動業(yè)界的ChatGPT,還是Sora世界模擬器,谷歌似乎總落后OpenAI一步。
9月11日,在備受矚目的2024 All-In峰會上,谷歌聯(lián)合創(chuàng)始人謝爾蓋?布林(Sergey Brin)罕見地接受了公開采訪。這次訪談圍繞著布林對AI未來的見解、谷歌在AI領域的戰(zhàn)略,以及他個人對技術發(fā)展的深層思考展開。
從去年開始,就有媒體爆料,稱謝爾蓋?布林已經(jīng)重返一線,親自編寫代碼。在此次訪談中,謝爾蓋?布林證實他已重返谷歌,投身AI相關研發(fā),并且?guī)缀趺刻於既ス竟ぷ?/strong>。他表示,當前AI發(fā)展令人震驚,作為一名計算機科學家,他不想錯過這一切。
然而,布林也表示,谷歌的工程師在日常工作中使用AI工具的頻率還不夠高。
回顧AI發(fā)展歷程,布林說:“90年代我還是研究生時,AI在課程中幾乎無足輕重,充其量不過是教材中的一個腳注。課本里講的是,前人做了各種各樣的試驗,但是AI真的不起作用,搞AI就是‘死路一條’。”
然而,近十年AI的突飛猛進令他驚嘆不已:“如今的AI,幾乎每個月都能展現(xiàn)出全新的能力,而且這些能力很快就能實現(xiàn)翻倍,著實令人驚嘆。”
關于未來模型開發(fā)與應用的演變,布林提到,“10到15年前,不同的AI技術被用于解決完全不同的問題。”
盡管這些基于特定應用的小模型展現(xiàn)出了顯著的有效性,布林指出,“未來的趨勢將是向構建一個更加集成、統(tǒng)一的模型邁進。”他補充道,“我不確定它是否是所謂的‘上帝模型’,但可以肯定的是,這將是一個共享架構,甚至可能發(fā)展成為共享模型。”
布林坦言,谷歌在AI技術應用上的保守態(tài)度引發(fā)了一些問題。他感慨道:“現(xiàn)在語言模型的起點,要追溯到6年前還是8年前那篇Transformer論文。遺憾的是,這些論文作者后來大多離開了谷歌,當然,我們要向他們表示祝賀。當時我們太膽小,不敢部署Transformer技術。”
布林還承認,谷歌在人工智能領域的探索并非一帆風順。布林強調,重要的是讓AI技術走出實驗室,并承擔可能的風險,即使這意味著可能會遭遇尷尬或失敗。
他認為,盡管AI技術可能還不夠完美,但應該及時發(fā)布,讓人們去實驗,探索新的應用。布林表示:“AI技術不應被過度保守地保留,直到其完美無缺才進行展示。”
每日經(jīng)濟新聞綜合自公開消息
如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP