眾所周知,谷歌就像人工智能領(lǐng)域的「黃埔軍!,自深度學(xué)習(xí)興起后培養(yǎng)出了整整一代機器學(xué)習(xí)研究人員和工程師。很長一段時間里,谷歌就是領(lǐng)先 AI 技術(shù)的代名詞。
人們已經(jīng)習(xí)慣跟隨谷歌的腳步,使用其提出的新技術(shù)和工具作為研究基礎(chǔ),谷歌也走出過大批人才,成為了各家研究機構(gòu)和公司的骨干。然而最近,在 ChatGPT 的沖擊下,谷歌決定不這么干了。
據(jù)華盛頓郵報報道,今年二月,長期擔(dān)任谷歌人工智能主管的杰夫・迪恩(Jeff Dean)向其員工宣布了一項令人震驚的政策轉(zhuǎn)變:谷歌以后將不得不推遲與外界分享自己的工作成果。
多年來,Jeff Dean 麾下的 Google AI 像大學(xué)的計算機系一樣,鼓勵研究人員大量發(fā)表學(xué)術(shù)論文。根據(jù) Google Research 的網(wǎng)站,他們自 2019 年以來推出了近 500 項研究。
但去年底 OpenAI 開創(chuàng)性的 ChatGPT 改變了整個科技領(lǐng)域的現(xiàn)狀。Jeff Dean 在公司研究部門的季度會議上表示,這家背靠微軟的創(chuàng)業(yè)公司大量閱讀 Google AI 提交的論文與谷歌保持同步。這樣的「指責(zé)」并不奇怪,事實上,大語言模型的重要基礎(chǔ),ChatGPT 中的 T —— transformer 是谷歌 2017 年的一項研究。
Transformer 自提出以來,一直是自然語言處理(NLP)領(lǐng)域研究的大方向,是 AI 目前這一波突破的源頭。然而谷歌認為這種情況必須改變,據(jù)兩名知情人士透露,谷歌將規(guī)定自己的人工智能發(fā)現(xiàn)只有在實驗室工作轉(zhuǎn)化為產(chǎn)品后才能分享論文。
新的政策變化是谷歌內(nèi)部更大轉(zhuǎn)變的一部分。長期以來,這家科技巨頭一直被認為是 AI 領(lǐng)域的領(lǐng)導(dǎo)者,但現(xiàn)在卻陷入了需要追趕別人的境地 —— 谷歌需要抵御一群靈活的 AI 競爭對手,保護自己的核心搜索業(yè)務(wù)和股價,以及潛在的未來。
在專欄文章、播客和電視節(jié)目中,谷歌 CEO 桑達爾・皮查伊 (Sundar Pichai) 敦促我們需要對人工智能保持謹慎!冈谏鐣䦟用嫔,它可能會造成很大的傷害,」他在 4 月份的「60 分鐘」節(jié)目中警告說,并描述了生成式 AI 如何加速虛假圖像和視頻的創(chuàng)作。
但與高管們透露出的風(fēng)向正相反的是,最近幾個月,根據(jù)對 11 名現(xiàn)任和前谷歌員工的采訪,谷歌已對 AI 業(yè)務(wù)進行了全面改革,目標是快速推出產(chǎn)品。
它降低了向少數(shù)群體推出實驗性人工智能工具的門檻,在公平等領(lǐng)域制定了一套新的評估指標和優(yōu)先事項。皮查伊在一份聲明中表示,谷歌還把 DeepMind 和 Google Brain 進行了合并,以「加速在人工智能方面的進步」。這個新部門將不會由 Jeff Dean 管理,而是由 DeepMind 的首席執(zhí)行官哈薩比斯管理,DeepMind 在一些人看來擁有更新鮮、更有活力的品牌。
在上周早些時候的一次會議上,哈薩比斯表示,人工智能可能比大多數(shù)其他人工智能專家預(yù)測的更接近人類智能水平,「我們可能只需要幾年,也許…… 十年后就可以實現(xiàn)。」
在谷歌加快步伐的同時,包括著名公司、研究人員和行業(yè)資深人士在內(nèi)的各路聲音都在呼吁人工智能開發(fā)人員放慢腳步,并警告該技術(shù)的發(fā)展速度已經(jīng)過快。
Geoffrey Hinton 是 AI 技術(shù)的先驅(qū)之一,他于 2013 年加入谷歌,最近剛剛宣布離開公司。Hinton 最近一直在媒體上警告通用人工智能有逃避人類控制的危險。皮查伊和 OpenAI、微軟的首席執(zhí)行官在上周四還會見了白宮官員,世界各地的監(jiān)管機構(gòu)也正在討論如何圍繞該技術(shù)制定新規(guī)則。
上周,人工智能先驅(qū) Geoffrey Hinton 辭去了谷歌副總裁的職務(wù),表示擔(dān)心技術(shù)的快速進步會導(dǎo)致大量失業(yè)和錯誤信息泛濫。
喜憂參半:有人支持,有人因沮喪轉(zhuǎn)而離職
對于谷歌員工來說,在發(fā)表相關(guān) AI 研究之前需要額外批準意味著可能會在生成式 AI 的閃速世界中被別人「搶發(fā)」。這種政策也可能被用來悄悄地壓制那些有爭議的論文,比如 2020 年谷歌 Ethical AI 團隊負責(zé)人 Timnit Gebru 和 Margaret Mitchell 共同撰寫的關(guān)于大語言模型危害的研究。
不得不承認的一點是,谷歌在 2022 年失去了很多頂級 AI 研究者,轉(zhuǎn)投被視為更前沿的初創(chuàng)企業(yè)。這種人才外流的部分原因在于對谷歌沒有采取一些明智的決策而感到沮喪,比如未將聊天機器人納入搜索等。
一位前谷歌研究者表示,獲得論文發(fā)表批準可能需要與高級職員反復(fù)進行嚴格的審查。很多科學(xué)家?guī)е軌蛟谧陨眍I(lǐng)域進行更廣泛研究的承諾來到谷歌工作,但隨后又因為發(fā)表研究的限制離開了谷歌。
不過在季度會議的直播中,Jeff Dean 的聲明也得到了一些員工的正面回應(yīng)。他們紛紛表達了樂觀的態(tài)度,希望這一轉(zhuǎn)變能夠幫助谷歌奪回優(yōu)勢。對于一些研究人員而言,這些他們第一次聽到有關(guān)發(fā)表研究的限制。
Jeff Dean 最新回應(yīng):我們并沒有停止分享研究
不過,對于華盛頓郵報的這篇報道,Jeff Dean 拿出事實,駁斥了他們的觀點。他表示谷歌研究者合作完成的 100 + 篇論文在上周的 ICLR 2023 會議上發(fā)表,并擔(dān)任了大量會議組織和 workshop 演講者角色。
并且 DeepMind 的同事們也在 ICLR 2023 會議上發(fā)表了很多論文和演講。
不過,有人質(zhì)疑 Jeff,認為這 100+ 篇論文是滯后指標,并問 Jeff 是否能斷言谷歌和 DeepMind 未來的研究交流像過去一樣強大?比如哈薩比斯已經(jīng)公開表示 DeepMind 未來將不會分享太多。
Jeff Dean 回答稱,這是決不可斷言的事情。新研究發(fā)表取決于很多因素,就像大會接收論文一樣,我們有很多工作不會發(fā)表,也有很多發(fā)表了出來。我認為情況不會改變。
斯坦福 NLP 的賬號反駁表示,看起來夏季實習(xí)的 PhD 學(xué)生有的已經(jīng)不好發(fā)表論文了。
還有人認為,Jeff Dean 如果能直接否認華盛頓郵報報道的觀點,才更有說服力。
最后正如一位網(wǎng)友所言,「未來需要擔(dān)心的不是發(fā)表論文,它們肯定會憑借著強大的影響力繼續(xù)存在。更需要擔(dān)心的是發(fā)布代碼和模型,以及最近幾年高影響力論文似乎退化的趨勢!