6 月 5 日消息,OpenAI 和谷歌 DeepMind 的數(shù)名前任和現(xiàn)任員工近日聯(lián)名發(fā)布公開信,對高級人工智能的潛在風險以及當前缺乏對人工智能科技公司的監(jiān)管表示擔憂。
IT之家注意到,這封公開信指出,人工智能的發(fā)展可能會帶來一系列的風險,例如加劇現(xiàn)有社會的不平等、助長操控和虛假信息傳播,以及失控的自主人工智能系統(tǒng)可能導致人類滅絕等。
信中寫道,人工智能公司擁有強大的經(jīng)濟利益驅(qū)動它們繼續(xù)推進人工智能研發(fā),同時卻對保護措施和風險水平的信息諱莫如深。公開信認為,不能指望這些公司會自愿分享這些信息,因此呼吁內(nèi)部人士站出來發(fā)聲。
由于缺乏有效的政府監(jiān)管,這些現(xiàn)任和前任員工成為能夠讓這些公司對公眾負責的少數(shù)群體之一。然而,由于嚴格的保密協(xié)議,員工被限制發(fā)聲,只能向可能并未妥善處理這些問題的公司反映問題。傳統(tǒng)的舉報人保護措施并不適用,因為此類措施側(cè)重于違法行為,而目前令人擔憂的許多風險尚不受監(jiān)管。
員工們呼吁人工智能公司為揭露人工智能風險的人士提供可靠的舉報人保護措施,具體包括:
不得創(chuàng)建或執(zhí)行阻止員工對風險相關(guān)問題提出批評的協(xié)議;
提供可驗證的匿名程序,使員工能夠向董事會、監(jiān)管機構(gòu)和相關(guān)領(lǐng)域的獨立組織提出與風險相關(guān)的擔憂;
支持開放批評的文化,允許員工在保護商業(yè)機密的前提下,向公眾、董事會、監(jiān)管機構(gòu)等方面提出與技術(shù)相關(guān)的風險擔憂;
在其他程序失效后,避免對公開分享風險相關(guān)機密信息的員工進行報復。
共有 13 名員工簽署了這封公開信,其中包括 7 名前 OpenAI 員工、4 名現(xiàn)任 OpenAI 員工、1 名前谷歌 DeepMind 員工和 1 名現(xiàn)任谷歌 DeepMind 員工。據(jù)悉,OpenAI 曾因員工發(fā)聲而威脅取消其既得權(quán)益,并要求員工簽署嚴格的保密協(xié)議限制他們批評公司。