首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 人工智能 >> 正文

美國《加州AI安全法案》被否:AI監(jiān)管面臨的問題與展望

2024年11月7日 09:15  天翼智庫  

2024年9月29日,美國加利福尼亞州州長加文·紐森以“不應只考慮模型成本和算力”、“缺乏靈活解決方案”等為由否決了《CA SB1047前沿人工智能模型安全與創(chuàng)新法案》(以下簡稱《加州AI安全法案》)。該法案一經(jīng)提出便備受爭議,此次法案被否決也反映出美國在AI立法中強調(diào)創(chuàng)新發(fā)展優(yōu)先的一貫傾向。今年以來,全球多個國家和地區(qū)加快構建和完善AI治理框架,我國應密切關注相關政策法規(guī)的進展,包容審慎地推進AI監(jiān)管,促進AI技術創(chuàng)新與監(jiān)管的平衡發(fā)展。

《加州AI安全法案》的主要特征

《加州AI安全法案》自2024年2月經(jīng)加州議會起草,經(jīng)歷了12輪修訂和審議,9月被加州州長否決。該法案旨在監(jiān)管包括Google、Meta、Anthropic和OpenAI等全球主要AI領先企業(yè),內(nèi)容涵蓋設立新的監(jiān)管機構、制定監(jiān)管大模型的標準、全流程的監(jiān)管要求及嚴格的行政處罰,主要體現(xiàn)出以下五個特征。

明確的監(jiān)管主體。法案明確將在政府內(nèi)部設立獨立于技術部的前沿模型委員會,該委員會將負責動態(tài)更新模型監(jiān)管閾值、審計要求、并提供安全指南等職能。

前沿的監(jiān)管對象。法案將監(jiān)管訓練成本高于1億美元,訓練期間使用達到10^26 FLOPS(浮點運算)的超大規(guī)模AI模型,F(xiàn)有大部分AI大模型尚未達到該門檻,但OpenAI、谷歌和微軟等科技巨頭表示未來可能很快就會在大模型開發(fā)中突破該計算閾值。

全流程的監(jiān)管要求。法案列出了AI企業(yè)應當遵守的各種關鍵測試和安全要求,主要包括:在模型訓練前的必須具備“可立即全面關閉能力”,在模型使用或公開前應開展安全測試與評估,在模型開發(fā)中應每年開展保護措施、安全保障等方面的評估,在實際應用中需聘請第三方審計師評估AI安全實踐。

嚴格的行政處罰。違反法案規(guī)定的大模型開發(fā)者(包括個人)將會被提起民事訴訟,賠償金額最高可達算力成本的30%;法院可以對出具虛假審計書的審計師、違反信息記錄規(guī)則的云服務商處以最高5萬美元的罰款。加州勞動用工監(jiān)管機構則可以根據(jù)《勞工法典》起訴報復檢舉人的企業(yè)。

廣泛的影響力。美國加州是全球50強AI公司中32家總部所在地,擁有多家高影響力的研究和教育機構,發(fā)表四分之一的AI相關專利和會議論文。Crunchbase數(shù)據(jù)顯示,2023年全球超過50%的AI風險投資資金都流向了總部位于美國加州的公司,加州無疑是全球AI創(chuàng)新和發(fā)展最主要的中心。隨著AI技術的全球化發(fā)展,《加州AI安全法案》的立法探索也引發(fā)了包括歐盟在內(nèi)眾多主要經(jīng)濟體的關注,為各國探索AI監(jiān)管提供了經(jīng)驗。

各界針對《加州AI安全法案》的主要分歧

《加州AI安全法案》一經(jīng)公布便引發(fā)了廣泛爭議。加州的主要科技公司、高校與研究機構及加州眾議院的民主黨成員等均對法案表示強烈反對,并多次公開呼吁抵制。但同時,以埃隆·馬斯克為代表的科技領袖、圖靈獎得主Yoshua Bengio以及美國非盈利組織人工智能安全研究中心(CAIS)等則公開支持該法案,認為應通過立法手段對技術發(fā)展進行規(guī)制。綜合來看,針對法案的主要分歧集中在AI立法的主導權競合、AI模型的風險監(jiān)管標準設定及技術創(chuàng)新與監(jiān)管的平衡三個方面。

AI立法主導權的競合。在美國聯(lián)邦層面,拜登政府試圖改善AI監(jiān)管碎片化、地方化的困境,但實際上美國國會AI立法屢次陷入僵局。參議院多數(shù)黨領袖舒默在領導兩黨AI工作組經(jīng)過三個多月籌備討論后,也僅提出了一份類似“AI政策路線圖”的報告,并表示“不應追求單一的全面AI法案”,與此前宣稱要推進全面監(jiān)管AI的立法的態(tài)度大相徑庭。在美國州政府層面,科羅拉多州率先通過首部全面AI監(jiān)管法案,加州也積極跟進開展AI立法探索,力圖通過州法案對聯(lián)邦立法產(chǎn)生積極影響。加州州長加文·紐瑟姆直言,在聯(lián)邦層面AI立法停滯不前的情況下,推動州立法是合理的。然而,以OpenAI為首的科技企業(yè)則公開聲稱,企業(yè)已在內(nèi)部采取相應的安全防護措施,政府在聯(lián)邦層面實施AI安全監(jiān)管即可。這一立場反映了加州科技企業(yè)的一貫態(tài)度,即否定州立法的必要性,強調(diào)法律環(huán)境的復雜性可能增加企業(yè)的合規(guī)負擔,主張從聯(lián)邦層面制定統(tǒng)一的法律框架?紤]到聯(lián)邦與州政府就AI立法的主導權競合關系,美國AI監(jiān)管的進程很可能呈現(xiàn)出縱向基于場景的AI立法先于“大而全”的AI橫向立法、州立法先于聯(lián)邦立法的情況。

AI模型風險的監(jiān)管困境。法案提出AI的監(jiān)管標準應基于開發(fā)AI模型所需的成本和計算能力,提前規(guī)避可能由AI引發(fā)的風險。支持者認為,AI可能會對人類構成“毀滅性的打擊”,應為大型AI模型設定一系列監(jiān)管標準,促使行業(yè)更加重視安全性與合規(guī)性。反對者則認為,“AI毀滅論者”夸大了技術威脅,不僅忽視了較小的、專業(yè)化的模型可能帶來的風險,也未充分關注到深度偽造、虛假信息等已出現(xiàn)的安全問題。此外,加州州長加文 紐瑟姆在否決聲明中表示,加州需要主動采取防護措施來應對AI風險,但法案沒有評估AI大模型是否被應用于高風險領域,而是對所有大型系統(tǒng)一概施加嚴格的標準,可能存在“一刀切”的監(jiān)管執(zhí)法情況。由此可見,如何就AI模型存在的風險設定監(jiān)管標準,各方意見尚難達成一致,這也凸顯了基于AI模型的風險標準設定的復雜性。

創(chuàng)新與監(jiān)管的平衡問題加劇。如何平衡AI創(chuàng)新與安全,始終是《加州AI安全法案》爭論的核心問題。一方面,法案支持者強調(diào),通過法律手段實施監(jiān)管可以防止?jié)撛诘臑碾y性后果,尤其是據(jù)此對以利益為導向的企業(yè)行為進行約束;強制性的安全測試和法律監(jiān)管有助于確保AI技術的安全性,進而保護公眾權益。另一方面,法案反對者認為,一旦法案通過將會抑制創(chuàng)新。法律環(huán)境的高度不確定性及合規(guī)成本的增加,尤其會限制小型AI企業(yè)和開源開發(fā)者的創(chuàng)新潛力。從加州整體立法趨勢來看,2024年9月加州州長加文·紐瑟密集批準了17項與AI相關的其他監(jiān)管法案,重點規(guī)制加州已經(jīng)面臨的深度合成、虛假信息和版權威脅問題,呈現(xiàn)出了以州治理需求為主,立足實際應用場景中的風險治理特點。這一系列舉措表明加州政府對AI技術發(fā)展及其安全合規(guī)使用高度重視,也展現(xiàn)了加州在推動創(chuàng)新與強化監(jiān)管之間尋求平衡的政策取向。

結語與展望

《加州AI安全法案》在立法過程中,也引起了歐盟委員會的高度關注。《加州AI安全法案》與歐盟的《AI法案》在基于風險的方法上具有概念上的一致性,在監(jiān)管內(nèi)容上又能構成操作協(xié)同性,將有助于推動AI全球監(jiān)管的一致性。相較而言,兩項法案在監(jiān)管范圍、監(jiān)管對象、監(jiān)管內(nèi)容等方面又存有差異。監(jiān)管范圍上,歐盟的風險范圍界定更加廣泛,除《加州AI安全法案》提到的嚴重傷害外,歐盟還增加了加劇社會不平等和歧視的風險。在監(jiān)管對象上,《加州AI安全法案》側(cè)重監(jiān)管前沿大模型,所設定的監(jiān)管門檻尚無AI企業(yè)達到;歐盟的《AI法案》則針對現(xiàn)有大模型開展監(jiān)管。在監(jiān)管內(nèi)容上,《加州AI安全法案》細化了基礎模型監(jiān)管,尤其在透明度方面,強調(diào)了規(guī)定的訓練前、部署前的通報義務,比歐盟《AI法案》的訓練數(shù)據(jù)披露要求則更加詳細。

《加州AI安全法案》被否反映了美國在AI領域強調(diào)發(fā)展優(yōu)先的一貫態(tài)度,眾議院議長南!づ迓逦髟诜ò阜駴Q后公開表示贊賞,“AI領域發(fā)展與主導不僅僅是大型科技公司,還有小型企業(yè)和學術界”。此外,美國加州政府并未停止對AI監(jiān)管的探索,在否決法案當日,加州州長單獨簽署了有關生成式AI對關鍵基礎設施風險的評估法案,并要求“對可能導致大量傷亡事件的威脅的立法”,闡明了加州將通過分散式的審慎立法方式持續(xù)探索倫理、透明和可信的AI發(fā)展路徑,為保持全球AI的領先地位提供保障。

從各界對《加州AI安全法案》的爭議,以及近期全球AI立法的探索中,我們也可得到有關完善我國AI監(jiān)管體系的一些啟發(fā),尤其在優(yōu)化促進創(chuàng)新和依法治理相結合的監(jiān)管路徑方面。一方面,積極開展針對AI在應用中的潛在威脅和脆弱性風險分析,基于科學發(fā)展規(guī)律和實踐經(jīng)驗,探索構建多層次AI安全防護措施和高水平技術保護手段。另一方面,加快構建鼓勵創(chuàng)新的風險容錯機制,構建具有靈活性和可操作性的監(jiān)管框架,兼顧技術發(fā)展的動態(tài)性與安全監(jiān)管的必要性,推動AI健康安全可持續(xù)發(fā)展。

本文作者

王娜

戰(zhàn)略發(fā)展研究所

二級分析師

碩士,中級工程師,就職于中國電信研究院,長期從事產(chǎn)業(yè)數(shù)字化相關研究,近年來專注媒體融合、數(shù)字治理、智慧城市等領域研究。

陳鳳仙

戰(zhàn)略發(fā)展研究所

高級分析師

博士,副研究員,就職于中國電信研究院,長期從事網(wǎng)信前沿戰(zhàn)略、人工智能、產(chǎn)業(yè)經(jīng)濟、科技創(chuàng)新等相關研究。

編 輯:章芳
飛象網(wǎng)版權及免責聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
3.如因作品內(nèi)容、版權和其它問題,請在相關作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
相關新聞              
 
人物
愛立信中國區(qū)總裁方迎:新質(zhì)網(wǎng)絡創(chuàng)造新質(zhì)價值
精彩專題
2024中國算力大會
2024年國際信息通信展
中國信科亮相2024年國際信息通信展
第25屆中國國際光電博覽會
CCTIME推薦
關于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復制、鏡像