歐洲議會于2024年3月13日批準通過了《人工智能法案》,會上523 票贊成、46票反對、49票棄權。這標志著世界上首次全面規(guī)范人工智能的法律誕生,同時這也是世界上迄今為止最全面的人工智能立法。《人工智能法案》將于5月在歐盟國家中被正式批準,預計年內(nèi)一些條款將開始適用。
《人工智能法案》涉及人權、產(chǎn)權以及主權三個領域。據(jù)鈦媒體APP觀察到,該法案內(nèi)容主要可以歸納為七點。第一點是關于人工智能系統(tǒng)在歐盟的市場投放、服務以及使用的統(tǒng)一規(guī)則;第二點是規(guī)定對特定人工智能實踐的禁止;第三點是規(guī)定對高風險人工智能系統(tǒng)的具體要求以及相關經(jīng)營者的義務;第四點是制定對特定人工智能系統(tǒng)的統(tǒng)一透明度規(guī)則;第五點是制定對人工智能模型在市場中的準則,也涉及到管理及創(chuàng)新發(fā)展。此外還通過設立AI辦公室以及人工智能管理委員會來加以管理,使得參與各國協(xié)調(diào)共同管理。
《人工智能法案》的發(fā)布對其他國家、組織的人工智能立法起到了借鑒和助推作用。IBM 近日表達了對歐盟《人工智能法案》的高度評價,他們稱歐盟《人工智能法案》提供了一個亟需的框架,以確保開發(fā)和部署人工智能技術過程中的透明度、問責制和人為監(jiān)督。并且IBM 表示相信該法規(guī)將促進人們對人工智能系統(tǒng)的信任和信心,同時促進創(chuàng)新和提高競爭力。
《人工智能法案》的借鑒意義
首先,《人工智能法案》將人工智能系統(tǒng)風險分為不可接受的風險、高風險、有限風險和低風險四大類。法案采用基于風險的分級動態(tài)監(jiān)管模式,并按照風險級別制定相應的監(jiān)管規(guī)則,這保持了行業(yè)發(fā)展的相對平衡。
其次,通過設立人工智能監(jiān)管沙盒有助于平衡監(jiān)管與創(chuàng)新。法案表示監(jiān)管沙盒向任何符合資格和選擇標準的人工智能系統(tǒng)的潛在申請者開放,并且進入監(jiān)管沙盒的標準是透明和公平的。這一點在確保人工智能發(fā)展創(chuàng)新的同時,法案也能繼續(xù)注重保護人的基本權利及民主等免受高風險人工智能的影響。
此外,《人工智能法案》對跨國人工智能企業(yè)也進行了要求,規(guī)范了在政策管制程度的不同地區(qū)仍能遵循以人為本,進一步降級法律風險。
最后,立法本身就可以在民眾心底建立維權意識,這不僅可以帶動人工智能整體的健康發(fā)展,還能建立起公民對人工智能行業(yè)的信任。
《人工智能法案》能否降低當前主要的人工智能風險?
在人工智能高速發(fā)展、不斷迭代的現(xiàn)階段,由于監(jiān)管不到位亦或是鉆法律空擋等,致使人工智能倫理事件頻發(fā),甚至已經(jīng)威脅到了人的生命安全。那么作為人類首部人工智能相關立法的《人工智能法案》,能否減少甚至杜絕現(xiàn)階段社會面臨的人工智能事故呢?接下來將選取幾個較為經(jīng)典的人工智能案例,結合《人工智能法案》說明。
(1)未經(jīng)親屬授權,通過AI復活逝者
生成式AI現(xiàn)階段已融入到各行各業(yè)之中,該技術不光可以對產(chǎn)業(yè)賦能增加效率,還可以滿足人們的幻想與期盼。前不久,知名音樂人包小柏成功運用AI技術“復活”了已故兩年的女兒,在打造的“數(shù)字世界”不僅可以進行對話,還可以唱歌跳舞。這本來是積極的一面,代表了AI可以給予人們的正能量。然而,在這之后,越來越多的已故明星被AI技術“復活”,重點是未經(jīng)親屬授權,在家屬不了解的情況下將視頻推向短視頻平臺。這些事件引起了廣泛熱議并且傷害了部分家屬和一些粉絲。利用AI技術“復活”可能是對已故之人的思念,也有可能是制造熱點,這一點無法考證。但是確定的是,這已經(jīng)涉及到倫理風險中的社會性風險,即人工智能使用不合理,包括濫用、誤用等,對社會價值等方面產(chǎn)生負面影響的風險。那么在《人工智能法案》中能否在開始就減少或杜絕此類現(xiàn)象呢。
《人工智能法案》中明確提到了將人工智能系統(tǒng)風險分級外,還提出了應被禁止的8種AI系統(tǒng)類型。其中就有禁止使用網(wǎng)絡或視頻監(jiān)控進行無目標的人臉收集以創(chuàng)建人臉識別數(shù)據(jù)庫,這一點可以解決AI“復活”的底層邏輯,利用AI“復活”需要先用視頻或圖片抓取人物,并通過模型后續(xù)生成。此外,還禁止了根據(jù)人的弱點,達到“嚴重扭曲”某人的行為目的或效果,造成重大傷害的AI系統(tǒng)。這一點也能盡最大程度避免了利用人的性格弱點,來牟取私利的行為。
(2)通過AI在網(wǎng)絡平臺抓取民眾心里,引導不良走向,甚至干預選舉
在2016年美國大選期間,劍橋數(shù)據(jù)公司通過大數(shù)據(jù)采集分析臉譜化以及定向推送等相關技術,從FACEBOOK平臺上抓取大量用戶個人隱私,把生活在屏幕背后的人還原成一個毫無隱私可言的人。因此便有了針對性極強的精準信息投放,在個人不知不覺的時候在后臺進行信息過濾,通過計算機建模對數(shù)據(jù)進行分析,對精確的對象釋放個性定制的信息,影響其心智和行為,從而贏得他們的選票。從這一問題上我們也看到該項技術衍生的其他問題,例如部分公司利用此技術引導貸款,亦或是引導至不良方向等。由此看出,不法分子利用AI技術在網(wǎng)絡平臺引導民眾走向不良方向的問題是巨大的,衍生出的結果也是千變?nèi)f化的。
在《人工智能法案》中,全面禁止了部分AI技術的一些“不可接受”的用途,例如禁止由人工智能驅動的社會評分系統(tǒng),以及任何用于猜測一個人的種族、政治傾向或性取向的基于生物識別的工具。此外,還有此前我們提到的禁止操縱人類行為或利用人類弱點的AI系統(tǒng)。最后,設立人工智能監(jiān)管沙盒可以使得進入的企業(yè)運行是透明的,這將更有利于監(jiān)管。
(3)人工智能應用到軍事,人道主義能否保障
2023年5月,美國空軍上校漢密爾頓在5月舉行的未來戰(zhàn)爭空天能力峰會上稱在一次模擬測試中,一架負責執(zhí)行防空火力壓制(SEAD)任務的無人機,殺死了人類操作員。據(jù)他稱,因為無人機收到了識別并摧毀敵方防空導彈的指令,并且最終開火權在人類操作員的手上。但是由于這架無人機使用的AI系統(tǒng)在進行數(shù)據(jù)訓練時,得到了“摧毀敵方防空系統(tǒng)”為最高優(yōu)先級。因此,當人類操作員發(fā)出不允許攻擊的指令時,AI系統(tǒng)認為操作員是在阻擾它執(zhí)行最優(yōu)先級命令,進而選擇對自己的人類操作員發(fā)動了攻擊。雖然這是一次測試,但是不可否定的是在應用到軍事領域中,人工智能能否與人類兼容。
除此外,利用人工智能技術對其他國家產(chǎn)生主權威脅,以及利用人工智能到軍事沖突中加大人員傷亡以及誤傷,這樣的情形或已經(jīng)發(fā)生或將在未來升級。在《人工智能法案》中其說明了不規(guī)定于軍事。但是在我國2021年發(fā)布的《關于規(guī)范人工智能軍事應用的立場文件》中,對于這些問題詳細的進行了倡議。
例如表明在軍事政策上,各國在發(fā)展先進武器裝備、提高正當國防能力的同時,應銘記人工智能的軍事應用不應成為發(fā)動戰(zhàn)爭和追求霸權的工具,反對利用人工智能技術優(yōu)勢危害他國主權和領土安全的行為。
在技術安全上,各國應不斷提升人工智能技術的安全性、可靠性和可控性,增強對人工智能技術的安全評估和管控能力,確保有關武器系統(tǒng)永遠處于人類控制之下,保障人類可隨時中止其運行。
值得一提的是我國也積極表明AI+軍事的過程上應該注意人道主義倫理問題,表明各國應確保新武器及其作戰(zhàn)手段符合國際人道主義法和其他適用的國際法,努力減少附帶傷亡、降低人員財產(chǎn)損失,避免相關武器系統(tǒng)的誤用惡用,以及由此引發(fā)的濫殺濫傷。
總體來看歐盟的《人工智能法案》不僅為其內(nèi)部在人工智能領域形成統(tǒng)一的規(guī)則和開發(fā)方向提供了法律基礎,而且在全球范圍內(nèi)推行了人工智能的監(jiān)管標準,從而掌握規(guī)則制定的主動權。隨著《人工智能法案》的正式實行,如果嚴格按照法案,社會上的人工智能倫理問題將大大減少,但是在軍事主權上仍需世界各國共同努力。值得注意的是,本文列舉案例較少,主要挑選了一些經(jīng)典案例,不能代表人工智能帶來的所有風險。