人們?cè)谏钪幸呀?jīng)開始習(xí)慣用語音控制電子設(shè)備、用圖像識(shí)別人臉、讓機(jī)器處理家務(wù),人工智能正在全方位滲透到我們生活的每一個(gè)角落。同時(shí),據(jù)估計(jì),人工智能的經(jīng)濟(jì)潛力高達(dá)15.7萬億美元。
然而,隨著落地場(chǎng)景的不斷增多,使用范圍的不斷擴(kuò)大,人工智能應(yīng)用也暴露出一些問題,尤其是其帶來的誠信問題、安全問題和社會(huì)問題引發(fā)了監(jiān)管機(jī)構(gòu)、業(yè)界和公眾的廣泛關(guān)注。根據(jù)普華永道的一項(xiàng)最新報(bào)告,只有當(dāng)各家企業(yè)采用負(fù)責(zé)任的人工智能項(xiàng)目,并在開展項(xiàng)目之前經(jīng)過深思熟慮時(shí),其經(jīng)濟(jì)潛力才能成為現(xiàn)實(shí)。
人工智能正面臨五大風(fēng)險(xiǎn)與挑戰(zhàn)
目前,用戶在應(yīng)用人工智能時(shí),主要面臨來自五個(gè)方面的風(fēng)險(xiǎn)和挑戰(zhàn)。
第一,合規(guī)。目前針對(duì)人工智能的監(jiān)管還處于探索階段,遠(yuǎn)遠(yuǎn)落后于應(yīng)用落地的速度。相關(guān)的法律法規(guī)較少,合規(guī)要求相對(duì)模糊,監(jiān)管的不確定性是企業(yè)面臨的重要風(fēng)險(xiǎn)。
監(jiān)管要求的落地是企業(yè)面臨的另一項(xiàng)挑戰(zhàn)。數(shù)據(jù)是人工智能的基礎(chǔ),在應(yīng)用人工智能時(shí),企業(yè)需要滿足包括數(shù)據(jù)收集、隱私保護(hù)等要求。2017年,谷歌旗下人工智能子公司DeepMind所開發(fā)的移動(dòng)應(yīng)用Streems因收集患者醫(yī)療病歷被英國信息委員會(huì)裁定違背了英國數(shù)據(jù)保護(hù)法。2019年5月,出于對(duì)侵犯?jìng)(gè)人隱私的擔(dān)憂,美國舊金山通過一項(xiàng)法令禁止該城市的政府機(jī)構(gòu)使用人臉識(shí)別技術(shù)。
在特定的情形下,企業(yè)還需要向監(jiān)管機(jī)構(gòu)證明復(fù)雜的人工智能應(yīng)用程序是如何做出決策的,以判斷是否滿足監(jiān)管要求,這對(duì)企業(yè)和監(jiān)管機(jī)構(gòu)而言均有一定的難度。
第二,道德和倫理。決策偏見可能是人工智能應(yīng)用中最突出的道德風(fēng)險(xiǎn)。亞馬遜公司在利用人工智能算法進(jìn)行求職簡(jiǎn)歷審核時(shí)發(fā)現(xiàn),由于科技行業(yè)簡(jiǎn)歷大多都是男性投遞的,其機(jī)器學(xué)習(xí)引擎在接受訓(xùn)練之后會(huì)優(yōu)先選取男性求職者,給女性簡(jiǎn)歷以更低的評(píng)級(jí)。美國部分州的司法部門使用了一套人臉識(shí)別系統(tǒng)(COMPAS)來預(yù)測(cè)罪犯再次犯罪的概率,以決定是否批準(zhǔn)保釋或假釋,然而從預(yù)測(cè)結(jié)果來看,被錯(cuò)誤標(biāo)記為高風(fēng)險(xiǎn)再犯罪的黑人人數(shù)幾乎是白人的兩倍。而那些真正實(shí)施再犯罪的人群中,被錯(cuò)誤標(biāo)記為低風(fēng)險(xiǎn)的白人人數(shù)卻是黑人人數(shù)的兩倍。這些案例顯示出人工智能算法在決策時(shí)有可能產(chǎn)生偏見和歧視。
誠信問題是人工智能容易引發(fā)的另一個(gè)問題,從事直播工作的網(wǎng)絡(luò)紅人喬碧羅一直使用一種基于人工智能的換臉?biāo)惴ㄐ揎椖槻,給觀眾留下了人美聲甜的印象。但在幾個(gè)月前的一次直播中,其用來修飾臉部的濾鏡和圖片偶然被關(guān)閉,直播畫面中出現(xiàn)了“蘿莉”變“大媽”的一幕,引發(fā)人們對(duì)于應(yīng)用人工智能帶來欺詐問題的熱議。
第三,安全。人工智能應(yīng)用的功能雖然強(qiáng)大,但前提是確保安全,尤其是當(dāng)人工智能應(yīng)用于與人身安全直接相關(guān)的領(lǐng)域,如自動(dòng)駕駛、醫(yī)療、工業(yè)控制等,安全應(yīng)當(dāng)被置于首要地位。2018年末和2019年初,波音公司兩駕737Max客機(jī)連續(xù)墜毀,失事原因很可能是由于飛機(jī)自動(dòng)駕駛系統(tǒng)在錯(cuò)誤的信號(hào)下判斷飛機(jī)有失速風(fēng)險(xiǎn),選擇降低機(jī)頭,使飛機(jī)俯沖。此過程中,駕駛員曾嘗試?yán)痫w機(jī),但自動(dòng)駕駛系統(tǒng)沒有將操控權(quán)交還駕駛員,仍舊控制飛機(jī)使其繼續(xù)俯沖,最終釀成慘劇。這兩起重大的空難迫使我們?nèi)ニ伎既斯ぶ悄艿陌踩L(fēng)險(xiǎn)。
第四,決策過程模糊。人工智能的決策過程通常較為復(fù)雜,對(duì)使用者來說,該決策過程就像黑盒,很難知曉其決策的邏輯和依據(jù)。這也使得人們對(duì)人工智能做出的決策是否可信產(chǎn)生擔(dān)憂。
第五,管控。管控能力不足是很多企業(yè)在應(yīng)用人工智能時(shí)都會(huì)遇到的問題。人工智能發(fā)展的過程具備動(dòng)態(tài)和自適應(yīng)的特征,針對(duì)傳統(tǒng)靜態(tài)流程的管控方法可能并不適用。有銀行曾經(jīng)利用人工智能進(jìn)行小額貸款審批,結(jié)果發(fā)現(xiàn)其智能算法將部分小額貸款發(fā)放至不具備償付能力的用戶手中,給銀行帶來財(cái)務(wù)和聲譽(yù)的損失。全球尚未形成一套適用于人工智能領(lǐng)域的治理框架,相關(guān)的治理原則、方法和控制還在進(jìn)一步研究。
如何應(yīng)對(duì)人工智能帶來的風(fēng)險(xiǎn)與挑戰(zhàn)
從網(wǎng)絡(luò)直播到求職招聘,從自動(dòng)駕駛到智能安防,人類已開始大踏步邁入智能時(shí)代。盡管還面臨一些挑戰(zhàn),人工智能的大潮已經(jīng)勢(shì)不可擋。政府和企業(yè)是人工智能領(lǐng)域的主要推動(dòng)力量,我們認(rèn)為政府應(yīng)當(dāng)主要從制度建設(shè),企業(yè)應(yīng)當(dāng)主要從治理和流程上來應(yīng)對(duì)當(dāng)下的風(fēng)險(xiǎn)和挑戰(zhàn)。
對(duì)政府而言,在推動(dòng)新一代人工智能發(fā)展的同時(shí),需要進(jìn)一步加強(qiáng)監(jiān)管,使監(jiān)管能夠跟上技術(shù)的發(fā)展和應(yīng)用的落地。監(jiān)管要求通常并不會(huì)抑制新技術(shù)的發(fā)展,相反,穩(wěn)定的監(jiān)管環(huán)境是新興業(yè)務(wù)發(fā)展的良好土壤,法規(guī)越明確,監(jiān)管越明晰,企業(yè)面對(duì)的合規(guī)不確定性越小,越能夠明確業(yè)務(wù)發(fā)展的方向。政府可以通過頂層設(shè)計(jì)的方式,設(shè)立相關(guān)的監(jiān)管機(jī)構(gòu),出臺(tái)相應(yīng)的法律法規(guī),明確法律主體責(zé)任,明晰監(jiān)管要求等促進(jìn)行業(yè)自律,為行業(yè)發(fā)展提供良好的制度環(huán)境。
對(duì)企業(yè)而言,我們建議企業(yè)在應(yīng)用人工智能技術(shù)改善工藝和流程時(shí),從合規(guī)性、公平性、安全性、可解釋性、可控性五個(gè)方面應(yīng)對(duì)人工智能帶來的風(fēng)險(xiǎn)和挑戰(zhàn),構(gòu)建負(fù)責(zé)任和可信的人工智能應(yīng)用。我們的具體建議包括:
首先,建立人工智能合規(guī)庫,以檢驗(yàn)企業(yè)在部署人工智能應(yīng)用時(shí)是否充分查詢并滿足了相關(guān)適用的法律法規(guī)要求。
其次,人工智能產(chǎn)生偏見的原因可能不只來源于算法本身,也可能來自于人為因素,比如由于個(gè)體經(jīng)歷和認(rèn)知不同而造成訓(xùn)練樣本選取的偏向。企業(yè)可以選擇適當(dāng)?shù)某绦蚝头椒z驗(yàn)用于訓(xùn)練算法模型的樣本數(shù)據(jù),確保其遵守組織的道德準(zhǔn)則和反歧視原則;盡管不論通過何種方法,都很難做出對(duì)每一方都公平的決定,但企業(yè)可以基于某種客觀準(zhǔn)則調(diào)優(yōu)人工智能系統(tǒng),以降低偏見,使決策盡可能公平。
再次,由于人工智能數(shù)據(jù)和系統(tǒng)可能因錯(cuò)誤、惡意攻擊等原因失效而產(chǎn)生嚴(yán)重后果,所以必須從一開始就將安全納入到人工智能開發(fā)過程中,確保安全覆蓋所有人工智能系統(tǒng)、數(shù)據(jù)和通信領(lǐng)域。
此外,要想讓人們信任人工智能系統(tǒng),就有必要及時(shí)向利益相關(guān)方提供必要的說明和解釋,使黑盒變透明。企業(yè)可以利用特定的方法和程序,使人工智能的機(jī)制和模型更好地被它的最終用戶所理解,從而降低運(yùn)營、聲譽(yù)和財(cái)務(wù)方面的風(fēng)險(xiǎn)。
最后,為確保企業(yè)人工智能應(yīng)用得到合理的管控,需要建立起動(dòng)態(tài)的人工智能治理機(jī)制,將人工智能與商業(yè)戰(zhàn)略相結(jié)合,設(shè)立相應(yīng)的崗位和流程,建立快速響應(yīng)的監(jiān)控和預(yù)警機(jī)制,確保組織能及時(shí)發(fā)現(xiàn)問題,并做出調(diào)整。
人工智能被眾多業(yè)界領(lǐng)袖視作“第四次工業(yè)革命”的驅(qū)動(dòng)引擎,其顛覆性可比電力、計(jì)算機(jī)、互聯(lián)網(wǎng),然而,能力越大責(zé)任越大,如果人工智能不能“向善”,則勢(shì)必給人類帶來大災(zāi)難。越來越多的企業(yè)在應(yīng)用人工智能的過程中,開始關(guān)注到可信與負(fù)責(zé)任的問題。對(duì)于普華永道而言,“解決重要問題,營造社會(huì)誠信”也成為指導(dǎo)人工智能項(xiàng)目,應(yīng)對(duì)人工智能風(fēng)險(xiǎn)與挑戰(zhàn)的原則。
(作者系普華永道中國網(wǎng)絡(luò)安全與隱私保護(hù)服務(wù)合伙人)