日前,工信部等十部門(mén)聯(lián)合印發(fā)了《人工智能科技倫理審查與服務(wù)辦法(試行)》(下稱(chēng)《倫理辦法》)。這是我國(guó)統(tǒng)籌人工智能發(fā)展與安全、創(chuàng)新與責(zé)任、效率與公平的重大制度安排,為人工智能技術(shù)向善、智能產(chǎn)業(yè)高質(zhì)量發(fā)展提供了明確的科技倫理規(guī)范。
《倫理辦法》明確,開(kāi)展人工智能科技活動(dòng)應(yīng)將科技倫理要求貫穿全過(guò)程,遵循增進(jìn)人類(lèi)福祉、尊重生命權(quán)利、尊重知識(shí)產(chǎn)權(quán)、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開(kāi)透明、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)?shù)娜斯ぶ悄芸萍紓惱碓瓌t。
人工智能迅猛發(fā)展,新應(yīng)用場(chǎng)景層出不窮。但人工智能狂飆突進(jìn)的同時(shí)也伴生著突出的倫理風(fēng)險(xiǎn),引起公眾的擔(dān)憂。
比如:算法黑箱與算法歧視加劇社會(huì)不公;深度合成、內(nèi)容操縱等技術(shù)沖擊輿論生態(tài);數(shù)據(jù)濫用與隱私侵害直接侵犯公民人格尊嚴(yán);高度自主決策系統(tǒng)模糊責(zé)任邊界、挑戰(zhàn)人類(lèi)主體地位;部分人機(jī)融合技術(shù)更直接觸及生命健康與人格尊嚴(yán)的核心底線。亂象的背后是一些人工智能的研發(fā)和應(yīng)用并不具有科學(xué)價(jià)值和社會(huì)價(jià)值,而是單純出于追逐利益的需要。
《倫理辦法》在規(guī)定了人工智能科技倫理審查一般程序和簡(jiǎn)易程序的同時(shí),也規(guī)定了專(zhuān)家復(fù)核程序。其中一般程序和簡(jiǎn)易程序由本單位或者委托其他單位進(jìn)行,專(zhuān)家復(fù)核程序需要根據(jù)工信部、科技部會(huì)同有關(guān)部門(mén)制定發(fā)布的“需要開(kāi)展科技倫理專(zhuān)家復(fù)核的人工智能科技活動(dòng)”清單進(jìn)行更嚴(yán)格的審查。很顯然,被列入清單的風(fēng)險(xiǎn)性更高,公眾關(guān)注率也更高。
《倫理辦法》附件中列出了三個(gè)領(lǐng)域需要開(kāi)展科技倫理專(zhuān)家復(fù)核,這些領(lǐng)域既是開(kāi)展人工智能領(lǐng)域科技倫理審查的重點(diǎn),也是防范人工智能科技倫理缺失的關(guān)鍵所在,更是公眾關(guān)注所在。
首先是要對(duì)有關(guān)人類(lèi)主觀行為、心理情緒和生命健康等具有較強(qiáng)影響的人機(jī)融合系統(tǒng)的研發(fā)進(jìn)行嚴(yán)格復(fù)核。
專(zhuān)家認(rèn)為,腦機(jī)接口、情感計(jì)算、神經(jīng)調(diào)控、增強(qiáng)認(rèn)知等人機(jī)融合技術(shù),直接作用于人的感知、情緒、認(rèn)知乃至生命機(jī)能,一旦發(fā)展失序,可能導(dǎo)致人格異化、自主意識(shí)被干預(yù)、生命健康受損等嚴(yán)重后果。人工智能發(fā)展本質(zhì)上是要堅(jiān)守“人是目的而非工具”的根本倫理立場(chǎng),確保技術(shù)始終服務(wù)于人,而非顛覆人的主體地位。
在搜索引擎中輸入“腦機(jī)接口”“情緒控制”兩個(gè)關(guān)鍵詞就會(huì)出現(xiàn)很多“應(yīng)用指南”。這項(xiàng)技術(shù)成熟與否暫且不說(shuō),但人的情緒一旦受到機(jī)器的控制后果是無(wú)法預(yù)料的,雖言“向善”但未必不產(chǎn)生“惡果”。這是人工智能科技倫理中必須重視的方面。
其次是要對(duì)具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)進(jìn)行嚴(yán)格復(fù)核。
這是要防范“算法權(quán)力”帶來(lái)的公共風(fēng)險(xiǎn)。如果算法被特定設(shè)置,就很容易被用于制造信息繭房、放大社會(huì)對(duì)立、操縱公共輿論。因?yàn)椋墒饺斯ぶ悄?、算法推薦、深度合成、輿情引導(dǎo)系統(tǒng)等已具備強(qiáng)大的信息分發(fā)、觀點(diǎn)塑造、情緒煽動(dòng)能力?,F(xiàn)在經(jīng)常提到的“水軍”,背后就可以清晰看到“算法權(quán)力”的嚴(yán)重危害。
其三是要對(duì)具有高度自主能力的自動(dòng)化決策系統(tǒng)研發(fā)進(jìn)行嚴(yán)格復(fù)核。
比如,在交通、醫(yī)療、工業(yè)、應(yīng)急、公共管理等涉及人身安全與重大公共利益的場(chǎng)景中,高度自主決策系統(tǒng)一旦出現(xiàn)算法偏見(jiàn)、邏輯漏洞或失控運(yùn)行,可能直接造成人身傷亡、重大財(cái)產(chǎn)損失與系統(tǒng)性風(fēng)險(xiǎn)。這些領(lǐng)域不是人工智能發(fā)展的“試驗(yàn)田”,沒(méi)有千百次的驗(yàn)證絕不可以進(jìn)行場(chǎng)景應(yīng)用,因?yàn)檫@關(guān)系到不特定群體的生命財(cái)產(chǎn)安全,也就是公共安全。
總之,當(dāng)前全球在人工智能技術(shù)領(lǐng)域競(jìng)爭(zhēng)的同時(shí),也在步入防范人工智能負(fù)面效應(yīng)制度建設(shè)的關(guān)鍵期。《倫理辦法》填補(bǔ)了我國(guó)人工智能領(lǐng)域?qū)iT(mén)性倫理審查制度的空白,更在三個(gè)關(guān)鍵領(lǐng)域劃定了“紅線”。既然是“紅線”,就不可觸碰,否則就要受到嚴(yán)厲處罰。這也是將來(lái)法規(guī)建設(shè)的重要方向。