1942年,科幻作家艾薩克·阿西莫夫提出了機(jī)器人三定律:一是機(jī)器人不得傷害人類,也不得因不作為而使人類受到傷害;二是機(jī)器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;三是機(jī)器人必須保護(hù)自己的存在,除非這種保護(hù)與以上兩條相矛盾。這為人工智能倫理提供了基礎(chǔ)性框架,但其個(gè)體中心主義、靜態(tài)規(guī)則設(shè)定,以及“人類傷害”“服從命令”等模糊表述不能適應(yīng)當(dāng)代人工智能的復(fù)雜性,不能解決人工智能系統(tǒng)可能通過(guò)算法歧視、數(shù)據(jù)濫用等方式損害群體利益,無(wú)法有效約束動(dòng)態(tài)演化的人工智能行為,不能提供明確的權(quán)責(zé)劃分機(jī)制。當(dāng)前亟須通過(guò)多種路徑校準(zhǔn)人工智能發(fā)展的航道,構(gòu)建適應(yīng)人工智能迭代升級(jí)的倫理安全網(wǎng)。
首先是明確人工智能開(kāi)發(fā)與運(yùn)用的倫理底線。一是生命安全優(yōu)先。任何人工智能系統(tǒng)必須以保障人類生命為最高準(zhǔn)則,尤其在自動(dòng)駕駛、醫(yī)療決策等高風(fēng)險(xiǎn)場(chǎng)景中,通過(guò)預(yù)設(shè)算法優(yōu)先級(jí),避免直接或間接傷害人類。二是責(zé)任可追溯性。人工智能開(kāi)發(fā)者和運(yùn)營(yíng)方需對(duì)系統(tǒng)行為承擔(dān)法律責(zé)任,包括算法設(shè)計(jì)缺陷、數(shù)據(jù)濫用或決策失控等場(chǎng)景,建立從研發(fā)到應(yīng)用的全鏈條責(zé)任追溯倫理機(jī)制,明確技術(shù)提供方與使用方的義務(wù)邊界。三是數(shù)據(jù)隱私與公平性。人工智能系統(tǒng)必須遵循數(shù)據(jù)最小化原則,實(shí)施嚴(yán)格的數(shù)據(jù)保護(hù),采用先進(jìn)的加密技術(shù)和匿名化處理,禁止采集與使用未經(jīng)授權(quán)的個(gè)人信息。
其次是推動(dòng)人工智能系統(tǒng)的預(yù)防性倫理設(shè)計(jì)。在技術(shù)層面,新一代“道德嵌入式人工智能”已進(jìn)入試驗(yàn)階段。這類人工智能系統(tǒng)內(nèi)置“倫理沖突解決協(xié)議”,當(dāng)醫(yī)療人工智能發(fā)現(xiàn)治療方案存在資源分配不公時(shí),系統(tǒng)將自動(dòng)觸發(fā)倫理預(yù)警。這種預(yù)防性的倫理設(shè)計(jì),將“倫理優(yōu)先”和“智能向善”的道德要求嵌入到技術(shù)架構(gòu)之中。
再次要制定相關(guān)的倫理準(zhǔn)則或法規(guī)。我國(guó)出臺(tái)的《新一代人工智能倫理規(guī)范》,將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引。當(dāng)然,為應(yīng)對(duì)人工智能技術(shù)運(yùn)用中的問(wèn)題,構(gòu)建全球協(xié)同的人工智能倫理治理體系勢(shì)在必行。
必須說(shuō)明,為人工智能安裝倫理“導(dǎo)航儀”,不是阻礙人工智能技術(shù)創(chuàng)新和進(jìn)步的絆腳石,它既應(yīng)保持對(duì)人工智能技術(shù)創(chuàng)新的包容,又應(yīng)守住人類的價(jià)值底線。當(dāng)人類做到在數(shù)字技術(shù)洪流中堅(jiān)守倫理價(jià)值,當(dāng)人工智能能夠從人類倫理視角理解并堅(jiān)持“有所為有所不為”時(shí),才能確保人工智能技術(shù)革命真正服務(wù)于人類。當(dāng)更聰明的人工智能帶著人性的溫度與人類友好相處時(shí),那便是“人機(jī)共生”新文明形態(tài)的到來(lái)。
(據(jù)《光明日?qǐng)?bào)》)