安全動(dòng)態(tài)

人工智能治理:從理論到實(shí)踐——NIST AI風(fēng)險(xiǎn)管理框架解析

來(lái)源:聚銘網(wǎng)絡(luò)    發(fā)布時(shí)間:2024-06-03    瀏覽次數(shù):
 

當(dāng)前,人工智能治理面臨的挑戰(zhàn)是如何梳理浩繁的文獻(xiàn),找出針對(duì)特定組織量身定制的人工智能治理實(shí)施方案。本文基于NIST于2023年發(fā)布的AI風(fēng)險(xiǎn)管理框架,旨在在加強(qiáng)人工智能治理方面做出嘗試,以便對(duì)讀者,尤其是GRC(治理、風(fēng)險(xiǎn)與合規(guī))領(lǐng)域的專業(yè)人士提供實(shí)用參考。

評(píng)估AI風(fēng)險(xiǎn)

AI系統(tǒng)設(shè)計(jì)有不同程度的自主運(yùn)行能力。與之相關(guān)的最主要風(fēng)險(xiǎn)有哪些?

AI的十五個(gè)最大的風(fēng)險(xiǎn)如下:

缺乏透明度

偏見(jiàn)和歧視

隱私問(wèn)題

倫理困境

安全風(fēng)險(xiǎn)

權(quán)力集中

對(duì)AI的依賴性

取代就業(yè)

經(jīng)濟(jì)不平等

法律和監(jiān)管挑戰(zhàn)

AI軍備競(jìng)賽

人際關(guān)系的喪失

虛假信息和操縱

意想不到的后果

存在性風(fēng)險(xiǎn)值得注意的是,AI可能會(huì)因其使用的組織性質(zhì)而產(chǎn)生獨(dú)特風(fēng)險(xiǎn),超出普遍存在的風(fēng)險(xiǎn)范疇。

AI可信度

NIST規(guī)定了可信AI應(yīng)具備以下特征:

合法有效且可靠

安全無(wú)害

安全且具有韌性

可追責(zé)且透明

可解釋且可理解

隱私增強(qiáng)

公平對(duì)待且妥善管理有害偏見(jiàn)根據(jù)NIST的說(shuō)法,“高度安全但不公平的系統(tǒng),準(zhǔn)確但不透明且不可解釋的系統(tǒng),以及不準(zhǔn)確但安全、隱私增強(qiáng)和透明的系統(tǒng)都是不可取的。風(fēng)險(xiǎn)管理的綜合方法要求在可信度特征之間取得平衡?!逼渲械年P(guān)鍵詞是“權(quán)衡取舍”。

AI風(fēng)險(xiǎn)管理框架核心

NIST規(guī)定的RMF框架包括四個(gè)功能,如下所示:

治理

映射

測(cè)量

管理

治理作為跨領(lǐng)域功能,旨在貫穿并指導(dǎo)其他三個(gè)功能。執(zhí)行AI RMF核心功能時(shí),應(yīng)考慮到多學(xué)科視角,可能還需要聽(tīng)取組織外部的意見(jiàn)。

以下是AI治理的關(guān)鍵建議步驟:

01、在風(fēng)險(xiǎn)度量中應(yīng)考慮可信AI的七個(gè)特征。

02、每個(gè)特征應(yīng)根據(jù)環(huán)境背景進(jìn)行定量或定性評(píng)估,最好是定量評(píng)估并以百分比表示?;陲L(fēng)險(xiǎn)管理成本效益分析,或者監(jiān)管/行業(yè)要求尋求平衡。

03、應(yīng)從多學(xué)科利益相關(guān)者視角,包括內(nèi)外部利益相關(guān)者,考慮AI系統(tǒng)的可信特征,特別是那些造成重大的社會(huì)經(jīng)濟(jì)后果的AI系統(tǒng)。

04、每項(xiàng)風(fēng)險(xiǎn)管理框架核心職能的類別和子類別應(yīng)作為指導(dǎo)方針,并在行使每項(xiàng)職能時(shí)加以應(yīng)用。

05、重要的是,這些指導(dǎo)方針應(yīng)基于環(huán)境背景考慮,而不是一個(gè)嚴(yán)格的檢查清單。

06、審計(jì)人員應(yīng)將AI審計(jì)視為“管理審計(jì)”或“社會(huì)審計(jì)”,并運(yùn)用相應(yīng)的原則,而非財(cái)務(wù)審計(jì)或內(nèi)部審計(jì)原則。這一點(diǎn)適用于所需審計(jì)的AI組件。

AI原則實(shí)際應(yīng)用的案例研究

下文簡(jiǎn)要介紹了微軟如何利用人工智能倫理委員會(huì)管理其AI開(kāi)發(fā)的案例研究。2018年3月,微軟宣布成立一個(gè)由AI和研究小組的總裁和執(zhí)行副總裁領(lǐng)導(dǎo)的人工智能與工程研究倫理委員會(huì)(AETHER)。截止2019年初,AETHER擴(kuò)展為AI、倫理和工程與研究成果的委員會(huì)。AETHER分為七個(gè)工作組:

1、敏感用途

 用于評(píng)估自動(dòng)化決策對(duì)人們生活的影響

2、偏見(jiàn)和公平性

 用于評(píng)估對(duì)少數(shù)群體和弱勢(shì)人群的影響

3、可靠性和安全性

 以確保AI系統(tǒng)對(duì)抗攻擊具有魯棒性

4、人類注意力和認(rèn)知

 監(jiān)控算法注意力竊聽(tīng)和說(shuō)服能力

5、可理解性和解釋性

 為機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型提供透明度

6、人類與AI的交互與協(xié)作

 提高人類在AI系統(tǒng)的參與度

7、工程最佳實(shí)踐

 為AI系統(tǒng)開(kāi)發(fā)生命周期的每個(gè)階段提供最佳實(shí)踐
微軟成立AETHER的決定向其員工、用戶、客戶和合作伙伴發(fā)出非常明確的信號(hào),即微軟打算將其技術(shù)標(biāo)準(zhǔn)提高到一個(gè)更高的水平。

行業(yè)特定指南可以加強(qiáng)AI治理

AI為人類帶來(lái)了許多好處和優(yōu)勢(shì),但仍然需要對(duì)相關(guān)風(fēng)險(xiǎn)進(jìn)行全面管理。因此,遵循全面的框架將避免組織做出臨時(shí)性的決定,并確保各利益相關(guān)者之間建立更好的信譽(yù)和信任。

隨著AI的不斷發(fā)展,監(jiān)管機(jī)構(gòu)正在制定各種開(kāi)放框架以適應(yīng)不同的環(huán)境和行業(yè)。像ISACA這樣的專業(yè)機(jī)構(gòu)可以利用其專業(yè)知識(shí)和知識(shí)庫(kù),通過(guò)制定行業(yè)特定指南補(bǔ)充這些框架。

 
 

上一篇:網(wǎng)安標(biāo)委印發(fā)《網(wǎng)絡(luò)安全技術(shù) 關(guān)鍵信息基礎(chǔ)設(shè)施邊界確定方法(征求意見(jiàn)稿)》

下一篇:2024年6月3日聚銘安全速遞