NIST提出降低人工智能偏見(jiàn)風(fēng)險(xiǎn)的方法
征求對(duì)該出版物的評(píng)論,這是 NIST 開(kāi)發(fā)值得信賴的 AI 努力的一部分。為應(yīng)對(duì)人工智能 (AI) 偏見(jiàn)可能損害人們的生活和公眾對(duì) AI 信任的通常有害影響,標(biāo)準(zhǔn)與技術(shù)研究院 (NIST) 正在推進(jìn)一種識(shí)別和管理這些偏見(jiàn)的方法——并且正在請(qǐng)求公眾幫助改進(jìn)它。
NIST 概述了識(shí)別和管理人工智能偏見(jiàn)的提案(NIST 特別出版物 1270),這是一份新出版物,是該機(jī)構(gòu)支持可信賴和負(fù)責(zé)任的人工智能發(fā)展的更廣泛努力的一部分。NIST 將在 2021 年 8 月 5 日之前接受對(duì)該文件的評(píng)論,作者將利用公眾的回應(yīng)來(lái)幫助制定 NIST 將在未來(lái)幾個(gè)月內(nèi)舉行的幾項(xiàng)協(xié)作虛擬活動(dòng)的議程。這一系列活動(dòng)旨在讓利益相關(guān)者社區(qū)參與進(jìn)來(lái),讓他們能夠提供反饋和建議,以降低人工智能中的偏見(jiàn)風(fēng)險(xiǎn)。
“管理 AI 中的偏見(jiàn)風(fēng)險(xiǎn)是開(kāi)發(fā)值得信賴的 AI 系統(tǒng)的關(guān)鍵部分,但實(shí)現(xiàn)這一目標(biāo)的途徑仍不清楚,”該報(bào)告的作者之一 NIST 的 Reva Schwartz 說(shuō)。“我們希望讓社區(qū)參與制定自愿的、基于共識(shí)的標(biāo)準(zhǔn),以管理人工智能偏見(jiàn)并降低其可能導(dǎo)致的有害結(jié)果的風(fēng)險(xiǎn)。”
人工智能已成為一種變革性技術(shù),因?yàn)樗ǔ?梢员热祟惛?、更一致地理解信息。人工智能現(xiàn)在在從疾病診斷到我們智能手機(jī)上的數(shù)字助理的方方面面都發(fā)揮著作用。但隨著人工智能應(yīng)用的增長(zhǎng),我們也意識(shí)到它的結(jié)果可能會(huì)被它所提供的數(shù)據(jù)中的偏差所拋棄——數(shù)據(jù)不完整或不準(zhǔn)確地捕捉到現(xiàn)實(shí)世界。
此外,一些人工智能系統(tǒng)的構(gòu)建是為了對(duì)復(fù)雜的概念進(jìn)行建模,例如“”或“就業(yè)適宜性”,這些概念最初無(wú)法直接衡量或通過(guò)數(shù)據(jù)捕獲。這些系統(tǒng)使用其他因素,例如居住地區(qū)或教育水平,作為他們?cè)噲D建模的概念的代理。代理數(shù)據(jù)與原始概念的不精確關(guān)聯(lián)可能會(huì)導(dǎo)致有害或歧視性的 AI 結(jié)果,例如錯(cuò)誤逮捕,或合格的申請(qǐng)人被錯(cuò)誤地拒絕工作或貸款。
作者提出的用于管理偏見(jiàn)的方法涉及認(rèn)真努力,以識(shí)別和管理 AI 系統(tǒng)生命周期中不同階段的偏見(jiàn),從最初的概念到設(shè)計(jì)再到發(fā)布。目標(biāo)是讓來(lái)自技術(shù)部門內(nèi)外的許多團(tuán)體的利益相關(guān)者參與進(jìn)來(lái),讓傳統(tǒng)上沒(méi)有聽(tīng)到的觀點(diǎn)成為可能。
“我們當(dāng)然希望將 AI 開(kāi)發(fā)人員社區(qū)聚集在一起,但我們也希望讓心理學(xué)家、社會(huì)學(xué)家、法律專家和來(lái)自邊緣化社區(qū)的人們參與進(jìn)來(lái),”NIST 的 Elham Tabassi 說(shuō),他是 AI 研究資源工作組的成員。“我們希望從受 AI 影響的人那里獲得觀點(diǎn),包括創(chuàng)建 AI 系統(tǒng)的人和未直接參與其創(chuàng)建的人。”
NIST 作者的準(zhǔn)備研究涉及文獻(xiàn)調(diào)查,其中包括同行評(píng)審的期刊、書(shū)籍和流行新聞媒體,以及行業(yè)報(bào)告和演示文稿。它表明,偏見(jiàn)可能會(huì)在人工智能系統(tǒng)的各個(gè)發(fā)展階段蔓延到人工智能系統(tǒng)中,其方式通常因人工智能的目的和人們使用它的社會(huì)環(huán)境而異。
“人工智能工具通常是為一個(gè)目的而開(kāi)發(fā)的,但隨后它會(huì)在其他非常不同的環(huán)境中使用,”施瓦茨說(shuō)。“許多 AI 應(yīng)用程序也沒(méi)有經(jīng)過(guò)充分測(cè)試,或者根本沒(méi)有在它們預(yù)期的環(huán)境中進(jìn)行測(cè)試。所有這些因素都可以讓偏見(jiàn)不被發(fā)現(xiàn)。”
因?yàn)閳F(tuán)隊(duì)成員認(rèn)識(shí)到他們沒(méi)有所有的答案,Schwartz 說(shuō)獲得公眾反饋很重要——尤其是來(lái)自開(kāi)發(fā)者社區(qū)之外通常不參與技術(shù)討論的人。
“我們希望從受人工智能影響的人那里獲得觀點(diǎn),包括創(chuàng)建人工智能系統(tǒng)的人和未直接參與其創(chuàng)建的人。” – 埃勒姆·塔巴西
“我們知道偏見(jiàn)在整個(gè)人工智能生命周期中都很普遍,”施瓦茨說(shuō)。“不知道你的模型哪里有偏見(jiàn),或者假設(shè)沒(méi)有偏見(jiàn),會(huì)很危險(xiǎn)。確定識(shí)別和管理它的方法是至關(guān)重要的下一步。”