斯坦福大學的研究人員說多樣化的團隊可以幫助減少偏見算法
與人工智能的好處一樣強大,使用偏差數(shù)據(jù)和有缺陷的AI模型可能會造成很多損害。
斯坦福大學高級研究學者兼數(shù)字公民社會實驗室主任露西·伯恩霍爾茲(圖)表示,為了解決這個日益增長的問題,必須將人的價值觀納入整個數(shù)據(jù)科學過程。
她說:“ ??[價值]不應成為單獨的討論主題。” “我們需要就以下內(nèi)容進行對話:我們要為什么而努力,我們要保護誰,如何試圖識別單個人為因素,而這必須貫穿于整個數(shù)據(jù)科學之中。”
伯恩霍爾茲與之交談索尼婭Tagare,theCUBE,SiliconANGLE Media的移動即時串流工作室主持人的女性數(shù)據(jù)科學大會在斯坦福大學,加州期間,。他們討論了價值在數(shù)據(jù)科學中的重要性,為什么必須要有一個多元化的團隊來構(gòu)建和分析算法以及數(shù)字公民社會實驗室正在開展的工作。
打破偏見周期
伯恩霍爾茨說,所有數(shù)據(jù)都是有偏見的,因為收集數(shù)據(jù)的是人。她強調(diào)說:“我們正在將偏見建立到數(shù)據(jù)科學中,然后將這些工具導出到偏見系統(tǒng)中。” “你猜怎么著?問題變得越來越嚴重。因此,讓我們停止這樣做。”
Bernholz解釋說,在創(chuàng)建算法并進行分析時,數(shù)據(jù)科學家需要確保他們正在考慮數(shù)據(jù)集中所有不同類型的人,并在上下文中了解這些人。
“我們非常清楚,有色女性與白人男性面臨的環(huán)境不同;他們不會以同樣的方式走遍世界。”她解釋說。“并且以為您的購物算法不會影響他們在現(xiàn)實世界中所經(jīng)歷的差異是荒謬的。”
她補充說,還需要讓參與算法創(chuàng)建以及公司管理的人員具有不同的個人資料,這些人可以決定是否以及如何使用它們。
“我們需要一套不同的教學機制,在這些機制中,實際上已經(jīng)訓練了人們從一開始就要考慮什么是預期的積極因素,什么是預期的消極因素以及什么是可能的消極因素,然后決定他們沿著這條道路走多遠” 。