在面對武器化人工智能的猛烈抨擊之后谷歌承諾不會邪惡
據(jù) 《紐約時報》周三報道,谷歌公司正在采取措施,就其技術(shù)(尤其是人工智能)如何用于軍事目的制定一套道德準(zhǔn)則。
該報告沒有說明這些指南的內(nèi)容,但可能會在未來幾周內(nèi)揭曉。不過,該公司明確指出的一件事是,其技術(shù)不會被用作武器。
自從有消息稱谷歌正在與美國國防部合作提供機器學(xué)習(xí)人工智能以來,谷歌就受到了批評。它的目的是要對伊拉克和敘利亞進行數(shù)千小時的無人機拍攝,否則,這對于人類來說將是一項費時費力的工作。
自從Google參與所謂的“ Project Maven”活動以來,該公司的一些員工就毫不含糊地表示,他們不希望為戰(zhàn)爭問題創(chuàng)造技術(shù)。
4月份,成千上萬的員工簽署了一封信,以表示他們對該項目的不滿,提醒谷歌其座右銘是“別作惡”。谷歌反駁說,觀看視頻片段并不能完全將人工智能武器化。但這似乎并不適合許多員工。谷歌表示將認(rèn)真對待此事,并將聽取其員工提出的反對意見。
本月早些時候,當(dāng)幾名員工走出去時,這種憤怒激增了,這不僅說明AI不應(yīng)該用于與戰(zhàn)爭有關(guān)的任何事情,而且他們的反對意見充耳不聞。
他們的抗議反映在一封公開信中,譴責(zé)谷歌在幫助國防部“有針對性地殺人”中發(fā)揮了作用,進一步表明谷歌已經(jīng)單方面采取了行動。該信現(xiàn)已由1,129人簽署,其中大多數(shù)是從哲學(xué)到機器人學(xué)等各個領(lǐng)域的學(xué)者。
盡管至少沒有聽說過技術(shù)巨頭能幫助五角大樓和競標(biāo)合同的事,但谷歌非常清楚它正在溜冰。近年來,隨著AI的發(fā)展,對“ SkyNet”類型技術(shù)的擔(dān)憂可能比以前更加令人恐懼。技術(shù)反烏托邦小說似乎不像從前那樣牽強。
Google的內(nèi)部電子郵件充分證明了這一點。“不惜一切代價避免提及或暗示人工智能,” Google Cloud首席科學(xué)家李飛飛在給同事的電子郵件中寫道。“武器化的AI可能是AI最敏感的主題之一-即使不是最多的主題。“這是媒體發(fā)現(xiàn)所有損害Google的方法的紅肉。”
根據(jù)同一份報告,該合同對Google而言僅價值900萬美元,對公司來說可不是什么大數(shù)目,特別是當(dāng)聲譽受到威脅并且公眾對這種新興技術(shù)的信任微弱時。
毫無疑問,無論是谷歌提供技術(shù)還是其他人,軍方都會以一種或另一種方式利用技術(shù)。五角大樓去年宣布,它一直在硅谷進行尋找合作伙伴的活動,并指出某一點將通過算法贏得未來的戰(zhàn)爭。如果這是Google的算法,那么它的母公司Alphabet Inc.將需要一些令人信服的指導(dǎo)方針,以使其信守新的格言:“做正確的事”。