《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 人工智能也出現(xiàn)種族和性別偏見(jiàn)

人工智能也出現(xiàn)種族和性別偏見(jiàn)

2017-04-17

計(jì)算機(jī)具備理解人類語(yǔ)言的人工智能(AI工具已經(jīng)出現(xiàn)了明顯的種族和性別偏見(jiàn)。

這些發(fā)現(xiàn)令人擔(dān)憂現(xiàn)有的社會(huì)不平等和偏見(jiàn)正在以新的、不可預(yù)知的方式得到強(qiáng)化,因?yàn)橛绊懭藗內(nèi)粘I畹拇罅繘Q策正越來(lái)越多地由機(jī)器人做出。

在過(guò)去的幾年里,谷歌翻譯等程序的語(yǔ)言翻譯能力有了顯著提高。這些成就要得益于新的機(jī)器學(xué)習(xí)技術(shù)和大量在線文本數(shù)據(jù)的使用,并在此基礎(chǔ)上對(duì)算法進(jìn)行訓(xùn)練。

然而,最新研究顯示,隨著機(jī)器越來(lái)越接近于掌握人類的語(yǔ)言能力,它們也在吸收隱藏于語(yǔ)言中的根深蒂固的偏見(jiàn)。

巴斯大學(xué)的計(jì)算機(jī)科學(xué)家、論文合著者喬安娜·布萊森(Joanna Bryson)說(shuō):“很多人都認(rèn)為這表明人工智能(AI)存在偏見(jiàn)。不,這表明我們有偏見(jiàn),人工智能正在有樣學(xué)樣。”

但布萊森警告說(shuō),人工智能有可能強(qiáng)化現(xiàn)有偏見(jiàn),因?yàn)樗惴ㄅc人類不同,可能無(wú)法有意識(shí)地抵制學(xué)到的偏見(jiàn)。“危險(xiǎn)在于,你擁有的人工智能系統(tǒng)沒(méi)有一處零部件明確需要依靠道德觀念驅(qū)動(dòng),這就不好了,”她說(shuō)。

1492239757926029104.jpg

微軟去年推出的Twitter機(jī)器人因不當(dāng)言論而緊急下線微軟去年推出的Twitter機(jī)器人因不當(dāng)言論而緊急下線

上述研究發(fā)表在《科學(xué)》雜志上,重點(diǎn)關(guān)注一種名為“單詞嵌入”機(jī)器學(xué)習(xí)工具,后者已經(jīng)改變了計(jì)算機(jī)解讀語(yǔ)音和文本的方式。有人認(rèn)為,下一步科技發(fā)展將自然而然地涉及到開(kāi)發(fā)機(jī)器的類人化能力,如常識(shí)和邏輯。

“我們選擇研究單詞嵌入的一個(gè)主要原因是,近幾年來(lái),它們已幫助電腦在破解語(yǔ)言方面取得了巨大成功,”這篇論文的資深作者、普林斯頓大學(xué)計(jì)算機(jī)科學(xué)家阿爾文德·納拉亞南(Arvind Narayanan)說(shuō)。

這種方法已經(jīng)在網(wǎng)絡(luò)搜索和機(jī)器翻譯中使用,其原理是建立一套語(yǔ)言的數(shù)學(xué)表示式,依據(jù)與每個(gè)單詞同時(shí)出現(xiàn)的最常用單詞,將這個(gè)詞的意思提煉成一系列數(shù)字(也就是詞向量)。也許令人驚訝的是,這種純粹的統(tǒng)計(jì)方法似乎能夠捕捉到每個(gè)詞所在的豐富的文化和社會(huì)背景,這是字典無(wú)法定義的。

例如,在數(shù)學(xué)“語(yǔ)言空間”,與花朵有關(guān)的詞匯往往與描繪心情愉悅的話語(yǔ)聚集在一起,而與昆蟲(chóng)相關(guān)的詞匯則往往與心情不愉快的詞匯同時(shí)出現(xiàn),反映出人們對(duì)昆蟲(chóng)與花朵的相對(duì)特點(diǎn)所達(dá)成的共識(shí)。

最新的文件顯示,人類心理實(shí)驗(yàn)中一些更令人不安的隱性偏見(jiàn)也很容易被算法捕獲。“雌性”和“女性”與藝術(shù)、人文職業(yè)和家庭的聯(lián)系更緊密,“雄性”和“男性”與數(shù)學(xué)和工程專業(yè)更為接近。

而且,人工智能系統(tǒng)更有可能將歐美人的名字與諸如“禮物”或“快樂(lè)”之類的愉快詞語(yǔ)聯(lián)系在一起,而非裔美國(guó)人的名字通常與不愉快的詞語(yǔ)聯(lián)系在一起。

研究結(jié)果表明,算法與隱式聯(lián)想測(cè)試擁有同樣的偏見(jiàn),也就是把表示愉快的單詞與(美國(guó)和英國(guó)的)白人面孔聯(lián)系起來(lái)。

這些偏見(jiàn)會(huì)對(duì)人類行為產(chǎn)生深遠(yuǎn)的影響。一項(xiàng)先前的研究表明,相對(duì)于非洲裔美國(guó)人,如果申請(qǐng)者的名字是歐洲裔美國(guó)人,即使簡(jiǎn)歷內(nèi)容相同,后者所能獲得的面試邀請(qǐng)將比前者多出50%。最新的研究結(jié)果表明,除非采用明確的編程來(lái)解決這個(gè)問(wèn)題,否則,算法將與現(xiàn)實(shí)社會(huì)一樣,充斥著相同的社會(huì)偏見(jiàn)。

“如果你不相信種族主義與姓名存在聯(lián)系,這就是例證,”布萊森說(shuō)。

研究中使用的機(jī)器學(xué)習(xí)工具是在被稱為“通用爬蟲(chóng)”語(yǔ)料庫(kù)的訓(xùn)練數(shù)據(jù)集中接受訓(xùn)練的,其中的8400億個(gè)詞語(yǔ)都是從網(wǎng)上公布的材料中選取的。當(dāng)研究人員把訓(xùn)練數(shù)據(jù)集換成谷歌新聞的數(shù)據(jù)對(duì)機(jī)器學(xué)習(xí)進(jìn)行訓(xùn)練時(shí),也出現(xiàn)了類似結(jié)果。

牛津大學(xué)數(shù)據(jù)倫理和算法領(lǐng)域的研究人員桑德拉·沃徹(Sandra Wachter)說(shuō):“世界存在偏見(jiàn),歷史數(shù)據(jù)存在偏見(jiàn),因此,我們得到帶有偏見(jiàn)的結(jié)果,不足為奇?!?/p>

她補(bǔ)充說(shuō),算法不僅代表一種威脅,也可能為采取適當(dāng)方式解除和對(duì)抗偏見(jiàn)提供機(jī)會(huì)。

“至少利用算法,我們可能知道算法會(huì)在什么時(shí)候出現(xiàn)偏差,”她說(shuō)。例如,人類會(huì)在解釋為何不雇傭某人時(shí)說(shuō)謊,與此相反,算法不會(huì)撒謊,不會(huì)欺騙我們?!?/p>

然而,沃徹說(shuō),問(wèn)題在于如何從旨在理解語(yǔ)言的算法中消除不恰當(dāng)?shù)钠?jiàn),同時(shí)又不剝奪它們的解讀能力,這將是具有挑戰(zhàn)性的工作。

“原則上,我們可以建立一些系統(tǒng)對(duì)帶有偏見(jiàn)的決定進(jìn)行檢測(cè),然后采取行動(dòng),”沃徹說(shuō),并與其他人一起呼吁建立一個(gè)人工智能監(jiān)管機(jī)構(gòu)?!斑@是一項(xiàng)非常復(fù)雜的任務(wù),但作為一種社會(huì)責(zé)任,我們不應(yīng)回避?!?/p>


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 黄色免费看视频 | fulidown国产精品合集 | 男女啪啪猛烈到合不拢腿小说网 | 欧美一级黄色带 | 国产一区中文字幕在线观看 | 午夜黄色小视频 | 五月激情综合 | 一级片免费在线观看视频 | 人人骚 | 岛国毛片在线 | 亚洲欧美乱综合图片区小说区 | 欧美成人免费观看国产 | 激情亚洲视频 | www成人| 日韩黄视频| 99视频在线观看免费视频 | 亚洲欧美卡通成人制服动漫 | 三级毛片在线免费观看 | 1204曰韩欧美成人看片 | 做a视频大全 | 影音先锋国产系列精品 | 高清色黄毛片一级毛片 | 日韩在线播放视频 | 国产手机在线国内精品 | 嗯男人边吃奶边做边爱视频 | 在线免费观看亚洲视频 | 天天夜夜狠狠一区二区三区 | 成人午夜看片在线观看 | 国产欧美高清 | 播放一级特黄录像 | 国产乱人乱精一区二区视频密 | 一区二区中文字幕在线观看 | 能在线观看的一区二区三区 | 国产精品国产三级国产无毒 | 日本不卡一区二区三区在线观看 | 黄色一级录像片 | 中文字幕天天躁日日躁狠狠 | 久久精品视频一区 | 国产一级黄色 | 免费国产好深啊好涨好硬视频 | 国产在线观看网址在线视频 |