日本丰满人妻videosHD_中文字幕在线观看无码超清_办公室丝袜激情无码播放_国产一国产a一级毛片_日韩欧美不卡一区二区_日韩欧美一区二区三区久久_婷婷基地五月WWW_欧美大片aaaaa免费观看_亚洲精品一区二区无码黄漫_中文字幕一区二区三区久久,免费A片在线观看,国产成人精品白浆久久69日韩精品无码久久一区二区三 ,好看的午夜成人网站

新聞熱線 0891-6325020

數(shù)字報系

移動端
您當(dāng)前的位置:西藏新聞網(wǎng) > 雪域時評

人工智能的偏見能消除嗎,?

2017年04月21日 10:26    來源:北京青年報    
分享到:    

當(dāng)人們在為人工智能進(jìn)入人類生活的方方面面歡呼,,并以為人工智能可能讓人類進(jìn)入新的文明時代而充滿無限美妙的憧憬之時,一種新憂慮產(chǎn)生了:人工智能也會像人類一樣產(chǎn)生種種偏見和歧視,而且,,這種偏見和歧視與生俱來,,是人類教會了它們,。英國媒體《衛(wèi)報》近日發(fā)表的一篇文章指出,,計算機在學(xué)習(xí)人類語言時吸收了人類文化中根深蒂固的觀念,產(chǎn)生了偏見和歧視,。

在人們孜孜以求實現(xiàn)社會公平和正義之時,,人工智能如果帶有偏見,就不可能更好地完成其替代人類工作和服務(wù)于人類的任務(wù),。這是人工智能應(yīng)用面臨的另一種巨大挑戰(zhàn),,如果不能解決這個挑戰(zhàn),顯然沒法寄予人工智能以厚望和賦予其更大,、更艱巨和更崇高的使命,。

人工智能的偏見和歧視早就引起了人們的注意,較典型的是微軟2016年3月23日推出的人工智能聊天機器人Tay,。設(shè)計的最初目的是讓其成為一個善解人意的小女孩,,為用戶排憂解難。但是,,上線第一天Tay就變成了一個滿口粗言穢語的種族主義者,,發(fā)表了不少白人優(yōu)越的言論,,甚至還變成了希特勒的粉絲,要發(fā)起種族滅絕戰(zhàn)爭,。眼見不妙,,微軟公司立刻將Tay下線,并刪除所有不適言論,。經(jīng)過調(diào)教,,Tay于2016年3月30日再次上線,但舊病復(fù)發(fā),,不得不再次下線,。

現(xiàn)在,一項發(fā)表于《科學(xué)》雜志(2017年4月14日)的研究揭示了人工智能的毛病來源于人類,。美國普林斯頓大學(xué)信息技術(shù)政策中心計算機科學(xué)家阿爾文德·納拉亞南(Arvind Narayanan)等人在網(wǎng)上用“爬蟲”軟件收集了220萬個詞的英語文本,,用來訓(xùn)練一個機器學(xué)習(xí)系統(tǒng)。這個系統(tǒng)采用了“文字嵌入”技術(shù),,是一種普遍應(yīng)用于機器學(xué)習(xí)和自然語言處理過程的統(tǒng)計建模技術(shù),。其中,也包括根據(jù)心理學(xué)家揭示人類偏見時使用的內(nèi)隱聯(lián)想測驗(IAT),。

文字嵌入的核心是采用一種稱為詞語表達(dá)全局向量的無監(jiān)督學(xué)習(xí)算法,,通過對詞語庫中詞對詞同現(xiàn)的統(tǒng)計結(jié)果進(jìn)行訓(xùn)練,,在處理詞匯時,,主要根據(jù)各種因素來觀察詞語之間的相關(guān)性,即不同的詞共同出現(xiàn)的頻率,。結(jié)果,,在最為相鄰相關(guān)的詞語上出現(xiàn)了與人類語言使用相似的語義組合和聯(lián)系情景。

比較中性的結(jié)果是,,鮮花與女人相聯(lián),,音樂與愉快相關(guān);但極端的結(jié)果是,,懶惰,,甚至犯罪與黑人相聯(lián);隱秘的“偏見”則把女性與藝術(shù),、人文職業(yè)和家庭聯(lián)系得更為緊密,,讓男性與數(shù)學(xué)和工程專業(yè)更為接近。

其實,,這不能怪人工智能,,而要怪人類。人類自誕生以來和在演化進(jìn)程中一直充斥著偏見,,而且從人類社會組成以來,,更充滿相當(dāng)多的負(fù)面和人性的弱點,,所有這些都會體現(xiàn)在人類的文化中。而文化的載體就是語言,,所以所有的偏見都可以從語言和語義中找到根源,。

教會人工智能更為客觀和公正,至少比人類更客觀和公正,,在目前似乎還難以做到,。因為人類文化中的偏見和歧視是一種與生俱來的“原罪”,人類要么在除掉自己的原罪后才能教會人工智能更為公正和客觀,,要么就是引進(jìn)社會監(jiān)督的相生相克原理來教會和監(jiān)督機器公正和公平,。

當(dāng)人類設(shè)計和研發(fā)的人工智能尚不足以做到更客觀、更公平和更公正(正義)時,,人工智能的應(yīng)用就有可能受到限制,。例如,如果讓人工智能來處理招聘,,不公正的情況會像人工處理一樣出現(xiàn),,甚至更多,因為假如申請者的名字是歐洲裔美國人,,所能得到的面試機會將比非洲裔美國人要多出50%,,男性名字的申請者也可能比女性名字的申請者獲得面試機會多。

即便是人工智能記者(寫作軟件)能寫稿了,,但由于偏見(尤其是語言使用和語義聯(lián)系,、聯(lián)想必然會產(chǎn)生的偏見)存在,也只能讓機器人寫財經(jīng)統(tǒng)計類的稿,,而不能寫調(diào)查類的稿件,,更不能寫評論稿,尤其不能寫辛普森案件一類的稿,,否則字里行間就會體現(xiàn)出偏見和歧視,。

在人工智能天然會習(xí)得人類的偏見和歧視的弱點未能克服之時,對于人工智能的發(fā)展前景就不能抱太大的期望,。(張?zhí)锟保?/p>

責(zé)任編輯:何寶霞    

相關(guān)閱讀

    關(guān)于我們聯(lián)系我們 丨集團(tuán)招聘丨 法律聲明隱私保護(hù)服務(wù)協(xié)議廣告服務(wù)

    中國西藏新聞網(wǎng)版權(quán)所有,未經(jīng)協(xié)議授權(quán),,禁止建立鏡像

    制作單位:中國西藏新聞網(wǎng)丨地址:西藏自治區(qū)拉薩市朵森格路36號丨郵政編碼:850000

    備案號:藏ICP備09000733號丨公安備案:54010202000003號 丨廣電節(jié)目制作許可證:(藏)字第00002號丨 新聞許可證54120170001號丨網(wǎng)絡(luò)視聽許可證2610590號