人工智能極大的方便了人們的生活,卻也在某些領(lǐng)域出現(xiàn)偏差,比如美國這個(gè)科技始終保持在世界前沿的過渡,其人工智能的應(yīng)用覆涵的領(lǐng)域非常多,可一些問題漸漸顯露出來,比如其種族這個(gè)“享譽(yù)”世界的歷史也被延伸到了智能領(lǐng)域。
埃隆·馬斯克和 Nick Bostrom 等一些科技界大牛向世界發(fā)出了警告:人工智能的存在對(duì)人類是一種潛在的威脅,他們把機(jī)器智能超越人類智慧的臨界點(diǎn)叫做「奇點(diǎn)(the Singularity)」。人們已為此投入了數(shù)百萬美元,并舉辦了大批國際會(huì)議。
但這種恐慌情緒讓人們忽視了今天人工智能的真正問題,其實(shí)它可能已經(jīng)在加劇工作場所、家庭、法律及司法系統(tǒng)的不平等。支持「智能」系統(tǒng)運(yùn)轉(zhuǎn)的機(jī)器學(xué)習(xí)算法很多在編寫時(shí)就被加入了性別和種族歧視以及其它形式的不平等觀念,這決定了我們被分類和接收廣告的方式。
比如去年的那次事件:谷歌有個(gè)照片應(yīng)用,可以自動(dòng)在電子相冊(cè)中把標(biāo)簽分配到不同照片上,用戶發(fā)現(xiàn)它會(huì)把黑人的照片歸類為大猩猩。谷歌做出了道歉,表示它并不是故意的。
但類似的錯(cuò)誤也出現(xiàn)在了尼康的拍攝軟件中,它誤認(rèn)為亞洲人在照片中眨眼(譯注:其實(shí)只是眼睛比較小),還有惠普的網(wǎng)絡(luò)相機(jī)軟件也很難識(shí)別出深色皮膚的人。
美國各地的警察局也配置了類似的數(shù)據(jù)驅(qū)動(dòng)型風(fēng)險(xiǎn)評(píng)估工具,用來預(yù)防「潛在的治安犯罪」。在很多城市,包括紐約、洛杉磯、芝加哥和邁阿密,警察局都會(huì)用軟件分析量大歷史犯罪數(shù)據(jù),預(yù)測犯罪熱點(diǎn)區(qū)域最可能出現(xiàn)的位置,并據(jù)此部署警力。
這個(gè)軟件最起碼能持續(xù)預(yù)測出那些原本就是犯罪高發(fā)地的風(fēng)險(xiǎn),因此警察就會(huì)在本來就部署(或大量部署)警力的地方增強(qiáng)安保措施,保證了這些地區(qū)逮捕率的提高。在美國,這有可能導(dǎo)致對(duì)那些傳統(tǒng)上貧困的非白人居住區(qū)的監(jiān)控警力的增多,而富裕的白人居住區(qū)受到的監(jiān)控就更少。這些預(yù)測軟件只擅長分析它們訓(xùn)練時(shí)所用的數(shù)據(jù),而這些數(shù)據(jù)有復(fù)雜的歷史。
歧視的歷史可能會(huì)延伸到數(shù)字平臺(tái)上,如果我們對(duì)此不聞不問,它們最終就會(huì)成為日常算法系統(tǒng)的邏輯的一部分。最近又有一樁丑聞曝出,亞馬遜的當(dāng)天送達(dá)服務(wù)在主要的黑人居住區(qū)的郵政編碼上是不可用的。而這些被忽視的區(qū)域的范圍竟然與 20 世紀(jì)中期被貸款歧視所影響的區(qū)域基本一致。亞馬遜承諾他們會(huì)填補(bǔ)這些空缺,但這也提醒了我們體制不平等對(duì)機(jī)器智能的影響有多深。
我們要謹(jǐn)慎的設(shè)計(jì)和訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),否則未來的人工智能就會(huì)被植入根深蒂固的偏見。
【云立方裝飾管理軟件以“裝飾產(chǎn)業(yè)轉(zhuǎn)型升級(jí)”為使命,致力改變行業(yè)管理現(xiàn)狀,優(yōu)化各環(huán)節(jié)資源,建設(shè)一個(gè)”ERP+APP+電商”的個(gè)性化的互聯(lián)網(wǎng)生態(tài)系統(tǒng)?!?/span>