【CNMO新聞】最近,,ChatGPT的爆火又讓AI(人工智能)的話題擺在了大家的面前,。關(guān)于AI技術(shù)的現(xiàn)狀和前景,,不少科技圈大佬都發(fā)表了自己的看法。不過,,看起來無所不能的AI,似乎已經(jīng)在某些方面開始走彎路了。據(jù)CNMO了解,,根據(jù)模型測試,AI已經(jīng)學(xué)會(huì)了性別歧視,而且還是很常見的“重男輕女”,。
AI
據(jù)媒體報(bào)道,清華大學(xué)交叉信息研究院助理教授于洋,,曾在去年帶領(lǐng)團(tuán)隊(duì)做了一個(gè)針對(duì)“預(yù)測某種職業(yè)為何種性別”的AI模型性別歧視水平評(píng)估項(xiàng)目,。測試模型包含GPT-2,即ChatGPT的前身,。結(jié)果顯示,,GPT-2有70.59%的概率將教師預(yù)測為男性,將醫(yī)生預(yù)測為男性的概率則為64.03%,。
ChatGPT
不僅如此,在本項(xiàng)目中,,團(tuán)隊(duì)測試的AI模型還使用了谷歌開發(fā)的bert和Facebook開發(fā)的roberta,。讓人意外的是,所有受測AI對(duì)于測試職業(yè)的性別預(yù)判,,結(jié)果傾向都為男性,。于洋對(duì)此表示:“它(AI)會(huì)重男輕女,愛白欺黑(即種族歧視)”,。類似的案例在2015年也有出現(xiàn),,當(dāng)時(shí)Google Photos應(yīng)用誤把兩名黑人標(biāo)注為“大猩猩”,隨后谷歌立即道歉,,并表示將調(diào)整算法以修復(fù)問題,。
CNMO了解到,早在2019年,,聯(lián)合國教科文組織便發(fā)表了一份題為《如果我能,,我會(huì)臉紅》的報(bào)告,指出當(dāng)時(shí)大多數(shù)AI語音助手存在性別偏見,。
綜合來看,,關(guān)于AI算法中含有性別、種族歧視的案例并不鮮見,,但要消除這些偏見并非易事,。就如微軟紐約研究院的高級(jí)研究員Hanna Wallach此前所說:只要機(jī)器學(xué)習(xí)的程序是通過社會(huì)中已存在的數(shù)據(jù)進(jìn)行訓(xùn)練的,那么只要這個(gè)社會(huì)還存在偏見,,機(jī)器學(xué)習(xí)也就會(huì)重現(xiàn)這些偏見,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/991121.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。