近日,聊天機(jī)器人程序ChatGPT在互聯(lián)網(wǎng)上爆火,。它是美國人工智能研究實(shí)驗(yàn)室OpenAI開發(fā)的一種全新聊天機(jī)器人模型,,能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對(duì)話,還能根據(jù)聊天的上下文進(jìn)行互動(dòng),,并協(xié)助人類完成一系列任務(wù),。
然而,你有沒有想過,,AI也會(huì)歧視,?
近年來,,關(guān)于 AI 倫理和AI歧視的話題屢見不鮮,其中不乏針對(duì)女性的歧視。AI對(duì)女性的偏見主要有貶低女性,、女性代表性不足,、刻板印象、識(shí)別能力弱四類,。
對(duì)于人工智能背后的性別偏見,,本文作者倡導(dǎo)從女性學(xué)與算法學(xué)兩個(gè)方面分別進(jìn)行去偏,認(rèn)為建立一個(gè)完整的偏見審查機(jī)制是一個(gè)可能的著力方向,;同時(shí)提出,,在追求性別平等的同時(shí),科學(xué)技術(shù),、大數(shù)據(jù)背后所引發(fā)的其他社會(huì)不公平,、不正義現(xiàn)象也應(yīng)為人類所警惕。
算法是絕對(duì)科學(xué)的么,?我想絕大多數(shù)人的答案是否定的,。然而,在算法已潛入生活方方面面的當(dāng)下,,我們卻總是不自覺地傾向于信賴算法,。面對(duì)我們對(duì)算法科學(xué)性習(xí)慣性盲從,數(shù)據(jù)科學(xué)家凱西·奧尼爾(Cathy O’Neil)認(rèn)為,,算法神祇或許是一位男性神——人工智能及其背后所謂科學(xué)的算法隱含著大量的性別偏見——而科學(xué)膜拜卻遮蔽了我們發(fā)現(xiàn)性別偏見的眼睛。
算法中的性別偏見
在近年的新聞中,,關(guān)于AI倫理和AI歧視的話題屢見不鮮,,其中包括針對(duì)女性的歧視:谷歌圖片搜索中“CEO”的結(jié)果幾乎全部是男性,翻譯軟件總是將“醫(yī)生”翻譯為男性而將“護(hù)士”翻譯為女性,。
正如人類的偏見和歧視不可避免一樣,,AI的性別偏見是真實(shí)存在的,。AI對(duì)女性的偏見可以總結(jié)于如下四類:貶低女性,、女性代表性不足、刻板印象,、識(shí)別能力弱。人工智能六大領(lǐng)域中“自然語言處理”的核心算法之一——詞嵌入,,便表現(xiàn)出了其中若干項(xiàng):在“女人:男人”=“A :B”的映射測(cè)試中,不僅產(chǎn)生了“壘球:棒球”這樣的刻板印象劃分,,更出現(xiàn)了貶低性的“保姆:老板”組合,。
性別偏見背后是強(qiáng)大的歧視理論和算法過程,算法以代碼形式重新包裝后進(jìn)一步放大的社會(huì)偏見,,無形地讓女性利益受損,,加劇了社會(huì)既有的性別歧視,。
性別偏見產(chǎn)生的機(jī)制:
社會(huì)學(xué)角度和算法結(jié)構(gòu)
對(duì)于隱藏在科學(xué)面具下的不公,,凱西·奧尼爾為這種有害的模型取了一個(gè)有些諷刺的名字:數(shù)學(xué)毀滅性武器WMDs,,其縮寫與大規(guī)模毀滅性武器相同,。在某種意義上,,這個(gè)修辭上的小心機(jī)也展示了大規(guī)模使用算法可能造成的殺傷力。那么,,一個(gè)有缺陷的算法何以產(chǎn)生,?
我們可以簡單地把人工智能的代表算法之一——神經(jīng)網(wǎng)絡(luò)算法,,理解為一個(gè)有許多層級(jí)的回歸函數(shù),。通過大量的訓(xùn)練數(shù)據(jù),,算法將不斷調(diào)整其中的系數(shù),,以使得對(duì)訓(xùn)練集的整體誤差最小,。不難發(fā)現(xiàn),,人工智能的本質(zhì)是一個(gè)對(duì)大數(shù)據(jù)特征進(jìn)行提取后形成的“黑箱”。正是通過這些特征值,,這個(gè)“黑箱”才得以對(duì)新的個(gè)例做出預(yù)測(cè),。
大規(guī)模的數(shù)據(jù)是AI實(shí)現(xiàn)的基礎(chǔ),而算法被用于處理大量個(gè)案,,那么哪些個(gè)體的需求能夠成為一個(gè)算法的主要目的?答案顯而易見,,在統(tǒng)計(jì)性歧視的作用下,,弱者的需求被消解,。除性別以外,,女性的種族、階層,、年齡,、性取向等都成為女性被歧視的原因,。單身女性現(xiàn)狀或許能成為大數(shù)據(jù)參與交叉性壓迫的例證:媒體通過大量報(bào)道“大齡未婚女性”“單身母親”等話題,并利用“平均工資低”“年齡大”等刻板印象對(duì)單身女性進(jìn)行污名化,。這種刻板印象不僅反映在單身女性被歧視,也成為其他算法系統(tǒng)學(xué)習(xí)的數(shù)據(jù),,構(gòu)成一個(gè)不恰當(dāng)?shù)姆答伝芈?,加劇了性別不平等。
如何判斷一個(gè)算法是否有偏見
可以見到,,不公平的算法實(shí)際上正在加劇不平等,而算法本身的非實(shí)體性則很好地為他們開脫了罪名,。假定我們接受了這種“讓機(jī)器擁有話語權(quán)”的方式,則必須引入一個(gè)更高維的框架對(duì)算法進(jìn)行約束與評(píng)價(jià),。作為一個(gè)無法了解詳細(xì)結(jié)構(gòu)的“黑箱”,,AI算法的各個(gè)層級(jí)難以被規(guī)范化。在一個(gè)只有輸入和輸出的模型中,,算法的輸入數(shù)據(jù)只能通過篩選來規(guī)范,那么我們應(yīng)該如何評(píng)價(jià)算法的結(jié)果?
一個(gè)廣為接受的評(píng)價(jià)體系——機(jī)會(huì)平等,,是羅爾斯所提倡的平等理念在機(jī)器學(xué)習(xí)領(lǐng)域的體現(xiàn),,即在不同群體中,,有資格并被判斷為有資格的個(gè)體所占比例相同,。對(duì)于算法公平性不同定義的應(yīng)用廣泛體現(xiàn)在了各個(gè)去偏算法中,而它們的結(jié)果卻令人不甚滿意:大部分去偏算法只是掩飾了一部分偏見,。
那么,針對(duì)算法中依然存在的性別偏見,,與其追求平等的概率,是否可以采取一個(gè)更為激進(jìn)的角度,,要求一種暫時(shí)的“不平等”,以對(duì)女性這一弱勢(shì)群體做出補(bǔ)償,?我們認(rèn)為,,想要實(shí)現(xiàn)機(jī)會(huì)公平,一種“補(bǔ)償正義”是必要的:必須保證每個(gè)人發(fā)展能力的機(jī)會(huì)平等。我們期望算法結(jié)果中針對(duì)以女性為代表的弱勢(shì)群體的“優(yōu)待”——這不僅能夠?yàn)槿鮿?shì)群體提供更多的展示的空間,更可以為未來算法學(xué)習(xí)提供數(shù)據(jù),。
偏見的去除探索
AI的背后是一套人造的算法模型,,這是無法跳脫出的桎梏,。百年前的遴選模型必然不適用于今日,,需要AI背后的工程師們?yōu)樗⑷腱`魂。而對(duì)于性別偏見,,我們倡導(dǎo)從女性學(xué)與算法學(xué)兩個(gè)方面進(jìn)行去偏,。
性別偏見在家庭、生育,、職場(chǎng)等領(lǐng)域頻繁出現(xiàn)。算法模型記錄了歷史狀態(tài),,因而我們可以更多地關(guān)注訓(xùn)練數(shù)據(jù)、算法模型的選擇,。同時(shí),,我們可以吸納更多的女性進(jìn)入AI研究隊(duì)伍,。LinkedIN的分析發(fā)現(xiàn),全球只有22%的AI專業(yè)人士是女性,。長期以來,以男性為主的創(chuàng)作者難免將偏見帶入算法設(shè)計(jì),,使AI以男性的視角來看待這個(gè)世界。
此外,,人工智能的“黑箱”模型并非完全不能干預(yù)——我們期望從算法的角度介入大數(shù)據(jù)中的性別偏見,。如今許多去偏算法,如幾年前流行的“硬去偏”和谷歌最近在翻譯中施行的“覆寫式去偏”,,都是通過修改某個(gè)與性別偏見有關(guān)的數(shù)值,,進(jìn)而干涉算法結(jié)果的例子。此外,,建立一個(gè)完整的偏見審查機(jī)制以平衡訓(xùn)練數(shù)據(jù)中的性別比例和“特征-性別”聯(lián)系,或許是未來去偏的一大方向,。
人工智能在展現(xiàn)其有利于人類的生活一面時(shí),其性別偏見卻令人心有戚戚,。在追求性別平等的同時(shí),,科學(xué)技術(shù),、大數(shù)據(jù)背后所引發(fā)的社會(huì)不公平,、不正義現(xiàn)象也應(yīng)該為人類所警惕。人類性別平等的理想不應(yīng)該迷失在技術(shù)的海洋里,。
2023年
《中國婦女報(bào)》《中國婦運(yùn)》
來源/中國婦女報(bào)(ID:fnb198410)
作者/彭鯤志 黃雋愷
封面/攝圖網(wǎng)
責(zé)編/田園黃蝶
審簽/一帆
監(jiān)制/志飛
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/989981.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。