A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

ChatGPT爆火,人工智能背后的性別偏見與“去偏”策略

近日,聊天機器人程序ChatGPT在互聯(lián)網(wǎng)上爆火,。它是美國人工智能研究實驗室OpenAI開發(fā)的一種全新聊天機器人模型,,能夠通過學(xué)習(xí)和理解人類的語言來進行對話,還能根據(jù)聊天的上下文進行互動,,并協(xié)助人類完成一系列任務(wù),。

然而,,你有沒有想過,,AI也會歧視,?

近年來,關(guān)于 AI 倫理和AI歧視的話題屢見不鮮,,其中不乏針對女性的歧視,。AI對女性的偏見主要有貶低女性、女性代表性不足,、刻板印象,、識別能力弱四類。

對于人工智能背后的性別偏見,本文作者倡導(dǎo)從女性學(xué)與算法學(xué)兩個方面分別進行去偏,,認為建立一個完整的偏見審查機制是一個可能的著力方向,;同時提出,在追求性別平等的同時,,科學(xué)技術(shù),、大數(shù)據(jù)背后所引發(fā)的其他社會不公平、不正義現(xiàn)象也應(yīng)為人類所警惕,。

算法是絕對科學(xué)的么,?我想絕大多數(shù)人的答案是否定的。然而,,在算法已潛入生活方方面面的當下,,我們卻總是不自覺地傾向于信賴算法。面對我們對算法科學(xué)性習(xí)慣性盲從,,數(shù)據(jù)科學(xué)家凱西·奧尼爾(Cathy O’Neil)認為,,算法神祇或許是一位男性神——人工智能及其背后所謂科學(xué)的算法隱含著大量的性別偏見——而科學(xué)膜拜卻遮蔽了我們發(fā)現(xiàn)性別偏見的眼睛,。

算法中的性別偏見

在近年的新聞中,關(guān)于AI倫理和AI歧視的話題屢見不鮮,,其中包括針對女性的歧視:谷歌圖片搜索中“CEO”的結(jié)果幾乎全部是男性,,翻譯軟件總是將“醫(yī)生”翻譯為男性而將“護士”翻譯為女性,。

正如人類的偏見和歧視不可避免一樣,,AI的性別偏見是真實存在的。AI對女性的偏見可以總結(jié)于如下四類:貶低女性,、女性代表性不足,、刻板印象、識別能力弱,。人工智能六大領(lǐng)域中“自然語言處理”的核心算法之一——詞嵌入,,便表現(xiàn)出了其中若干項:在“女人:男人”=“A :B”的映射測試中,不僅產(chǎn)生了“壘球:棒球”這樣的刻板印象劃分,,更出現(xiàn)了貶低性的“保姆:老板”組合,。

性別偏見背后是強大的歧視理論和算法過程,算法以代碼形式重新包裝后進一步放大的社會偏見,,無形地讓女性利益受損,,加劇了社會既有的性別歧視。

性別偏見產(chǎn)生的機制:

社會學(xué)角度和算法結(jié)構(gòu)

對于隱藏在科學(xué)面具下的不公,,凱西·奧尼爾為這種有害的模型取了一個有些諷刺的名字:數(shù)學(xué)毀滅性武器WMDs,,其縮寫與大規(guī)模毀滅性武器相同。在某種意義上,,這個修辭上的小心機也展示了大規(guī)模使用算法可能造成的殺傷力,。那么,一個有缺陷的算法何以產(chǎn)生,?

我們可以簡單地把人工智能的代表算法之一——神經(jīng)網(wǎng)絡(luò)算法,,理解為一個有許多層級的回歸函數(shù)。通過大量的訓(xùn)練數(shù)據(jù),,算法將不斷調(diào)整其中的系數(shù),,以使得對訓(xùn)練集的整體誤差最小。不難發(fā)現(xiàn),,人工智能的本質(zhì)是一個對大數(shù)據(jù)特征進行提取后形成的“黑箱”,。正是通過這些特征值,這個“黑箱”才得以對新的個例做出預(yù)測,。

大規(guī)模的數(shù)據(jù)是AI實現(xiàn)的基礎(chǔ),,而算法被用于處理大量個案,那么哪些個體的需求能夠成為一個算法的主要目的,?答案顯而易見,,在統(tǒng)計性歧視的作用下,弱者的需求被消解。除性別以外,,女性的種族,、階層、年齡,、性取向等都成為女性被歧視的原因,。單身女性現(xiàn)狀或許能成為大數(shù)據(jù)參與交叉性壓迫的例證:媒體通過大量報道“大齡未婚女性”“單身母親”等話題,并利用“平均工資低”“年齡大”等刻板印象對單身女性進行污名化,。這種刻板印象不僅反映在單身女性被歧視,,也成為其他算法系統(tǒng)學(xué)習(xí)的數(shù)據(jù),構(gòu)成一個不恰當?shù)姆答伝芈?,加劇了性別不平等,。

如何判斷一個算法是否有偏見

可以見到,不公平的算法實際上正在加劇不平等,,而算法本身的非實體性則很好地為他們開脫了罪名,。假定我們接受了這種“讓機器擁有話語權(quán)”的方式,則必須引入一個更高維的框架對算法進行約束與評價,。作為一個無法了解詳細結(jié)構(gòu)的“黑箱”,,AI算法的各個層級難以被規(guī)范化。在一個只有輸入和輸出的模型中,,算法的輸入數(shù)據(jù)只能通過篩選來規(guī)范,,那么我們應(yīng)該如何評價算法的結(jié)果?

一個廣為接受的評價體系——機會平等,是羅爾斯所提倡的平等理念在機器學(xué)習(xí)領(lǐng)域的體現(xiàn),,即在不同群體中,,有資格并被判斷為有資格的個體所占比例相同。對于算法公平性不同定義的應(yīng)用廣泛體現(xiàn)在了各個去偏算法中,,而它們的結(jié)果卻令人不甚滿意:大部分去偏算法只是掩飾了一部分偏見,。

那么,針對算法中依然存在的性別偏見,,與其追求平等的概率,,是否可以采取一個更為激進的角度,要求一種暫時的“不平等”,,以對女性這一弱勢群體做出補償,?我們認為,想要實現(xiàn)機會公平,,一種“補償正義”是必要的:必須保證每個人發(fā)展能力的機會平等,。我們期望算法結(jié)果中針對以女性為代表的弱勢群體的“優(yōu)待”——這不僅能夠為弱勢群體提供更多的展示的空間,更可以為未來算法學(xué)習(xí)提供數(shù)據(jù),。

偏見的去除探索

AI的背后是一套人造的算法模型,,這是無法跳脫出的桎梏,。百年前的遴選模型必然不適用于今日,需要AI背后的工程師們?yōu)樗⑷腱`魂,。而對于性別偏見,,我們倡導(dǎo)從女性學(xué)與算法學(xué)兩個方面進行去偏。

性別偏見在家庭,、生育,、職場等領(lǐng)域頻繁出現(xiàn)。算法模型記錄了歷史狀態(tài),,因而我們可以更多地關(guān)注訓(xùn)練數(shù)據(jù),、算法模型的選擇,。同時,,我們可以吸納更多的女性進入AI研究隊伍。LinkedIN的分析發(fā)現(xiàn),,全球只有22%的AI專業(yè)人士是女性,。長期以來,以男性為主的創(chuàng)作者難免將偏見帶入算法設(shè)計,,使AI以男性的視角來看待這個世界,。

此外,人工智能的“黑箱”模型并非完全不能干預(yù)——我們期望從算法的角度介入大數(shù)據(jù)中的性別偏見,。如今許多去偏算法,,如幾年前流行的“硬去偏”和谷歌最近在翻譯中施行的“覆寫式去偏”,都是通過修改某個與性別偏見有關(guān)的數(shù)值,,進而干涉算法結(jié)果的例子,。此外,建立一個完整的偏見審查機制以平衡訓(xùn)練數(shù)據(jù)中的性別比例和“特征-性別”聯(lián)系,,或許是未來去偏的一大方向,。

人工智能在展現(xiàn)其有利于人類的生活一面時,其性別偏見卻令人心有戚戚,。在追求性別平等的同時,,科學(xué)技術(shù)、大數(shù)據(jù)背后所引發(fā)的社會不公平,、不正義現(xiàn)象也應(yīng)該為人類所警惕,。人類性別平等的理想不應(yīng)該迷失在技術(shù)的海洋里。

2023年

《中國婦女報》《中國婦運》

來源/中國婦女報(ID:fnb198410)

作者/彭鯤志 黃雋愷

封面/攝圖網(wǎng)

責(zé)編/田園黃蝶

審簽/一帆

監(jiān)制/志飛

ChatGPT爆火,,人工智能背后的性別偏見與“去偏”策略

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/989981.html
溫馨提示:投資有風(fēng)險,,入市須謹慎。本資訊不作為投資理財建議,。

(0)
中國婦女報的頭像中國婦女報
上一篇 2023年2月16日 上午7:35
下一篇 2023年2月16日 上午7:46
數(shù)字品牌中國行

相關(guān)推薦