A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網

ChatGPT爆火,,人工智能背后的性別偏見與“去偏”策略

近日,聊天機器人程序ChatGPT在互聯(lián)網上爆火。它是美國人工智能研究實驗室OpenAI開發(fā)的一種全新聊天機器人模型,,能夠通過學習和理解人類的語言來進行對話,,還能根據(jù)聊天的上下文進行互動,,并協(xié)助人類完成一系列任務,。

然而,,你有沒有想過,,AI也會歧視,?

近年來,關于 AI 倫理和AI歧視的話題屢見不鮮,,其中不乏針對女性的歧視,。AI對女性的偏見主要有貶低女性,、女性代表性不足、刻板印象,、識別能力弱四類,。

對于人工智能背后的性別偏見,,本文作者倡導從女性學與算法學兩個方面分別進行去偏,認為建立一個完整的偏見審查機制是一個可能的著力方向,;同時提出,,在追求性別平等的同時,科學技術,、大數(shù)據(jù)背后所引發(fā)的其他社會不公平,、不正義現(xiàn)象也應為人類所警惕。

算法是絕對科學的么,?我想絕大多數(shù)人的答案是否定的,。然而,在算法已潛入生活方方面面的當下,,我們卻總是不自覺地傾向于信賴算法,。面對我們對算法科學性習慣性盲從,數(shù)據(jù)科學家凱西·奧尼爾(Cathy O’Neil)認為,,算法神祇或許是一位男性神——人工智能及其背后所謂科學的算法隱含著大量的性別偏見——而科學膜拜卻遮蔽了我們發(fā)現(xiàn)性別偏見的眼睛,。

算法中的性別偏見

在近年的新聞中,關于AI倫理和AI歧視的話題屢見不鮮,,其中包括針對女性的歧視:谷歌圖片搜索中“CEO”的結果幾乎全部是男性,,翻譯軟件總是將“醫(yī)生”翻譯為男性而將“護士”翻譯為女性。

正如人類的偏見和歧視不可避免一樣,,AI的性別偏見是真實存在的,。AI對女性的偏見可以總結于如下四類:貶低女性,、女性代表性不足、刻板印象,、識別能力弱,。人工智能六大領域中“自然語言處理”的核心算法之一——詞嵌入,便表現(xiàn)出了其中若干項:在“女人:男人”=“A :B”的映射測試中,,不僅產生了“壘球:棒球”這樣的刻板印象劃分,,更出現(xiàn)了貶低性的“保姆:老板”組合。

性別偏見背后是強大的歧視理論和算法過程,,算法以代碼形式重新包裝后進一步放大的社會偏見,無形地讓女性利益受損,,加劇了社會既有的性別歧視,。

性別偏見產生的機制:

社會學角度和算法結構

對于隱藏在科學面具下的不公,凱西·奧尼爾為這種有害的模型取了一個有些諷刺的名字:數(shù)學毀滅性武器WMDs,,其縮寫與大規(guī)模毀滅性武器相同,。在某種意義上,這個修辭上的小心機也展示了大規(guī)模使用算法可能造成的殺傷力,。那么,,一個有缺陷的算法何以產生?

我們可以簡單地把人工智能的代表算法之一——神經網絡算法,,理解為一個有許多層級的回歸函數(shù),。通過大量的訓練數(shù)據(jù),算法將不斷調整其中的系數(shù),,以使得對訓練集的整體誤差最小,。不難發(fā)現(xiàn),人工智能的本質是一個對大數(shù)據(jù)特征進行提取后形成的“黑箱”,。正是通過這些特征值,,這個“黑箱”才得以對新的個例做出預測。

大規(guī)模的數(shù)據(jù)是AI實現(xiàn)的基礎,,而算法被用于處理大量個案,,那么哪些個體的需求能夠成為一個算法的主要目的?答案顯而易見,,在統(tǒng)計性歧視的作用下,,弱者的需求被消解。除性別以外,,女性的種族,、階層、年齡,、性取向等都成為女性被歧視的原因,。單身女性現(xiàn)狀或許能成為大數(shù)據(jù)參與交叉性壓迫的例證:媒體通過大量報道“大齡未婚女性”“單身母親”等話題,,并利用“平均工資低”“年齡大”等刻板印象對單身女性進行污名化。這種刻板印象不僅反映在單身女性被歧視,,也成為其他算法系統(tǒng)學習的數(shù)據(jù),,構成一個不恰當?shù)姆答伝芈罚觿×诵詣e不平等,。

如何判斷一個算法是否有偏見

可以見到,,不公平的算法實際上正在加劇不平等,而算法本身的非實體性則很好地為他們開脫了罪名,。假定我們接受了這種“讓機器擁有話語權”的方式,,則必須引入一個更高維的框架對算法進行約束與評價。作為一個無法了解詳細結構的“黑箱”,,AI算法的各個層級難以被規(guī)范化,。在一個只有輸入和輸出的模型中,算法的輸入數(shù)據(jù)只能通過篩選來規(guī)范,,那么我們應該如何評價算法的結果?

一個廣為接受的評價體系——機會平等,,是羅爾斯所提倡的平等理念在機器學習領域的體現(xiàn),即在不同群體中,,有資格并被判斷為有資格的個體所占比例相同,。對于算法公平性不同定義的應用廣泛體現(xiàn)在了各個去偏算法中,而它們的結果卻令人不甚滿意:大部分去偏算法只是掩飾了一部分偏見,。

那么,,針對算法中依然存在的性別偏見,與其追求平等的概率,,是否可以采取一個更為激進的角度,,要求一種暫時的“不平等”,以對女性這一弱勢群體做出補償,?我們認為,,想要實現(xiàn)機會公平,一種“補償正義”是必要的:必須保證每個人發(fā)展能力的機會平等,。我們期望算法結果中針對以女性為代表的弱勢群體的“優(yōu)待”——這不僅能夠為弱勢群體提供更多的展示的空間,,更可以為未來算法學習提供數(shù)據(jù)。

偏見的去除探索

AI的背后是一套人造的算法模型,,這是無法跳脫出的桎梏,。百年前的遴選模型必然不適用于今日,需要AI背后的工程師們?yōu)樗⑷腱`魂,。而對于性別偏見,,我們倡導從女性學與算法學兩個方面進行去偏。

性別偏見在家庭、生育,、職場等領域頻繁出現(xiàn),。算法模型記錄了歷史狀態(tài),因而我們可以更多地關注訓練數(shù)據(jù),、算法模型的選擇,。同時,我們可以吸納更多的女性進入AI研究隊伍,。LinkedIN的分析發(fā)現(xiàn),,全球只有22%的AI專業(yè)人士是女性。長期以來,,以男性為主的創(chuàng)作者難免將偏見帶入算法設計,,使AI以男性的視角來看待這個世界。

此外,,人工智能的“黑箱”模型并非完全不能干預——我們期望從算法的角度介入大數(shù)據(jù)中的性別偏見,。如今許多去偏算法,如幾年前流行的“硬去偏”和谷歌最近在翻譯中施行的“覆寫式去偏”,,都是通過修改某個與性別偏見有關的數(shù)值,,進而干涉算法結果的例子,。此外,,建立一個完整的偏見審查機制以平衡訓練數(shù)據(jù)中的性別比例和“特征-性別”聯(lián)系,或許是未來去偏的一大方向,。

人工智能在展現(xiàn)其有利于人類的生活一面時,,其性別偏見卻令人心有戚戚。在追求性別平等的同時,,科學技術,、大數(shù)據(jù)背后所引發(fā)的社會不公平、不正義現(xiàn)象也應該為人類所警惕,。人類性別平等的理想不應該迷失在技術的海洋里,。

2023年

《中國婦女報》《中國婦運》

來源/中國婦女報(ID:fnb198410)

作者/彭鯤志 黃雋愷

封面/攝圖網

責編/田園黃蝶

審簽/一帆

監(jiān)制/志飛

ChatGPT爆火,人工智能背后的性別偏見與“去偏”策略

免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/989981.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。

(0)
中國婦女報的頭像中國婦女報
上一篇 2023年2月16日 上午7:35
下一篇 2023年2月16日 上午7:46
198搶自鏈數(shù)字人

相關推薦