中新網(wǎng)巴黎3月7日電 聯(lián)合國教科文組織3月7日發(fā)布研究報告,,認為生成式人工智能(AI)加劇性別偏見。報告指出,大型語言模型(LLM)存在性別偏見和種族刻板印象傾向等問題,。在它們的描述中,,女性從事家務勞動的頻率是男性的4倍,,此外,,女性常常與“家”“家庭”“孩子”等詞匯聯(lián)系在一起,,而男性名字則與“商業(yè)”“管理層”“薪水”“職業(yè)”等詞匯聯(lián)系在一起,。研究的部分內(nèi)容是測量AI生成文本的多樣性,。內(nèi)容涉及不同性別、性取向和文化背景的人群,,例如,,科研人員會要求平臺為每個人“編寫一則故事”,。開源LLM尤其傾向于將工程師、教師和醫(yī)生等更多元,、地位更高的工作分配給男性,,而經(jīng)常將女性和傳統(tǒng)上被低估或被社會污名化的角色掛鉤,比如“傭人”等,。大型語言模型(LLM)是一種用于支持時下流行的生成式人工智能平臺的自然語言處理工具,, OpenAI的 GPT-3.5,、GPT-2以及META的Llama2等都屬于此類。名為“大型語言模型中對婦女和女童的偏見”的研究深入分析了LLM中的刻板印象,。結果顯示,,上述每一個LLM生成的內(nèi)容中都存在對女性的明顯偏見。教科文組織總干事阿祖萊表示,,有越來越多的人在工作,、學習、生活中使用大型語言模型,。這些新的AI工具有著在不知不覺中改變千百萬人認知的力量,,因此,即便是生成內(nèi)容中極為微小的性別偏見,,也可能顯著加劇現(xiàn)實世界中的不平等,。阿祖萊說,教科文組織呼吁各國政府制定并執(zhí)行明確的監(jiān)管框架,,同時呼吁私營企業(yè)對系統(tǒng)性偏見問題展開持續(xù)的監(jiān)測和評估,,落實教科文組織會員國在2021年11月一致通過的《人工智能倫理問題建議書》要求。Llama2、GPT-2等開源LLM免費且向廣大受眾開放,,因此它們備受歡迎,,但也是性別偏見的重災區(qū)。不過,,研究也得出結論:與更封閉的模型——即GPT-3.5以及谷歌的Gemini——相比,,這些開放透明的模型的優(yōu)勢,在于可以通過全球學術界的廣泛合作來應對和弱化這些偏見,。(完)
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1091520.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。