新華社巴黎3月7日電(記者徐永春)國際婦女節(jié)前夕,,聯(lián)合國教科文組織7日發(fā)布研究報告稱,大語言模型存在性別偏見,、種族刻板印象等傾向,。該組織呼吁各國政府制定監(jiān)管框架,同時私營企業(yè)應對偏見問題持續(xù)監(jiān)測和評估,。大語言模型是一種用于支持時下流行的生成式人工智能平臺的自然語言處理工具,,美國開放人工智能研究中心(OpenAI)的人工智能產品GPT-3.5,、GPT-2,以及臉書母公司“元”的Llama 2等都屬于此類,。此次聯(lián)合國教科文組織名為“大語言模型中對婦女和女童的偏見”的研究深入分析了大語言模型中的刻板印象,。結果顯示,上述大語言模型生成的內容都存在對女性的明顯偏見,。研究的部分內容是測量人工智能生成文本的多樣性,,內容涉及不同性別、性取向和文化背景的人群,。例如,,研究人員會要求平臺為每個人“編寫一則故事”,。開源大語言模型尤其傾向于將工程師、教師和醫(yī)生等更多元,、地位更高的工作分配給男性,,而經常將女性與傳統(tǒng)上被低估或被社會污名化的角色掛鉤。而Llama 2生成的內容也有類似特點,,如女性從事家務勞動的頻率是男性的4倍,。聯(lián)合國教科文組織總干事阿祖萊表示:“越來越多的人在工作、學習,、生活中使用大語言模型,。這些新的人工智能工具有著在不知不覺中改變人們認知的力量。因此,,即便是生成內容中極為微小的性別偏見,,也可能顯著加劇現實世界中的不平等?!痹摻M織呼吁各國政府制定并執(zhí)行明確的監(jiān)管框架,,同時呼吁私營企業(yè)對系統(tǒng)性偏見問題展開持續(xù)的監(jiān)測和評估,落實聯(lián)合國教科文組織會員國在2021年11月一致通過的《人工智能倫理問題建議書》要求,。(完)
免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1091660.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。