在新一輪的求職季,,部分企業(yè)改變了傳統(tǒng)的線下面試模式,,轉(zhuǎn)而采用“人工智能+面試”的新方式,。這種方式的好處在于,,能夠更高效地完成面試人員與崗位工作內(nèi)容的勝任能力評(píng)估。目前,,市場上常見的人工智能面試產(chǎn)品主要是以職位匹配度,、崗位勝任能力的算法模型為基礎(chǔ),,通過對(duì)面試者進(jìn)行面部表情、情緒語氣,、邏輯表達(dá),、簡歷信息問答等方式進(jìn)行綜合性評(píng)判。人工智能面試屬于正常的技術(shù)應(yīng)用形態(tài),,至于該類應(yīng)用究竟是否構(gòu)成對(duì)人的主體地位的顛覆,,更關(guān)鍵的判斷要素在于面試結(jié)果究竟是否作為企業(yè)決定錄用的決定因素。任何信息技術(shù)的應(yīng)用都不是完全安全可靠的,,固有的技術(shù)缺陷和漏洞可能導(dǎo)致生成結(jié)果不準(zhǔn)確,。倘若招聘企業(yè)以此作為錄用與否的決定要素,可能導(dǎo)致企業(yè)因各類非主要原因錯(cuò)過優(yōu)秀人才,,求職者因自動(dòng)化決策遭受就業(yè)歧視,。從法律層面看,招聘企業(yè)應(yīng)當(dāng)按照個(gè)人信息保護(hù)法,、《生成式人工智能服務(wù)管理暫行辦法》等法律法規(guī)的要求規(guī)范使用人工智能面試,。一方面,為了預(yù)防自動(dòng)化決策對(duì)人格尊嚴(yán)和自由可能產(chǎn)生的負(fù)面影響,,個(gè)人信息保護(hù)法明確個(gè)人信息處理者在通過自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定時(shí),,個(gè)人有權(quán)拒絕個(gè)人信息處理者僅通過自動(dòng)化決策的方式作出決定。因此,,招聘企業(yè)既不能以強(qiáng)制或變相強(qiáng)制的方式要求求職者接受人工智能面試,,也不能不在事前階段告知求職者人工智能面試的決策結(jié)果對(duì)錄用的影響。另一方面,,招聘企業(yè)應(yīng)當(dāng)確保人工智能面試決策結(jié)果的準(zhǔn)確性,,并預(yù)防潛在的就業(yè)歧視問題。按照《生成式人工智能服務(wù)管理暫行辦法》第4條的要求,,招聘企業(yè)在使用生成式人工智能服務(wù)時(shí),,除了需要滿足合法性、合理性的基礎(chǔ)要求外,,還應(yīng)當(dāng)采取有效措施防止產(chǎn)生地域,、性別、年齡,、職業(yè),、健康等歧視。結(jié)合面試活動(dòng)的特點(diǎn),,招聘企業(yè)還需要提升人工智能面試的透明度,,提高生成內(nèi)容的準(zhǔn)確性和可靠性,。為了確保招聘企業(yè)能夠真正落實(shí)平等就業(yè)、個(gè)人信息保護(hù)等法定義務(wù),,監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)采取主動(dòng)措施督促招聘企業(yè)合理使用人工智能面試,,不強(qiáng)制或變相強(qiáng)制求職者接受。人工智能面試因其潛在的侵權(quán)風(fēng)險(xiǎn),,已經(jīng)不再屬于企業(yè)內(nèi)部的“經(jīng)營自由”范疇,,更需要監(jiān)管機(jī)構(gòu)主動(dòng)干預(yù),通過落實(shí)算法備案,、算法透明等監(jiān)管機(jī)制,,保障勞動(dòng)者的合法權(quán)益,確保人工智能面試過程與結(jié)果的公正性,、準(zhǔn)確性,,有效解決因技術(shù)濫用而引發(fā)的就業(yè)歧視問題。(本文來源:經(jīng)濟(jì)日?qǐng)?bào) 作者:趙精武)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1105804.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。