觀 點
對于人工智能技術(shù)廣泛運用帶來的勞動用工風(fēng)險,應(yīng)積極尋求勞動者權(quán)益保障機制與人工智能規(guī)制的雙向互嵌、滲透融合與關(guān)聯(lián)協(xié)同,,提供更有針對性與體系性的對策建議,。
近年來,隨著數(shù)字技術(shù)的快速發(fā)展,,人工智能參與勞動用工管理的場景也越來越廣泛,。例如,就業(yè)市場上深度用于人才招聘領(lǐng)域的人工智能技術(shù),,其核心要素以海量數(shù)據(jù)進行算法計算為基礎(chǔ),,分析求職人員畫像特征,通過深度學(xué)習(xí)的多模態(tài)模型“精準濾出最匹配優(yōu)質(zhì)人才”,,并利用人工智能擬合專家經(jīng)驗,,建立面試決策畫布,,輔助甚至替代人力資源部門專家決策。這些都已成為人工智能參與招聘的現(xiàn)實應(yīng)用場景,。
同時,,人工智能也深刻嵌入在職員工的勞動用工管理過程,由算法編制的數(shù)字化系統(tǒng)對勞動者的管理范圍不斷擴大,。在傳統(tǒng)企業(yè)中,,人工智能已從提升企業(yè)勞動力規(guī)劃與執(zhí)行的智能排班、智能考勤,、智能工時管理,,發(fā)展到勞動力效能的自動化、實時化評估等,,技術(shù)策略得到全方位運用,。新興平臺企業(yè)對從業(yè)者的管理則主要通過大數(shù)據(jù)分析和算法實現(xiàn)行為控制。
當(dāng)前,,人工智能技術(shù)在勞動領(lǐng)域各環(huán)節(jié)的全域融合已然成為重要的技術(shù)趨勢,,在享受其提升管理效能作用的同時,也應(yīng)關(guān)注其因侵害勞動者權(quán)益而可能產(chǎn)生的社會風(fēng)險,。
第一,,勞動者的隱私權(quán)和個人信息被侵害的風(fēng)險大幅增加。在求職階段,,各類求職招聘平臺收集大量求職者個人信息,,在此過程中,以非法收集方式侵害或泄露個人信息的情況時有發(fā)生,。2021年5月,,國家互聯(lián)網(wǎng)辦公室通報,51款求職招聘類軟件存在違反必要原則收集與服務(wù)無關(guān)的個人信息,、未經(jīng)用戶同意收集使用個人信息,、未公開收集使用規(guī)則等違規(guī)行為,被要求限時整改,。在勞動關(guān)系存續(xù)期間,,用人單位作為主要的信息處理者和控制者,全面收集和掌握勞動者個人信息,,包括教育背景,、職業(yè)經(jīng)歷與專業(yè)資格、心理特征,、工作狀態(tài)乃至更為敏感的健康情況等,。在工作環(huán)境管理日益數(shù)字化的背景下,新型信息收集方式層出不窮,信息收集和處理比以往更加便利,,這些都大幅增加了勞動者隱私權(quán)和個人信息被侵害的風(fēng)險,。
第二,作為人工智能核心的算法并非“技術(shù)中立”,,其決策可能導(dǎo)致就業(yè)歧視,。算法不可避免地具有偏見:一是算法代碼中所包含的內(nèi)部偏見,如開發(fā)人員設(shè)計的操作參數(shù)承載了開發(fā)者的優(yōu)先價值,,這些價值與利益在樣本分類,、變量拆分、數(shù)據(jù)清洗的過程中有可能放大原有偏見導(dǎo)致歧視,;二是在算法運行的最終環(huán)境中所塑造的外部偏見,,當(dāng)前,人工智能技術(shù)已發(fā)展到深度學(xué)習(xí)型算法,,機器學(xué)習(xí)使得算法運行日趨復(fù)雜,,甚至出現(xiàn)設(shè)計者無法預(yù)料到的歧視性決策結(jié)果。例如,,亞馬遜在蘇格蘭愛丁堡的工程團隊曾創(chuàng)建了復(fù)雜算法來搜索候選人簡歷,,并獲取大約5萬個關(guān)鍵術(shù)語,用于在網(wǎng)絡(luò)上抓取數(shù)據(jù)以推薦候選人,。在使用該系統(tǒng)不到1年人們就觀察到,自動化招聘系統(tǒng)的結(jié)果對女性申請人不利,,由于算法主要針對男性簡歷進行訓(xùn)練,,系統(tǒng)得出的結(jié)論是男性為首選候選人。
第三,,算法的不透明性導(dǎo)致“算法取中”監(jiān)管困難,。算法系統(tǒng)以多個非線性方式相互作用,使得監(jiān)管者要重構(gòu)特定決策十分困難,。以平臺算法監(jiān)管為例,,為保障外賣送餐員正當(dāng)權(quán)益,2021年市場監(jiān)管總局等七部門聯(lián)合印發(fā)的《關(guān)于落實網(wǎng)絡(luò)餐飲平臺責(zé)任 切實維護外賣送餐員權(quán)益的指導(dǎo)意見》中提出,,要通過“算法取中”等方式,,合理確定訂單數(shù)量、準時率,、在線率等考核要素,,適當(dāng)放寬配送時限。然而,,由于算法具有不透明性,,法律監(jiān)管只能提供一個框架,如何“取中”的具體設(shè)計仍由算法編寫者決定。
數(shù)字時代的人工智能技術(shù)發(fā)展已深刻影響勞動領(lǐng)域,。對于其廣泛運用帶來的風(fēng)險,,應(yīng)加強從傳統(tǒng)勞動法向智能社會勞動法轉(zhuǎn)型的回應(yīng)性研究,積極尋求勞動者權(quán)益保障機制與人工智能規(guī)制的雙向互嵌,、滲透融合與關(guān)聯(lián)協(xié)同,,提供更有針對性與體系性的對策建議。
針對勞動者隱私權(quán)與個人信息保護問題,,應(yīng)堅持用勞動法律特有的勞動合同法,、勞動基準法與集體合同三條路徑協(xié)作互補的方式解決?;鶞史ㄊ悄壳皩趧诱邆€人信息保障效果最好,、效率最高的途徑。應(yīng)通過出臺不同場景下的個人信息保護標準,,對求職者及勞動者個人信息處理劃定立法的基準線,。實踐中,有關(guān)部門已經(jīng)做出嘗試,,如人社部出臺的《網(wǎng)絡(luò)招聘服務(wù)管理規(guī)定》對個人信息被泄露等做出特別規(guī)定,。就勞動者個人信息的集體保護而言,集體合同符合個人信息處理的場景化需要,。工會可就勞動者的個人信息保護事宜與雇主達成約定,,在保護個人信息自決權(quán)與個人信息利用之間實現(xiàn)動態(tài)的、符合雙方主體利益的平衡,。勞動立法應(yīng)將勞動者個人信息保護列入集體協(xié)商的內(nèi)容范圍,,并對相關(guān)原則進行具體規(guī)定。在涉及勞動者個人信息相關(guān)爭議的司法實踐中,,應(yīng)根據(jù)自治與限制原則,,對勞動關(guān)系下的信息處理作“合法、正當(dāng),、必要”的體系性審查,。
針對算法可能導(dǎo)致歧視以及算法權(quán)力濫用的問題,需要通過算法治理工具予以規(guī)制,。在此過程中,,應(yīng)注重從算法治理的源頭控制、關(guān)系控制與外部監(jiān)管等模式引入勞動者權(quán)益保障機制,。同時,,重視算法治理中的個人新型權(quán)利,如算法解釋權(quán),、免受自動化決策約束權(quán)等,,以合理形式將其納入勞動法律規(guī)制,,關(guān)注勞動者參與算法治理的具體路徑構(gòu)建以及勞動者新型權(quán)利的賦權(quán)進路。從集體勞動關(guān)系的視角,,應(yīng)強化工會的專業(yè)化賦能及與第三方專業(yè)機構(gòu)的制度化協(xié)作,,積極參與算法設(shè)計、算法公開的監(jiān)管程序,。就程序救濟而言,,由于算法的排他性和高度技術(shù)性,應(yīng)合理配置舉證責(zé)任,,完善救濟渠道,,同時強化企業(yè)落實算法治理責(zé)任,由企業(yè)承擔(dān)違法與侵害勞動者人格尊嚴的后果,,并根據(jù)算法治理的要求實現(xiàn)監(jiān)管機構(gòu)的多元化與專業(yè)化,。
總之,化解人工智能技術(shù)給勞動領(lǐng)域帶來的用工管理風(fēng)險,,不應(yīng)局限于單向度的算法治理或勞動法律制度完善,,而應(yīng)在反思算法治理的理論體系基礎(chǔ)上超越勞動法領(lǐng)域,融合算法監(jiān)管的法治力量,,以開放性,、跨越性和交叉性的研究視野建構(gòu)勞動者權(quán)益保障機制。
(作者為上海財經(jīng)大學(xué)法學(xué)院教授)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1007372.html
溫馨提示:投資有風(fēng)險,,入市須謹慎。本資訊不作為投資理財建議,。