觀 點
對于人工智能技術廣泛運用帶來的勞動用工風險,,應積極尋求勞動者權益保障機制與人工智能規(guī)制的雙向互嵌、滲透融合與關聯(lián)協(xié)同,,提供更有針對性與體系性的對策建議,。
近年來,隨著數(shù)字技術的快速發(fā)展,,人工智能參與勞動用工管理的場景也越來越廣泛,。例如,就業(yè)市場上深度用于人才招聘領域的人工智能技術,,其核心要素以海量數(shù)據(jù)進行算法計算為基礎,,分析求職人員畫像特征,通過深度學習的多模態(tài)模型“精準濾出最匹配優(yōu)質人才”,,并利用人工智能擬合專家經驗,,建立面試決策畫布,輔助甚至替代人力資源部門專家決策,。這些都已成為人工智能參與招聘的現(xiàn)實應用場景,。
同時,人工智能也深刻嵌入在職員工的勞動用工管理過程,,由算法編制的數(shù)字化系統(tǒng)對勞動者的管理范圍不斷擴大,。在傳統(tǒng)企業(yè)中,人工智能已從提升企業(yè)勞動力規(guī)劃與執(zhí)行的智能排班,、智能考勤,、智能工時管理,發(fā)展到勞動力效能的自動化,、實時化評估等,,技術策略得到全方位運用。新興平臺企業(yè)對從業(yè)者的管理則主要通過大數(shù)據(jù)分析和算法實現(xiàn)行為控制,。
當前,,人工智能技術在勞動領域各環(huán)節(jié)的全域融合已然成為重要的技術趨勢,在享受其提升管理效能作用的同時,,也應關注其因侵害勞動者權益而可能產生的社會風險,。
第一,勞動者的隱私權和個人信息被侵害的風險大幅增加,。在求職階段,,各類求職招聘平臺收集大量求職者個人信息,,在此過程中,,以非法收集方式侵害或泄露個人信息的情況時有發(fā)生,。2021年5月,國家互聯(lián)網辦公室通報,,51款求職招聘類軟件存在違反必要原則收集與服務無關的個人信息,、未經用戶同意收集使用個人信息、未公開收集使用規(guī)則等違規(guī)行為,,被要求限時整改,。在勞動關系存續(xù)期間,用人單位作為主要的信息處理者和控制者,,全面收集和掌握勞動者個人信息,,包括教育背景、職業(yè)經歷與專業(yè)資格,、心理特征,、工作狀態(tài)乃至更為敏感的健康情況等。在工作環(huán)境管理日益數(shù)字化的背景下,,新型信息收集方式層出不窮,,信息收集和處理比以往更加便利,這些都大幅增加了勞動者隱私權和個人信息被侵害的風險,。
第二,,作為人工智能核心的算法并非“技術中立”,其決策可能導致就業(yè)歧視,。算法不可避免地具有偏見:一是算法代碼中所包含的內部偏見,,如開發(fā)人員設計的操作參數(shù)承載了開發(fā)者的優(yōu)先價值,這些價值與利益在樣本分類,、變量拆分,、數(shù)據(jù)清洗的過程中有可能放大原有偏見導致歧視;二是在算法運行的最終環(huán)境中所塑造的外部偏見,,當前,,人工智能技術已發(fā)展到深度學習型算法,機器學習使得算法運行日趨復雜,,甚至出現(xiàn)設計者無法預料到的歧視性決策結果,。例如,,亞馬遜在蘇格蘭愛丁堡的工程團隊曾創(chuàng)建了復雜算法來搜索候選人簡歷,,并獲取大約5萬個關鍵術語,,用于在網絡上抓取數(shù)據(jù)以推薦候選人,。在使用該系統(tǒng)不到1年人們就觀察到,自動化招聘系統(tǒng)的結果對女性申請人不利,,由于算法主要針對男性簡歷進行訓練,系統(tǒng)得出的結論是男性為首選候選人,。
第三,,算法的不透明性導致“算法取中”監(jiān)管困難,。算法系統(tǒng)以多個非線性方式相互作用,,使得監(jiān)管者要重構特定決策十分困難,。以平臺算法監(jiān)管為例,,為保障外賣送餐員正當權益,2021年市場監(jiān)管總局等七部門聯(lián)合印發(fā)的《關于落實網絡餐飲平臺責任 切實維護外賣送餐員權益的指導意見》中提出,要通過“算法取中”等方式,合理確定訂單數(shù)量,、準時率,、在線率等考核要素,,適當放寬配送時限。然而,,由于算法具有不透明性,,法律監(jiān)管只能提供一個框架,如何“取中”的具體設計仍由算法編寫者決定。
數(shù)字時代的人工智能技術發(fā)展已深刻影響勞動領域,。對于其廣泛運用帶來的風險,應加強從傳統(tǒng)勞動法向智能社會勞動法轉型的回應性研究,積極尋求勞動者權益保障機制與人工智能規(guī)制的雙向互嵌、滲透融合與關聯(lián)協(xié)同,,提供更有針對性與體系性的對策建議。
針對勞動者隱私權與個人信息保護問題,應堅持用勞動法律特有的勞動合同法,、勞動基準法與集體合同三條路徑協(xié)作互補的方式解決,?;鶞史ㄊ悄壳皩趧诱邆€人信息保障效果最好,、效率最高的途徑,。應通過出臺不同場景下的個人信息保護標準,,對求職者及勞動者個人信息處理劃定立法的基準線。實踐中,有關部門已經做出嘗試,,如人社部出臺的《網絡招聘服務管理規(guī)定》對個人信息被泄露等做出特別規(guī)定,。就勞動者個人信息的集體保護而言,集體合同符合個人信息處理的場景化需要,。工會可就勞動者的個人信息保護事宜與雇主達成約定,,在保護個人信息自決權與個人信息利用之間實現(xiàn)動態(tài)的、符合雙方主體利益的平衡,。勞動立法應將勞動者個人信息保護列入集體協(xié)商的內容范圍,,并對相關原則進行具體規(guī)定。在涉及勞動者個人信息相關爭議的司法實踐中,,應根據(jù)自治與限制原則,,對勞動關系下的信息處理作“合法、正當,、必要”的體系性審查,。
針對算法可能導致歧視以及算法權力濫用的問題,需要通過算法治理工具予以規(guī)制,。在此過程中,,應注重從算法治理的源頭控制、關系控制與外部監(jiān)管等模式引入勞動者權益保障機制,。同時,,重視算法治理中的個人新型權利,如算法解釋權,、免受自動化決策約束權等,,以合理形式將其納入勞動法律規(guī)制,關注勞動者參與算法治理的具體路徑構建以及勞動者新型權利的賦權進路,。從集體勞動關系的視角,,應強化工會的專業(yè)化賦能及與第三方專業(yè)機構的制度化協(xié)作,積極參與算法設計,、算法公開的監(jiān)管程序,。就程序救濟而言,由于算法的排他性和高度技術性,,應合理配置舉證責任,,完善救濟渠道,同時強化企業(yè)落實算法治理責任,,由企業(yè)承擔違法與侵害勞動者人格尊嚴的后果,,并根據(jù)算法治理的要求實現(xiàn)監(jiān)管機構的多元化與專業(yè)化。
總之,,化解人工智能技術給勞動領域帶來的用工管理風險,,不應局限于單向度的算法治理或勞動法律制度完善,而應在反思算法治理的理論體系基礎上超越勞動法領域,,融合算法監(jiān)管的法治力量,,以開放性,、跨越性和交叉性的研究視野建構勞動者權益保障機制。
(作者為上海財經大學法學院教授)
免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1007084.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。