【科學(xué)隨筆】近幾年,人工智能在許多行業(yè)都有應(yīng)用,,成為人類的“好幫手”,。但在這一過(guò)程中,也出現(xiàn)了各種各樣的問(wèn)題,。其中,,人工智能系統(tǒng)基于不良的數(shù)據(jù)來(lái)源和有缺陷的算法設(shè)計(jì)生成錯(cuò)誤的“知識(shí)”,,且沒(méi)有對(duì)所輸出內(nèi)容進(jìn)行價(jià)值判斷的能力,無(wú)法承擔(dān)相應(yīng)認(rèn)知責(zé)任,,導(dǎo)致系統(tǒng)性的認(rèn)知偏差,,是一個(gè)比較突出的問(wèn)題。從科技倫理角度分析,,這違背了認(rèn)知正義的原則,。所謂認(rèn)知正義,是指在知識(shí)生成,、傳播和獲取過(guò)程中,,確保所有個(gè)體和群體的聲音都能被公平地聽(tīng)取和理解,并且有平等的機(jī)會(huì)被轉(zhuǎn)化為人類的公共知識(shí),。過(guò)去,,知識(shí)生成主要依賴人類個(gè)體的感知、記憶,、推理和證詞,。然而,隨著人工智能的超速迭代,,尤其是會(huì)話式人工智能的廣泛應(yīng)用,,傳統(tǒng)的知識(shí)生成和傳播方式正迎來(lái)重大轉(zhuǎn)變。今天的人工智能不僅善于搜集信息和執(zhí)行任務(wù),,更是一項(xiàng)能夠生成和傳播知識(shí)的“認(rèn)知技術(shù)”,,被用來(lái)處理認(rèn)知內(nèi)容(如命題、模型,、數(shù)據(jù))并執(zhí)行認(rèn)知操作(如統(tǒng)計(jì)分析,、模式識(shí)別,、預(yù)測(cè)、推理和模擬),?;跀?shù)據(jù)和算法的“機(jī)器知識(shí)”挑戰(zhàn)了過(guò)去基于經(jīng)驗(yàn)和專業(yè)判斷的人類知識(shí),導(dǎo)致認(rèn)知“碎片化”,,破壞了傳統(tǒng)人類知識(shí)系統(tǒng)的認(rèn)知正義,。如今,生成式人工智能已經(jīng)開(kāi)始全面嵌入到所有可能對(duì)認(rèn)知,、決策進(jìn)行技術(shù)性替代的場(chǎng)景和社會(huì)過(guò)程之中,。面對(duì)人工智能在知識(shí)生成中對(duì)認(rèn)知正義的挑戰(zhàn),如何讓人工智能更智能,?如何讓其成為提升認(rèn)知的幫手,,確保科技向善,?筆者認(rèn)為,,需從提升數(shù)據(jù)質(zhì)量、改進(jìn)算法設(shè)計(jì),、優(yōu)化人機(jī)協(xié)同和加強(qiáng)倫理治理等維度著手,。負(fù)責(zé)任的算法設(shè)計(jì)是實(shí)現(xiàn)認(rèn)知正義的核心架構(gòu)。人工智能作為一種強(qiáng)大的認(rèn)知技術(shù),,通過(guò)數(shù)據(jù)挖掘和統(tǒng)計(jì)分析來(lái)識(shí)別信息的模式和趨勢(shì),,參與人類公共知識(shí)的生成。由于算法主要關(guān)注在訓(xùn)練數(shù)據(jù)中頻繁出現(xiàn)的信息模式,,而不夠普遍或統(tǒng)計(jì)上不夠強(qiáng)大的數(shù)據(jù)往往會(huì)被忽視和排除,,從而無(wú)法得到算法的充分理解和適當(dāng)響應(yīng)。依賴于統(tǒng)計(jì)頻率的算法設(shè)計(jì)構(gòu)成了一種特定的“認(rèn)知盲從”,,進(jìn)而導(dǎo)致部分群體的聲音被系統(tǒng)性邊緣化,。這種設(shè)計(jì)上的缺陷不僅限制了算法的認(rèn)知能力,也加劇了社會(huì)中的不平等和認(rèn)知壓迫,,破壞認(rèn)知正義,。“盲從”行為背后的根源,,是算法的設(shè)計(jì)和訓(xùn)練過(guò)程缺乏對(duì)不同群體文化背景的理解,。因此,在我們常談及的算法透明性和可解釋性之外,,符合認(rèn)知正義要求的算法設(shè)計(jì)還應(yīng)兼顧涉及不同社群的認(rèn)知多樣性,。有質(zhì)量的數(shù)據(jù)供給是實(shí)現(xiàn)認(rèn)知正義的基礎(chǔ)設(shè)施。造成人工智能破壞認(rèn)知正義的另一個(gè)重要誘因是數(shù)據(jù)質(zhì)量,。大數(shù)據(jù)是智能技術(shù)的認(rèn)知基礎(chǔ)和決策基礎(chǔ),,可以更清晰直觀地呈現(xiàn)人類社會(huì)生活各方面的特征和趨勢(shì),,但與傳統(tǒng)人類公共知識(shí)不同,數(shù)據(jù)不為人們普遍共享,。具體來(lái)說(shuō),,哪些數(shù)據(jù)可以被收集起來(lái)并用于分析,這些數(shù)據(jù)又將如何被分類提取,,它們最終服務(wù)于誰(shuí),,這些問(wèn)題都變得模糊不清,導(dǎo)致數(shù)據(jù)質(zhì)量參差不齊,。算法的訓(xùn)練數(shù)據(jù)往往來(lái)源于互聯(lián)網(wǎng)的大型數(shù)據(jù)庫(kù)和社區(qū),,而這些數(shù)據(jù)很可能包含偏見(jiàn)和歧視。人工智能的知識(shí)生成,,需確保數(shù)據(jù)的來(lái)源可靠,、內(nèi)容多樣,對(duì)數(shù)據(jù)進(jìn)行去偏處理,,還需對(duì)數(shù)據(jù)保持持續(xù)監(jiān)測(cè)和更新,以應(yīng)對(duì)社會(huì)文化變化帶來(lái)的新問(wèn)題,。有質(zhì)量的數(shù)據(jù)供給,,才能使人工智能系統(tǒng)在多元文化和復(fù)雜社會(huì)結(jié)構(gòu)中提供更精準(zhǔn)的知識(shí)和決策支持。大范圍的人機(jī)協(xié)作是實(shí)現(xiàn)認(rèn)知正義的有效手段,。從腦機(jī)接口中的信號(hào)轉(zhuǎn)譯,,到智能醫(yī)療決策、AI for Science等人機(jī)聯(lián)合行動(dòng),,不同層面的人機(jī)協(xié)作都涉及人類知識(shí)與機(jī)器知識(shí)的傳遞,、解釋、融合等認(rèn)知過(guò)程,。鑒于人機(jī)各自典型的認(rèn)知特征,,大范圍、合理化的“人機(jī)認(rèn)知?jiǎng)趧?dòng)分工”將有效避免更多的人機(jī)認(rèn)知偏差,。比如,,在科學(xué)研究中可以如此分工:人類設(shè)定目標(biāo)、提出假設(shè)和解釋結(jié)果,,并負(fù)責(zé)提供創(chuàng)造性思維,、臨場(chǎng)決策、倫理判斷以及對(duì)非結(jié)構(gòu)化問(wèn)題的直覺(jué)理解,;而人工智能處理大量結(jié)構(gòu)化數(shù)據(jù),、進(jìn)行模式識(shí)別和預(yù)測(cè)分析,提供未被注意的模式和關(guān)聯(lián),。在這種協(xié)作中,,人工智能更多地成為啟發(fā)新想法的“伙伴”,,而非生成錯(cuò)誤知識(shí)的“機(jī)器”。高水平的倫理治理是實(shí)現(xiàn)認(rèn)知正義的制度支撐,。認(rèn)知正義要求多元的知識(shí)生成,、平等的知識(shí)獲取、無(wú)偏的知識(shí)傳播和負(fù)責(zé)的知識(shí)使用,,這些都需要高水平的人工智能倫理治理,。于企業(yè)而言,應(yīng)在算法設(shè)計(jì)中考慮不同社會(huì)群體的需求和視角,,對(duì)算法進(jìn)行持續(xù)風(fēng)險(xiǎn)監(jiān)測(cè)和價(jià)值評(píng)估,;還應(yīng)探索人工智能倫理眾包模式,鼓勵(lì)不同背景的研究者和用戶參與到人工智能倫理風(fēng)險(xiǎn)的研判中,,及時(shí)化解倫理風(fēng)險(xiǎn),。于政府而言,應(yīng)積極鼓勵(lì)私人數(shù)據(jù)向公共數(shù)據(jù)轉(zhuǎn)化,,加快公共數(shù)據(jù)面向全社會(huì)開(kāi)放共享,,擴(kuò)展數(shù)據(jù)多樣性、強(qiáng)化數(shù)據(jù)可靠性,;還應(yīng)尋求應(yīng)對(duì)人工智能潛在倫理風(fēng)險(xiǎn)的社會(huì)解決方案,,建立涵蓋前瞻性預(yù)見(jiàn)、實(shí)時(shí)性評(píng)估和系統(tǒng)性調(diào)整的敏捷治理機(jī)制,。(作者:白惠仁,,系浙江大學(xué)哲學(xué)學(xué)院“百人計(jì)劃”研究員、腦機(jī)智能全國(guó)重點(diǎn)實(shí)驗(yàn)室雙聘研究員)
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1120230.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。