□李彪 (長沙理工大學)被AI系統(tǒng)判定為21年前一樁謀殺案的兇手后無奈認罪,,12月11日,,俄羅斯水文學家亞歷山大·茨維科夫在被捕入獄十個月之后終于洗白冤屈,,重新獲得了自由,。(12月14日《成都商報》)時代的一粒塵埃,,落到個人頭上就是一座大山,。被AI判定為逃犯被捕入獄后,,亞歷山大在強大的壓力下“屈打成招”,這一冤案的司法程序中必然存在的漏洞,,但究其源頭,,人工智能系統(tǒng)的錯誤識別是這一冤案的直接原因,這凸顯了人工智能技術在某些情況下存在的局限性和風險。雖然人工智能可以通過大數(shù)據(jù)分析和算法來識別圖像和人臉,,但它的準確性和可靠性仍然受到各種因素的影響,。因此,在我們需要在推廣和應用人工智能技術的時候,,注重其潛在的風險,,特別是責任性的風險。試問,,如果人工智能的判斷出錯,,誰來為此擔責任?這是當前人工智能治理過程中的一個關鍵議題,。中國的科幻電影《流浪地球》就對人工智能責任性風險問題進行了影視化呈現(xiàn),,電影中的超級量子計算機Moss的判斷是精確的,理性的,但人類仍然不能將至高的決策權交給AI,,人工智能做出的決策都要經(jīng)過安理會確認,。可以想見,,如果不限制人工智能的權力,,在面臨重要決策的時候,人工智能的理性選擇也可能對人類產(chǎn)生毀滅性的影響,?;氐浆F(xiàn)實中,面對AI錯判引發(fā)冤案這樣的事件,,我們應認識到,,人工智能只能做人類的助手,不能成為任何人命運的決策者,,無論應用到哪一個領域,,人工智能都不應承擔具有重要決策權的工作。即使人工智能技術已經(jīng)發(fā)展到了一個相當高的水平,,我們也要規(guī)避好人工智能的責任性風險,,減少因AI技術原因而引發(fā)的決策失誤,這有助于明確各種事故中的責任認定,,同時也避免無辜的人為此冤受苦難,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1083482.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。