A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

2022中國人工智能產(chǎn)業(yè)年會——人工智能大模型的倫理與治理論壇在蘇州舉行

中國日報5月10日電(記者 張之豪)第十二屆吳文俊人工智能科學技術獎頒獎典禮暨2022中國人工智能產(chǎn)業(yè)年會——人工智能大模型的倫理與治理論壇于5月7日下午在蘇州召開。該論壇由中國科學院自動化研究所人工智能倫理與治理中心主任曾毅研究員和中國社會科學院哲學所科技哲學研究室主任段偉文研究員共同組織并主持,。

論壇邀請了香港科技大學電子與計算機工程系馮雁(Pascale Fung)教授、復旦大學應用倫理學研究中心主任王國豫教授,、香港中文大學蒙美玲(Helen Meng)教授、瑞萊智慧RealAI首席執(zhí)行官田天,、螞蟻集團AI風險管理負責人楊舟,、商湯科技人工智能倫理與治理研究主任胡正坤,、騰訊研究院高級研究員曹建峰、阿里達摩院安全合規(guī)負責人李婭莉等學術界與產(chǎn)業(yè)界的專家進行深度互動,,聚焦人工智能大模型倫理治理問題展開研討,。

首先,,會議主席曾毅研究員介紹了人工智能大模型需要倫理治理的重要原因:人工智能大模型被構建,并作為一種社會服務提供后,,潛在風險很快就變成實存的風險,,反作用于我們的社會。對于人工智能的倫理和安全,,以往總是用一種反應式的方式,,而不是用一種主動的方式,所以我們遇到了很多人工智能大模型帶來的社會問題,。其次,曾毅介紹了本次論壇目的,,即通過中國學術界和產(chǎn)業(yè)界深度互動,面對人工智能大模型已出現(xiàn)的問題達成共識,,推進倫理安全治理的落地。同時,,中國人工智能大模型發(fā)展不僅跟民眾息息相關,,也跟中國人工智能大模型未來如何走出去,,以及全世界人工智能發(fā)展息息相關,。

論壇總共分為兩個階段,,第一個階段由受邀學術界和產(chǎn)業(yè)界的專家闡述對人工智能大模型倫理安全治理體會,。第二個階段圍繞近期人工智能大模型發(fā)生的倫理安全案例進行交互式討論,,提出觀點,。

論壇開始后,,中國社會科學院哲學所科技哲學研究室主任,、研究員段偉文教授作了題為"對話式人工智能與人類思維的機器馴化"的演講。一方面指出傳統(tǒng)的語言學觀點強調(diào)對話式人工智能只是機器,,既不具備人類思維,也無法理解語言背后的事實,,需要警惕資本將人類與語言模型區(qū)別混淆所帶來的危險;另一方面介紹了以Christopher Manning為代表所提出的分布式的語義理論,。區(qū)別于傳統(tǒng)的語言學觀點,語詞不一定要完全去指稱真實的世界,,而是通過與其他語詞的關聯(lián)性,從整體的角度來被理解和把握,,大語言模型正是這樣來確定語義。

段偉文指出,,將語言放在關聯(lián)性的向量空間中進行語義的理解,,會反過來改變?nèi)祟?,馴化人類的思維,。對話式大語言模型的出現(xiàn),一方面它能通過類人的表達能力,,干涉甚至管理人類的日常事務,限制人類在社會中用第一人稱來表達自己判斷的權利,;另一方面,,大語言模型將會用人類所熟悉的話語告訴我們什么該做什么不該做,,進而對人類進行思維馴化。面對機器對人類的馴化,,段偉文認為核心的應對方式,,一是加強交互溝通,包括人與人,、人與機器,,不僅要了解人類怎么去修機器,也要研究機器如何來修理人類,;二是尋找更好的隱喻,,因為人類不僅要批判性地理解世界,還要超越自己對世界批判的局限性,,走向更符合人類福祉的未來。

香港科技大學馮雁教授以"倫理,、治理和負責任的人工智能—東西方比較"為題,從國際視野和技術實踐的角度回應人工智能倫理與治理面臨的問題,。通過介紹自己組織并參與國際峰會經(jīng)歷和經(jīng)驗,馮雁基于已有的ChatGPT大模型,,以"負責任地設計和發(fā)布生成性AI模型"為關鍵詞,,從技術人員的角度論述了"是什么"和"怎么做"的問題。ChatGPT最初只作為科研項目發(fā)布,,但通過加入人機交互界面,迅速變成網(wǎng)紅產(chǎn)品,。其爆紅帶來的倫理問題也是始料未及,這也給生成性AI的管理問題提出挑戰(zhàn),。

馮雁指出,,基于各國不同的治理方式,我們需要全世界性的,、開放式科研環(huán)境,讓各個國家,、公司,、學術機構和各位科學家以個人身份參加開放性的科學共研。只有真正的開源,,才能共同理解大模型存在的問題和產(chǎn)生的根源,才能更好地進行管理,。此外,馮雁提出未來科學家們可以開發(fā)能夠量化大模型的測試工具。作為技術人員,不僅要考慮技術怎么去做的問題,,更要考慮為什么要做的問題。因此,,對于生成性AI未來科研的方向,馮雁認為大模型標志著人工智能發(fā)展的轉折點,,研究人員需要進一步了解這些大模型為何具備這種類人思考的能力。

在題為《從人工智能大模型倫理到有道德的人工智能》的報告中,,中科院自動化所曾毅研究員介紹,,技術與倫理的互動確保中國新一代人工智能的穩(wěn)健發(fā)展。人工智能學科在誕生之初就面臨安全與倫理問題,,如果人工智能大模型沒有倫理安全框架約束,,風險將難以估量。比如,,沒有進行價值觀校準的大模型在進行涉及道德兩難決策時并沒有人類的遲疑,,顯現(xiàn)出顯著的數(shù)據(jù)偏見,。對于中國在人工智能大模型方面的進展,曾毅認為,,中國的人工智能大模型能夠公開發(fā)布、開源開放是非常重要的,是中國人工智能大模型對世界的貢獻,,倫理安全方面應做出更具代表性的進展從而實現(xiàn)人工智能大模型的善用善治,。

曾毅認為,,人工智能的大模型,特別是廣泛應用于對話的生成式大模型最重要的問題是混淆了人類與人工智能之間的界限,,目前的人工智能沒有自我,,對話模型不應聲稱"我以為"。現(xiàn)在的人工智能大模型還不具備心智能力,,建構有道德的,、合乎倫理的人工智能需要人類以及其他行動者的互動,。由于人工智能大模型在倫理與安全方面的潛在風險已經(jīng)以難以預期的方式迅速轉化為實存風險,暫停超越GPT-4能力的人工智能大模型研發(fā)很有必要,。暫停人工智能大模型實驗的目的不是停止技術的發(fā)展,,而是盡可能護航大模型的倫理安全。因此,,從技術手段去落地人工智能大模型倫理安全框架很有必要,。

為此,曾毅團隊打造了"智善人工智能倫理安全平臺體系",,體系中已發(fā)布的包括"智善共濟"鏈接人工智能原則平臺,、"智善思齊"人工智能治理公共服務平臺、"智善如流"人工智能社會倫理道德規(guī)范數(shù)據(jù)集與知識庫,、"智善觀行"人工智能大模型倫理安全觀測站,。曾毅介紹到,通過"智善共濟"鏈接人工智能原則平臺的分析,,發(fā)現(xiàn)各國人工智能倫理原則呈現(xiàn)出多樣性,,但更多的是共性,。曾毅認為,,人工智能大模型應該均衡助力可持續(xù)發(fā)展的不同目標,而不應當只關注具有顯著經(jīng)濟效益的目標,。

曾毅介紹到其團隊的最終的目標是實現(xiàn)"上善若水"的人工智能,認為超級智能的利他之心和共情能力也應該是"超級"的,。關于人與未來超級智能如何和諧共生,,曾毅展示了其牽頭發(fā)布的《自然生命與人工智能生命共生的原則》,,認為人類不能停留在要求通用人工智能和超級智能怎么做的層面,,還要反思人類應該怎么去做以及雙方應當共同遵守的原則,。

對于建構"上善若水"式人工智能,,曾毅認為通過類腦人工智能在科學技術層面是有希望的,,困難可能在于人類需要做出的改變,。從要求人工智能大模型合乎倫理,到真正構建有道德的人工智能,,通用人工智能和超級智能的倫理安全問題要從當下開始應對,,作及時、長遠的關注和未雨綢繆的準備,。

復旦大學王國豫教授在《通用模型的中介性及其倫理意蘊》報告中認為,,ChatGPT等生成式模型可以廣泛應用于不同的場景,,連接不同的需求。目前的大模型主要應用在自然語言處理和計算機視覺領域,,一個是教人工智能要說人話,一個是教人工智能自己看世界,。

通用模型具有涌現(xiàn)性和同質(zhì)性特征,,在系統(tǒng)層面會面臨算法、數(shù)據(jù)以及算力方面的倫理挑戰(zhàn),,在社會層面會面臨科學研究,、經(jīng)濟與政治、存在論方面的倫理挑戰(zhàn),。

從技術哲學的視角看,,通用模型的倫理挑戰(zhàn)與模型的中介性相關,,模型的中介性對社會生活產(chǎn)生了很大的影響,。作為一種技術中介,通用模型可以調(diào)節(jié)人類認識和解釋世界的過程,。

從治理視角看,,目前的具體措施包括開展通用模型社會與倫理風險的前沿研究,、將倫理的相關成果轉化為技術工具,、建立模型發(fā)布、使用,、改進,、審查等全流程管理機制。

面對現(xiàn)階段應對措施的局限性,,王國豫認為應該從三個因素對建立開放式,、全流程、價值嵌入的倫理工具做了展望:一是在充分倫理評估方面,,要秉持開放的態(tài)度,,充分評估數(shù)據(jù)和模型的倫理影響和風險點,;二是在納入倫理考量方面,從全流程的視角出發(fā),,將倫理考量納入通用模型及其生態(tài)系統(tǒng)建設進程之中,;三是探索倫理方法,充分探索"價值敏感設計",、"負責任創(chuàng)新"等倫理方法在通用模型語境下的可行性,。

瑞萊智慧CEO田天的匯報題目為《大模型時代下的AI治理挑戰(zhàn)及其應對》,從實踐的角度探索了人工智能的一系列安全問題,,包括相關人工智能規(guī)則的制定,、推動人工智能安全落地以及針對大模型安全與治理方面的一些想法。田天介紹,,從2015年至今,,人工智能研究范式發(fā)生改變,大模型時代來臨,。

田天認為,,大模型的安全性面臨挑戰(zhàn)。一是誘導攻擊,,通過構建虛擬角色,、虛擬劇情、思維鏈引導等方式,,使問詢結果擺脫大模型內(nèi)置安全設置,,讓模型拋開立場輸出危險結果。二是混淆攻擊,,通過不同的邏輯混淆問答,,使得大模型面對不同的指令時出現(xiàn)邏輯混亂,回答出錯,。三是模型攻擊,,通過對輸入添加細微擾動構建對抗樣本,使大模型判斷出錯,,或通過數(shù)據(jù)投毒的方式,,在模型中植入后門,在輸入特定信息后觸發(fā)干擾,,導致模型輸出錯誤,。四是隱私數(shù)據(jù)泄露,利用公開網(wǎng)絡環(huán)境下的數(shù)據(jù)進行模型訓練,,導致未經(jīng)授權的攻擊者訪問到模型相關的隱私數(shù)據(jù),導致隱私泄露,。五是在模型使用方面,,面臨升級詐騙,、網(wǎng)絡攻擊、虛假內(nèi)容生成等安全挑戰(zhàn),。六是算法偏見和歧視問題,,主要是價值取向的問題。七是數(shù)字鴻溝,、知識產(chǎn)權侵犯等社會性風險,。

最后,田天介紹了嘗試建構對生成式人工智能服務的安全評估能力方面的工作,,通過建設安全評估系統(tǒng)來建構針對深度融合服務系統(tǒng)性的安全評估能力,。評估維度主要涉及輸入輸出內(nèi)容合規(guī)性的評估、檢測訓練運行數(shù)據(jù)有關的安全性,、檢查是否具備隱性標識及標識可用性,、檢測算法設計和生成內(nèi)容是否符合倫理要求。在應對方案探索方面,,田天介紹了RealAI發(fā)布的業(yè)內(nèi)首個企業(yè)級人工智能安全平臺RealSafe,、深度合成音視頻檢測平臺DeepReal以及AI合成文本檢測工具。

來源:chinadaily.com.cn

2022中國人工智能產(chǎn)業(yè)年會——人工智能大模型的倫理與治理論壇在蘇州舉行

免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1028533.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。

(1)
中國日報網(wǎng)的頭像中國日報網(wǎng)
上一篇 2023年5月10日 下午2:25
下一篇 2023年5月10日 下午2:47
198搶自鏈數(shù)字人

相關推薦