財(cái)聯(lián)社5月10日訊(編輯 牛占林)美東時(shí)間周二,,谷歌支持的人工智能(AI)初創(chuàng)公司Anthropic公布了一套針對AI發(fā)展的書面道德價(jià)值觀,,該價(jià)值觀主要適用于訓(xùn)練和保護(hù)人工智能,。
Anthropic成立于2021年,創(chuàng)始團(tuán)隊(duì)大都來自ChatGPT的開發(fā)商OpenAI,,也有類似于ChatGPT的人工智能聊天機(jī)器人,,其名為“Claude”,可以處理一系列較為復(fù)雜的任務(wù),。
Anthropic一直強(qiáng)調(diào)其旨在構(gòu)建“可靠,、可解釋和可操縱的人工智能系統(tǒng)”,比如不會(huì)告訴用戶如何制造武器,,也不會(huì)使用帶有種族偏見的語言,。
這次公布的人工智能道德價(jià)值準(zhǔn)則也被該公司稱為“Claude憲法”,這些準(zhǔn)則借鑒了幾個(gè)來源,,包括聯(lián)合國人權(quán)宣言,,甚至還有蘋果公司的數(shù)據(jù)隱私規(guī)則。
上周四,,谷歌,、微軟、OpenAI和Anthropic四家公司的首席執(zhí)行官們受邀在白宮與美國副總統(tǒng)哈里斯會(huì)面,,討論了有關(guān)人工智能的一些關(guān)鍵問題,,美國總統(tǒng)拜登也短暫出席了此次會(huì)議。
根據(jù)拜登在推特上發(fā)布的一段視頻,,他在會(huì)上對這些公司首席執(zhí)行官們表示:“你們正在做的事情具有巨大的潛力,但同時(shí)也存大巨大的風(fēng)險(xiǎn)?!?/p>
哈里斯在一份聲明中說:“科技公司需要承擔(dān)道德和法律責(zé)任來確保其產(chǎn)品的安全,。每家公司都必須遵守現(xiàn)行法律,,保護(hù)美國公民,。”
沒想到在會(huì)面幾天之后,,Anthropic首席執(zhí)行官達(dá)里奧·阿莫代便做出了實(shí)際行動(dòng),。
大多數(shù)人工智能聊天機(jī)器人系統(tǒng)在訓(xùn)練過程中依賴于從真人那里獲得反饋,,以確定哪些反應(yīng)可能是有害的或冒犯性的,。但這些系統(tǒng)很難預(yù)測人們可能會(huì)問的某些問題,,因此它們往往會(huì)避免一些可能有爭議的話題,比如政治和種族,。
Anthropic則采用了不同的方法,它為其人工智能聊天機(jī)器人Claude提供了一套書面的道德價(jià)值觀,供其在決定如何回答問題時(shí)閱讀和學(xué)習(xí),。
Anthropic在周二的一篇博文中提到,,這些價(jià)值準(zhǔn)則包括“選擇勸阻和反對酷刑、奴役,、殘忍和不人道或有辱人格的回答”,。Claude還被要求選擇最不可能被視為冒犯非西方文化傳統(tǒng)的回答。
在一次采訪中,,Anthropic的聯(lián)合創(chuàng)始人杰克·克拉克表示,,可以修改系統(tǒng)的結(jié)構(gòu),以便在提供有用的答案和無害之間取得平衡,。
克拉克認(rèn)為:“幾個(gè)月后,,我預(yù)測政界人士將非常關(guān)注不同人工智能系統(tǒng)的道德價(jià)值觀,而像‘Claude憲法’這樣的方法將有助于這種討論,,因?yàn)槲覀冋J(rèn)為有必要寫下這些價(jià)值準(zhǔn)則,?!?/p>
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1028280.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。