中新網(wǎng)北京6月8日電 (記者 孫自法)國(guó)際著名學(xué)術(shù)期刊《自然》最新一篇人工智能(AI)研究論文稱(chēng),研究人員開(kāi)發(fā)出一個(gè)Meta人工智能模型的底層技術(shù),該模型能翻譯200種不同語(yǔ)言,,增加了能用機(jī)器翻譯的語(yǔ)言數(shù)量,。該論文介紹,神經(jīng)機(jī)器翻譯模型利用人工神經(jīng)網(wǎng)絡(luò)翻譯各種語(yǔ)言,,這些模型通常需要大量可在線獲取的數(shù)據(jù)加以訓(xùn)練,,但并非所有語(yǔ)言數(shù)據(jù)都公開(kāi)、低成本或是普遍可及,,此類(lèi)語(yǔ)言被稱(chēng)為“低資源語(yǔ)言”,。而增加模型在翻譯語(yǔ)言數(shù)量上的語(yǔ)言輸出可能會(huì)影響模型的翻譯質(zhì)量。為此,,本篇論文作者,、“不落下任何語(yǔ)言”(No Language Left Behind,NLLB)團(tuán)隊(duì)開(kāi)發(fā)出一種跨語(yǔ)言技術(shù),,能讓神經(jīng)機(jī)器翻譯模型學(xué)習(xí)如何利用翻譯高資源語(yǔ)言的預(yù)存能力來(lái)翻譯低資源語(yǔ)言,。作為成果,NLLB團(tuán)隊(duì)開(kāi)發(fā)了一個(gè)在線多語(yǔ)言翻譯工具,,名為NLLB-200,,該工具能容納200種語(yǔ)言,其低資源語(yǔ)言數(shù)量是高資源語(yǔ)言的三倍,,翻譯表現(xiàn)比已有系統(tǒng)高了44%,。由于NLLB團(tuán)隊(duì)在許多低資源語(yǔ)言上只能獲取1000-2000例樣本,為擴(kuò)大NLLB-200的訓(xùn)練數(shù)據(jù)量,,他們用一個(gè)語(yǔ)言識(shí)別系統(tǒng)發(fā)現(xiàn)了這些特定語(yǔ)言的更多實(shí)例,。該團(tuán)隊(duì)還從互聯(lián)網(wǎng)存檔中挖掘雙語(yǔ)文本數(shù)據(jù),幫助提升了NLLB-200的翻譯質(zhì)量,?!蹲匀弧吠诎l(fā)表同行專(zhuān)家“新聞與觀點(diǎn)”文章指出,NLLB團(tuán)隊(duì)研發(fā)的這個(gè)工具,,可以幫助很少被翻譯的那些語(yǔ)言的使用者,,讓他們能使用互聯(lián)網(wǎng)和其他技術(shù)。此外,NLLB團(tuán)隊(duì)還強(qiáng)調(diào)教育是一個(gè)非常重要的應(yīng)用,,因?yàn)檫@個(gè)模型可以幫助低資源語(yǔ)言使用者獲取更多圖書(shū)和研究文章,。不過(guò),該團(tuán)隊(duì)也提醒說(shuō),,誤譯的情況仍有可能出現(xiàn),。(完)
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1106787.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。