參考消息網11月22日報道 英國《自然》周刊網站10月10日刊登題為《ChatGPT和其他人工智能如何影響科研出版》的文章,作者是杰瑪·康羅伊,,內容編譯如下:每當在撰寫論文時陷入困境,,多梅尼科·馬斯特羅迪卡薩就會求助于聊天機器人ChatGPT,它能在幾秒鐘內給出答案,。馬斯特羅迪卡薩是華盛頓大學醫(yī)學院的放射學研究人員,。他說:“它幫助我更快寫出可以出版的文稿?!背袚鷮懽鞴ぷ鲊L試用生成式人工智能撰寫文章或代碼的研究人員有很多,,馬斯特羅迪卡薩只是其中之一。他購買了ChatGPT Plus,,每周使用它好幾次,。他認為,,ChatGPT在提出更清晰的表達方式上尤其有用。雖然《自然》周刊的一項調查顯示,,定期使用大型語言模型的科學家仍是少數(shù),,但許多人預計,生成式人工智能將成為撰寫文稿,、同行評審報告和申請函的常規(guī)助手,。這是人工智能改變科學交流和出版的部分方式??茖W出版公司已經嘗試將生成式人工智能融入科學搜索工具,,以及用其編輯和迅速總結論文。許多研究人員認為,,母語非英語的人從人工智能工具中獲益最多,。一些人認為,生成式人工智能可以幫助科學家重新思考如何全面闡述和總結實驗成果——他們可以讓大型語言模型承擔這方面的大部分工作,。這意味著,,科學家用于寫作論文的時間大大減少,可以有更多時間做實驗,。加利福尼亞大學伯克利分校的計算生物學家,、《電子生活》期刊主編邁克爾·艾森說:“寫論文從來都不是真正的目標——目標是搞研究?!彼A言,,生成式人工智能工具甚至可能從根本上改變科學論文的性質,。但人們對人工智能的不準確性和錯誤感到擔憂,這將影響它發(fā)揮更大作用,。大型語言模型僅僅會生成與輸入信息的模式相符的貌似合理的答案,,并不能輸出準確的信息,。出版商們擔心,,越來越多地使用人工智能可能導致更多質量差或錯漏百出的文稿出現(xiàn)——甚至導致大量人工智能輔助撰寫的假論文出現(xiàn)。英國IOP出版公司主要出版物理學刊物,。該公司同行評審工作負責人勞拉·菲瑟姆說:“任何類似的影響都相當令人擔憂,。”拼湊注水論文科學出版公司和其他一些人已經指出了生成式人工智能可能造成的一些影響,。英國研究分析企業(yè)數(shù)字科學公司首席執(zhí)行官丹尼爾·胡克說,,人工智能工具的廣泛應用可能會降低拼湊低質量論文的難度,甚至會破壞研究的完整性,。他說:“出版商有理由擔心,。”有些時候,,研究人員承認,,他們會讓ChatGPT幫助寫論文,,但不事先說明,。一些人之所以被發(fā)現(xiàn),,是因為忘了清理掉使用人工智能的蛛絲馬跡。理想情況下,,出版商應該能夠發(fā)現(xiàn)大型語言模型生成的文本。但在實踐中,,檢測人工智能痕跡的工具尚無法在不誤把人寫的文章視為人工智能產物的前提下準確挑出生成式文本,。但是,,對評審同行論文的人而言,,大型語言模型可能是一個福音,。馬斯特羅迪卡薩表示,,自將ChatGPT Plus當作助手以來,,他得以評審更多同行的論文,因為大型語言模型可以為他寫的評論潤色,。他說:“如果已經有了一份草稿,,我就可以在幾個小時內把它改好,不必花上幾天時間,。我覺得這個助手必將成為工具包的一部分,。”德國弗里德里?!は沾髮W化學信息學研究員克里斯托夫·施泰因貝克發(fā)現(xiàn),,ChatGPT Plus非常好用,它能迅速總結他正在評審的論文預印本,。穆罕默德·侯賽尼是美國西北大學科研道德和完整性領域的學者,。他說,大家擔心的一個關鍵問題是,,研究人員可能會不經思考,,只依靠ChatGPT拼湊評論文章。如果直接要求一個大型語言模型去評審一篇文稿,,它除了對文稿進行總結和提供修改建議外,,多半幾乎不生成任何有價值的東西,。泄密問題待解圍繞用大型語言模型來評審論文,早期的擔憂主要涉及保密性,。一些出版商禁止研究人員將論文文稿和部分文本上傳到生成式人工智能平臺以生成評審報告,,因為出版商擔心這些論文會進入用于訓練大型語言模型的數(shù)據(jù)集,而這就違反了保密合同條款,。今年6月,,出于保密考慮,美國國家衛(wèi)生研究院禁止使用ChatGPT和其他生成式人工智能工具來生成同行評審報告,。兩周后,,澳大利亞研究理事會出于同一理由禁止在評審過程中使用生成式人工智能。避免泄密的一個辦法是使用私有化的大型語言模型,,這樣就可以確保數(shù)據(jù)不會被提供給第三方,。亞利桑那州立大學正嘗試建立私有化的大型語言模型。該大學的尼爾·伍德伯里說:“這是一個可以解決的問題,?!狈粕氛f,如果能進一步搞清大型語言模型如何存儲,、保護和使用這些數(shù)據(jù),,那么就可以將這些工具整合到出版商已經在使用的審查系統(tǒng)中。威利-布萊克韋爾出版公司的發(fā)言人說,,該公司正嘗試用生成式人工智能幫助篩選文稿,、挑選評審人以及核實作者身份,。倫理界限模糊然而,一些研究人員認為,,大型語言模型的倫理界限過于模糊,,無法納入科學出版程序。荷蘭奈梅亨大學的認知科學家伊麗絲·范羅伊說,,大家主要擔心的是大型語言模型的工作方式:它搜索互聯(lián)網內容時沒有偏好或版權方面的考量,。她還說,生成式人工智能“從設計上說就是自動剽竊”,,因為用戶并不知道信息的出處,。她認為,如果研究人員更清楚地意識到這一點,,他們就不會想用生成式人工智能工具了,。一些新聞機構已經阻止ChatGPT搜索它們的網站。有報道稱,,一些公司正在考慮提起訴訟,。盡管科學出版公司還沒有這樣做,但威利-布萊克韋爾出版公司說:“一些行業(yè)報告和訴訟指控生成式人工智能模型無視現(xiàn)有限制措施,,出于訓練目的收集受保護的資料,,本公司正在密切關注此類報告和訴訟?!边@家出版公司還說,,它已經呼吁加強監(jiān)管,包括讓大型語言模型的提供商承擔保持透明和接受審查的責任,。侯賽尼認為,,在特定學科,用科學文獻訓練大型語言模型可能是提高其輸出內容的準確性和相關性的一個途徑,,但《自然》周刊聯(lián)系到的出版商都說,,它們目前還沒有這樣做。英國布里斯托爾大學的杰瑪·德里克以科研政策和文化為研究對象,。她說,,如果學者們開始依賴大型語言模型,另一個讓人擔憂的問題是,,他們的表達能力可能會減弱,。她還說,剛開始從事研究的人可能因此錯過磨煉公正表達觀點的能力的機會,。加拿大魁北克人工智能學院資深機器學習科學家帕特里克·米尼奧特說,,生成式人工智能可能改變科研成果的發(fā)表和傳播方式。他說,這可能意味著,,研究成果將以一種可被機器而不是人類輕易解讀的形式發(fā)表,。他說:“將出現(xiàn)各種新的出版形式?!痹诖笮驼Z言模型時代,,艾森設想科研成果未來將以一種互動的、“按需”的形式出版,,而不是一個模式固定的出版物,。在新模式下,用戶可以利用生成式人工智能工具詢問實驗內容,、數(shù)據(jù)和分析結果,,這將使他們得以深入探究一項研究中與自己最相關的方面。新模式還將使用戶得到為他們量身定制的研究成果描述,。艾森說:“我認為,,我們將停止讓單一陳述模式充當人類與科研成果之間的交流介質,這只是時間問題,?!?/p>
免責聲明:本文來自網絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1080116.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議,。