據(jù)近日發(fā)表在預印本服務器bioRxiv上的一項研究,,人工智能(AI)聊天機器人ChatGPT已可寫出令人信服的假研究論文摘要,甚至連審稿科學家也無法發(fā)現(xiàn),。
聊天機器人ChatGPT會根據(jù)用戶提示創(chuàng)建逼真文本,,它通過消化大量現(xiàn)有的人類生成文本來學習執(zhí)行任務,。美國的軟件公司OpenAI于去年11月發(fā)布了該工具,,并供用戶免費使用,。
自發(fā)布以來,,研究人員一直在努力解決相關(guān)倫理道德問題,,因為它大部分輸出可能很難與人類撰寫的文本區(qū)分開來,。近日美國西北大學的一個研究小組使用ChatGPT生成人工研究論文摘要,以測試科學家是否可辨別它們,。
研究人員要求機器人基于發(fā)表在《美國醫(yī)學會雜志》《新英格蘭醫(yī)學雜志》《英國醫(yī)學雜志》《柳葉刀》和《自然·醫(yī)學》上的50篇研究編寫摘要,。然后,他們通過抄襲檢測器和AI輸出檢測器將這些摘要與原始摘要進行比較,,并要求一組醫(yī)學研究人員找出編造的摘要,。
結(jié)果,ChatGPT生成的摘要通過了抄襲檢查器,,原創(chuàng)性得分中位數(shù)為100%,,表明沒有檢測到抄襲。人工智能輸出檢測器發(fā)現(xiàn)了66%的生成摘要,但人工審稿人只正確識別了68%的生成摘要和86%的真實摘要,,他們錯誤地將生成摘要中的32%識別為真實,,將14%的真實摘要識別為編造,。
研究人員稱,ChatGPT寫出了能騙過人類的科學摘要,,如果科學家無法確定研究是否屬實,,或會產(chǎn)生“可怕的后果”。
研究人員表示,,在虛假信息會危及人們生命安全的醫(yī)學等領(lǐng)域,,期刊需要采取更嚴格的方法來驗證信息的準確性,。而這些問題的解決方案,,不應集中在機器人本身,“而是導致這種行為的不正當激勵措施,,例如通過論文數(shù)量進行招聘和晉升審查,,而不考慮其質(zhì)量或影響”。
來源:科技日報
責編:張妍頔
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/980808.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。