新華社北京7月31日電 生成式人工智能工具能夠根據(jù)相關(guān)提示生成文本,,雖然提高了寫(xiě)作效率,但也模糊了學(xué)術(shù)不端行為的界限,。英國(guó)《自然》雜志日前發(fā)表的一篇文章說(shuō),,隨著ChatGPT等生成式人工智能工具的快速普及,學(xué)術(shù)界正面臨一場(chǎng)關(guān)于誠(chéng)信的新挑戰(zhàn),。2023年11月2日,,在英國(guó)布萊奇利園,一名參會(huì)者經(jīng)過(guò)首屆人工智能安全峰會(huì)的宣傳展板,。新華社記者 李穎 攝 根據(jù)《自然》雜志去年對(duì)全球1600名研究人員的調(diào)查,,68%的受訪者認(rèn)為生成式人工智能工具將使抄襲變得更容易且更難檢測(cè)。文章指出,,生成式人工智能工具如ChatGPT基于大語(yǔ)言模型,,通過(guò)學(xué)習(xí)大量已發(fā)表的文本生成新內(nèi)容。這種方式可能導(dǎo)致類(lèi)似抄襲的情況,,例如研究人員將生成式人工智能工具生成的文本當(dāng)作自己的作品,,或者生成的文本與某人的作品非常相似卻未注明來(lái)源。文章提出一個(gè)核心問(wèn)題:使用完全由機(jī)器(而不是人類(lèi))編寫(xiě)的未注明來(lái)源的內(nèi)容是否算抄襲,。一些研究機(jī)構(gòu)將未經(jīng)授權(quán)使用生成式人工智能工具定義為“未經(jīng)授權(quán)內(nèi)容生成”,,而非傳統(tǒng)意義上的抄襲。德國(guó)柏林應(yīng)用科技大學(xué)的德博拉·韋伯-伍爾夫教授認(rèn)為,,傳統(tǒng)意義上的抄襲通常指可歸因于另一個(gè)具體作者的內(nèi)容,。也有一些人認(rèn)為,生成式人工智能工具侵犯了版權(quán),。抄襲和侵犯版權(quán)都是對(duì)他人作品的不當(dāng)使用,,而抄襲違反了學(xué)術(shù)道德,未經(jīng)授權(quán)使用受版權(quán)保護(hù)的作品則可能違反法律,?!爱吘梗@些人工智能系統(tǒng)是建立在數(shù)百萬(wàn)甚至數(shù)億人的工作之上的,?!泵绹?guó)密歇根大學(xué)計(jì)算機(jī)專(zhuān)家拉達(dá)·米哈爾恰說(shuō)。文章還指出,,盡管存在爭(zhēng)議,,生成式人工智能工具在學(xué)術(shù)寫(xiě)作中的使用量仍在增加。一項(xiàng)研究顯示,,2024年上半年,,至少10%的生物醫(yī)學(xué)論文摘要使用了大語(yǔ)言模型。人工智能工具不僅簡(jiǎn)化了寫(xiě)作過(guò)程,,還能幫助非英語(yǔ)母語(yǔ)的研究人員克服語(yǔ)言障礙,。專(zhuān)家呼吁制定更明確的政策和指導(dǎo),以規(guī)范人工智能工具在學(xué)術(shù)寫(xiě)作中的使用,,確保學(xué)術(shù)誠(chéng)信,。
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1115196.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。