中新網(wǎng)北京5月25日電 (記者 孫自法)人工智能可否追蹤他人心理狀態(tài)?能力如何,?施普林格·自然旗下專業(yè)學(xué)術(shù)期刊《自然-人類行為》最新一期發(fā)表一篇人工智能研究論文顯示,在測試追蹤他人心理狀態(tài)能力(也稱心智理論,,Theory of Mind)的任務(wù)中,,兩類人工智能大語言模型(LLM)在特定情況下的表現(xiàn)與人類相似,甚至更好,。該論文介紹,,心智理論對人類社交互動(dòng)十分重要,是人類溝通交流和產(chǎn)生共鳴的關(guān)鍵,。之前的研究表明,,大語言模型這類人工智能可以解決復(fù)雜的認(rèn)知任務(wù),如多選決策,。不過,,人們一直不清楚大語言模型在被認(rèn)為是人類獨(dú)有能力的心智理論任務(wù)中的表現(xiàn)是否也能比肩人類。在本項(xiàng)研究中,,論文第一作者和共同通訊作者,、德國漢堡-埃彭多夫大學(xué)醫(yī)學(xué)中心 James W. A. Strachan與同事及合作者一起,選擇能測試心理理論不同方面的任務(wù),,包括發(fā)現(xiàn)錯(cuò)誤想法,、理解間接言語以及識別失禮。他們隨后比較了1907人與兩個(gè)熱門大語言模型家族(GPT和LLaMA2模型)完成任務(wù)的能力,。他們發(fā)現(xiàn),,GPT模型在識別間接要求、錯(cuò)誤想法和誤導(dǎo)的表現(xiàn)能達(dá)到有時(shí)甚至超越人類平均水平,,而LLaMA2的表現(xiàn)遜于人類水平,;在識別失禮方面,LLaMA2強(qiáng)于人類但GPT表現(xiàn)不佳,。論文作者指出,,LLaMA2的成功被證明是因?yàn)榛卮鸬钠姵潭容^低而不是因?yàn)檎娴膶κФY敏感,而GPT看起來的失利其實(shí)是因?yàn)閷?jiān)持結(jié)論的超保守態(tài)度而不是因?yàn)橥评礤e(cuò)誤,。論文作者提醒說,,人工智能大語言模型在心智理論任務(wù)上的表現(xiàn)堪比人類不等于它們具有人類般的能力,也不意味著它們能掌握心智理論。他們總結(jié)表示,,這項(xiàng)研究進(jìn)展是未來研究的重要基礎(chǔ),,建議后續(xù)進(jìn)一步研究大語言模型在心理推斷上的表現(xiàn)會如何影響個(gè)體在人機(jī)交互中的認(rèn)知。(完)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1104484.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。