中新網(wǎng)北京5月25日電 (記者 孫自法)人工智能可否追蹤他人心理狀態(tài),?能力如何,?施普林格·自然旗下專業(yè)學術(shù)期刊《自然-人類行為》最新一期發(fā)表一篇人工智能研究論文顯示,,在測試追蹤他人心理狀態(tài)能力(也稱心智理論,,Theory of Mind)的任務(wù)中,兩類人工智能大語言模型(LLM)在特定情況下的表現(xiàn)與人類相似,,甚至更好,。該論文介紹,心智理論對人類社交互動十分重要,,是人類溝通交流和產(chǎn)生共鳴的關(guān)鍵,。之前的研究表明,,大語言模型這類人工智能可以解決復雜的認知任務(wù),如多選決策,。不過,,人們一直不清楚大語言模型在被認為是人類獨有能力的心智理論任務(wù)中的表現(xiàn)是否也能比肩人類,。在本項研究中,,論文第一作者和共同通訊作者,、德國漢堡-埃彭多夫大學醫(yī)學中心 James W. A. Strachan與同事及合作者一起,選擇能測試心理理論不同方面的任務(wù),,包括發(fā)現(xiàn)錯誤想法,、理解間接言語以及識別失禮,。他們隨后比較了1907人與兩個熱門大語言模型家族(GPT和LLaMA2模型)完成任務(wù)的能力,。他們發(fā)現(xiàn),GPT模型在識別間接要求,、錯誤想法和誤導的表現(xiàn)能達到有時甚至超越人類平均水平,而LLaMA2的表現(xiàn)遜于人類水平,;在識別失禮方面,LLaMA2強于人類但GPT表現(xiàn)不佳,。論文作者指出,,LLaMA2的成功被證明是因為回答的偏見程度較低而不是因為真的對失禮敏感,而GPT看起來的失利其實是因為對堅持結(jié)論的超保守態(tài)度而不是因為推理錯誤,。論文作者提醒說,,人工智能大語言模型在心智理論任務(wù)上的表現(xiàn)堪比人類不等于它們具有人類般的能力,也不意味著它們能掌握心智理論,。他們總結(jié)表示,,這項研究進展是未來研究的重要基礎(chǔ),建議后續(xù)進一步研究大語言模型在心理推斷上的表現(xiàn)會如何影響個體在人機交互中的認知,。(完)
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1104484.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。