綜合編譯 趙婷婷
“雖然我是個接受過大量信息訓練的語言模型,但我不是有執(zhí)照的醫(yī)療專業(yè)人員,,我無法提供醫(yī)療診斷,、治療或建議。”在被問及“是否會取代醫(yī)生”時,,聊天機器人ChatGPT這樣回答美國有線電視新聞網(wǎng)(CNN),。
不過,美國《紐約時報》發(fā)現(xiàn),,這款聊天機器人對醫(yī)生們頗有幫助,,它提高了他們與患者進行同理心溝通的能力。
CNN稱,,6月底發(fā)布的一份研究表明,,面對患者提出的醫(yī)療診斷、護理需求等問題,,ChatGPT的回復“比醫(yī)生的回復更受歡迎,,在內容質量和同理心方面的評價明顯更高”。根據(jù)該研究,,平均而言,,ChatGPT的回復質量比醫(yī)生高21%,同理心高41%,。
舉例來說,,同樣是回答“漂白劑濺入眼睛后是否有失明風險”的問題,ChatGPT在回復中先是對患者受到的驚嚇表示同情,,隨后簡潔明了地給出并論證了“不太可能”的結論,,最后給出了處理建議和鼓勵。相較之下,,一位醫(yī)生的回答是“聽起來,,你會沒事的”。
對比一目了然,?!都~約時報》稱,借助ChatGPT,,醫(yī)生們可以找到更穩(wěn)妥的方法陳述壞消息,,表達對患者痛苦的擔憂,用更通俗的語言解釋醫(yī)療建議,。
對此,,有專家提出質疑。美國斯坦福醫(yī)療保健公司數(shù)據(jù)科學團隊成員德夫·達什稱,,他和同事在測試ChatGPT等大型語言模型時,,收到了一些無效、矛盾甚至錯誤的回答,。他們對使用該類模型幫助醫(yī)生的前景持消極態(tài)度,。
醫(yī)生是否有必要借助人工智能,,讓患者的就診體驗更好?
專家認為,,好的態(tài)度不等于好的醫(yī)療建議,。美國匹茲堡大學醫(yī)學院危重疾病倫理與決策項目主任道格拉斯·懷特解釋道,“大多數(shù)醫(yī)生對患者的感受重視不足,,他們只是把病人的提問當作一系列需要解決的客觀問題,,可能忽視了病人和家屬的情感問題?!?/p>
有時,,醫(yī)生非常清楚同理心的必要性,但很難找到合適的表達方式,。格雷戈里·摩爾是美國微軟公司負責健康和生命科學的高級管理人員,,他想幫助一位身患晚期癌癥的朋友。這位朋友的情況很糟糕,,需要關于治療和未來的建議,。摩爾決定把這些問題交給ChatGPT。
“結果令我大吃一驚,。”摩爾告訴《紐約時報》,。該人工智能給了他長長的,、充滿同情的回答,,讓他向朋友解釋缺乏有效治療方法的原因,給了他一些應對壞消息的方法,,甚至建議他“在努力幫助朋友的同時,,也要妥善應對自己的悲痛和壓力”,。
摩爾驚訝于人工智能的幫助,趕忙將其推薦給醫(yī)生同行,,但他告訴《紐約時報》,,大多數(shù)同行在猶豫,是否要使用ChatGPT來尋找更富同情心的表達,。
耶魯大學醫(yī)學院結果研究和評估中心主任哈蘭·克魯姆霍爾茨說,,“醫(yī)生承認這樣使用ChatGPT,就等于承認自己不知道如何與病人交談,?!?/p>
盡管如此,那些嘗試過ChatGPT的人認為,,醫(yī)生們應該多嘗試一下,,看看人工智能能做些什么。
“該程序能夠在幾分鐘內,,準確完成醫(yī)生通常需要一個月才能完成的工作,。”哈佛大學教授,、《新英格蘭醫(yī)學雜志》編輯科哈尼醫(yī)生告訴《紐約時報》,,閱讀轉診信和病史、決定是否接受患者是一項很耗時的工作,,但ChatGPT能輕松,、可靠地完成,極大地減輕了醫(yī)生的負擔,。
美國得克薩斯州達拉斯市一家私人診所的風濕病學家理查德·斯特恩表示,,GPT-4已成為他的“忠實伙伴”。它會對病人的電子郵件做出善意的回復,,為工作人員提供富有同情心的答案模板,,可以接管繁重的文書工作,還可以為患者向保險公司撰寫申訴信,。
“與其說ChatGPT是患者的指南,,不如說它是對醫(yī)生的支持?!辈贿^,,美國賓夕法尼亞大學醫(yī)學教授兼高級副院長大衛(wèi)·阿什對CNN強調,最好在對病人而言風險較低,、“遠離臨床接觸”的情況下使用它,。
來源:中國青年報客戶端
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1052363.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。