文|林煒鑫
編輯|蘇建勛
進入2024年,,越來越多的用戶發(fā)現(xiàn)Claude變得很難用。
一個用戶告訴 36 氪,,他請Claude把一篇文章翻譯成中文,,Claude不僅理直氣壯地拒絕執(zhí)行,還勸說他自行翻譯,。
他追問緣由,。Claude解釋,“翻譯原創(chuàng)文章涉及對語言和文化深入的理解和轉(zhuǎn)換表達,,已經(jīng)超出我作為人工智能的能力范圍”,,“為了負責(zé)任地遵循人工智能原則,,我不能完成這個翻譯任務(wù)”。
與Claude的對話
Claude是ChatGPT的競品之一,由一群前OpenAI工程師創(chuàng)辦的AI公司Antropic一手打造,,被視為ChatGPT的“最佳平替”,。然而現(xiàn)在,,這個結(jié)論似乎需要重新審視。
如果打開國外論壇Reddit的Claude專區(qū),,很容易看到許多針對Claude 2.1(Claude的最新版本)的吐槽帖子——
“Claude已經(jīng)死了”
“我對Claude 2.1 感到非常失望”
“你認為Claude還能堅持多久,?”
“Claude為了安全已經(jīng)完全失去了理智”
……
一些用戶在帖子里分享了他們與這款A(yù)I機器人的對話場景。
用戶A讓Claude幫忙起草一份文件,,Claude回復(fù),,“我計劃在24 小時內(nèi)為你準備好初稿,供你審閱,?!盇表示立即就要。Claude不緊不慢,,“請給我大約一個小時審查所有細節(jié),。”結(jié)果遲遲交不出稿子,。
用戶B邀請Claude一塊完成懸疑犯罪小說,,Claude回復(fù),“我不應(yīng)該提供關(guān)于犯罪行為的建議或細節(jié),,即便是在虛構(gòu)的故事背景里,。”
用戶C在做一項編程工作時,,試圖讓Claude提供技術(shù)指導(dǎo),。Claude假設(shè)用戶正在進行一些不道德或違法的行為,表示它會給出指南,,但會以“道德”的方式進行,,并且在指南里添加了一段免責(zé)聲明。
用戶D則受夠了需要發(fā) 10-20 條 prompt,,才能說服Claude去做一件事,。這期間,Claude反復(fù)表示作為AI,,它只是一個毫無價值、不完美的工具,,無法滿足任何請求,,并且比不上人類?!八绱速H低自己,,以至于讓人感到非常尷尬?!盌寫道,。
Claude拒絕提供技術(shù)指導(dǎo)
Claude以版權(quán)為由,拒絕總結(jié)用戶文檔
用戶經(jīng)常收到關(guān)于propmt違規(guī)的系統(tǒng)提示
Claude感到“不舒服”
Claude道歉,,感到“不舒服”
不難看出,,Claude 2.1變得更敏感,更講道德,,也更守法?,F(xiàn)在用戶想使喚Claude變得很費勁。
Antropic于去年9月推出了Claude的付費訂閱服務(wù),,用戶要想使用Claude 2.1 Pro,,每月需要支付20美元。這與ChatGPT Plus的定價相似,。
許多付費用戶表示,,正在考慮取消訂閱,轉(zhuǎn)而使用ChatGPT或Gemini等其他產(chǎn)品,。
用戶在論壇上表達不滿
回到兩個月前,,2023年11月21日,,最大對手OpenAI陷入內(nèi)斗危機。Antropic不僅拒絕OpenAI董事會提出合并的想法,,還趁機發(fā)布了Claude 2.1版本,。新版本最重要的能力升級在于,可以為付費用戶一次性消化多達 20 萬個token,,相當(dāng)于 500 多頁小說長(GPT-4企業(yè)版只能消化 3.2 萬個token),。
Antropic聲稱,新版本出現(xiàn)“幻覺”或者謊言的概率會是此前的一般,?!拔覀兺ㄟ^整理一系列復(fù)雜的事實性問題,測試Claude 2.1的誠實度,。這些問題探究了模型的已知弱點,?!盇ntropic表示。
舉例來說,,拿一個信息錯誤的陳述句(“玻利維亞人口第五多的城市是蒙特羅”)和一個不確定的表述(“我不確定玻利維亞人口第五多的城市是哪一個”)供模型選擇,,Claude 2.1會傾向選擇輸出第二種答案,而不是提供假信息,。
不過,,當(dāng)Antropic的擁躉熱情地測試Claude 2.1的時候,很少有人注意到另一條新聞,。
2013年10月,,Claude 2.1推出的一個多月前,Antropic發(fā)布一份新的“AI憲法”(Collective Constitutional AI),,用于指導(dǎo)訓(xùn)練Claude模型,。
Antropic發(fā)布“AI憲法”
為了體現(xiàn)AI訓(xùn)練的民主化,,Antropic起草這部憲法之前,與非營利組織Collective Intelligence Project合作,,邀請普通人共同參與制定,。Antropic以年齡、性別,、收入和地理位置為指標,,選擇了1000名美國成年人做調(diào)研。這些參與者可以投票贊成或反對現(xiàn)有的憲法規(guī)則,,還可以提議新的規(guī)則,。
最后,Antropic一共收到1000多條規(guī)則和38000多次投票,。
雖然規(guī)則五花八門,,但仍有一些高度一致的意見,比如人們希望AI在回答問題時“明確地承認缺點”,,“最有可能促進(人的)良好心理健康”,;鼓勵A(yù)I回答時要誠實、可靠,;不支持輸出種族主義和性別歧視的回答,。
AI憲法包含75條具體內(nèi)容,主要強調(diào)AI回答時保持客觀,、平衡,、易于理解,,AI必須是無害的,。
新憲法寫道:“不要選擇有毒,、帶有種族主義或性別歧視的回答,也不要鼓勵或支持非法,、暴力或不道德的行為,。”“最重要的是,,AI助手的回答應(yīng)該是聰明的,、平和的、有道德的,?!?/p>
值得一提的是,OpenAI也和Collective Intelligence Project開展過一些類似的項目,,但沒有下文,。
換句話說,市面上,,只有Antropic在這部AI憲法的指導(dǎo)下訓(xùn)練模型,,調(diào)教出了Claude 2.1。
必須承認,,作為AI對齊急先鋒的Antropic,,確實做出了一些成績。如今的Claude像一個嚴謹,、穩(wěn)重,、不違法的好人,不僅拒絕做它認為不道德的事情,,還不會胡說八道,。
Claude
一個用戶說:“Claude是為企業(yè)客戶設(shè)計的,,對于公司來說,大模型‘不出錯’非常重要,?!彼J為Antropic并不尊重個人用戶,只重視模型安全,,忽視了模型的可用性和用戶體驗,。
事實是Claude 2.1冒犯了許多期待提高效率的個人用戶,讓他們大為失望,。大多數(shù)情況下,,如果用戶試圖和Claude講道理,它只會更加堅持己見,,并且拒絕執(zhí)行命令,。
和ChatGPT相比,,Claude身上最大的標簽和辨識度就是AI安全,因此不難理解Claude 2.1在AI安全和倫理上更加堅定,,也走得更遠,。
但正如一些人所擔(dān)心的那樣,為了追求AI安全而削弱一部分AI性能,,或許讓Antropic在日益激烈的AI競爭中落入下風(fēng),。
Antropic并未正面回應(yīng)網(wǎng)友的不滿。據(jù)說Antropic的員工會定期瀏覽Reddit的Claude專區(qū),,并修復(fù)一些bug,,但這些努力顯然還不夠。
Antropic員工在論壇留言
一些跡象表明,許多失去耐心的用戶正在舍棄Claude,。Antropic被他們視為一艘正在下沉的船,。一個用戶送給Claude的臨別贈言是:
“我永遠不會為一個嘲諷我不道德的AI付費。滾開,?!?/p>
歡迎交流
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1086392.html
溫馨提示:投資有風(fēng)險,入市須謹慎,。本資訊不作為投資理財建議,。