文/Rashi Shrivastava
這位微軟聯(lián)合創(chuàng)始人在他的博客GatesNotes上寫道,讓人工智能模型對自己的偏見和事實(shí)錯(cuò)誤更有“自知之明”和“自覺”,,可能會防止它們在未來產(chǎn)生更多的虛假信息,。
比爾·蓋茨在他最新的博客文章中提出,,人工智能可以用來解決人工智能造成的問題,。圖片來源:GETTY IMAGES
生成式人工智能工具已經(jīng)到來,它們被濫用的可能性也無窮無盡,。它們可以在選舉期間捏造虛假信息,,也經(jīng)常編造有偏見和錯(cuò)誤的信息。另外,,此外,,它們還能讓學(xué)校里的作文作弊變得極其容易。
今年早些時(shí)候,,億萬富豪比爾·蓋茨在接受《福布斯》采訪時(shí)表示,,他認(rèn)為向人工智能的轉(zhuǎn)變“與PC一樣重要”,他對所有這些挑戰(zhàn)都感到擔(dān)憂,。但正如他在最近的一篇博客文章中所闡述的那樣,,他認(rèn)為人工智能可以被用來解決它所造成的問題。
大型語言模型最著名的問題之一是它們傾向于產(chǎn)生“幻覺”或事實(shí)上不正確,、有偏見或有害的信息,。這是因?yàn)檫@些模型是根據(jù)從互聯(lián)網(wǎng)上收集的大量數(shù)據(jù)進(jìn)行訓(xùn)練的,而互聯(lián)網(wǎng)上充斥著偏見和錯(cuò)誤信息,。但蓋茨認(rèn)為,,有可能開發(fā)出一種人工智能工具,讓它們意識到自己在接受訓(xùn)練時(shí)使用了錯(cuò)誤的數(shù)據(jù)和做出了有偏見的假設(shè),。
他寫道:“人工智能模型繼承了它們接受訓(xùn)練的文本中所包含的偏見,。我樂觀地認(rèn)為,隨著時(shí)間的推移,,人工智能模型可以學(xué)會區(qū)分事實(shí)和虛構(gòu),。一種方法是將人類價(jià)值觀和更高層次的推理融入人工智能,?!?/p>
在這方面,,他著重提到了ChatGPT的創(chuàng)造者OpenAI試圖通過人類的反饋使他們的模型更準(zhǔn)確、更有代表性和更安全,。但是,,即使在對其大型語言模型GPT-4的高級版本進(jìn)行訓(xùn)練之后,這個(gè)飽受關(guān)注的聊天機(jī)器人仍然充滿了偏見和不準(zhǔn)確性,。人工智能研究人員發(fā)現(xiàn),,ChatGPT強(qiáng)化了對女性和男性工作的性別刻板印象。(較新的聊天機(jī)器人,,如Anthropic的ChatGPT競爭對手Claude 2.0,,也在努力提高對話內(nèi)容的準(zhǔn)確性和減少有害內(nèi)容,但它們還沒有得到用戶的廣泛測試,。)
蓋茨有理由贊揚(yáng)ChatGPT:他的公司微軟已經(jīng)向OpenAI投資了數(shù)十億美元,。今年4月底,在微軟的財(cái)報(bào)電話會議上提到人工智能超過50次后,,蓋茨的財(cái)富增加了20億美元,。他目前的身家約為1,180億美元。
蓋茨在博客中討論的一個(gè)例子是,,黑客和網(wǎng)絡(luò)犯罪分子會使用生成式人工智能工具編寫代碼或創(chuàng)建人工智能生成的聲音來進(jìn)行電話詐騙,。這些工具的失控影響導(dǎo)致一些人工智能領(lǐng)域的領(lǐng)導(dǎo)者和專家,包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak),、特斯拉,、SpaceX和Twitter首席執(zhí)行官埃隆·馬斯克(Elon Musk),以及人類技術(shù)中心(Center for Human Technology)聯(lián)合創(chuàng)始人特里斯坦·哈里斯(Tristan Harris)在3月底發(fā)表的一封公開信中呼吁暫停部署強(qiáng)大的人工智能工具,。蓋茨反駁了這封信,,并強(qiáng)調(diào)他不認(rèn)為暫停開發(fā)會解決任何挑戰(zhàn)。他寫道:“我們不應(yīng)該像一些人提議的那樣,,試圖暫時(shí)阻止人們實(shí)施人工智能的新發(fā)展,。”
相反,,他表示,,這些后果為繼續(xù)開發(fā)先進(jìn)的人工智能工具和監(jiān)管提供了進(jìn)一步的理由,以便讓政府和企業(yè)能夠發(fā)現(xiàn),、限制和打擊濫用人工智能的行為,。“網(wǎng)絡(luò)犯罪分子不會停止制造新工具……阻止他們的努力需要我們以同樣的速度繼續(xù)開發(fā)下去,?!彼麑懙馈?/p>
但是,蓋茨聲稱人工智能工具可以用來彌補(bǔ)其他人工智能工具的不足,,這在實(shí)際層面可能站不住腳——至少現(xiàn)在還如此,。例如,雖然市面上推出了一系列人工智能探測器和深度造假探測器,,但并非所有探測器都能正確標(biāo)記出合成或被操縱的內(nèi)容,。據(jù)《紐約時(shí)報(bào)》報(bào)道,一些探測器會錯(cuò)誤地將真實(shí)圖像描述為人工智能生成的,。但是,,蓋茨表示,生成式人工智能仍然是一項(xiàng)新興技術(shù),,需要政府機(jī)構(gòu)和公司對其進(jìn)行監(jiān)控和監(jiān)管,,以控制其對社會的意外影響。
“我們現(xiàn)在正處于……人工智能時(shí)代,。這類似于一個(gè)限速和安全帶出現(xiàn)之前的不確定時(shí)代,。”蓋茨寫道,。
本文譯自https://www.forbes.com/sites/rashishrivastava/2023/07/12/why-bill-gates-isnt-worried-about-ai-models-making-stuff-up/?sh=4c8215cb40e7#open-web-0
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1058134.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。