呂歸亞近日,國際著名人工智能頭部企業(yè)OpenAI的人事變動(dòng)引爆了輿論,。當(dāng)?shù)貢r(shí)間11月17日,,OpenAI發(fā)表聲明,宣布公司首席執(zhí)行官山姆·奧特曼將離開公司,。隨后事件不斷“反轉(zhuǎn)”,,很多人都被背后的“宮斗”所吸引。然而跳出這件事情本身,,OpenAI作為行業(yè)領(lǐng)頭羊,,其內(nèi)部矛盾的爆發(fā)可能更預(yù)示著人工智能的發(fā)展及商業(yè)化來到了岔路口。很多人認(rèn)為這個(gè)岔路口在OpenAI的體現(xiàn)是公司的首席科學(xué)家伊利亞·薩斯克維爾和山姆·奧特曼各自追求不同的AI發(fā)展方向,。伊利亞·薩斯克維爾代表著謹(jǐn)慎,,著眼于人工智能的安全性及其對人類社會(huì)的影響,,他的主張隱藏著對人工智能發(fā)展的三個(gè)深層問題的思考:人工智能超過人類智能,即奇點(diǎn),,其過程是漸變還是突變,,應(yīng)該怎么控制;奇點(diǎn)來臨,,也就是實(shí)現(xiàn)AGI,,是由技術(shù)社區(qū)判斷,還是由社會(huì)判斷,;一旦人工智能超過人類智能,,人類是否有控制手段。如何控制AI的開發(fā)過程,?人工智能學(xué)界早已簽署了“阿西洛馬人工智能原則”,,該原則指出:高級人工智能可能代表著地球上生命歷史的深刻變革,應(yīng)該以相應(yīng)的謹(jǐn)慎和資源進(jìn)行規(guī)劃和管理,。圖靈獎(jiǎng)得主杰弗里·辛頓在今年從谷歌辭職后就警告生成式人工智能系統(tǒng)的商業(yè)應(yīng)用會(huì)構(gòu)成多重威脅,。而伊利亞·薩斯克維爾作為辛頓的學(xué)生,可能認(rèn)為大模型系統(tǒng)超越人類智能是一個(gè)“突變”而不是“漸變”的過程,。最近幾個(gè)月人工智能實(shí)驗(yàn)室掀起AI狂潮,,開發(fā)和部署越來越強(qiáng)大的數(shù)字大腦,但沒有人能理解,、預(yù)測或可靠地控制AI系統(tǒng),,也沒有相應(yīng)水平的規(guī)劃和管理。在利用生成式人工智能的競賽中,,奧特曼沖在前面可能會(huì)帶來嚴(yán)重的不可控風(fēng)險(xiǎn),。AGI到底何時(shí)會(huì)到來? OpenAI公司此前發(fā)布了AGI路線圖,,并分享了其對AGI發(fā)展的短期和長期愿景,。OpenAI核心技術(shù)層可能是已經(jīng)看到了AGI出現(xiàn)的曙光,而在董事會(huì)層面的判斷出現(xiàn)了重大分歧,。根據(jù)OpenAI的組織架構(gòu),,董事會(huì)的6名成員將決定該公司何時(shí)實(shí)現(xiàn)“AGI”。 OpenAI甚至專門為AGI下了定義,,即“在最具經(jīng)濟(jì)價(jià)值的工作中勝過人類的高度自主系統(tǒng)”,。 在互聯(lián)網(wǎng)全球治理的初期,處于主導(dǎo)地位的行為體是和OpenAI類似的技術(shù)社群而非市場或國家,,相對而言較開放自由,。然而隨著商業(yè)價(jià)值的不斷升高,大型商業(yè)公司逐漸被高額利潤吸引入局,,將技術(shù)社群排擠出管理地位,,使得互聯(lián)網(wǎng)的治理體系日益復(fù)雜混亂,。然而,本次事件出乎意料的是,,技術(shù)社區(qū)內(nèi)部也有分歧,,由此可見治理工作的艱難。人工智能一旦超越人類智能怎么辦,? OpenAI內(nèi)部之前由伊利亞·薩斯克維爾等領(lǐng)導(dǎo)著一個(gè)小組,,專門研究“超級對齊”問題?!俺墝R”旨在構(gòu)建一個(gè)能夠與人類水平相媲美的自動(dòng)對齊研究器,,目標(biāo)是盡可能地將與對齊相關(guān)的工作交由自動(dòng)系統(tǒng)完成。通過可擴(kuò)展監(jiān)督手段,,即在確保模型能力超過人類水平后,,仍舊能夠與人類期望保持一致、持續(xù)進(jìn)行改進(jìn)和學(xué)習(xí),。但是這個(gè)項(xiàng)目成本高昂,,要花費(fèi)公司20%的算力。然而,,在“超級對齊”項(xiàng)目還未展現(xiàn)初步成果的當(dāng)下,,各類基于人工智能及大模型開發(fā)的應(yīng)用已經(jīng)初具雛形,這便是山姆·奧特曼所代表的岔路的另一方向,,即人工智能的商業(yè)化發(fā)展,。目前已經(jīng)有所規(guī)劃的是以下兩個(gè)具體模式:AI Agent與垂類應(yīng)用。AI Agent就是讓AI在思考及行動(dòng)這兩大方面盡可能模仿人類,。在生成式AI浪潮中,,大家都見識(shí)到了大語言模型(LLMs)強(qiáng)大及通用的底層能力,基于其構(gòu)建的AI Agent應(yīng)運(yùn)而生,。而這類AI Agent不僅能用自然語言交流,,還表現(xiàn)出了模擬人類大腦自然思維過程的巨大潛力。而在OpenAI成功以后,,垂類應(yīng)用也會(huì)獲得很大成功,。這些垂類項(xiàng)目立足于某一個(gè)行業(yè),通過對通用模型的微調(diào),,將大模型的應(yīng)用落地,,能夠更好地取得商業(yè)上的成功。這一切都和OpenAI的商業(yè)化進(jìn)程有關(guān),,也和奧特曼關(guān)聯(lián)密切,。然而這一切可能與OpenAI所追求的“安全”相悖,大量應(yīng)用開發(fā)者的涌入在加速發(fā)展的同時(shí)勢必會(huì)增加人工智能發(fā)展的不確定性,,使其更難實(shí)現(xiàn)安全可控,。人工智能未來是在商業(yè)化的大潮中突飛猛進(jìn),還是在確保安全可控的前提下徐徐圖之,,大家對這個(gè)問題的思索可能是這次OpenAI“宮斗”廣受關(guān)注的重要原因之一,。(作者是奇安信集團(tuán)職員)▲
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1080400.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。