生成式人工智能“顧名思義”就是用來生成創(chuàng)作內(nèi)容的,,所以作為內(nèi)容領(lǐng)域定分止爭的版權(quán)法一直為各界高度關(guān)注,。目前,關(guān)于生成式人工智能版權(quán)議題的討論也愈發(fā)聚焦,主要涉及三個方面:第一,,大模型訓練對于作品的利用,,是否適用版權(quán)法上“合理使用”等限制與例外制度;第二,,利用大模型生成的內(nèi)容,,能否受到版權(quán)保護;第三,,大模型輸出內(nèi)容發(fā)生侵權(quán)的情形下,,服務(wù)提供者的責任承擔和注意義務(wù)的界定。本文希望基于國內(nèi)外相關(guān)立法規(guī)則和司法實踐的最新動態(tài),,并結(jié)合當下生成式人工智能產(chǎn)業(yè)與技術(shù)的發(fā)展現(xiàn)狀,,就上述三個議題涉及的爭議關(guān)注焦點和應(yīng)對解決思路加以分析、探討,。
第一,,探討前提。
根據(jù)法律的基本邏輯,,責任豁免的探討應(yīng)當建立在侵權(quán)認定的基礎(chǔ)之上。但當下各界關(guān)于大模型訓練能否受到版權(quán)法上“合理使用”等制度豁免的論證討論,,往往容易忽視了一個前提基礎(chǔ),,即實踐中模型訓練過程到底涉及哪些對于作品的利用行為。而這些作品利用行為能否落入到現(xiàn)行版權(quán)法賦予版權(quán)人的專有權(quán)利規(guī)制范疇,。從技術(shù)層面來看,,大模型訓練主要涉及作品獲取、作品存儲和作品學習三個階段,。對于這三個階段的作品利用行為是否受到版權(quán)法規(guī)制,,目前各界遠未形成共識。
作品獲取階段,,法律層面判斷的核心在于模型訓練廠商在搜集獲取語料內(nèi)容的過程中是否存在版權(quán)法上破壞“技術(shù)保護措施”和刪除“權(quán)利管理信息”等違法行為,。作品存儲階段,主要涉及是否存在侵害他人作品“復(fù)制權(quán)”的行為,,但也有觀點指出這一復(fù)制行為屬于“中間復(fù)制”(是后續(xù)作品學習行為的前置環(huán)節(jié))和“非公開復(fù)制”,,并不受到版權(quán)法規(guī)制。而作品學習階段,,是否受到版權(quán)法規(guī)制更是存在很大爭議,。簡單來說,在大模型出現(xiàn)之前,,人類學習他人作品進行再創(chuàng)作并不當然被視為一種侵權(quán)行為,。只是當下大模型對于人類在先作品學習利用的效率更高、商業(yè)化程度更明顯,,故而受到基于上下游利益失衡擔憂帶來的質(zhì)疑,。
第二,競爭環(huán)境,。
模型訓練階段相關(guān)版權(quán)規(guī)則的設(shè)計,,還涉及國際層面產(chǎn)業(yè)競爭制度環(huán)境的問題,。因為模型訓練動輒涉及千億級、萬億級的參數(shù)語料訓練,,如果一個國家規(guī)定模型訓練必須事前完全獲得每一個語料作品的授權(quán),,而另一個國家則予以完全責任豁免,則分屬兩國的大模型廠商的發(fā)展環(huán)境便會存在截然不同的差異,。
很多國家和地區(qū)其實都已經(jīng)認識到了這個問題,。例如,2024 年 3 月 13 日,,歐洲議會批準的《人工智能法案》(最新文本)便強調(diào)需要確保通用AI模型服務(wù)商之間的公平競爭環(huán)境,。其第60j條規(guī)定,無論支撐通用AI模型訓練的版權(quán)利用行為發(fā)生在哪個司法管轄區(qū),,任何在歐盟市場上提供通用AI模型的服務(wù)商都應(yīng)遵守歐盟版權(quán)法關(guān)于“文本與數(shù)據(jù)挖掘”情形設(shè)置的相關(guān)義務(wù),,任何服務(wù)商都不應(yīng)通過適用低于歐盟版權(quán)標準而在歐盟市場上獲得競爭優(yōu)勢。
第三,,現(xiàn)行立法,。
應(yīng)當說我國現(xiàn)行《著作權(quán)法》第四節(jié)“權(quán)利的限制”項下第24條關(guān)于“合理使用”的規(guī)定以及第25條關(guān)于“法定許可”的規(guī)定都無法精確涵蓋大模型訓練這一問題。雖然目前立法層面對這一問題無明確規(guī)定,,但司法層面是存在相關(guān)規(guī)則適用接口的,。2011年12月20日,最高人民法院發(fā)布的《關(guān)于充分發(fā)揮知識產(chǎn)權(quán)審判職能作用推動社會主義文化大發(fā)展大繁榮和促進經(jīng)濟自主協(xié)調(diào)發(fā)展若干問題的意見》第8條規(guī)定“在促進技術(shù)創(chuàng)新和商業(yè)發(fā)展確有必要的特殊情形下,,考慮作品使用行為的性質(zhì)和目的,、被使用作品的性質(zhì)、被使用部分的數(shù)量和質(zhì)量,、使用對作品潛在市場或價值的影響等因素,,如果該使用行為既不與作品的正常使用相沖突,也不至于不合理地損害作者的正當利益,,可以認定為合理使用,。”一定程度表明,,類似于美國版權(quán)法中的合理使用“四要素分析法”,,在我國存在適用可能性。
也觀察到,,在美國司法實踐中已經(jīng)存在傾向認定大模型訓練符合“合理使用四要素分析法”的裁定,。2023年9月25日,美國特拉華州地方法院就“湯森路透訴Ross”人工智能版權(quán)侵權(quán)案,,做出了針對簡易判決動議的駁回裁定,。法院傾向于支持復(fù)制、利用版權(quán)作品用于訓練AIGC模型構(gòu)成合理使用(符合“轉(zhuǎn)換性使用”中的“中間復(fù)制”標準),前提是如果相關(guān)模型僅是學習在先作品中自然語言內(nèi)含的模式,、相關(guān)性等,,然后根據(jù)用戶提問,輸出不同于被訓練語料作品的新內(nèi)容,。但如果只是將原作品復(fù)制存儲進人工智能模型,,然后以類似檢索工具的方式,根據(jù)用戶提問輸出與原作品相同的內(nèi)容,,則無法構(gòu)成合理使用,。
第四,未來方向,。
生成式人工智能大模型訓練階段的版權(quán)責任豁免問題,,涉及版權(quán)保護、激勵創(chuàng)作以及技術(shù)創(chuàng)新,、產(chǎn)業(yè)發(fā)展等多重價值目標,,無疑需要更加平衡和科學的制度設(shè)計。如果從大模型領(lǐng)域的國際競爭環(huán)境出發(fā),,基于促進國內(nèi)生成式人工智能產(chǎn)業(yè)和技術(shù)發(fā)展,,豁免模型訓練階段的版權(quán)責任,也需要審慎思考和科學論證是否以及如何設(shè)計搭建具有實操性的版權(quán)人“退出,、保護機制”。值得關(guān)注,,目前針對“模型訓練”存在成文法規(guī)定的國家和地區(qū),,在原則上豁免模型訓練廠商事前需獲得作品利用授權(quán)的基礎(chǔ)上,也都通過“例外的例外”給予了作品權(quán)利人一定的權(quán)利保護和訓練退出機制,。
2024 年 3 月 13 日,,歐洲議會批準的《人工智能法案》(最新版本)關(guān)于模型訓練版權(quán)責任的要求,實際上轉(zhuǎn)致到2018年9月12日通過的《單一數(shù)字市場版權(quán)指令》關(guān)于“文本和數(shù)據(jù)挖掘”的規(guī)定,。其一,,模型訓練版權(quán)責任豁免的前提是大模型廠商需要合法獲取作品;其二,,商業(yè)目的模型訓練,,版權(quán)人享有通過適當方式(至少包括機器可讀的方式)事先保留這一權(quán)利;其三,模型廠商需要制定相應(yīng)的規(guī)則,,識別和尊重商業(yè)目的下版權(quán)人保留自身作品被模型訓練的權(quán)利選擇,。2024年3月,谷歌便因為在訓練Gemini產(chǎn)品時違反上述相關(guān)要求,,而被法國競爭管理局處以2.5億歐元的罰款,。
日本2018年修訂《著作權(quán)法》提出“非欣賞性利用”條款。該條款雖然不區(qū)分商業(yè)和非商業(yè)情形,,完全豁免了人工智能深度學習(也即模型訓練)問題,,卻也規(guī)定了“但書條款”——即不得對版權(quán)人利益造成不當損害,。日本文化審議會著作權(quán)分科會的相關(guān)解讀表示,如果版權(quán)人采取了技術(shù)保護措施防止自身作品被用于人工智能學習,,則規(guī)避技術(shù)措施進行模型訓練的行為就落入“但書”的范疇,。
第一,,爭議聚焦,。
關(guān)于人類利用人工智能大模型工具創(chuàng)作內(nèi)容能否構(gòu)成作品、受到版權(quán)法保護的問題,,各界的討論由來已久,。觀察下來,一個很大的誤區(qū)在于有時各方并沒有清晰地界定好討論的前提,,將AI自動生成和AI輔助創(chuàng)作下的內(nèi)容版權(quán)屬性判定混在一起,。但目前實踐中,該問題的核心爭議其實并不存在于法律層面,,而是存在于事實認定層面,。
無論是中國還是美國以及國內(nèi)各界,應(yīng)當說在法律層面對于版權(quán)作品的認定標準并沒有太大爭議,,都認為作品需要體現(xiàn)自然人的獨創(chuàng)性貢獻,。也即構(gòu)成版權(quán)法下保護的作品,只能是AI輔助人類創(chuàng)作的內(nèi)容,,而非完全由AI自動生成的內(nèi)容,。當然,在英國,、愛爾蘭,、南非、烏克蘭(鄰接權(quán)模式)等國家現(xiàn)行版權(quán)法中存在“計算機作品”的規(guī)定,,可以對純AI自動生成的內(nèi)容加以保護,。只要該內(nèi)容經(jīng)由自然人做出必要的選擇安排便可以,無需獨創(chuàng)性層面的貢獻,。但目前來看,,畢竟僅是全球立法例中的少數(shù)情形。
當下階段,,大模型生成內(nèi)容可版權(quán)性問題的關(guān)鍵,,實際存在于事實認定層面。即在現(xiàn)有生成式人工智能技術(shù)原理背景下,,人類利用大模型生成內(nèi)容的過程中能不能體現(xiàn)自身的獨創(chuàng)性貢獻,。具體來講是,當使用者利用大模型通過提示詞構(gòu)思、模型數(shù)值設(shè)定以及對生成物的多輪選擇和提示詞修改等行為生成了內(nèi)容,,那么在這一系列行為中,,使用者是否具有獨創(chuàng)性層面的控制力和可預(yù)見性,這是判定相關(guān)內(nèi)容能否受到版權(quán)作品保護的核心,。目前來看,,越來越多的域內(nèi)外案例實踐也都聚焦于事實層面的認定論證。
第二,,案例實踐,。
2023年11月27日,北京互聯(lián)網(wǎng)法院對國內(nèi)首例“AI文生圖”案做出判決,,明確表示涉案AIGC產(chǎn)品本質(zhì)是使用者的輔助創(chuàng)作工具,,從“構(gòu)思涉案圖片”(設(shè)計人物呈現(xiàn)方式、選擇提示詞,、安排提示詞順序,、設(shè)置相關(guān)參數(shù))到“最終選定涉案圖片”(根據(jù)初步圖片,增加提示詞,、調(diào)整參數(shù),,多輪最終選擇),能夠體現(xiàn)使用者的獨創(chuàng)性貢獻,。因而涉案圖片構(gòu)成受版權(quán)法保護的作品,。
此前2023年1月16日,意大利最高法院在“The scent of the night案”中表示,,在圖像生成過程中使用軟件,,這一事實本身并不足以排除作品創(chuàng)作屬性,而是需要更嚴格地去判斷是否存在一定程度的獨創(chuàng)性。需要法院去評估對工具的使用是否以及在多大程度上反映了使用者的獨創(chuàng)性貢獻,。
2023年10月11日,,捷克布拉格法院在“S.?.訴TAUBEL LEGAL案”中也表示,,提示詞的設(shè)計者是否可以被作為圖像作者,,需要視具體情況而定:如果輸入的提示詞是作者獨特的創(chuàng)作行為,對生成的圖像有很大程度的貢獻,,那么在這種情況下,,設(shè)計出提示詞的人因此可以被視為該圖像的作者,滿足版權(quán)法規(guī)定的主體要件,。
而美國版權(quán)局在2023年3月16日發(fā)布的《版權(quán)登記指南:包括人工智能生成材料的作品》,,及目前決定的四起AIGC注冊案件:2022年2月14日“最近的天堂入口”案;2023年2月21日“黎明的扎里亞”案,;2023年9月5日“太空歌劇院”案,;2023年12月11日“SURYAST”案,均拒絕授予利用大模型生成的內(nèi)容以版權(quán)保護。美國版權(quán)局認為,,不論創(chuàng)建的提示詞多復(fù)雜,,也不論經(jīng)過多少輪提示詞修改,使用者在利用大模型生成內(nèi)容的過程中都無法體現(xiàn)自身的創(chuàng)作貢獻,。這明顯也是一個事實判定問題而非法律標準問題,。從2024 年 4 月 10 日,美國眾議院司法委員會“人工智能與知識產(chǎn)權(quán)”最新聽證會內(nèi)容來看,,各界已經(jīng)明顯體現(xiàn)出對美國版權(quán)局一概拒絕給予利用大模型生成內(nèi)容以版權(quán)保護,,對創(chuàng)新激勵機制可能帶來的負面影響的擔憂。
第三,,制度思考,。
關(guān)于人工智能生成內(nèi)容能否受到作品保護,目前可以從以下幾個層面加以關(guān)注探討,。
從技術(shù)層面來看,,生成式人工智能在當下發(fā)展階段仍然僅是人類的輔助性創(chuàng)作工具,遠沒有達到突破“主客體,、人物二分”的技術(shù)臨界點,。因此,對于人類利用生成式人工智能大模型創(chuàng)作的內(nèi)容加以必要保護,,可以實現(xiàn)版權(quán)法上“激勵自然人創(chuàng)作”的內(nèi)在制度目標,。
從產(chǎn)業(yè)層面來看,有恒產(chǎn)者才會有恒心,,不對人類利用大模型生成的內(nèi)容加以版權(quán)法層面的妥當保護,,可能會產(chǎn)生一系列負面問題:不僅可能會影響生成內(nèi)容IP的后續(xù)授權(quán)和維權(quán)穩(wěn)定性;也存在經(jīng)由下游大模型使用動力的削減,,進而反向影響上游大模型產(chǎn)研發(fā)投入的動力,。
從制度層面來看,目前AI生成和非AI生成的內(nèi)容,,只是人類利用了不同的創(chuàng)作工具,,而在生成內(nèi)容的外在表現(xiàn)形式層面并無本質(zhì)差異。因此,,在法律層面無需過于激進的制度回應(yīng),,現(xiàn)行版權(quán)法能夠?qū)@一問題加以涵攝回應(yīng)。不論是創(chuàng)設(shè)新的作品類型還是新的鄰接權(quán)客體類型,,都可能引發(fā)與既有作品類型外觀重合的問題,。退一步來講,即使借鑒英國的“計算機生成作品”模式,,對人工智能生成內(nèi)容設(shè)置權(quán)利范疇和保護期限的特殊限制,,也存在誘導(dǎo)使用者隱瞞AI生成的反向制度激勵問題,,進而導(dǎo)致在實踐中制度難以落地的風險。值得關(guān)注的是,,自英國1988年創(chuàng)立計算機作品以來,,僅衡平法院在2006年1月20日做出一例游戲畫面被認定為計算機作品的相關(guān)判決,但已經(jīng)不具備現(xiàn)實參考價值,。
第一,尊重自治,。
根據(jù)“權(quán)利之所在,,責任之所在”的基本原則,哪一方主體享有利用人工智能生成內(nèi)容的相關(guān)權(quán)利,,哪方主體便需要承擔對應(yīng)內(nèi)容可能引發(fā)的版權(quán)直接侵權(quán)責任,。從目前各國產(chǎn)業(yè)實踐來看,大多數(shù)AIGC平臺都會通過“用戶協(xié)議”的方式約定生成內(nèi)容歸使用者所有,,并由使用者對生成內(nèi)容的后續(xù)傳播利用承擔相應(yīng)的責任,。
當然,不同的平臺也會從自身商業(yè)模式和使用者的不同類型(個人用戶亦或不同規(guī)模的企業(yè)用戶)出發(fā),,對于生成內(nèi)容的利用權(quán)限,、范圍加以不同規(guī)定,但也都是在尊重用戶選擇和意思自治的范圍內(nèi)做出的安排,。在我國,,2023年8月15日起施行的《生成式人工智能服務(wù)管理暫行辦法》,也支持生成式人工智能行業(yè)通過協(xié)議方式約定平臺與使用者之間的權(quán)責關(guān)系,?!皶盒修k法”第9條規(guī)定,“提供者應(yīng)當與注冊其服務(wù)的生成式人工智能服務(wù)使用者簽訂服務(wù)協(xié)議,,明確雙方權(quán)利義務(wù),。”
第二,,技術(shù)中立,。
值得注意,生成式人工智能的內(nèi)容輸出模式,,決定了其在版權(quán)侵權(quán)問題判定上存在天然的特殊性,。
我們需要首先思考,,用戶利用AIGC服務(wù)生成內(nèi)容的行為究竟是一種版權(quán)法規(guī)制的“公開傳播”行為,,還是一種不受版權(quán)法規(guī)制的“個人使用”行為?目前來看,,無論是“文生文”還是“文生圖”領(lǐng)域的AIGC產(chǎn)品,,生成的內(nèi)容都是以對話形式存在于封閉的用戶交互界面之中,,原則上都可以被認定為是一種非公開的個人使用行為。
從平臺責任角度來看,,AIGC服務(wù)提供者在平臺屬性和責任判斷上,,具有較為明顯的技術(shù)中立性特征。
從內(nèi)容生成角度,,AIGC平臺本身不會主動輸出任何內(nèi)容,,也不會事前存儲未來將會輸出的內(nèi)容。從內(nèi)容傳播角度,,前邊也已經(jīng)提及利用AIGC平臺生成的內(nèi)容不會向不特定第三方主體呈現(xiàn)展示,;此外,對于生成內(nèi)容后續(xù)是否加以公開傳播以及如何進行公開傳播,,實際是由使用者而非AIGC平臺享有決定權(quán),。
2024年2月8日,廣州互聯(lián)網(wǎng)法院在審理的“生成式AI侵權(quán)(奧特曼)案”中,,就AIGC服務(wù)提供者侵權(quán)賠償損失責任的認定指出,,“……相關(guān)類案判決認為,生成式人工智能具有一定的工具屬性,。生成式人工智能既可以用于合法目的,,也可以用于非法目的……”2024年3月21日,美國《田納西州確保肖像,、聲音和圖像安全法案》通過,,強調(diào)了對于“內(nèi)容創(chuàng)造工具開發(fā)和提供者的責任認定”需要關(guān)注“技術(shù)中立性”的要求,“對于軟件提供者,,只有當其軟件的‘主要目的’是未經(jīng)授權(quán)生成個人的姓名,、照片、聲音或肖像時,,才會承擔責任,。如果軟件生成侵權(quán)內(nèi)容的能力是次要的或者與其他目的相關(guān),那么軟件提供者可能不會承擔法律責任,?!?/p>
第三,平臺責任,。
雖然生成式人工智能的內(nèi)容輸出模式存在特殊性,,并且生成式人工智能服務(wù)平臺具備天然的技術(shù)中立性,但鑒于其龐大的內(nèi)容輸出能力,,客觀上還是存在提升社會整體版權(quán)侵權(quán)傳播風險的可能,。有研究表明,按照ChatGPT在2023年初的內(nèi)容生成能力,,僅14天便可以輸出相當于1440年古登堡印刷機發(fā)明以來,,人類社會全部印刷作品的內(nèi)容總量,。
面對新技術(shù)、新業(yè)態(tài)帶來的新平臺責任,,應(yīng)當說版權(quán)領(lǐng)域的責任判斷一直都是風向標,。作為全球平臺責任基石的“避風港制度”,便是從版權(quán)領(lǐng)域發(fā)展而來,,并進一步向其他民事權(quán)益領(lǐng)域延伸,。生成式人工智能技術(shù)發(fā)展帶來的一個總體趨勢是,使得我們對平臺版權(quán)責任的關(guān)注,,從“內(nèi)容傳播”領(lǐng)域轉(zhuǎn)向“內(nèi)容生成”領(lǐng)域,。內(nèi)容傳播平臺的版權(quán)責任判定較為傳統(tǒng),而以AIGC服務(wù)提供者為代表的內(nèi)容生成平臺的版權(quán)責任判定則是一個全新的議題,。
目前,,各界關(guān)于大模型服務(wù)提供者直接侵權(quán)、間接侵權(quán)亦或是共同侵權(quán)的討論仍在繼續(xù),,遠未達成一致意見,。但從解決產(chǎn)業(yè)發(fā)展現(xiàn)實問題的角度,其實更需要關(guān)注的是,,如何從防范化解社會整體侵權(quán)風險,、強化版權(quán)人利益保護以及促進保障新產(chǎn)業(yè)與新技術(shù)發(fā)展角度,科學的認定AIGC平臺的版權(quán)保護注意義務(wù),,也即AIGC平臺可以采取哪些實踐中有效,、成本上合理、技術(shù)上可行的侵權(quán)應(yīng)對措施,。整體來看,,可以從技術(shù)、規(guī)則與預(yù)防三個層面看待AIGC平臺版權(quán)保護注意義務(wù)問題,。
第四,,注意義務(wù)。
技術(shù)層面,,能否通過“調(diào)整模型參數(shù)”和“刪除被訓練語料庫中的素材”來避免版權(quán)侵權(quán),?一方面,需要認識到從技術(shù)角度著眼,,大模型一旦訓練完畢便無法將特定作品內(nèi)容對應(yīng)的特定模型參數(shù)加以單獨刪除,,此外特定作品與特定參數(shù)之間也并非簡單的一一對應(yīng)關(guān)系,除非用剔除特定作品后的新語料集對該模型加以再次整體訓練,。但明顯這一做法成本過高,,實操中很難落地執(zhí)行。另一方面,,刪除語料庫中的特定被訓練作品實操中是可行的,,但卻并沒有現(xiàn)實意義。因為只要訓練完畢,,刪除語料的行為不會對已經(jīng)訓練好了的模型參數(shù)和模型可能輸出的內(nèi)容產(chǎn)生任何影響,。
規(guī)則層面,“避風港制度”既有“通知刪除”機制是否仍然有效,,科學的必要措施行為應(yīng)是如何,?一方面,平臺實際上無法直接刪除特定用戶賬號中的侵權(quán)內(nèi)容,,因為該侵權(quán)內(nèi)容存儲在用戶PC或移動端的設(shè)備中而非平臺的服務(wù)器中,。這和此前的內(nèi)容傳播平臺存在明顯差異,因為不存在用戶將特定內(nèi)容上傳到平臺服務(wù)器這個環(huán)節(jié),。但平臺可以采取與其實際技術(shù)能力相匹配的措施,,例如通知涉嫌侵權(quán)的用戶不得進一步傳播侵權(quán)內(nèi)容,并根據(jù)侵權(quán)行為的嚴重程度采取類似“三振出局”的手段懲戒相關(guān)用戶,。另一方面,平臺還需要對生成內(nèi)容進行打標,,否則版權(quán)人難以根據(jù)侵權(quán)內(nèi)容追溯到特定平臺,;同時平臺也需要建立投訴舉報機制,否則權(quán)利人也沒法要求平臺采取上述侵權(quán)制止舉措,。
預(yù)防層面,,能否通過“內(nèi)容”和“關(guān)鍵詞”過濾機制來避免大模型輸出侵權(quán)內(nèi)容?這里涉及三個核心問題,。第一,,過濾機制的運行有賴于侵權(quán)內(nèi)容比對庫的存在。這也就需要權(quán)利人與AIGC平臺建立事前的合作機制,。第二,,過濾比例的技術(shù)難題。AIGC平臺可以過濾掉100%或99%相同的內(nèi)容,,但過濾掉10%或20%相似的內(nèi)容便存在現(xiàn)實困難,。需要思考是否平臺積極履行了過濾義務(wù)便可以免責,而不應(yīng)在技術(shù)層面過于苛求,。最后,,過濾機制天然存在“技術(shù)誤傷”的問題。特別是針對關(guān)鍵詞的過濾,,存在很大可能會影響用戶的正常使用,,這也是實操中需要關(guān)注的問題。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1102695.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。