近日,由中國法學會網(wǎng)絡(luò)與信息法學研究會主辦,,西南政法大學合辦,,西南政法大學人工智能法學院,、西南政法大學智能司法研究院、西南大數(shù)據(jù)法律研究中心共同承辦的“人工智能法治論壇”舉行。會議深入探討了人工智能發(fā)展與安全過程中的重大理論與實踐問題,。
7月6日,,2023世界人工智能大會在上海世博中心拉開帷幕。這是專家在一幅關(guān)于上海景象的智能生成畫作前討論,。新華社記者 黃曉勇 攝
來自全國人大法工委,、最高人民法院等部門,中央黨校(國家行政學院),、中國社科院法學所,、清華大學、中國人民大學,、浙江大學等科研院校,,以及實務(wù)部門的一百余名專家、學者參加了此次會議,。
首都師范大學政法學院副教授崔俊杰:科技倫理審查要考慮具體科學場景
程序規(guī)制不是封閉的構(gòu)成性規(guī)制,,而是開放的功能性規(guī)制,可以實現(xiàn)將表層的行為-責任分配與深層的集體道德決策過程深度互嵌,。真實的科技倫理審查具有兩階審查的特點,,與經(jīng)典正當法律程序存在明顯區(qū)別,為此不能簡單套用法律程序中的一般制度,,而需要考慮具體科學場景中倫理反思所需必要程序要求,。科技倫理審查的正當法律程序設(shè)計中要有維系倫理審查組織的結(jié)構(gòu)均衡程序,、反思均衡程序,、保障對話環(huán)境與塑造情景正義的程序。
南京大學中德法學研究所副研究員金?。喝斯ぶ悄軐π姓J降臎_擊需要思考
人工智能技術(shù)的開發(fā)與應(yīng)用引發(fā)了一系列問題,,對傳統(tǒng)行政模式產(chǎn)生了沖擊。面對這些新問題,通過分析算法行政中的全自動化情形的自主性特征,,可發(fā)現(xiàn),,組織責任、引入經(jīng)濟上的無過錯責任與嚴格責任,、把算法作為行政助手和像歐盟一樣把算法升為主體上的電子人等方案,,無法解決現(xiàn)有問題,須轉(zhuǎn)向立法論的視角,。
西南政法大學人工智能法學院博士生張翔:人工智能法律治理應(yīng)貫穿目的與行為
應(yīng)急式,、分散式、場景式立法未能找準人工智能領(lǐng)域法律問題的癥結(jié),,難以從整體上提供系統(tǒng)化,、前瞻性的人工智能法律治理方案。應(yīng)當以貫穿目的與行為的系統(tǒng)論為支撐,,重構(gòu)人工智能法律定義,。人工智能領(lǐng)域立法應(yīng)當以平衡安全與創(chuàng)新、平衡公平與效率為基本原則,,以貫穿人工智能全生命周期的主體要素和行為要素為基本線索,。而法律制度之間的內(nèi)在脈絡(luò)不僅受制于立法價值和法律原則,也受制于人工智能各要素之間相互聯(lián)結(jié),、互為制約的系統(tǒng)論本質(zhì)特征,。
江西理工大學法學院副教授張志堅:人工智能自主交易的合法有效需研究
人工智能自主交易行為區(qū)別于電子合同,也區(qū)別于智能合約,。人工智能在特定領(lǐng)域內(nèi)實施自主交易行為,,仍是人類意志的延伸,具有相應(yīng)的民事行為能力,,具備行為合法有效的可能性,,而超越特定領(lǐng)域的行為效力待定。在人工智能自主交易行為的法律責任上,,存在預期違約責任與違約責任兩種類型,,原則上以擁有獨立財產(chǎn)的人工智能自身為責任主體。同時,,基于人工智能的特殊性,,除了財產(chǎn)賠償方式外,還可以對其設(shè)置修正程序,、刪除數(shù)據(jù),、強制銷毀等專屬的責任承擔方式。
《網(wǎng)絡(luò)信息法學研究》特約編輯狄行思:確認合資格金融人工智能受信人地位
關(guān)于AI能否作為獨立的信義義務(wù)人,,與其智能化程度密切相關(guān),也事關(guān)開發(fā)者,、使用者在背后承擔的角色,。人工智能技術(shù)除了技術(shù)屬性,,還必須具有一定的社會屬性。應(yīng)確認合資格金融人工智能受信人地位,,并以信義治理路徑對其進行規(guī)制,。
上海財經(jīng)大學法學院副教授沈小軍:自動駕駛產(chǎn)品責任險不能替代交強險
現(xiàn)有自動駕駛汽車產(chǎn)品責任保險研究主要集中在侵權(quán)責任和交強險上,對產(chǎn)品責任保險的研究存在明顯不足,。要引入一個強制性的產(chǎn)品責任保險,,在未來完全自動駕駛時代強制性的產(chǎn)品責任保險是非常有必要的。在產(chǎn)品責任強制保險跟交強險的關(guān)系方面,,因為構(gòu)成要件和免除事由方面的限制,,產(chǎn)品責任強制保險仍然不能替代交強險。
螞蟻集團高級政策研究高級專家毛智琪:參考各國經(jīng)驗提升合規(guī)管理有效性
隨著人工智能在國家競爭力,、國家安全等方面的作用凸顯,,各國都在加緊相關(guān)規(guī)劃部署和政策制定,人工智能已經(jīng)成為國際競爭新的焦點所在,。但由于人工智能目前仍在發(fā)展中,,存在著隱私和數(shù)據(jù)安全、內(nèi)容安全,、競爭公平,、知識產(chǎn)權(quán)保護等風險,技術(shù)和應(yīng)用的安全性與真實性等問題尚待解決,。大模型對算力的巨大消耗也對低碳轉(zhuǎn)型目標的實現(xiàn)帶來新的挑戰(zhàn),,這些新的問題成為各國政府關(guān)注的新課題。參考目前各國監(jiān)管趨勢和行業(yè)實踐,,可以考慮從建立全生命周期的合規(guī)管理與監(jiān)測機制,、引入合規(guī)科技等技術(shù)手段強化風險識別能力和管控能力,進一步提升合規(guī)管理的有效性,,更好地應(yīng)對技術(shù)發(fā)展帶來的挑戰(zhàn),,推動人工智能技術(shù)的安全創(chuàng)新和產(chǎn)業(yè)變革,賦能中國經(jīng)濟高質(zhì)量發(fā)展,。
西南大數(shù)據(jù)法律研究中心執(zhí)行副主任譚玲:多方面探尋人工智能著作權(quán)侵權(quán)防范
當前生成式人工智能的著作權(quán)侵權(quán)風險主要存在于數(shù)據(jù)獲取,、人機互動過程、大模型訓練以及內(nèi)容生成四個領(lǐng)域,,需要從許可使用,、合理使用、法定許可等著作權(quán)制度探尋不同階段,、不同類型生成式人工智能著作權(quán)侵權(quán)風險防范路徑,。商用情況下數(shù)據(jù)獲取端對在先作品的利用可以集體許可為基礎(chǔ),其他授權(quán)模式為補充。非商用情況下適用合理使用制度,,同時進行概括性作品使用申明,。人機互動過程中,通過用戶協(xié)議闡明未經(jīng)授權(quán)上傳在先作品的后果,。對于內(nèi)容生成端,,風格和思想的相似一般而言不涉及具體侵權(quán)問題,但仍需完善AI“洗稿”的侵權(quán)行為認定標準,。
東南大學法學院副研究員徐珉川:數(shù)據(jù)有效流動歸根結(jié)底是信用生產(chǎn)
關(guān)于生成式人工智能的公共數(shù)據(jù)可信供給問題,。“數(shù)字政府”背景下的公共數(shù)據(jù)開放,,其核心是一種可信價值,。建立可信的治理方式,建立一套公共數(shù)據(jù)開發(fā)的可信秩序激勵,。面向生成式智能創(chuàng)新,,需要可信的公共數(shù)據(jù)供給。數(shù)據(jù)供給核心為信用問題,,如何讓數(shù)據(jù)有效流動,、開放,歸根結(jié)底為一種信用生產(chǎn),、適用等方面的再生產(chǎn),。
全國人大常委會法工委行政法室處長母光棟:人工智能治理可綜合運用部門法原則
研究生成式人工智能的發(fā)展和治理問題,可以綜合運用各個部門法確定的原則和具體制度,。比如,,生成式人工智能技術(shù)中的重要環(huán)節(jié)之一是公共數(shù)據(jù)治理,采集,、生成數(shù)據(jù)需要遵循合法和必要原則,,開發(fā)、運用數(shù)據(jù)需要遵循開放和共享原則,,在整個公共數(shù)據(jù)治理過程中,,還要遵循有關(guān)法律法規(guī)確定的安全和風險防范等原則。從不同部門法視角研究生成式人工智能問題,,有利于推動這一新興產(chǎn)業(yè)的健康發(fā)展,。(金燦)
責編:金國中
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1057466.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議,。