■ 聚焦生成式人工智能
(資料圖)
■ 前沿話題
開欄語
運用法治觀念、法治思維和法治手段,為互聯(lián)網(wǎng)健康有序發(fā)展提供保障,已經(jīng)成為共識?;ヂ?lián)網(wǎng)新技術新應用新業(yè)態(tài)新模式帶來的風險挑戰(zhàn)不容忽視,需要網(wǎng)絡立法、網(wǎng)絡執(zhí)法、網(wǎng)絡司法、網(wǎng)絡普法、網(wǎng)絡法治教育進行前瞻性、全方位應對,《法治周末》特推出“前沿話題”欄目,記錄這些網(wǎng)絡法治實踐。
為促進生成式人工智能技術健康發(fā)展和規(guī)范應用,4月11日,國家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱征求意見稿)公開征求意見。
作為國內(nèi)首個專門針對AIGC的監(jiān)管辦法,征求意見稿對生成式人工智能提供者的責任邊界提出要求,重點強調(diào)了生成式人工智能產(chǎn)品訓練數(shù)據(jù)及生成內(nèi)容的真實性。
結(jié)合征求意見稿,針對AIGC服務與內(nèi)容相關法律問題,《法治周末》記者與業(yè)界專家展開對話。
■對話人:
王瑩 中國人民大學未來法治研究院副院長
許可 對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任
張延來 浙江墾丁律師事務所主任律師
■主持人:
仇飛 《法治周末》記者
責任分配問題值得探討
主持人:按照征求意見稿,提供AIGC產(chǎn)品或服務應當符合多項要求,提供者還需承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任,涉及個人信息的,承擔個人信息處理者的法定責任,對此怎么看?
王瑩:從文本表述來看,這種責任定位包含了產(chǎn)品生產(chǎn)者和內(nèi)容提供者責任,似乎有過于嚴苛之嫌。從AIGC技術特征上來看,作為一種生成合成類算法應用,AIGC是利用大語言模型和公共、開放數(shù)據(jù)根據(jù)用戶輸入搜索、生成合成信息,并非傳統(tǒng)網(wǎng)絡法中的信息內(nèi)容提供者,其根據(jù)用戶的指令生成的信息向用戶展示,也不能理解為傳統(tǒng)的信息發(fā)布、傳播。而將其理解為產(chǎn)品簡單套用傳統(tǒng)產(chǎn)品責任中的嚴格責任原則,值得進一步商榷。
目前,生成式人工智能僅生成文本、圖像、聲音等信息內(nèi)容,并不會像傳統(tǒng)的產(chǎn)品瑕疵那樣直接導致生命健康安全問題,其作為一個人工智能產(chǎn)品最多涉及到人格權侵權、著作權侵權。生成式人工智能引發(fā)侵權問題,可能來自于人工智能本身的漏洞或技術現(xiàn)有水平,人工智能的學習訓練到生成的過程并不是完全可解釋和可控的。2022年9月通過的歐盟《人工智能民事責任指令》規(guī)定只有高風險的AI應用才承擔AI嚴格責任。最新的歐盟《人工智能法案》的立法討論也未將Chat-GPT簡單界定為高風險AI應用,該技術是否屬于高風險AI應用,或者將其作為通用人工智能跨越高風險、低風險的分類視為一種新的類別加以監(jiān)管,仍然是一個開放性的問題。
許可:已經(jīng)實施的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對深度合成服務已有規(guī)定,其對深度合成服務提供者的要求,同樣適用于AIGC產(chǎn)品提供者。ChatGPT替代了人類在收集信息中評價、思考、推理、取舍的整個思維過程,所以法律上會認為避風港原則不太適用于ChatGPT這種人工智能生成的場景,因此需要有一個特別的規(guī)定,就是生成式人工智能產(chǎn)品要對自己生成的內(nèi)容負責。但這里面的問題其實也有很多,比如說很多內(nèi)容的產(chǎn)生并不是由ChatGPT一方完成的,而是在與使用者的交互過程中完成的,也就是說內(nèi)容是由使用者和ChatGPT共同生產(chǎn)的,這個時候就不能完全要求由AIGC產(chǎn)品提供者來承擔責任,相關的責任劃分需要進一步明確。
張延來:征求意見稿對于生成式AI技術服務提供者的責任要求過高,畢竟這是一項技術,應當符合技術中立原則。在技術應用過程中,無論是內(nèi)容方面的問題還是個人信息等問題,都不完全取決于AI技術提供者本身,而是跟具體使用技術的用戶有密切關系,所以將技術提供者定義成內(nèi)容生產(chǎn)者和信息處理者似乎在法律身份的定位上有些錯位,而且也會導致內(nèi)容權利歸屬和個人信息權益歸屬等衍生問題出現(xiàn)。
個人信息保護與數(shù)據(jù)的法律基線
主持人:有觀點認為,在AIGC產(chǎn)品中,用戶對話的過程就是被收集信息的過程,可能存在個人信息泄露、提供虛假信息等隱患。征求意見稿也提到了個人信息保護,有哪些值得關注的?
許可:按照征求意見稿第九條,提供生成式人工智能服務應當按照網(wǎng)絡安全法規(guī)定,要求用戶提供真實身份信息。我們知道網(wǎng)絡安全法中的實名制是指發(fā)布信息階段的實名認證,也就是說如果只是單純的瀏覽模式,原則上是不需要用戶實名的。用戶開始使用AIGC時是否需要實名認證,這是一個需要討論的問題,如果用戶沒有實名制的話,AIGC并不會直接或間接的識別這個特定的人,很可能不存在個人信息保護的問題;但如果有實名認證,用戶提供的信息就可能構成個人信息,AIGC產(chǎn)品提供者應按照個人信息保護法遵守個人信息保護義務。
主持人:征求意見稿對訓練數(shù)據(jù)提出真實性等要求,此外還要求“不得根據(jù)用戶輸入信息和使用情況進行畫像”,這對AIGC發(fā)展會產(chǎn)生哪些影響?
許可:作為生成式人工智能產(chǎn)品的基礎,數(shù)據(jù)的重要性不言而喻。但如何合理設定數(shù)據(jù)的法律基線,仍有待進一步研究。
首先,要研究數(shù)據(jù)質(zhì)量和數(shù)據(jù)合法性的矛盾。為了盡可能提升生成式人工智能產(chǎn)品的能力,勝任各種自然語言處理任務,其必須“識遍天下字,讀盡人間書”,如果將合法性作為數(shù)據(jù)的前提,提供者在海量的數(shù)據(jù)面前,為了避免承擔法律責任,必然采取“寧可錯殺,不可放過”的原則,不但導致大幅限制輸入的數(shù)據(jù)源,還損害了數(shù)據(jù)的客觀性、多樣性。
其次,要研究數(shù)據(jù)訓練和信息生成的矛盾。從風險預防和監(jiān)管目標看,生成式人工智能產(chǎn)品的風險集中在信息生成階段,在底層算法的作用下,開始訓練的數(shù)據(jù)和最后信息的生成內(nèi)容并不是一一映射的關系,其中間經(jīng)過了預測、分類、聚類、關聯(lián)等復雜的變換,因此,訓練數(shù)據(jù)的合法性并非信息生成合法性的必要條件。
最后,要研究責任承擔者涉及的矛盾。按照征求意見稿,AIGC服務提供者須對預訓練數(shù)據(jù)承擔合法性義務,但實踐中,大量提供服務的主體并非生成式人工智能技術的開發(fā)者,其事實上并不參與數(shù)據(jù)的預訓練和優(yōu)化。從自己責任的原理出發(fā),這里的責任主體應限定在生成式人工智能技術的開發(fā)者為宜。
張延來:AIGC技術層面就是要用用戶的輸入內(nèi)容作為訓練語料對算法進行優(yōu)化的,因此很難避免使用A用戶的輸入信息來回答B(yǎng)用戶的問題。而用戶畫像的情況,如果是用戶同意應該也允許畫像,一方面畫像是很多AI提供個性化服務的前提,另一方面畫像也是后續(xù)在AI中進行廣告、推薦等商業(yè)盈利的必要措施。
平衡安全與發(fā)展
主持人:您認為征求意見稿還需要完善哪些內(nèi)容?
許可:征求意見稿對當前的ChatGPT等新型的人工智能產(chǎn)品和服務,提出了針對性的方案,從數(shù)據(jù)處理預訓練、信息內(nèi)容生成等各個環(huán)節(jié),形成了一個邏輯上非常清晰、全鏈路的一種規(guī)范。同時在內(nèi)容設計上,融合了算法治理、個人信息保護、數(shù)據(jù)安全和信息安全,使用了既有的很多制度安排去對待這種新興技術,這也體現(xiàn)了多層次、多方面的立法思路。
但征求意見稿實施的這種保護能不能實現(xiàn),或者說能否推動這個領域在安全基礎上的發(fā)展,是我非常關注的。在這一次的征求意見稿中,我們看到大量的內(nèi)容仍然是安全的規(guī)則。守住安全底線在行業(yè)發(fā)展過程中非常重要,但目前我國的AIGC是否以及能否發(fā)展,還在探索中,我認為,立法和監(jiān)管最終還是要再去平衡發(fā)展和安全的關系。
張延來:征求意見稿要求提供者應當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責。生成式人工智能的訓練需要極為龐大的數(shù)據(jù)量,對于數(shù)據(jù)來源的前置審查義務不宜要求過高,否則可能會導致國內(nèi)AI的訓練落后于國外的進度,建議要求提供者事前形式審查即可,事后如果發(fā)現(xiàn)侵權或者違法,則依照有關法律規(guī)定事后個案處理更為妥當。
此外,征求意見稿要求提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,應當暫?;蛘呓K止服務。我認為,不應“一刀切”地規(guī)定“暫?;蚪K止服務”,實踐中,對于用戶的違規(guī)行為,應當允許平臺根據(jù)行為的具體程度和危害給予相應力度的處罰和限制,一概要求“暫停或終止服務”是不合理的,而且可能引發(fā)用戶對平臺的訴訟。