■ 如何應(yīng)對(duì)GPT-4帶來(lái)的挑戰(zhàn)
如何應(yīng)對(duì)GPT-4帶來(lái)的挑戰(zhàn)③
機(jī)器智能挑戰(zhàn)現(xiàn)有法律秩序
(資料圖片僅供參考)
2016年3月,谷歌公司研發(fā)的人工智能?chē)宄绦駻lphaGo以4比1的總比分,戰(zhàn)勝圍棋世界冠軍、職業(yè)九段棋手李世石,引發(fā)全球關(guān)注,掀開(kāi)了新一輪人工智能浪潮的大幕。2022年11月,OpenAI公司發(fā)布聊天機(jī)器人ChatGPT,在聊天、搜索、翻譯、寫(xiě)作、寫(xiě)代碼等方面展現(xiàn)出驚人的能力,注冊(cè)人數(shù)迅速破億。今年3月,升級(jí)版GPT-4上線,一夜之間成為全球關(guān)注的焦點(diǎn),被譽(yù)為迎來(lái)了人工智能的“iphone”時(shí)刻。一時(shí)間,人工智能的熱浪再次席卷全球。
相較于早年的AlphaGo,GPT-4的出現(xiàn)代表著人工智能技術(shù)發(fā)展的另一座新高峰。如果說(shuō)AlphaGo讓人們看到機(jī)器智能在圍棋等特定領(lǐng)域是如何超越人類智能的,那么GPT-4則是讓人們看到機(jī)器智能與人類智能之間的界限正在全方位地縮小,機(jī)器智能正在跨過(guò)人類語(yǔ)言這一人機(jī)之間的天然藩籬,一步步向著通用人工智能的未來(lái)方向逼近。毫無(wú)疑問(wèn),這樣一款高度理解人類語(yǔ)言的生成式人工智能,將會(huì)給現(xiàn)有的以人類智能為中心構(gòu)建的法律秩序帶來(lái)全方位、顛覆式的挑戰(zhàn)。
GPT-4是“機(jī)器”還是“人”
現(xiàn)有的法律秩序是以人類智能為中心構(gòu)建的,人是絕對(duì)的法律主體,機(jī)器是絕對(duì)的客體,人物區(qū)分是分明的。然而,隨著機(jī)器人、人工智能技術(shù)的發(fā)展,主體與客體之間的界限日益模糊。早前,人們常常用圖靈測(cè)試來(lái)檢驗(yàn)一款機(jī)器是否到達(dá)了人類智能的水平。從GPT-4展現(xiàn)的能力來(lái)看,其比以往任何人工智能程序都更接近于人類智能,通過(guò)圖靈測(cè)試幾乎沒(méi)有任何壓力。并且與以往不同的是,GPT-4不再是鸚鵡學(xué)舌般地找出數(shù)據(jù)之間的對(duì)應(yīng)關(guān)系,然后去模仿人類智能,而是真正具備了“理解”人類語(yǔ)言的能力,能夠準(zhǔn)確理解人類的指令,讀懂人類語(yǔ)言中的幽默、諷刺,識(shí)別提問(wèn)中的邏輯陷阱,找出上下文中的情景關(guān)系。這種“理解”能力是前所未有的,是GPT-4在學(xué)習(xí)中突然“涌現(xiàn)”的能力,是一種新范式的“機(jī)器智能”。
機(jī)器智能的新突破必然會(huì)加速挑戰(zhàn)現(xiàn)有人類智能的主體地位。當(dāng)前的GPT-4僅僅是一款聊天機(jī)器人程序,賦予其法律人格或者法律主體地位并不迫切,畢竟它只是虛擬的存在。但如果將GPT-4與伴侶機(jī)器人結(jié)合,制造出一個(gè)擁有類人的身體構(gòu)造和理解人類語(yǔ)言的新型智能體,屆時(shí)討論它是“人”還是“機(jī)器”將會(huì)變得非常重要。
從現(xiàn)有的法律規(guī)范來(lái)看,民事主體包括自然人、法人和非法人組織,自然人以外的存在可以通過(guò)擬制人格的方式獲得法律人格,故法律技術(shù)并非“機(jī)器”成為“人”的真正障礙。真正決定法律如何對(duì)待人工智能的因素或許在法律之外,包括社會(huì)、倫理、文化、技術(shù)等各個(gè)方面。面對(duì)以GPT-4為代表的人工智能形式,我們需要重新認(rèn)識(shí)人類智能的獨(dú)特性,做好應(yīng)對(duì)機(jī)器智能挑戰(zhàn)的準(zhǔn)備?;蛟S我們現(xiàn)在還可以說(shuō)GPT-4當(dāng)前只是在符號(hào)層面理解了人類語(yǔ)言,并不知曉語(yǔ)言背后蘊(yùn)含的意識(shí)、情感、情緒,但這種突破可能并不遙遠(yuǎn)。
GPT-4的作品是“創(chuàng)作”還是“拼湊”
GPT-4是一種大語(yǔ)言模型,也是一種生成式人工智能。GPT-4在訓(xùn)練過(guò)程中,學(xué)習(xí)了人類社會(huì)的大量?jī)?yōu)質(zhì)作品,包括文字、音樂(lè)、畫(huà)畫(huà)、海報(bào)、視頻等各種類型,在學(xué)習(xí)知識(shí)、繼承知識(shí)的基礎(chǔ)上,產(chǎn)生了創(chuàng)作知識(shí)的能力,由此引發(fā)了著作權(quán)的保護(hù)問(wèn)題。事實(shí)上,人工智能的著作權(quán)問(wèn)題并非新鮮事,近年來(lái)人工智能寫(xiě)詩(shī)、畫(huà)畫(huà)、寫(xiě)歌、寫(xiě)報(bào)道、寫(xiě)小說(shuō)等新聞屢見(jiàn)不鮮。與以往人工智能不同的是,借助對(duì)于人類語(yǔ)言的獨(dú)特理解能力,GPT-4的生成模型更為智能:一是對(duì)于文學(xué)藝術(shù)作品的學(xué)習(xí)更加接近人類的理解,從而具有更強(qiáng)的知識(shí)生產(chǎn)能力,能夠真正從人類語(yǔ)言的視角去創(chuàng)作符合人類思維習(xí)慣的作品,這為之后生成新內(nèi)容提供了能力基礎(chǔ);二是對(duì)于用戶指令的理解更加到位,能夠根據(jù)用戶的提問(wèn)準(zhǔn)確地生成內(nèi)容,使得作品的使用價(jià)值大幅提升。
對(duì)于GPT-4為代表的生成式人工智能引發(fā)了著作權(quán)的問(wèn)題,首先需要判斷生成內(nèi)容是否構(gòu)成作品。根據(jù)我國(guó)著作權(quán)法的規(guī)定,作品認(rèn)定的核心是新穎性或者獨(dú)創(chuàng)性。對(duì)此,有人從主觀主義出發(fā),認(rèn)為GPT-4不過(guò)是更加智能的“洗稿機(jī)器”,是對(duì)現(xiàn)有作品重新進(jìn)行拼湊,本質(zhì)上是一種“抄襲”,不具有獨(dú)創(chuàng)性。另一種觀點(diǎn)則從客觀主義出發(fā),主張GPT-4生成的作品客觀上存在獨(dú)創(chuàng)性,有明顯的辨識(shí)度、區(qū)分度,也具有經(jīng)濟(jì)和藝術(shù)價(jià)值,從而構(gòu)成作品。
2023年3月16日,美國(guó)版權(quán)局發(fā)布了一份公告,認(rèn)為用戶使用Photoshop進(jìn)行創(chuàng)作的圖片構(gòu)成作品,受版權(quán)法保護(hù),因?yàn)檎麄€(gè)過(guò)程都有人工參與進(jìn)行創(chuàng)作,而Midjourney、Stability AI、ChatGPT等自動(dòng)生成的作品完全由機(jī)器人完成,不受版權(quán)法保護(hù)。與此同時(shí),從我國(guó)司法實(shí)踐來(lái)看,法院傾向于保護(hù)人工智能的生成物,逐漸放寬對(duì)作品的認(rèn)定。無(wú)論司法實(shí)踐是否承認(rèn),GPT-4等機(jī)器智能生成的內(nèi)容越來(lái)越具有經(jīng)濟(jì)價(jià)值,不予以保護(hù)只會(huì)引發(fā)更多的糾紛。對(duì)此,從鼓勵(lì)創(chuàng)作和維護(hù)市場(chǎng)秩序的角度出發(fā),筆者認(rèn)為應(yīng)當(dāng)考慮保護(hù)GPT-4生成的作品,同時(shí)相應(yīng)限縮這類作品著作權(quán)保護(hù)的期限和強(qiáng)度。
GPT-4闖禍了誰(shuí)來(lái)負(fù)責(zé)
GPT-4是迄今為止最為強(qiáng)大的大語(yǔ)言模型,能夠聊天、創(chuàng)作,為用戶帶來(lái)正向價(jià)值,但也可能出現(xiàn)隱私與數(shù)據(jù)泄露、內(nèi)容抄襲、語(yǔ)言詆毀等侵權(quán)行為,從而引發(fā)責(zé)任承擔(dān)的問(wèn)題。從GPT-4的運(yùn)行機(jī)制來(lái)看,無(wú)論其展現(xiàn)的機(jī)器智能多么優(yōu)秀,仍然需要用戶進(jìn)行主動(dòng)提問(wèn),且生成的內(nèi)容只有用戶才能主動(dòng)公開(kāi)或者使用。用戶對(duì)于內(nèi)容的生成和后續(xù)應(yīng)用有著主導(dǎo)權(quán),是首要的責(zé)任主體,理應(yīng)盡到合理的注意義務(wù)。
例如,用戶提問(wèn)本身存在過(guò)錯(cuò),如提問(wèn)讓GPT-4寫(xiě)一段侮辱某人的文字、制作一個(gè)侵害某人名譽(yù)權(quán)的視頻等,隨后GPT-4依照指令生成了內(nèi)容,用戶公開(kāi)了該文字或者視頻,造成特定人損害。再比如,用戶提問(wèn)本身沒(méi)有過(guò)錯(cuò),但GPT-4生成的內(nèi)容存在明顯的侵權(quán)行為,如明顯的抄襲內(nèi)容或者侵害他人隱私、名譽(yù)的內(nèi)容,用戶沒(méi)有盡到任何審核義務(wù)就公開(kāi)該內(nèi)容,最后造成損害。此種情形下,用戶需要承擔(dān)相應(yīng)的賠償責(zé)任。
與此同時(shí),GPT-4也需要負(fù)擔(dān)特定的注意義務(wù),對(duì)于用戶明顯有侵權(quán)風(fēng)險(xiǎn)的提問(wèn)應(yīng)當(dāng)予以拒絕回答,生成的內(nèi)容應(yīng)當(dāng)避免侵害他人的權(quán)益。例如,用戶向GPT-4提問(wèn)設(shè)計(jì)一款具有獨(dú)創(chuàng)性的方便面食品包裝,結(jié)果GPT-4生成的包裝卻是抄襲某個(gè)服裝設(shè)計(jì)師的作品,用戶沒(méi)有辦法去審核內(nèi)容是否侵權(quán)。對(duì)此,從平衡各方利益的角度出發(fā),在對(duì)外方面應(yīng)當(dāng)允許被侵權(quán)人同時(shí)向用戶和GPT-4提供商提起訴訟,在用戶證明自己沒(méi)有過(guò)錯(cuò)的情況下,應(yīng)當(dāng)由GPT-4提供商承擔(dān)最終的賠償責(zé)任。
從規(guī)范層面看,GPT-4的使用本身就是有償?shù)?,提供的是一種類似于專家的服務(wù),用戶對(duì)于GPT-4的生成內(nèi)容有合理的信賴基礎(chǔ)。如果GPT-4沒(méi)有達(dá)到一個(gè)算法類專家應(yīng)有的理性水平,那么可以認(rèn)為存在算法缺陷或者算法瑕疵,需要承擔(dān)相應(yīng)的責(zé)任。我們不能要求用戶去實(shí)質(zhì)上審查GPT-4的生成內(nèi)容是否有法律風(fēng)險(xiǎn),否則用戶的使用成本過(guò)高。
(作者系西南政法大學(xué)民商法學(xué)院副教授)