《AI未來指北》欄目由騰訊新聞推出,邀約全球業(yè)內專家、創(chuàng)業(yè)者、投資人,探討AI領域的技術發(fā)展、商業(yè)模式、應用場景、倫理及版權爭議。
劃重點
(資料圖片)
文 / 劉永謀 中國人民大學哲學院教授、國家發(fā)展與戰(zhàn)略研究院研究員
2023年3月,包括埃隆.馬斯克在內的千名專家聯(lián)合簽署公開信,呼吁暫停訓練GPT-4后續(xù)人工智能(AI)模型至少6個月。消息一出,引爆全球網絡和媒體,很快引來吳恩達等“AI大牛”的反對。最后,此事也沒有下文,暫停GPT-4被懷疑就是OpenAI的一波炒作。
4月份,又傳出意大利要全面禁止ChatGPT,不久的結果是罰款了事。
5月份,美國總統(tǒng)拜登和副總統(tǒng)哈里斯也來湊熱鬧,與頂級人工智能企業(yè)谷歌母公司Alphabet、微軟、OpenAI和Anthropic的首席執(zhí)行官舉行會議,向企業(yè)施壓圍繞人工智能實施保障措施,表示支持新的法規(guī)或立法,減輕AI技術的潛在危害。
用戶利用生成式AI工具制作的“馬斯克和他的AI女友” 圖源:網絡
一切看起來山雨欲來,似乎ChatGPT、Midjourney、DALL-E 2為代表的生成式人工智能(GAI,Generated AI)催生了新的、更嚴重的社會風險,使得人類社會發(fā)展和應用AI技術的總體局面發(fā)生了根本性改變,需要采取新的戰(zhàn)略、措施和辦法來應對,比如全面暫停新的AI技術的研發(fā)。
真的是這樣的嗎?否。
第一,GAI并沒有產生什么新風險,它可能導致的問題早已也一直被學界所討論、所呼吁。
第二,應對GAI風險并不需要什么新方法,應對AI風險的關鍵一直都是落實。
4月11日,國家互聯(lián)網信息辦公室公開發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》,以前所未有的速度對GAI作出治理反應,佐證GAI應用社會影響巨大,必須認真研究,審慎地而迅速地加以應對。
01 謹防AI失控——全球科技領域的“政治正確”
就目前已經暴露出來的跡象來看,GAI挑戰(zhàn)最大的領域至少包括3個:
1)失業(yè)問題,即它可能導致文案策劃人員、原畫師、工業(yè)設計人員、程序員、媒體從業(yè)人員和翻譯人員等腦力工作者大量失業(yè)。
2)教育問題,即它可能沖擊既有-的教育科研系統(tǒng),比如學生可以用ChatGPT代替自己做作業(yè)。
3)信息安全問題,即GAI自動生成海量的人工智能生產內容(AIGC,AI Generated Content),真?zhèn)坞y辨、立場可疑,權屬不清、追責困難,甚至可能成為挑戰(zhàn)主流價值觀和意識形態(tài)的危險工具。
AI風險早就被各國政府所重視,近年來更是成為全社會的關注焦點。顯然,上述GAI導致的三大沖擊都不是什么新問題,早在ChatGPT爆火之間就已經被學界和政府所關注、所研究。
近十年來,從物聯(lián)網到大數據、云計算、區(qū)塊鏈、元宇宙、ChatGPT,一波波的AI熱潮中,從來沒有缺少關注風險的呼聲。
本人專業(yè)關注新科技社會沖擊問題,花了大量精力提醒大家注意AI可能導致的技術風險。比如,曾寫過專著《技術治理通論》《物聯(lián)網與泛在社會的來臨》《技術有病我沒藥》《元宇宙陷阱》《科技與社會十四講》,面向非專業(yè)人士提示ICT(信息與通訊技術)的社會沖擊和技術風險。
可以說,警惕AI發(fā)展,防止AI失控,正在成為全球范圍內科技領域的“政治正確”。在此氛圍之下,公開宣稱“AI無禁區(qū)”的聲音被極大地抑制。對此,作為技術控制的選擇論者,我完全贊同。
就目前的發(fā)展態(tài)勢而言,ChatGPT究竟存在什么嚴重的風險,必須以“加碼”的方式比如暫停至少六個月加以應對呢?
有人說,ChatGPT是超級AI出現的征兆,如果現在不停止(注意:不僅是暫停),“潘多拉的魔盒”一旦打開,人類很快會被超級AI統(tǒng)治甚至滅絕。這種幻想色彩濃厚的念頭,很難讓人予以嚴肅的對待。尤其是,很多專業(yè)人員不承認ChatGPT是通用AI,更別說它是超級AI的雛形了。
超級AI可能是個問題,但在嚴防人類自我滅絕的問題上,很多風險如核大戰(zhàn)、氣候變化、致命病毒傳播、生物科技濫用等要排在超級AI之前。我們是不是先把它們都停止了?就算停止不了,暫停一下也行,起碼可以呼吁暫停。
既然沒有什么新的情況,就不必采取暫停發(fā)展的極端方法,為什么?
第一,暫停是沒有道理。有人說,ChatGPT風險應對措施沒有想清楚,所以先暫停。錯!不是沒想清楚,而是沒有落實到位。
第二,暫停是不可能真正實現的,肯定會有AI公司會違反禁令,結果是不公平的競爭。
第三,暫停解決不了問題。就算所有AI公司真的都暫停GAI科研,風險問題就解決了嗎?沒有!除非徹底停止和取締LLMs(Large Language Models,大語言模型),否則風險不會消失。重新啟動之時,仍然得直面風險。
如今,新科技是人類生存和發(fā)展最重要的不可須臾離開的工具。GAI對社會生產力的推動作用已經昭然若揭,我們?yōu)槭裁匆蛞瓘U食,為什么不能控制地利用呢?
20世紀就有人提出——當時的科技人類已經完全夠用了,繼續(xù)發(fā)展會導致很多新問題,應該讓科技靜止下來,科學家不要再搞研究了。此類極端非理性想法,從來沒有被社會嚴肅對待過。
02 暫停GAI研發(fā)實現不了,純屬無效的“嘴炮”
AI可能導致各種社會風險,學界早已指出,各種應對建議也早被提出來。因此,現在的問題是根據國情落實AI治理措施,而不是暫停AI研發(fā)。事實已經證明:暫停GAI研發(fā)的想法簡單粗暴,作用不大,也實現不了,純屬無效的“嘴炮”。
舉AI失業(yè)問題為例。AI失業(yè)問題,即人工智能的推進伴隨著越來越多的人失去工作,是AI社會沖擊中最大的問題,涉及到整個社會的綜合性制度創(chuàng)新。既有文獻對AI失業(yè)問題的討論,可謂汗牛充棟,具體的應對措施不一而足,如學生的職業(yè)規(guī)劃、勞動者AI素養(yǎng)提升、失業(yè)人員社會保障和再就業(yè)、產業(yè)結構升級改造等。
長遠的戰(zhàn)略規(guī)劃亦蔚為大觀,如制度性地減少勞動者工作時間(有些地方已經在嘗試一周工作4天),征收AI稅(AI是全人類智力結晶,向AI公司征收重稅全民共享),靈活退休制度(勞動者一輩子可以短暫退休幾次)等。
AI應用對當代治理活動最大的影響在于:擴大經濟自由,增加閑暇時間,極大地改變公共治理的前提條件,從而改變社會運行的根本面貌。但是,這種影響也意味“AI失業(yè)問題”越來越嚴重,給整個社會的治理活動帶來嚴重挑戰(zhàn),必須審慎地加以處置。AIGC產業(yè)化將再一次證明AI失業(yè)問題的嚴峻性。如果不做政策上的總體安排,ChatGPT肯定會導致大量“AI失業(yè)”,反過來“AI失業(yè)”又會阻礙ChatGPT的進一步應用。
漫畫:機器人接管重復性工作,例如制造和包裝 圖源:TC
“AI失業(yè)問題”的解決,必須同時考慮遠景和現實兩方面。
從遠景來看,“AI失業(yè)問題”要解決,牽涉到人類社會制度的根本性變革,而不是僅僅靠智能技術和智能治理的發(fā)展所能解決的。根據馬克思主義基本原理,“AI失業(yè)問題”反映出科技生產力發(fā)展與既有生產關系之間的矛盾。機器人能夠取代人類勞動,并不等于實際取代人類勞動,因為此種取代意味著取消少數人通過制度安排強迫大多數人進行勞動的剝削制度。從本質上說,解決“AI失業(yè)問題”,要不斷減少勞動者的工作時間,給人們更多的閑暇時間,最終必須要徹底消滅剝削制度。20世紀的勞動史表明:現代科技在生產中的運用,持續(xù)減少著社會必要總勞動時間,推動“八小時工作制”和“雙休制”被越來越多國家所實施。
從現實來看,社會制度進化需要很長的時間,必須逐步穩(wěn)妥地前進,而且也要等待智能技術不斷地發(fā)展,所以當務之急的問題是給受到人工智能沖擊的勞動者找到新的工作崗位,保證他們能享受科技進步創(chuàng)造的物質財富。
因此,在AIGC產業(yè)化爆發(fā)之初,國家、政府和社會應該深入研究,全盤規(guī)劃,積極應對可能出現的失業(yè)就業(yè)壓力。
比如,完善失業(yè)保障和提供再就業(yè)培訓服務,加強青年人的職業(yè)規(guī)劃和創(chuàng)造性素質提升,調整學校人才尤其人文、藝術等學科的人才培養(yǎng)方向,不端推動產業(yè)升級創(chuàng)造新的就業(yè)崗位等??傊鎸I可能伴隨的失業(yè)風險,必須要放棄非此即彼的極端思維,努力規(guī)避,實時調整。
03 中國的AI如何治理?
建設數字中國是數字時代推進中國式現代化的重要引擎,是構筑國家競爭新優(yōu)勢的有力支撐。
在數字中國建設中,必須推進“以人民為中心”的AI治理,使得AI能真正地造福社會。為此,首先就要呼吁全社會都來關注AI風險問題,政府、企業(yè)、NGO、科技界和公眾按照職責分工,完善政策措施,強化資源整合和力量協(xié)同,形成行動合力,把治理AI風險的各項方案真正落實下去。
除此之外,治理AI風險還可以考慮如下原則性建議:
第一,貫徹有限工具原則。必須清醒認識智能治理的作用——智能治理并非萬能的“完美利器”,在很多情況下同樣會“失靈”,甚至走向妨礙社會效率的反面。因此,既要承認在某些領域、某些問題和某些場合下智能技術提高治理效率的作用,力主優(yōu)先考慮技術治理手段解決問題,又時刻謹記智能技術作用的有限性。堅持科技謙遜主義,警惕“大數據迷信”,采取具體語境具體分析的審度態(tài)度,重視治理活動實際的效果反饋和風險控制。
第二,堅持利用與控制并重。既要發(fā)揮智能治理作用,又要對具體的智能治理進行控制,防止智能平臺和技治專家權力失控。同時,應運用制度-技術的方法,規(guī)避智能治理可能導致的社會風險。
第三,妥善處理“AI失業(yè)問題”。智能技術應用對當代治理活動最大的影響在于:擴大經濟自由,增加閑暇時間,極大地改變公共治理的前提條件,從而改變社會運行的根本面貌。但是,這種影響也意味“AI失業(yè)問題”越來越嚴重,給整個社會的治理活動帶來嚴重挑戰(zhàn),引起全社會的關注,必須審慎地加以處置。
第四,緊密融合“智慧城市”和“數字鄉(xiāng)村”建設??茖W地運行城市是當代技術治理重要的戰(zhàn)略措施,智慧城市則是科學城市的高級形態(tài)。由于當前人類主要生活在城市尤其是大型和超大型城市之中,因而當前的智能治理主要圍繞建設“智慧城市”而推進,或者說以“智慧城市”的建設為主要載體。數字中國建設尤其不可忽視數字鄉(xiāng)村建設,要努力以數字化縮小城鄉(xiāng)差距。
第五,注重智能技術與人的融合。在技術治理活動中,技術與人結合得越好,治理效率越高。加強智能治理活動中人與技術因素的融合,需要從各種智能技術的特點以及相關倫理、法律、心理、危機管理等諸多層面進行系統(tǒng)反思,推進制度建設、技術研發(fā)和人才儲備,加強組織領導、專家咨詢和實戰(zhàn)演練,不斷系統(tǒng)地提升中國的智能治理能力。
第六,在具體語境中區(qū)別治理與操控。智能治理有限度,超過限度就成為智能操控,侵害公民的基本權利。智能治理的未來發(fā)展,必須要具體考慮各種應用的限度,這不僅涉及治理目標,還涉及所采用的手段,只能在具體的社會語境中加以冷靜、客觀和謹慎的審度。防止智能治理走向智能操控,一個很重要的問題在于:必須在一定程度上容忍智能治理的反治理行為。
本文獨家發(fā)布騰訊新聞,未經授權,請勿轉載。