性欧美老肥妇喷水,熟女高潮久久久久久久1f,无码人妻精品中文字幕免费东京热,午夜人妻久久久久久久久

當前位置:首頁 > 今日熱點 > 熱點追蹤 > 正文

微軟稱GPT-4已經(jīng)是早期通用人工智能?反對者:缺少自我意識_速看

2023-04-24 08:41:08    來源:騰訊科技    

劃重點


【資料圖】

1在將GPT-4系統(tǒng)接入微軟必應并推出新的聊天功能幾周后,微軟研究團隊發(fā)表論文,聲稱在早期的實驗中,他們發(fā)現(xiàn)GPT-4已顯示出“通用人工智能的火花”。 2微軟研究人員在論文中列舉的許多例子表明,與大多數(shù)以前的人工智能程序不同,GPT-4并不局限于執(zhí)行特定的任務,而是可以處理各種各樣的問題,這是通用人工智能的必備品質(zhì)。 3微軟的研究在社交媒體上遭到了其他人工智能研究人員和專家的反對。他們認為微軟使用通用人工智能這個詞就是為了炒作,而微軟向OpenAI投資100多億美元讓其有這么做的動機。 4目前還不清楚未來幾代GPT能否獲得通用人工智能的能力,除非采用不同的開發(fā)技術(shù),這可能意味著從機器學習之外的人工智能研究領(lǐng)域汲取靈感。重要的是,要仔細考慮是否要以這種方式設(shè)計人工智能系統(tǒng),因為這可能會產(chǎn)生不可預見的后果。

騰訊科技訊 4月24日消息,微軟在研究論文中聲稱,新一代的人工智能算法GPT-4可能會讓人覺得它們已經(jīng)達到了早期通用人工智能(AGI)的水平,只是目前尚缺少相關(guān)判定標準。然而許多反對者表示,微軟是在炒作,GPT-4也缺少始終如一的自我意識。

去年9月份的一個晚上,微軟機器學習研究員塞巴斯蒂安·布貝克從睡眠中醒來,想到了人工智能和獨角獸。最近,布貝克提前獲得了GPT-4的使用權(quán),這是人工智能研究公司OpenAI開發(fā)出的強大文本生成算法,也是廣受歡迎的聊天機器人ChatGPT核心機器學習模型的升級版。

布貝克是微軟一個關(guān)鍵團隊的成員,該團隊致力于將新的人工智能系統(tǒng)整合到微軟的必應搜索引擎中。然而,即使身在其間,布貝克和他的同事們?nèi)泽@嘆于GPT-4的能力,它與他們以前見過的任何東西都截然不同。

與此前的大型語言模型一樣,GPT-4也被輸入了大量的文本和代碼,并被訓練使用語料庫中的統(tǒng)計模式來預測應該在回復文本輸入時生成的單詞。但對布貝克來說,該系統(tǒng)的輸出似乎不僅僅是做出統(tǒng)計學上合理的猜測。

那天晚上,布貝克起床并走到他的電腦前,讓GPT用TikZ(一種相對晦澀的、用于生成科學圖表的編程語言)繪制獨角獸。布貝克使用的GPT-4版本只能處理文本,不能處理圖像。但是模型給他提供了代碼,在將代碼輸入到TikZ渲染軟件中時,產(chǎn)生了一個由橢圓形、矩形和三角形拼湊而成的、盡管粗糙卻十分獨特的圖像。

對布貝克來說,這樣的成功肯定需要算法對這種生物有某種程度上的抽象把握。他說:“這里正在發(fā)生許多新的事情,也許這是我們第一次擁有可以稱之為智能的東西?!?/p>

人工智能將變得多么智能?我們應該在多大程度上相信一種越來越普遍的感覺,即軟件是智能的?這些已經(jīng)成為一個緊迫的、幾乎令人感到恐慌的問題。

去年11月,OpenAI發(fā)布了由GPT-3提供支持的ChatGPT,它以針對大量主題撰寫詩歌和散文的能力、解決編碼問題,以及從網(wǎng)絡上合成知識的能力震驚了世界。但令人感到敬畏的同時,也伴隨著人們對其被用于學術(shù)欺詐、錯誤信息傳播和造成大規(guī)模失業(yè)的擔憂。此外,人們也對微軟等公司急于開發(fā)可能被證明非常危險的技術(shù)擔心不已。

理解AI新能力的潛力或風險意味著,我們要清楚地掌握它們具備哪些能力,以及無法做到哪些事情。然而,雖然人們普遍認為ChatGPT和類似的系統(tǒng)賦予了計算機重要的新技能,但研究人員才剛剛開始研究這些行為,并確定提示背后發(fā)生了什么。

雖然OpenAI通過夸贊GPT-4在律師和醫(yī)學考試中的出色表現(xiàn)來推廣它,但研究人類智能方面的科學家表示,它的卓越能力在關(guān)鍵方面與我們不同。這些模型不僅傾向于編造事實,而且分歧巨大。每天都有數(shù)以百萬計的人在使用這項技術(shù),許多公司也把未來押在了這項技術(shù)上,這是個亟待解決的問題。

AIG火花

布貝克和微軟的其他人工智能研究人員受到GPT-4經(jīng)驗的啟發(fā),參與了這場辯論。在將GPT-4系統(tǒng)接入必應并推出新的聊天功能幾周后,該公司發(fā)表了一篇論文,聲稱在早期的實驗中,GPT-4顯示出“通用人工智能的火花”。

作者列舉了許多例子,在這些例子中,該系統(tǒng)執(zhí)行的任務似乎反映了更通用的智能,大大超過了以前的系統(tǒng),如GPT-3。這些例子表明,與大多數(shù)以前的人工智能程序不同,GPT-4并不局限于特定的任務,而是可以處理各種各樣的問題,這是通用人工智能的必備品質(zhì)。

作者還認為,這些系統(tǒng)展示了推理、計劃、從經(jīng)驗中學習以及將概念從一種形態(tài)轉(zhuǎn)移到另一種形態(tài)的能力,比如從文本到圖像。論文指出:“鑒于GPT-4能力的廣度和深度,我們認為它可以被合理地視為通用人工智能(AGI)系統(tǒng)的早期版本,盡管其仍不完整?!?/p>

布貝克與包括微軟首席科學官在內(nèi)的另外14人共同撰寫了這篇論文,但其在社交媒體上遭到了人工智能研究人員和專家的反對。通用人工智能是一個模糊的描述,有時用來暗指超級智能或神級機器,這個詞的使用惹惱了許多研究人員,他們認為這是當前炒作的證據(jù)。

在有些研究人員看來,微軟向OpenAI投資超過100億美元的事實表明,該公司的人工智能專家有動機大肆宣傳GPT-4的潛力,同時淡化其局限性。其他人則抱怨說,實驗不可能復制,因為當提示重復出現(xiàn)時,GPT-4很少以同樣的方式做出反應,而且OpenAI還沒有分享其設(shè)計細節(jié)。當然,人們也會問,如果GPT-4真的這么聰明,為什么它還會犯可笑的錯誤?

美國伊利諾斯大學厄巴納-香檳分校的塔利亞·林格教授說,微軟的論文“展示了一些有趣的現(xiàn)象,然后提出了一些非??鋸埖挠^點。吹捧系統(tǒng)具有高度智能,會鼓勵用戶信任它們,即使它們存在嚴重缺陷。雖然從用于衡量人類智力的系統(tǒng)中借鑒某些想法可能很誘人,但許多想法已被證明是不可靠的,甚至根植于種族主義?!?/p>

布貝克也承認其研究存在局限性,包括可重復性問題,而且GPT-4也有很大的盲點。他說:“使用通用人工智能一詞就是為了引發(fā)爭論。從定義上講,智能是通用的。我們想了解這個模型的智能程度以及廣度,畢竟它涵蓋了很多很多領(lǐng)域?!?/p>

但是在布貝克論文中引用的所有例子中,有很多都表明GPT-4在某些事情上犯了明顯的錯誤,而且通常是在微軟團隊用來吹噓其成功的任務上。例如,例如,GPT-4能夠提出一種穩(wěn)定的方法來堆放一系列具有挑戰(zhàn)性的物品,包括一本書、四個網(wǎng)球、一個釘子、一個酒杯、一團口香糖和未煮熟的意大利面,這似乎指向了其對世界物理屬性的把握,這被視為人類的第二天性。然而,更改話題和要求可能會導致奇怪的失敗,這表明GPT-4對物理的掌握并不完整或不一致。

布貝克指出,GPT-4缺乏工作記憶,在提前計劃方面毫無建樹。他說:“GPT-4不擅長這一點,也許大型語言模型通常永遠不會擅長這方面的工作?!彼傅氖荊PT-4等系統(tǒng)核心的大規(guī)模機器學習算法,“如果你想說智能就是計劃,那么GPT-4就不是智能?!?/p>

毋庸置疑的是,GPT-4和其他強大人工智能語言模型的工作原理與大腦或人類思維過程并不相似。算法必須輸入大量的訓練數(shù)據(jù)(互聯(lián)網(wǎng)上的大量文本),這遠遠超過人類學習語言技能所需的數(shù)據(jù)。灌輸GPT-4的“經(jīng)驗”,以及用它構(gòu)建的東西,這些智能物品是批量產(chǎn)出的,而不是通過與世界的互動和說教式對話獲得的。

由于沒有工作記憶,ChatGPT只能通過在每次對話重新輸入會話歷史來維持會話的線程。然而,盡管存在這些差異,GPT-4顯然是一大飛躍,研究智力的科學家表示,它的能力需要進一步的研究。

機器之心

一個由麻省理工學院、加州大學洛杉磯分校和得克薩斯大學奧斯汀分校的認知科學家、語言學家、神經(jīng)科學家和計算機科學家組成的團隊在1月份發(fā)表了一篇研究論文,探討了大型語言模型的能力與人類的能力有何不同。

該團隊得出結(jié)論稱,盡管大型語言模型展示了令人印象深刻的語言技能,包括連貫地就給定主題寫出復雜文章的能力,但這與理解語言以及如何在世界上使用語言截然不同。這其中存在的脫節(jié)問題可能是語言模型開始模仿堆疊物體或解決謎語所需常識推理的原因。但是,當涉及到理解社會關(guān)系、物理世界如何運作以及人們?nèi)绾嗡伎紩r,這些系統(tǒng)仍然會犯奇怪的錯誤。

這些模型使用語言的方式,通過預測最可能出現(xiàn)在給定字符串后面的單詞,與人類通過說話或?qū)懽鱽韨鬟_概念或意圖的方式也有很大不同。這種統(tǒng)計方法可能會導致聊天機器人跟隨并反映用戶提示的語言,甚至到了荒謬的地步。

例如,當一個聊天機器人告訴某人離開他們的配偶時,它只會給出在對話線索下看起來最合理的答案。ChatGPT和類似的機器人將使用第一人稱,因為它們接受過人類寫作的訓練。但它們沒有始終如一的自我意識,可以在瞬間改變自己聲稱的信仰或經(jīng)歷。OpenAI還使用來自人類的反饋來引導模型生成人們認為更連貫和正確的答案,這可能會促使模型提供被認為更令人滿意的答案,而不管它們是否準確。

麻省理工學院教授喬?!ぬ啬硝U姆是1月份那篇論文的撰稿人之一,他研究人類認知以及如何利用機器探索人類認知。他說,GPT-4很了不起,但在很多方面與人類智能有很大不同。例如,它缺乏對人類思維至關(guān)重要的那種動機,“它甚至不在乎是否關(guān)閉”。人類不是簡單地遵循自己的程序,而是根據(jù)自己的需要和愿望為自己創(chuàng)造新的目標。

特南鮑姆還稱,GPT-3、GPT-4和ChatGPT之間發(fā)生許多關(guān)鍵的工程變化,使它們的能力更加強大。首先,該模型是在大量計算機代碼上進行訓練的。他和其他人認為,人腦可能使用類似于計算機程序的東西來處理部分認知任務,所以也許GPT-4從代碼中發(fā)現(xiàn)的模式中學到了非常有用的東西。他還指出,ChatGPT從人類那里得到的反饋是一個關(guān)鍵因素。

但特南鮑姆表示,由此產(chǎn)生的能力并不等同于人類智力特征中的一般智力。他說:“我對人類個體和集體的認知能力很感興趣,這不僅僅是一種執(zhí)行一大堆任務的能力。我們制造任務,我們也能制造解決這些任務的機器?!?/p>

特南鮑姆還說,目前還不清楚未來幾代GPT能否獲得這些能力,除非采用一些不同的技術(shù),這可能意味著從機器學習之外的人工智能研究領(lǐng)域汲取靈感。重要的是,要仔細考慮我們是否要以這種方式設(shè)計系統(tǒng),因為這樣做可能會產(chǎn)生不可預見的后果。

1月份那篇論文的另一位作者、得克薩斯大學奧斯汀分校語言學助理教授凱爾·馬霍瓦爾德說,基于GPT-4能力的單個例子做出任何判斷都是錯誤的。他解釋稱,認知心理學的工具可以用來衡量這些模型的智力。但他補充說,GPT-4的不透明性使挑戰(zhàn)變得更復雜。重要的是訓練數(shù)據(jù)中有什么,我們不知道。如果GPT-4在那些明確訓練過的常識性推理任務上取得成功,而在其他沒有訓練過的任務上失敗,很難據(jù)此得出結(jié)論。

那么,GPT-4是否可以被視為邁向通用人工智能的一小步,完全取決于你的看法。重新定義這個詞可能是最令人滿意的答案。斯坦福大學心理學、計算機科學和語言學副教授諾亞·古德曼表示:“我現(xiàn)在的觀點是,這就是通用人工智能,因為它是一種通用的智能,但前提是我們對通用人工智能的含義不那么固執(zhí)。”

不幸的是,GPT-4和ChatGPT被設(shè)計為抵制這種簡單的重構(gòu)。它們很聰明,但幾乎沒有提供關(guān)于如何或為什么的見解。更重要的是,人類使用語言的方式依賴于在對話的另一邊有一個智能實體的心理模型來解釋我們所表達的詞語和想法。我們不禁發(fā)現(xiàn),如此輕松使用語言的生物身上閃爍著智慧的光芒。古德曼說:“如果預言模式是有意義的,那么人類天生就會把它們理解為有意的,并適應這種情況?!?/p>

人工智能不像人類,卻看起來如此聰明,這一事實仍然令人驚嘆。古德曼稱:“我們獲得了大量的原始智力,但它不一定帶有自我觀點、目標或連貫的自我意識。然而對我來說,這已經(jīng)足夠迷人了?!保ń鹇梗?/p>

關(guān)鍵詞:

上一篇:困在加班中:大廠員工每天工作長達13小時,公司曾把加班列入KPI
下一篇:最后一頁