性欧美老肥妇喷水,熟女高潮久久久久久久1f,无码人妻精品中文字幕免费东京热,午夜人妻久久久久久久久

當(dāng)前位置:首頁 > 今日熱點(diǎn) > 熱點(diǎn)追蹤 > 正文

OpenAI的陰陽兩面:呼吁各國加強(qiáng)AI監(jiān)管 游說歐盟減輕對自身監(jiān)管

2023-06-22 07:44:09    來源:騰訊科技    

劃重點(diǎn):


(資料圖片僅供參考)

1在OpenAI游說各國對人工智能進(jìn)行監(jiān)管的同時(shí),該公司秘密游說歐盟,試圖減輕對自身的監(jiān)管。 2OpenAI CEO奧特曼之前曾威脅監(jiān)管過度會考慮退出歐洲市場,但后來又改口稱沒有離開歐洲計(jì)劃,打算與歐盟合作。 3經(jīng)過努力,在歐盟出臺的《人工智能法案》中,“基礎(chǔ)模型”未被納入“高風(fēng)險(xiǎn)”,只需遵守少量要求。

騰訊科技訊 6月22日消息,今年5月,OpenAI的首席執(zhí)行官薩姆·奧特曼(Sam Altman)到訪世界各國首都,與滿座的人群交談并與政府首腦會晤時(shí),他一再談到全球人工智能監(jiān)管的必要性。

但根據(jù)外媒從歐盟委員會獲得的有關(guān)OpenAI與歐盟官員接觸的文件顯示,在幕后,OpenAI一直通過游說希望對《人工智能法案》(AI Act)進(jìn)行調(diào)整,以減輕該公司的監(jiān)管負(fù)擔(dān)?!度斯ぶ悄芊ò浮纺壳笆侨蜃钊娴娜斯ぶ悄芊ò浮1驹轮醒?,歐洲議會投票通過了該法案,禁止實(shí)時(shí)面部識別,并對ChatGPT等生成式人工智能工具提出了新的透明度要求?!度斯ぶ悄芊ò浮番F(xiàn)在將進(jìn)入歐盟啟動(dòng)監(jiān)管前的最后階段。歐盟官員將嘗試就這一法律草案與歐盟行政部門和成員國達(dá)成妥協(xié),他們之間目前仍存分歧。如果該法案要在歐盟明年的選舉前生效,則必須在明年1月完成立法程序。

2022年,OpenAI一再向歐洲官員提出,即將出臺的《人工智能法案》不應(yīng)將OpenAI的通用人工智能系統(tǒng)--包括ChatGPT的前身GPT-3和圖像生成器Dall-E 2--視為“高風(fēng)險(xiǎn)”。如果被納入“高風(fēng)險(xiǎn)”范圍,將使它們受到嚴(yán)格的法律監(jiān)管,包括透明度、可追溯性和人力監(jiān)督。

這種做法使OpenAI與已向自己投資130億美元的微軟,以及互聯(lián)網(wǎng)搜索巨頭谷歌站在了一起。這兩家公司此前都曾游說歐盟官員,支持放松該法案對大型人工智能提供商的監(jiān)管。兩家公司都認(rèn)為,遵守該法案最嚴(yán)格要求的責(zé)任應(yīng)該由明確將人工智能應(yīng)用于高風(fēng)險(xiǎn)用例的公司承擔(dān),而不是由構(gòu)建通用人工智能系統(tǒng)的公司承擔(dān)。

“就其本身而言,GPT-3并不是一個(gè)高風(fēng)險(xiǎn)系統(tǒng),”O(jiān)penAI在一份此前未公開的7頁文件中說,該文件于2022年9月發(fā)送給歐盟委員會和理事會官員,題為《OpenAI關(guān)于歐盟人工智能法案的白皮書》?!暗撬鼡碛锌梢栽诟唢L(fēng)險(xiǎn)用例中使用的可能性。”

OpenAI在歐洲的這些游說努力之前從未被報(bào)道,而奧特曼最近對歐盟《人工智能法案》變得更加直言不諱。今年5月,他在倫敦告訴記者,如果OpenAI認(rèn)為自己無法遵守規(guī)定,它可以決定在歐洲“停止運(yùn)營”,他說為此他受到“很多”批評。奧特曼后來收回了警告,說自己的公司沒有離開歐洲的計(jì)劃,并打算與歐盟合作。

盡管如此,OpenAI的游說努力似乎是成功的:歐盟立法者批準(zhǔn)的法案最終草案沒有包含早期草案中的措辭,即通用人工智能系統(tǒng)應(yīng)被視為與生俱來的高風(fēng)險(xiǎn)。相反,達(dá)成一致的法律要求所謂的“基礎(chǔ)模型”,即經(jīng)過大量數(shù)據(jù)訓(xùn)練的強(qiáng)大人工智能系統(tǒng)的提供商,遵守少量要求,包括防止非法內(nèi)容的產(chǎn)生,披露系統(tǒng)是否經(jīng)過版權(quán)材料訓(xùn)練,以及進(jìn)行風(fēng)險(xiǎn)評估。知情人士透露,OpenAI支持將“基礎(chǔ)模型”作為法案中的一個(gè)獨(dú)立類別。

回到2022年9月,歐盟委員會這一明顯的讓步尚未達(dá)成。在當(dāng)時(shí)OpenAI與歐洲官員分享的白皮書中,該公司抵制了《人工智能法案》中一項(xiàng)擬議修正案。該修正案認(rèn)為,如果ChatGPT和Dall-E等生成式人工智能系統(tǒng)生成的文本或圖像可能“在人看來是由人類生成的,是真實(shí)的”,那么就應(yīng)當(dāng)歸類為“高風(fēng)險(xiǎn)”。OpenAI在白皮書中表示,這一修正案將意味著他們的模型可能“無意中”被視為高風(fēng)險(xiǎn),并建議廢除該修正案。該公司認(rèn)為,相反,依賴該法案的另一部分就足夠了,該部分要求人工智能提供商充分標(biāo)記人工智能生成的內(nèi)容,并讓用戶明白他們正在與人工智能系統(tǒng)進(jìn)行互動(dòng)。

OpenAI提出異議的修正案沒有被納入歐洲議會6月份批準(zhǔn)的《人工智能法案》最終文本中?!八麄兊玫搅怂麄兿胍模睔W洲數(shù)字權(quán)利的高級政策顧問莎拉·錢德爾(Sarah Chander)說。她說,這份文件“表明OpenAI和許多大型科技公司一樣,利用人工智能的效用和公共利益來掩蓋他們淡化監(jiān)管的財(cái)務(wù)利益?!?/p>

OpenAI發(fā)言人對此表示:“應(yīng)歐盟政策制定者的要求,2022年9月,我們提供了一份關(guān)于我們安全部署GPT-3等系統(tǒng)的方法的概述,并根據(jù)這一經(jīng)驗(yàn)對當(dāng)時(shí)的《人工智能法案》草案進(jìn)行了評論。從那以后,《人工智能法案》已經(jīng)有了實(shí)質(zhì)性的發(fā)展,我們已經(jīng)公開談?wù)撨^這項(xiàng)技術(shù)的進(jìn)步能力和應(yīng)用。我們繼續(xù)與政策制定者合作,并支持歐盟的目標(biāo),即確?,F(xiàn)在和未來安全地構(gòu)建、部署和使用人工智能工具。”

2022年6月,在提交白皮書的三個(gè)月前,三名OpenAI工作人員在布魯塞爾首次會見了歐盟委員會官員?!癘penAI希望歐盟委員會澄清風(fēng)險(xiǎn)框架,并知道他們?nèi)绾文軌蛱峁椭?,”歐盟委員會保存的官方會議記錄顯示?!八麄儞?dān)心通用人工智能系統(tǒng)會被列為高風(fēng)險(xiǎn)系統(tǒng),并擔(dān)心更多的系統(tǒng)會被默認(rèn)為高風(fēng)險(xiǎn)系統(tǒng),”據(jù)一名直接了解此次接觸的歐盟委員會消息人士稱,官員們從那次會議中獲得的信息是,OpenAI和其他大型科技公司一樣,害怕可能影響人工智能創(chuàng)新的“過度監(jiān)管”。該消息人士稱,OpenAI的員工在會議上表示,他們意識到了風(fēng)險(xiǎn),并盡一切努力減輕風(fēng)險(xiǎn),但員工沒有明確表示,由于他們的努力,OpenAI應(yīng)該受到更寬松的監(jiān)管。他們也沒有說他們希望看到什么樣的監(jiān)管?!癘penAI沒有告訴我們好的監(jiān)管應(yīng)該是什么樣子,”該人士表示。

白皮書似乎是OpenAI提供這種投入的方式。在該文件的一個(gè)部分,OpenAI詳細(xì)描述了它用來防止其生成式人工智能工具被濫用的政策和安全機(jī)制,包括禁止生成特定個(gè)人的圖像,通知用戶他們正在與人工智能互動(dòng),以及開發(fā)工具來檢測圖像是否是人工智能生成的。在概述了這些措施之后,OpenAI似乎暗示這些安全措施應(yīng)該足以防止其系統(tǒng)被視為“高風(fēng)險(xiǎn)”。

OpenAI在白皮書中還表示:“我們相信,我們降低系統(tǒng)通用性質(zhì)風(fēng)險(xiǎn)的方法是行業(yè)領(lǐng)先的。盡管采取了上述措施,但我們擔(dān)心,圍繞通用系統(tǒng)的擬議語言可能會無意中導(dǎo)致我們所有的通用人工智能系統(tǒng)被默認(rèn)為高風(fēng)險(xiǎn)?!?/p>

審閱OpenAI白皮書的Access Now布魯塞爾辦事處專注于人工智能的高級政策分析師丹尼爾·勒弗(Daniel Leufer)表示:“他們說的基本上是:相信我們會自我監(jiān)管。這非常令人困惑,因?yàn)樗麄儗φ驼f,‘請監(jiān)管我們’,他們吹噓他們所做的所有(安全)事情,但你一說,‘好吧,讓我們相信你的話,把它定為監(jiān)管底線’,他們就說不。”

在白皮書的其他部分,OpenAI主張修改該法案,允許人工智能提供商出于安全原因快速更新他們的系統(tǒng),而不必首先經(jīng)過歐盟官員可能很長的評估。

該公司還主張破例允許在教育和就業(yè)領(lǐng)域使用生成式人工智能。OpenAI認(rèn)為,例如,人工智能系統(tǒng)起草工作描述的能力不應(yīng)被視為“高風(fēng)險(xiǎn)”用例,也不應(yīng)被視為在教育環(huán)境中使用人工智能起草考試問題以供人類管理。OpenAI去年9月表達(dá)了這些擔(dān)憂后,該法案增加了一項(xiàng)豁免,“非常符合OpenAI的愿望,即從系統(tǒng)范圍中刪除那些對人類決策沒有實(shí)質(zhì)性影響或只是有助于決策的系統(tǒng),”勒弗說。

OpenAI繼續(xù)與致力于同歐盟官員就《人工智能法案》問題進(jìn)行接觸。在今年3月31日的一次會議上,根據(jù)歐盟委員會保存的官方會議記錄,OpenAI對ChatGPT的安全功能進(jìn)行了演示。OpenAI的工作人員在會上解釋了在操作中學(xué)習(xí)的做法,即該公司在全球發(fā)布人工智能模型并根據(jù)公眾使用情況進(jìn)行調(diào)整。該員工稱,這種做法“非常重要?!?/p>

根據(jù)記錄,OpenAI還在會議期間告訴官員,“對人工智能的指示可以調(diào)整為拒絕共享例如如何制造危險(xiǎn)物質(zhì)的信息”。情況并非總是如此。研究人員已經(jīng)證明,在正確的哄騙下,ChatGPT可能容易被越獄行為利用。在這種情況下,特定的提示可能會導(dǎo)致它繞過其安全過濾器,并遵守指令,如編寫釣魚電子郵件或提供危險(xiǎn)物質(zhì)的配方。(無忌)

關(guān)鍵詞:

上一篇:英媒:澤連斯基承認(rèn),“反攻”進(jìn)展比預(yù)期要慢
下一篇:最后一頁