久久爆操,国产精品麻豆,日韩经典第一页,国产一区二区在线|播放,日本女人体,泰国张慧敏绝版写真照片,成人免费毛片一区二区三区

新聞中心news

CQ9電子官網(wǎng)“接管數(shù)字世界”的AI需要適配怎樣的監(jiān)管框架

2024-09-28 08:13:42
瀏覽次數(shù):
返回列表

  CQ9電子官網(wǎng)“接管數(shù)字世界”的AI需要適配怎樣的監(jiān)管框架“生成式AI最大的想象力,絕不是在手機屏幕上做一兩個新的超級APP,而是接管數(shù)字世界,改變物理世界?!?/p>

  這是阿里巴巴集團(tuán)CEO吳泳銘在2024云棲大會上發(fā)表的觀點,也展示了業(yè)界對未來人工智能應(yīng)用圖景的設(shè)想:在應(yīng)用范圍上,AI將涵蓋數(shù)字世界、物理世界的方方面面;在應(yīng)用深度上,大模型在內(nèi)容轉(zhuǎn)化與生成、輔助人類工作等現(xiàn)有職能外會被賦予更多主動性,以至能夠“接管、改變世界”。

  這種設(shè)想一方面展現(xiàn)了人工智能未來的發(fā)展?jié)摿εc應(yīng)用方向,另一方面也隱約帶來了技術(shù)高速發(fā)展下的安全憂慮——對于目前應(yīng)用尚窄且功能有限的大模型,如何保證其內(nèi)容輸出和行為邏輯安全可控已難點重重。而一個能夠接管、改變世界的超級人工智能,必然會涉及更廣泛的社會安全與利益,如何在AI技術(shù)演進(jìn)的過程中逐步完善對AI的監(jiān)督、控制能力,將是在大模型廣泛應(yīng)用過程中需要同步關(guān)注的重點問題。

  在本屆云棲大會同步舉辦的“數(shù)智未來,責(zé)任同行:AI倫理與安全”分論壇上,來自法學(xué)、計算機、產(chǎn)業(yè)、監(jiān)管等多領(lǐng)域的專家針對AI發(fā)展的現(xiàn)狀和前景,展開了進(jìn)一步的交流與討論。

  就目前大模型發(fā)展過程中出現(xiàn)的典型問題來看,數(shù)據(jù)、算法與內(nèi)容是安全威脅頻發(fā)的關(guān)鍵環(huán)節(jié),這一方面是由于其直接與人工智能的輸入輸出環(huán)節(jié)相關(guān)聯(lián),另一方面也直接作用于人類社會,對人們的生產(chǎn)生活產(chǎn)生影響。

  在數(shù)據(jù)領(lǐng)域,據(jù)媒體報道,三星電子在引入ChatGPT不到20天后,便被爆出機密資料外泄的意外事件,涉及半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等內(nèi)容,傳已經(jīng)被存入ChatGPT的數(shù)據(jù)庫中;在內(nèi)容安全方面,近日國內(nèi)多個品牌兒童手表安裝的大模型應(yīng)用被有毒數(shù)據(jù)污染,導(dǎo)致其搜索出歧視中國人內(nèi)容的問題亦受到廣泛重視。

  北京大學(xué)教授,法制與發(fā)展研究院執(zhí)行院長王錫鋅在論壇發(fā)言中表示,由于法律等并非與技術(shù)研發(fā)直接相關(guān)的研究領(lǐng)域,往往難以在其發(fā)展的第一時間就對其充分了解和介入,因而在對人工智能的管理中往往存在各類過期的安全觀。

  例如,歐盟在立法過程中,從GDPR到數(shù)字市場法再到近期的人工智能法案,都有很明顯的以為中心的導(dǎo)向,但其也存在超出產(chǎn)業(yè)發(fā)展階段的“價值迷信”問題,容易導(dǎo)致產(chǎn)業(yè)空心化的布魯塞爾效應(yīng);再如,對于人工智能這樣不斷迭代發(fā)展的技術(shù),法律規(guī)則的設(shè)計面臨著極高難度,要警惕在此過程中的“立法迷信”,避免法律出臺的滯后。

  他進(jìn)一步表示,對于前者,價值在本質(zhì)上需要可落地、可實現(xiàn),要考慮其技術(shù)可行性及成本;對于后者,可以在立法路徑上將“硬法”與“軟法”相結(jié)合,“硬法”緩行,“軟法”先行??傮w而言,要在治理框架上統(tǒng)籌安全與發(fā)展。

  從立法進(jìn)度來看,國內(nèi)的監(jiān)管框架建設(shè)基本也與產(chǎn)業(yè)發(fā)展實際相同步CQ9電子平臺。近日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》,為AI生成內(nèi)容標(biāo)識提供了規(guī)范標(biāo)準(zhǔn),主要是對當(dāng)前已在社會中廣泛應(yīng)用的大模型內(nèi)容輸出應(yīng)用進(jìn)行管理。

  中國信通院安全所副總工楊劍鋒在論壇發(fā)言中表示,就目前的產(chǎn)業(yè)實踐而言,目前主要集中于對模型內(nèi)部的安全檢測,其方法也較為成熟,但對于近期興起的多模態(tài)大模型,例如今年OpenAI推出的視頻生成模型Sora,其在不同應(yīng)用場景下的測評標(biāo)準(zhǔn)和安全措施尚在起步摸索階段。

  在治理思路明確的同時,哪些主體、采用何種手段、以怎樣的形式切入大模型研發(fā)應(yīng)用的過程,亦是各類監(jiān)管標(biāo)準(zhǔn)落地面臨的實際問題。從大模型公司、行業(yè)機構(gòu)和監(jiān)管部門目前的實踐經(jīng)驗來看,其正在各索不同的方法與路徑。

  浙江大學(xué)計算機學(xué)院院長、區(qū)塊鏈與數(shù)據(jù)安全全國重點實驗室常務(wù)副主任任奎在論壇發(fā)言中表示,大模型在訓(xùn)練、開發(fā)、部署和維護(hù)等不同階段面臨不同的安全威脅,需要分階段分步分層次對其進(jìn)行衡量與評測。

  他以浙大網(wǎng)安在人工智能安全評測、深度合成檢測、合成內(nèi)容標(biāo)識三方面研發(fā)的安全技術(shù)平臺為例,指出相關(guān)的技術(shù)平臺需要在間接信任的框架下,兼顧評測覆蓋面、評測效率、可解釋性等多個維度。

  而在第三方研究機構(gòu)之外,作為大模型產(chǎn)業(yè)開發(fā)的直接參與者,業(yè)界對技術(shù)進(jìn)展中產(chǎn)生問題的感知要更為敏銳,對于如何在高頻更新的項目研發(fā)和商業(yè)應(yīng)用過程中,同時保證用戶的使用安全和大模型本身的安全,頭部廠商的經(jīng)驗做法提供了重要的行業(yè)參考。

  通義實驗室安全負(fù)責(zé)人張榮在本次論壇發(fā)言中表示,安全、可靠、可信賴、可用是通義大模型治理的基本目標(biāo)。其中,安全需要多方協(xié)同共治共同參與,可靠則意味著大模型輸出的結(jié)果需要是穩(wěn)定的而非脆弱的,可信則要保證大模型的決策是能夠被觀測和理解的,可用則是在上述條件被滿足后產(chǎn)品能夠適用于各類場景。

  同時他也強調(diào),作為服務(wù)提供商,一方面需要積極引入國家的強制性標(biāo)準(zhǔn),推動落地方案,另一方面也要保持與業(yè)界的廣泛溝通聯(lián)動,用模型開源等方式提升其透明度與可信度。

  “廠商發(fā)布的內(nèi)容不追求所有技術(shù)小白都能看懂,但是要保證業(yè)界能夠理解我們做內(nèi)審安全的方式,以及安全測試的結(jié)果,從而快速驗證某一類方法的安全性,在此基礎(chǔ)上加以完善?!?張榮表示。

搜索