當(dāng)前許多AI系統(tǒng)模型和算法難以確保訓(xùn)練過程中數(shù)據(jù)質(zhì)量和清潔度,模型設(shè)計(jì)的安全性、訓(xùn)練的穩(wěn)定性都存在大的問題。因此對于遍地開花、泛在化AI應(yīng)用系統(tǒng),各種內(nèi)生安全問題和危險(xiǎn)必然是層出不窮。
AI應(yīng)用系統(tǒng)硬件環(huán)境也存在漏洞、后門等內(nèi)生安全的共性問題,這是網(wǎng)絡(luò)空間一大麻煩事。漏洞難以完全避免,后門無法杜絕,現(xiàn)有技術(shù)能力無法徹查漏洞,這是它的共性問題。
近日在北京召開的第十一屆互聯(lián)網(wǎng)安全大會(ISC 2023)上,中國工程院院士鄔江興發(fā)表了題為《動態(tài)異構(gòu)冗余(DHR)構(gòu)造賦能AI應(yīng)用系統(tǒng)內(nèi)生安全實(shí)驗(yàn)》的演講。鄔江興提出,AI時(shí)代是一把“雙刃劍”,在給人類社會帶來極大推動的同時(shí),也形成了潛在的巨大安全威脅,甚至可能會帶來巨大的災(zāi)難。要高度重視AI時(shí)代的安全性,用內(nèi)生安全的方法補(bǔ)齊短板。
當(dāng)前,以深度學(xué)習(xí)為核心的AI應(yīng)用迎來新一輪快速發(fā)展期,人工智能技術(shù)取得突破,人工智能或生成式AI正在為各領(lǐng)域提供信息化、數(shù)字化、智能化的解決方案,正在引發(fā)經(jīng)濟(jì)結(jié)構(gòu)的重大變革,帶動社會生產(chǎn)力的整體躍升。
人工智能安全問題包含內(nèi)生安全問題和非內(nèi)生安全問題,內(nèi)生安全問題又分為個(gè)性問題和共性問題。人工智能的應(yīng)用系統(tǒng)由基礎(chǔ)軟硬件、環(huán)境或者數(shù)據(jù)系統(tǒng)和人工智能的算法、模型組成的。但是深度學(xué)習(xí)AI模型存在3種可能的問題。
神經(jīng)網(wǎng)絡(luò)的黑盒特點(diǎn),導(dǎo)致人工智能存在不可解釋性。深度學(xué)習(xí)對訓(xùn)練樣本的過度依賴,導(dǎo)致學(xué)習(xí)結(jié)果不可判定,神經(jīng)網(wǎng)絡(luò)的前項(xiàng)推進(jìn)不可逆,結(jié)果的不可推論性。這就是人工智能“三不可”。
關(guān)于個(gè)性問題的表現(xiàn),從數(shù)據(jù)采集、模型設(shè)計(jì)、訓(xùn)練、尋找規(guī)律到基于優(yōu)化執(zhí)行任務(wù)的推理階段,存在4種個(gè)性,即算法的黑箱性、數(shù)據(jù)的依賴性、模型的安全性以及輸入的敏感性。
當(dāng)前許多AI系統(tǒng)模型和算法難以確保訓(xùn)練過程中數(shù)據(jù)質(zhì)量和清潔度,模型設(shè)計(jì)的安全性、訓(xùn)練的穩(wěn)定性都存在大的問題。因此對于遍地開花、泛在化AI應(yīng)用系統(tǒng),各種內(nèi)生安全問題和危險(xiǎn)必然是層出不窮。
除了個(gè)性問題,AI應(yīng)用系統(tǒng)硬件環(huán)境也存在漏洞、后門等內(nèi)生安全的共性問題,這是網(wǎng)絡(luò)空間一大麻煩事。漏洞難以完全避免,后門無法杜絕,現(xiàn)有技術(shù)能力無法徹查漏洞,這是它的共性問題。
AI應(yīng)用系統(tǒng)中內(nèi)生安全個(gè)性和共性問題往往是交織疊加存在的,既有漏洞、后門引起的問題,又有黑盒效應(yīng)引起的問題,所以它是更復(fù)雜的一個(gè)安全系統(tǒng)。交織疊加在一起使得AI應(yīng)用系統(tǒng)的安全問題變得極其復(fù)雜,給安全使用和維護(hù)帶來了前所未有的挑戰(zhàn)。
鄔江興提出用內(nèi)生安全理論里的DHR構(gòu)造賦能AI應(yīng)用系統(tǒng)內(nèi)生安全。它可以有效阻斷和控制內(nèi)生安全共性問題,使內(nèi)生安全問題難以發(fā)展成為內(nèi)生安全事件。近年來的理論研究與工程實(shí)踐表明,內(nèi)生安全在機(jī)理上能有效解決AI應(yīng)用系統(tǒng)軟硬件環(huán)境中存在的內(nèi)生安全共性問題,能為AI應(yīng)用系統(tǒng)的數(shù)據(jù)采集、模型訓(xùn)練、算法應(yīng)用等全流程提供“三高”(高可靠、高可信、高可用)的不依賴又不排斥任何附加防御措施的內(nèi)生安全底座。
在此基礎(chǔ)上,鄔江興對個(gè)性化問題進(jìn)行理論分析,得出7條結(jié)論:第一,訓(xùn)練數(shù)據(jù)集的高質(zhì)量構(gòu)建,特別是采用分布概率密度高的數(shù)據(jù),對模型抗攻擊能力的提升更重要;第二,異構(gòu)可解釋性或者差異化的訓(xùn)練模型方法能夠得到多樣化的AI模型,因?yàn)閮?nèi)生安全需要多樣化的環(huán)境做相對性判定;第三,基于彩票假設(shè)證明了不同結(jié)構(gòu)及相同結(jié)構(gòu)不同稀疏程度的深度學(xué)習(xí)網(wǎng)絡(luò)之間很難產(chǎn)生共模;第四,使用網(wǎng)絡(luò)結(jié)構(gòu)自動搜索技術(shù)可以快速構(gòu)建多個(gè)具有特異性深度學(xué)習(xí)AI模型;第五,對抗樣本遷移性對深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)存在強(qiáng)關(guān)聯(lián),異構(gòu)化模型的冗余部署是必不可少的安全機(jī)制;第六,理論上可以證明多個(gè)異構(gòu)化模型的隨機(jī)動態(tài)部署方法,能顯著增強(qiáng)AI應(yīng)用系統(tǒng)安全性;第七,AI模型不確定度估計(jì)方法能夠?yàn)镈HR架構(gòu)執(zhí)行動態(tài)調(diào)度算法提供最優(yōu)化理論支撐。
鄔江興認(rèn)為,這些理論研究證明了即便是AI個(gè)性化問題,我們?nèi)匀豢梢杂脙?nèi)生安全的方法來處理。不論是共性還是個(gè)性問題,基于AI模型構(gòu)造提供工程化的解決途徑,并提供理論層面的支撐。
自去年底以來,生成式人工智能熱度高漲,國內(nèi)公開發(fā)布的大模型已達(dá)百余個(gè),不僅帶動了人工智能產(chǎn)業(yè)的蓬勃發(fā)展,也為其他產(chǎn)業(yè)注入了新動能。 在日前舉辦的第十一屆互聯(lián)網(wǎng)安全大會(ISC 2023)上,多位專家提出,通用人工智能發(fā)展日益體現(xiàn)出技術(shù)創(chuàng)新快、應(yīng)用滲透強(qiáng)、經(jīng)濟(jì)社會影響大、國際競爭激烈的特點(diǎn)。但發(fā)展與安全并... [閱讀]
伴隨大語言模型在各數(shù)字領(lǐng)域的迅速普及和廣泛應(yīng)用,所衍生的一系列安全風(fēng)險(xiǎn)引發(fā)了多起安全事件。為積極應(yīng)對大模型安全帶來的挑戰(zhàn),由中國計(jì)算機(jī)學(xué)會主辦,由CCF大數(shù)據(jù)與計(jì)算智能大賽 (CCF BDCI)組委會、大數(shù)據(jù)協(xié)同安全技術(shù)國家工程研究中心聯(lián)合360集團(tuán)共同承辦的2023年數(shù)字安全公開賽聚焦大模型安全,率先開啟大模型安全賽道,并于近日正... [閱讀]
【環(huán)球科技網(wǎng)】近日,新華社研究院中國企業(yè)發(fā)展研究中心發(fā)布的《人工智能大模型體驗(yàn)報(bào)告2.0》(以下簡稱“報(bào)告”)顯示,當(dāng)前中國大模型產(chǎn)品進(jìn)步顯著,360智腦、智譜ChatGLM等表現(xiàn)搶眼。其中360智腦大模型在基礎(chǔ)能力等方面穩(wěn)居大模型第一梯隊(duì)。報(bào)告評價(jià)稱AI大模型的發(fā)展為人類工作和生活的提質(zhì)增效均帶來了正向的積... [閱讀]
當(dāng)前,全球正處于新科學(xué)革命的起點(diǎn)和新一輪顛覆性技術(shù)大爆發(fā)的前夕。自2018年首次提出以來,科學(xué)智能(AI for Science)作為一種新的科學(xué)研究范式已在學(xué)術(shù)界達(dá)成共識,全球范圍內(nèi)的領(lǐng)先科研團(tuán)隊(duì)成果豐碩,展示出人工智能為科學(xué)研究帶來的巨大價(jià)值。 中國科學(xué)院院士、嘉庚創(chuàng)新實(shí)驗(yàn)室名譽(yù)主任田中群在接受新華網(wǎng)獨(dú)... [閱讀]
2025-06-24
2025-06-24
2025-06-23
2025-06-23
2025-06-16
2025-06-24
2025-06-24
2025-06-23
2025-06-23
2025-06-16