人工智能與大模型的快速發(fā)展安全風險怎么防
來源:
環(huán)球時報
日期:2023-11-10
責編:
殷緒江
隨著以ChatGPT為代表的生成式人工智能大模型持續(xù)火爆,全球科技公司、科研機構紛紛布局自己的大模型。生成式人工智能與大模型的快速發(fā)展,也給網(wǎng)絡安全帶來全新挑戰(zhàn)。在8日開幕的2023年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會上,國內外安全專家紛紛從各自角度闡釋對人工智能大模型時代網(wǎng)絡安全新挑戰(zhàn)的理解,《環(huán)球時報》記者在“互聯(lián)網(wǎng)之光”博覽會上看到大部分展臺都有大模型相關展品,其中不乏“以魔法打敗魔法”的大模型安全整體解決方案。
人工智能大模型帶來哪些挑戰(zhàn)
在9日舉行的世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會“人工智能賦能產(chǎn)業(yè)發(fā)展論壇”上,中外專家共同發(fā)布了《發(fā)展負責任的生成式人工智能研究報告及共識文件》(以下稱報告)。報告提到,近年來,生成式人工智能在文本、代碼、圖像、音視頻等方面的理解與生成取得突破性進展,有望大幅提升社會生產(chǎn)力。與此同時,報告也用專門的一章解讀了生成式人工智能帶來的風險。

報告稱,生成式人工智能技術在迭代升級的同時也放大了技術安全風險。數(shù)據(jù)方面,數(shù)據(jù)投喂帶來價值偏見、隱私泄露、數(shù)據(jù)污染等問題:訓練數(shù)據(jù)固有偏見導致模型產(chǎn)生偏見內容;海量訓練數(shù)據(jù)擴大了數(shù)據(jù)安全和隱私保護風險。算法方面,算法模型生成特性及安全漏洞會引發(fā)“幻覺”或虛假信息、模型遭受攻擊等風險。報告還提到兩大更深層次的風險:生成式人工智能重構人機關系可能帶來科技倫理失范;強大的任務處理能力,容易導致人的思維依賴;生成式人工智能凸顯發(fā)展的不均衡引發(fā)人類社會發(fā)展差距進一步拉大。
《環(huán)球時報》記者在“互聯(lián)網(wǎng)之光”博覽會上也感受了生成式人工智能可能帶給普通人的安全風險。在一個聚焦青少年編程的公司展臺,記者體驗“看到的也未必是真實的”換臉揭秘實驗。在機器前站幾秒鐘之后,AI就根據(jù)記者的外貌特征提供了兩個換臉模型,一個是秒變“憨豆先生”,另一個是滿臉大胡子。據(jù)展臺工作人員介紹,這就是對青少年進行“換臉”風險的科普。
一名已經(jīng)第十次參加世界互聯(lián)網(wǎng)大會的中國網(wǎng)絡安全專家對《環(huán)球時報》記者表示,前幾年我們關注云安全、大數(shù)據(jù)安全、物聯(lián)網(wǎng)安全,但今天大模型安全是一個必須重視的話題。
大模型如何保障重大活動安保
公開報道顯示,2012年倫敦奧運會,多家媒體遭遇網(wǎng)絡攻擊;2016年里約奧運會遭到大規(guī)模APT襲擊、DDoS攻擊;2018年平昌冬奧會更是遭遇了奧運史上最大的網(wǎng)絡安全事故?!董h(huán)球時報》記者在“互聯(lián)網(wǎng)之光”博覽會上了解到,前不久成功舉辦的杭州亞運會,不僅是一場體育成績、大型活動組織的比拼,更是一場網(wǎng)絡安全攻防對抗的較量。
《環(huán)球時報》記者在“互聯(lián)網(wǎng)之光”博覽會現(xiàn)場看到一個巨大的顯示屏,以動態(tài)形式直觀地演示杭州亞運會網(wǎng)絡安保過程中的態(tài)勢感知與快速應對能力。據(jù)安恒信息副總裁梁浩介紹,現(xiàn)場展示的MSS亞運天穹——新一代主動防御運營中心是服務于杭州亞運安保防護體系的綜合運營中心,它實際上是結合本次亞運會的建設范圍來進行定義的,涉及整個亞運會88個競賽和非競賽場館,相關安全細節(jié)、措施、問題都可以通過這個運營中心的視角及時掌握。如果有需要隨時能夠查看到具體場館里相關的IT機房,檢查安全防護設備在哪個槽位,如有異常、中斷、告警,都能夠及時反饋處置。
據(jù)介紹,杭州亞運會的運動員人數(shù)、賽事項目規(guī)模和場館數(shù)量大概4倍于北京冬奧會,如果按照傳統(tǒng)方式可能需要數(shù)千人才能完成安保,但實際上本次亞運會現(xiàn)場安保只有400多人,如何在這么大范圍內用較少的人員去滿足安保需求,其實就是用了大模型技術。“我們將大模型在安全領域進行了結合,幫助現(xiàn)場分析人員快速輔助進行研判,并提供處置方案。特別是在重點活動保障方面,對時效性要求特別高,比如在杭州亞運會期間觀測到有超過2600萬次的網(wǎng)絡攻擊,在整個攔截過程中更多是用了自動化的關聯(lián)和阻斷技術,其中也用到了人工智能和大模型的能力。”
如何“用魔法打敗魔法”
為了應對生成式人工智能與大模型帶來的挑戰(zhàn),國內網(wǎng)絡安全領域的頭部公司也紛紛在“互聯(lián)網(wǎng)之光”博覽會上展出解決方案?!董h(huán)球時報》記者印象最深的就是用AI對付AI、“用魔法打敗魔法”。比如在奇安信展臺,記者看到“大模型衛(wèi)士”提供的一系列強大防護能力。阿里巴巴展臺也提出“大模型安全全鏈路解決方案”。
參加本次世界互聯(lián)網(wǎng)大會的360集團創(chuàng)始人周鴻祎在接受《環(huán)球時報》采訪時表示,所有數(shù)字化技術必然都是雙刃劍,有軟件就會有漏洞,有漏洞就會被攻擊,人工智能大模型也不可避免。周鴻祎認為,人工智能面臨的安全問題可分為三級:初級/近期問題、中級/中期問題和高級/長期問題。初級/近期問題是技術攻擊問題,也就是網(wǎng)絡攻擊、漏洞攻擊、數(shù)據(jù)攻擊問題,特別是提供給大模型不好的數(shù)據(jù)或污染它的訓練數(shù)據(jù),可能會導致結果出錯。這類問題相對比較好解決。比較難解決的是中級/中期問題,主要涉及內容安全。例如大模型可以成為人們很好的幫手,也能成為壞人的工具。它可以幫一個水平不怎么樣的黑客寫更好的攻擊代碼、詐騙郵件。如何讓它的內容更加可控?如何防止人工智能大模型不作惡?這已經(jīng)超越技術范疇了。盡管現(xiàn)在有人為大模型做了內置的所謂“安全護欄”,但它很容易遭到注入攻擊或算法攻擊。這類問題的解決思路之一是開發(fā)小規(guī)模模型,專門針對不懷好意的提問,讓大模型在回答用戶問題前先用小模型過濾。
周鴻祎認為,從高級/長期的問題來看,大模型可以把人類所有知識融會貫通,再來和人類做交流、做提示。但對于未來萬一大模型能力超越人類后,還能不能甘于做人類的工具,周鴻祎表示,“我的一個觀點是,這些技術帶來的挑戰(zhàn)最終還得靠技術來解決,技術自身會不斷進化。不能因為未來還沒有發(fā)生的問題就不發(fā)展相關技術”。
在8日舉行的2023年世界互聯(lián)網(wǎng)大會藍皮書新聞發(fā)布會上,中國網(wǎng)絡空間研究院網(wǎng)信理論與戰(zhàn)略研究所副所長姜淑麗介紹說,中國堅持安全與發(fā)展并重的原則,為生成式人工智能發(fā)展營造創(chuàng)新生態(tài),同時重視防范風險,制定人工智能監(jiān)管規(guī)則。2023年7月,中國發(fā)布《生成式人工智能服務管理暫行辦法》,是全球范圍內首部針對生成式人工智能的管理辦法。同時,中國發(fā)起“全球人工智能治理倡議”,明確提出發(fā)展人工智能堅持相互尊重、平等互利的原則。