技術(shù)與安全“雙輪”驅(qū)動(dòng)AI產(chǎn)業(yè)發(fā)展
◎本報(bào)記者 劉 艷 楊 雪
新技術(shù)應(yīng)用往往先于規(guī)范,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德,才能營(yíng)造良好的創(chuàng)新生態(tài)。著眼未來,在重視防范人工智能風(fēng)險(xiǎn)的同時(shí),也應(yīng)同步建立容錯(cuò)、糾錯(cuò)機(jī)制,努力實(shí)現(xiàn)規(guī)范與發(fā)展的動(dòng)態(tài)平衡。
近期,人工智能領(lǐng)域大模型聲勢(shì)高漲,短短數(shù)月間,數(shù)十家國(guó)內(nèi)公司先后宣布進(jìn)軍大模型賽道。7月6日在上海舉辦的2023世界人工智能大會(huì)成為大模型集中秀場(chǎng),30余款來自不同企業(yè)的大模型產(chǎn)品和技術(shù)相繼亮相。
科技部新一代人工智能發(fā)展研究中心近期發(fā)布的《中國(guó)人工智能大模型地圖研究報(bào)告》顯示,以“大數(shù)據(jù)+大算力+強(qiáng)算法”相結(jié)合的人工智能大模型,在中國(guó)正迅猛發(fā)展,中國(guó)研發(fā)的大模型數(shù)量已居全球第二,僅次于美國(guó),目前中國(guó)發(fā)布的10億參數(shù)規(guī)模以上的大模型已達(dá)79個(gè)。
以大模型為代表的人工智能技術(shù),其巨大潛力正在加速釋放,想要抓住它所帶來的巨大機(jī)遇,就需要警惕它的潛在安全風(fēng)險(xiǎn)和隱患,這是當(dāng)前人工智能產(chǎn)業(yè)界所面臨的雙向任務(wù)。
人工智能風(fēng)險(xiǎn)具“自有”特點(diǎn)
據(jù)中國(guó)信息通信研究院測(cè)算,2022年中國(guó)人工智能核心產(chǎn)業(yè)規(guī)模已達(dá)5080億元人民幣。
人工智能已成為全球數(shù)字技術(shù)創(chuàng)新最活躍的領(lǐng)域之一,為人們的生產(chǎn)生活帶來了巨大的變革和便利,但也帶來了諸多風(fēng)險(xiǎn)與挑戰(zhàn),如何構(gòu)建安全可信的人工智能是當(dāng)前各界關(guān)注的焦點(diǎn)。
阿拉伯信息通信技術(shù)組織秘書長(zhǎng)穆罕默德·本·阿莫在日前舉辦的世界互聯(lián)網(wǎng)大會(huì)數(shù)字文明“尼山對(duì)話”主論壇上表示,建立一個(gè)安全可信的人工智能系統(tǒng),要首先考慮數(shù)據(jù)隱私與安全、透明度、責(zé)任與問責(zé)、穩(wěn)健性與彈性等因素;此外,還需要建立一個(gè)道德框架,通過以人為本的設(shè)計(jì),優(yōu)先考慮人類福祉。
全球移動(dòng)通信系統(tǒng)協(xié)會(huì)首席執(zhí)行官洪曜莊表示,只有在道德準(zhǔn)則的約束下,人工智能才能真正改善世界。我們必須共同努力構(gòu)建一個(gè)可信賴的環(huán)境,建立以人為本的方法體系,確保人工智能對(duì)于每個(gè)人都可靠、負(fù)責(zé)和公平,最重要的是,能夠普惠所有人。
加強(qiáng)人工智能發(fā)展中潛在風(fēng)險(xiǎn)的研判和防范,維護(hù)人民利益和國(guó)家安全,確保人工智能安全、可靠、可控,是中國(guó)推進(jìn)人工智能治理的重要方向。
早在2017年,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,明確提出到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力;2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
盡管相關(guān)科研機(jī)構(gòu)和科技企業(yè)在人工智能系統(tǒng)設(shè)計(jì)之初就考慮到要保障人工智能安全、可控,但技術(shù)應(yīng)用的趨利避害卻往往難以一蹴而就。
中國(guó)科技大學(xué)公共事務(wù)學(xué)院網(wǎng)絡(luò)空間安全學(xué)院教授左曉棟表示,人工智能的風(fēng)險(xiǎn)和傳統(tǒng)技術(shù)的風(fēng)險(xiǎn)相比,有一些“自有”的特點(diǎn)。比如,人工智能是高度自主智能的,極大依賴數(shù)據(jù)基礎(chǔ),而且還存在“算法黑箱”、算法不可解釋等問題,使得人工智能系統(tǒng)存在大量未知因素,風(fēng)險(xiǎn)預(yù)測(cè)難度較大。
為應(yīng)對(duì)可見的挑戰(zhàn)和不可知的風(fēng)險(xiǎn),我國(guó)應(yīng)加快建立人工智能領(lǐng)域相關(guān)法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力,這是我國(guó)各界對(duì)人工智能發(fā)展的共識(shí)。
大模型“放大”AI安全問題
百度創(chuàng)始人、董事長(zhǎng)兼首席執(zhí)行官李彥宏說:“過去一年,人工智能在技術(shù)、產(chǎn)品、應(yīng)用等各個(gè)層面,以‘周’為迭代速度向前突進(jìn)。大模型成功壓縮了人類對(duì)于世界的認(rèn)知,讓我們看到了實(shí)現(xiàn)通用人工智能的路徑?!?/p>
以今年3月百度率先發(fā)布的大語言模型文心一言為標(biāo)志,我國(guó)大模型創(chuàng)業(yè)潮奔涌,伴隨而來的,是社會(huì)各界越來越多對(duì)于大模型安全的疑惑。但在百度看來,安全問題并不是大模型出現(xiàn)才帶來的新問題。
“大模型之前的人工智能時(shí)代,我們已經(jīng)發(fā)現(xiàn)人工智能本身具有所謂的內(nèi)在安全問題。人工智能算法可能會(huì)被對(duì)象樣本攻擊,正常樣本加入少量對(duì)抗就會(huì)誤導(dǎo)識(shí)別結(jié)果。不管是數(shù)字世界還是物理世界,很多場(chǎng)景都存在這種情況。”清華大學(xué)計(jì)算機(jī)系長(zhǎng)聘教授、清華大學(xué)人工智能研究院副院長(zhǎng)朱軍指出。
在朱軍看來,特別是ChatGPT出現(xiàn)以后,生成式人工智能的安全問題越來越嚴(yán)重,而算法本身是否存在政治偏見和數(shù)字鴻溝,數(shù)據(jù)采集過程中會(huì)不會(huì)侵犯知識(shí)產(chǎn)權(quán)等問題,也是大模型時(shí)代需要重點(diǎn)關(guān)注的問題,可從以下幾個(gè)層面嘗試解決。
首先,從人工智能基礎(chǔ)層面,針對(duì)深度學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò),學(xué)術(shù)界一直在探索第三代人工智能新范式,希望能夠發(fā)展更加安全可靠的人工智能框架。第三代人工智能新范式的優(yōu)勢(shì)就是在于安全、可信、可靠和可拓展。
其次,提升安全評(píng)測(cè)能力,主要關(guān)注對(duì)抗攻擊評(píng)測(cè)、角色扮演與誘導(dǎo)欺騙評(píng)測(cè)、混淆指令欺騙評(píng)測(cè)、標(biāo)識(shí)性能評(píng)測(cè)、數(shù)據(jù)安全評(píng)測(cè)、倫理安全評(píng)測(cè)等。
還有,構(gòu)建人工智能安全治理有效工具,如可以構(gòu)建人工智能安全平臺(tái),通過平臺(tái)化的方式對(duì)人工智能的算法和服務(wù)進(jìn)行評(píng)測(cè)。
業(yè)界不斷嘗試新的“解題思路”
正如北京智源人工智能研究院院長(zhǎng)、北京大學(xué)多媒體信息處理全國(guó)重點(diǎn)實(shí)驗(yàn)室主任黃鐵軍所言,人工智能越來越強(qiáng)大,風(fēng)險(xiǎn)與日俱增,但對(duì)于如何構(gòu)建一個(gè)安全可信的人工智能,我們?nèi)灾跎佟?/p>
面對(duì)這樣的現(xiàn)實(shí),業(yè)界一直在不斷嘗試新的“解題思路”。
6月28日,火山引擎發(fā)布大模型服務(wù)平臺(tái)“火山方舟”,面向企業(yè)提供模型精調(diào)、評(píng)測(cè)、推理等全方位的平臺(tái)服務(wù)。
“企業(yè)使用大模型,首先要解決安全與信任問題?!被鹕揭婵偛米T待表示,“火山方舟”實(shí)現(xiàn)了大模型安全互信計(jì)算,為企業(yè)客戶護(hù)佑數(shù)據(jù)資產(chǎn)安全。基于“火山方舟”獨(dú)特的多模型架構(gòu),企業(yè)可同步試用多個(gè)大模型,選用更適合自身業(yè)務(wù)需要的模型組合。
與小模型的“自產(chǎn)自用”不同,大模型的生產(chǎn)門檻很高,數(shù)據(jù)安全成為大模型時(shí)代的新命題。譚待認(rèn)為,企業(yè)使用大模型,最擔(dān)心的是數(shù)據(jù)泄露,但如果將大模型私有化部署,企業(yè)將承擔(dān)更高的成本,模型生產(chǎn)方也會(huì)擔(dān)心知識(shí)資產(chǎn)安全?!盎鹕椒街邸钡氖滓蝿?wù)就是做好安全保障,使大模型使用者、提供者和云平臺(tái)各方可以互相信任。
據(jù)火山引擎智能算法負(fù)責(zé)人吳迪介紹,“火山方舟”已上線了基于安全沙箱的大模型安全互信計(jì)算方案,利用計(jì)算隔離、存儲(chǔ)隔離、網(wǎng)絡(luò)隔離、流量審計(jì)等方式,實(shí)現(xiàn)了模型的機(jī)密性、完整性和可用性保證,適用于對(duì)訓(xùn)練和推理延時(shí)要求較低的客戶。
黃鐵軍表示,所有的探索才剛剛開始,我們面臨著全新的挑戰(zhàn),原有的經(jīng)驗(yàn)和方法可能都無法解決新問題。
“新技術(shù)應(yīng)用往往先于規(guī)范,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德,才能營(yíng)造良好的創(chuàng)新生態(tài)。著眼未來,在重視防范人工智能風(fēng)險(xiǎn)的同時(shí),也應(yīng)同步建立容錯(cuò)、糾錯(cuò)機(jī)制,努力實(shí)現(xiàn)規(guī)范與發(fā)展的動(dòng)態(tài)平衡?!崩顝┖暾f。
但是,無論從技術(shù)趨勢(shì),還是產(chǎn)業(yè)應(yīng)用來看,大模型都絕不是曇花一現(xiàn)的風(fēng)口,而是影響人類發(fā)展的重大技術(shù)變革,是拉動(dòng)全球經(jīng)濟(jì)增長(zhǎng)的重要引擎,是絕對(duì)不能錯(cuò)過的重大戰(zhàn)略機(jī)遇。李彥宏說:“堅(jiān)持技術(shù)發(fā)展和安全可控的雙輪驅(qū)動(dòng),才能行穩(wěn)致遠(yuǎn)。如果我們安全、負(fù)責(zé)任地駕馭人工智能發(fā)展之路,大模型就會(huì)重塑數(shù)字世界,人工智能就可以為中國(guó)經(jīng)濟(jì)乃至全球經(jīng)濟(jì)創(chuàng)造無與倫比的繁榮,提高全人類福祉?!?div id="1116666" class="adEditor">