當前 AI(人工智(zhi)能)正炙手可熱。每天都有新的軟件即服務(SaaS)AI 程(cheng)序問世,企業(ye)也紛紛采(cai)用新的 AI 解決方(fang)案,個人消費者則利用 AI 來解決從(cong)作業(ye)輔導到(dao)制定(ding)飲食計劃等各個方(fang)面的問題(ti)。
然而,AI 看(kan)似功能(neng)強大,但它(ta)也給個人、企業和數(shu)據(ju)中心帶(dai)來了諸(zhu)多安全問題。你(ni)可(ke)能(neng)聽說(shuo)過一(yi)些(xie)無良(liang)開(kai)發者(zhe)利用(yong)竊取(qu)的(de)用(yong)戶數(shu)據(ju)訓練 AI 的(de)故事(shi),或(huo)者(zhe) AI 算法抓取(qu)個人圖片和私人對話的(de)情況。此外,員(yuan)工在(zai)請 AI 模型校(xiao)對電子郵件、修復(fu)代碼錯(cuo)誤或(huo)分析文檔時,也常常不(bu)小心泄露公(gong)司機密(mi),這已成為常態。
由(you)于這些(xie)安全漏洞(dong)頻(pin)繁曝光且性質惡劣,人們對此類問題的(de)認識(shi)有所提(ti)高。然而,很多人并未意(yi)識(shi)到(dao) AI 對數(shu)據中(zhong)心構成的(de)威脅。
如果你的(de)(de)數據中(zhong)(zhong)心為(wei)(wei)(wei)客戶運(yun)行 AI 應用(yong)程序、使(shi)用(yong)機器(qi)學習算(suan)法分(fen)析數據,或(huo)在任何戰(zhan)略(lve)、規劃或(huo)管理環節中(zhong)(zhong)使(shi)用(yong) AI,那么它就可能(neng)成為(wei)(wei)(wei)運(yun)營風險(xian)的(de)(de)目標。AI 數據中(zhong)(zhong)心的(de)(de)安(an)全風險(xian)不(bu)勝枚舉,但以下六個是較為(wei)(wei)(wei)常(chang)見的(de)(de)風險(xian)點(dian)。
1. 數據投毒
無論 AI 算法(fa)多(duo)么強大或(huo)復(fu)雜,無論在其開發上(shang)投入了多(duo)少資金(jin)和研究(jiu),AI 模型的(de)好壞完全(quan)取決于它所(suo)接收的(de)數據。換句話(hua)說(shuo),即使開發出了非常復(fu)雜且(qie)直觀的(de)算法(fa),但(dan)如果提供給它的(de)數據有誤,該(gai)算法(fa)也會(hui)產生錯誤的(de)結果。
有時,這些“不(bu)良”數據(ju)集是意外造成的(de)。如(ru)果大型(xing)語言模型(xing)從不(bu)準確的(de)源頭(tou)(如(ru)人們(men)堅信地球是平的(de)互聯網論壇)抓取數據(ju),它將反復吸收(shou)這些錯(cuo)誤(wu)知(zhi)識,直到算法認為(wei)它們(men)是事實。
然而,不(bu)(bu)良數(shu)據(ju)(ju)集往往是蓄意數(shu)據(ju)(ju)投毒攻(gong)擊(ji)的(de)(de)(de)結果。數(shu)據(ju)(ju)投毒發生在惡意行為者用帶(dai)有(you)偏見、誤導性或(huo)故意不(bu)(bu)誠實的(de)(de)(de)信息(xi)污(wu)染數(shu)據(ju)(ju)時,目的(de)(de)(de)是訓練 AI 模(mo)型向(xiang)可能(neng)毫不(bu)(bu)知情的(de)(de)(de)用戶返(fan)回這(zhe)些錯(cuo)誤的(de)(de)(de)“事實”。
攻擊者會向 AI 算(suan)法引入(ru)大量(liang)證(zheng)據來(lai)證(zheng)明地(di)球(qiu)是平(ping)的(de),而使(shi)用該 AI 獲(huo)取結果的(de)用戶可能(neng)無法辨別真偽。他們會閱讀 AI 關于地(di)球(qiu)為什么(me)是平(ping)的(de)的(de)解釋,然后(hou)接受這些信(xin)息,并將其納入(ru)自己的(de)信(xin)仰體(ti)系(xi),然后(hou)向他人(ren)重(zhong)復(fu)。因(yin)此,數據投(tou)毒可能(neng)是一(yi)種(zhong)非常(chang)微妙且危險的(de)破(po)壞手段。
這個例(li)子很簡單,但數(shu)(shu)據投毒往往非(fei)常復雜且難(nan)以檢測。有時,除了向(xiang)算法(fa)提供不良數(shu)(shu)據外,攻擊(ji)(ji)者還(huan)(huan)會教(jiao) AI 模(mo)型(xing)改(gai)變其(qi)分析(xi)信息和做(zuo)出決策的(de)方式。無論攻擊(ji)(ji)者使用其(qi)中一種還(huan)(huan)是兩(liang)種方法(fa),結(jie)果都是相(xiang)同的(de):輸出被歪曲、篡改(gai)甚至完全偽造(zao)。
數(shu)據投毒攻擊可(ke)(ke)能(neng)產生(sheng)毀滅性的(de)(de)后果。數(shu)據投毒攻擊代(dai)價(jia)高昂,需要修復被(bei)污染的(de)(de)數(shu)據并顯著(zhu)提高網(wang)絡安全(quan)水平。此外,一(yi)旦(dan)消費者(zhe)的(de)(de)信任被(bei)破(po)壞(huai),往往很難(nan)或無法恢復。一(yi)次(ci)成功的(de)(de)數(shu)據投毒攻擊就可(ke)(ke)能(neng)嚴重損害組織的(de)(de)聲譽,使(shi)其(qi)永(yong)遠無法恢復。最后,組織通常有(you)必要在(zai)問(wen)題解決之前完全(quan)停(ting)止運(yun)營,這可(ke)(ke)能(neng)意味著(zhu)數(shu)天(tian)、數(shu)周或數(shu)月的(de)(de)收入損失(shi)以及客戶的(de)(de)永(yong)久流失(shi)。
2. 基礎設施漏洞
AI 系統建立在三種類型的基礎(chu)設施之上。
第(di)一(yi)(yi)層(ceng)是(shi)基礎設施(shi)層(ceng)。這包括硬(ying)件、在(zai)該硬(ying)件上運(yun)行的(de)(de)軟件以及(ji)任(ren)何與(yu)(yu)原生(sheng)軟件相鄰(lin)或在(zai)其內部(bu)運(yun)行的(de)(de)云計算(suan)服務。第(di)二層(ceng)是(shi)模型層(ceng),通常包括一(yi)(yi)般、特定和(he)高(gao)度本(ben)地的(de)(de) AI 模型。這一(yi)(yi)層(ceng)負(fu)責 AI 的(de)(de)“思(si)考”過程。第(di)三層(ceng)是(shi)應(ying)用(yong)層(ceng)。這一(yi)(yi)層(ceng)幫助人(ren)類(lei)以雙方(fang)都(dou)能理解的(de)(de)方(fang)式與(yu)(yu) AI 模型進(jin)行交互。應(ying)用(yong)程序為人(ren)類(lei)與(yu)(yu)計算(suan)機算(suan)法之間的(de)(de)溝通提供界面,反之亦(yi)然。
沒有(you)(you)這(zhe)三(san)層,AI 模(mo)型(xing)就無法構(gou)建、訓練(lian)或部署。每一層基(ji)礎設施(shi)都有(you)(you)其(qi)獨特的(de)安全(quan)漏洞。
基礎層(ceng)容易受(shou)到(dao)人(ren)們可(ke)能(neng)在(zai)家庭(ting)計算機(ji)系(xi)統上(shang)看到(dao)的(de)(de)相同類型的(de)(de)攻(gong)(gong)擊(ji),但規模要大得(de)多(duo)。數據(ju)泄露就是(shi)此類問(wen)(wen)題之一(yi)。模型層(ceng)容易受(shou)到(dao)黑客(ke)入(ru)侵并竊取代碼、敏(min)感數據(ju)或(huo)對(dui)整(zheng)個 AI 模型的(de)(de)攻(gong)(gong)擊(ji)。攻(gong)(gong)擊(ji)者(zhe)還可(ke)能(neng)修改(gai)該層(ceng)上(shang)的(de)(de)模型,以改(gai)變其(qi)計算數據(ju)的(de)(de)方式(shi)或(huo)破壞其(qi)決(jue)策(ce)過程。最后一(yi)層(ceng)的(de)(de)應(ying)用(yong)程序容易受(shou)到(dao)旨在(zai)惡意利(li)用(yong)系(xi)統的(de)(de)攻(gong)(gong)擊(ji)。例如,攻(gong)(gong)擊(ji)者(zhe)可(ke)能(neng)會試圖操(cao)縱(zong) AI 提(ti)示用(yong)戶輸入(ru)的(de)(de)方式(shi),從(cong)而(er)引發各種問(wen)(wen)題。
3. 數據泄露
與數(shu)(shu)據投毒相反,數(shu)(shu)據泄露是(shi)指攻(gong)擊者試(shi)(shi)圖將數(shu)(shu)據集中的(de)不(bu)良信(xin)息(xi)注入其中。與試(shi)(shi)圖添加數(shu)(shu)據不(bu)同,數(shu)(shu)據泄露的(de)攻(gong)擊者通(tong)常(chang)試(shi)(shi)圖訪問并(bing)竊(qie)取(qu)敏感信(xin)息(xi)以供自己使用。
攻擊者成功竊取(qu)數據(ju)后的行為可能(neng)(neng)各不相同(tong)。身(shen)份(fen)欺詐和金融(rong)盜(dao)竊是常見的行為。個人和敏(min)感數據(ju)可能(neng)(neng)會被用(yong)于企業(ye)或名人的勒(le)索(suo)和敲詐。最復(fu)雜的團(tuan)隊可能(neng)(neng)會利用(yong)這些數據(ju)來構建成功 AI 模型的復(fu)制品。
與數(shu)據投毒一樣,數(shu)據泄露也會給組(zu)織帶來毀滅性的(de)打擊。AI 客戶會失(shi)去信任(ren),組(zu)織必(bi)須(xu)實施(shi)昂貴的(de)網絡安全措施(shi),并且在(zai)加強安全性的(de)同時停止運營(ying)。
4. 操控結果
惡意行為者(zhe)有多種方式可以操控 AI 的(de)輸出(chu)結果。數據投(tou)毒是一(yi)個(ge)主要(yao)例子,但(dan)它并不是常用的(de)唯一(yi)方法。
有時,黑客所(suo)需要(yao)做的僅僅是識別出(chu)某個特定算(suan)法(fa)處理數(shu)據方式(shi)中的弱點(dian),并(bing)多次利用(yong)這一漏洞。向算(suan)法(fa)中添加(jia)足夠(gou)多的操控數(shu)據,最終 AI 將開始(shi)輸出(chu)不準確的結果。
然而(er),惡意攻擊者(zhe)并非總(zong)是(shi)存在的(de)。隨著 AI 的(de)普及,當前的(de)模(mo)型經常將虛假信息作為事(shi)實輸出,或編造(zao)出違(wei)背現實的(de)聲明(ming)。
這些錯誤的(de)發(fa)生可能是由于(yu) AI 模(mo)型開發(fa)中的(de)不一致性或缺陷(xian)。例如,當 AI 系(xi)統更加關注于(yu)獲取(qu)獎勵而不是提(ti)供有用的(de)信息時(shi),它就會“學習”到可以通過操控系(xi)統來獲得(de)獎勵,而無需真(zhen)正回答(da)用戶的(de)問題(ti)或執行用戶要求的(de)任務。
在其(qi)他(ta)情況下, AI 模型會(hui)根據用戶輸(shu)入的(de)(de)(de)微(wei)妙線(xian)索(suo)進行解釋,并對本應具有相似(si)答案的(de)(de)(de)問(wen)題(ti)生成截(jie)然不同的(de)(de)(de)答案。一個特別典型的(de)(de)(de)例(li)子是,用戶詢問(wen)是什么讓 AI 系(xi)統(tong)容(rong)易受到攻擊(可能是出于實施(shi)更強大(da)的(de)(de)(de)網(wang)絡安全系(xi)統(tong)的(de)(de)(de)良好意(yi)圖),卻收到了關于如何黑入 AI 系(xi)統(tong)的(de)(de)(de)分步指南。
5. 資源過載
許多數據中(zhong)心都面臨的(de)一個問題是 AI 應(ying)用(yong)所帶來的(de)巨大(da)資(zi)源消耗——AI 消耗大(da)量(liang)電力和計算能(neng)力。數據中(zhong)心必須不斷(duan)確保(bao)冷卻系統能(neng)夠應(ying)對(dui)保(bao)持硬件(jian)最佳運行并(bing)避免中(zhong)斷(duan)和停機(ji)時間的(de)巨大(da)挑戰(zhan)。
6. 法律和監管合規問題
由于 AI 算法處理大量數(shu)(shu)據(ju)(ju)——包括個人數(shu)(shu)據(ju)(ju)、企業數(shu)(shu)據(ju)(ju),有(you)時甚至包括機(ji)密數(shu)(shu)據(ju)(ju),因此,法律(lv)和監(jian)管機(ji)構對計劃(hua)使用(yong) AI 的數(shu)(shu)據(ju)(ju)中心實施了嚴格的合規要求。
不(bu)遵(zun)守這些要(yao)求的處(chu)罰通常包括(kuo)巨(ju)額罰款(kuan)、聲(sheng)譽損害,有時甚至會導致服(fu)務(wu)中(zhong)斷。
數據中心應該如何降低這些風險?
以下是一些關(guan)鍵方法(fa):
優先保障網絡安全。實(shi)施數據加密、訪(fang)問(wen)控制(zhi)、網絡升級,以及對算(suan)法(fa)和數據集的持續(xu)監控。
規劃可擴展性。隨(sui)著 AI 應(ying)用(yong)的(de)增(zeng)加,電(dian)力(li)、冷卻和安全需求將呈滾雪球(qiu)式增(zeng)長。
了解并遵守道德和法律指導原則。如(ru)果數(shu)據中心在(zai)法律(lv)規定(ding)內運營(ying),并堅持用(yong)(yong)戶數(shu)據的既(ji)定(ding)道德使用(yong)(yong)原則,那么它們就可以避免許(xu)多法律(lv)問題。
雖然數據(ju)中(zhong)心管理者無法為(wei)每一個(ge)可(ke)能的(de)(de)運營風險制定計劃(hua),但細(xi)致的(de)(de)規(gui)劃(hua)可(ke)以應對最(zui)常見的(de)(de)問題(ti)。
