《電子技術應用》
您所在的位置:首頁 > 人工智能 > 市場分析 > 人工智能開創網絡安全新紀元:2024 年預測

人工智能開創網絡安全新紀元:2024 年預測

2024-03-13
作者:May Wang 博士,Palo Alto Networks 物聯網安全首席技術官
來源:派拓網絡

近幾年來,人工智能 (AI) 一直是網絡安全領域的賭注,但大型語言模型 (LLM) 的廣泛采用使 2023 年成為尤其令人興奮的一年。事實上,大型語言模型已經開始轉變網絡安全的整個格局。然而,它也產生了前所未有的挑戰。

一方面,大型語言模型使處理大量信息變得容易,讓每個人都可以利用人工智能。大型語言模型可以為管理漏洞、防止攻擊、處理警報和響應事故提供驚人的效率、智能和可擴展性。

另一方面,攻擊者也可以利用大型語言模型來提高攻擊效率,利用大型語言模型引入的額外漏洞,而濫用大型語言模型可能會造成更多網絡安全問題,例如由于人工智能的普遍使用而導致的無意數據泄露。

大型語言模型的部署需要一種新的網絡安全思維方式。這種思維更具活力、互動性和個性化。在硬件產品的時代,硬件只有在被下一個新版本的硬件取代時才會發生變化。在云時代,可以更新軟件并收集和分析客戶數據來改進下一版本的軟件,但前提是發布了新版本或補丁。

現在,在人工智能的新紀元,客戶使用的模型有了自己的智能,可以不斷學習,根據客戶的使用情況改變 — 要么更好地服務于客戶,要么向錯誤的方向傾斜。因此,我們不僅需要在設計中建立安全性 — 確保我們構建安全的模型并防止訓練數據中毒 — 而且還要在部署后繼續評估和監控 LLM 系統的安全性、保障性和道德性。

最重要的是,我們需要在我們的安全系統中內置智能(例如向兒童灌輸正確的道德標準,而不僅僅是規范兒童的行為),這樣他們才能適應性地做出正確而堅定的判斷,而不會輕易被不良意見所迷惑。

大型語言模型為網絡安全帶來了什么,是好還是壞?我將分享我們在過去一年中的收獲以及我對 2024 年的預測。

 

回顧 2023 年

一年前(大型語言模型時代之前),我在撰寫機器學習在網絡安全中的未來時,指出了人工智能在網絡安全領域面臨的三個獨特挑戰:準確性、數據短缺和缺乏基本事實,以及三個雖然常見但在網絡安全領域更為嚴峻的人工智能挑戰:可解釋性、人才稀缺和人工智能安全。

一年后的現在,經過大量探索,我們發現大型語言模型在這六個領域中的四個領域幫了大忙:數據短缺、缺乏基本事實、可解釋性和人才稀缺。另外兩個領域 — 準確性和人工智能安全,是極其關鍵的,但仍然非常具有挑戰性。

我從兩個方面總結了在網絡安全領域使用大型語言模型的最大優勢:

1.數據

標注數據

使用大型語言模型幫助我們克服了沒有足夠“標注數據”的挑戰。

要使人工智能模型和預測更準確、更適合網絡安全用例,就必須要有高質量的標注數據。然而,這些數據很難獲得。例如,很難發現能讓我們了解攻擊數據的惡意軟件樣本。遭到入侵的企業并不熱衷于分享這些信息。

大型語言模型有助于收集初始數據并根據現有的真實數據合成數據,對其進行展開以生成有關攻擊來源、載體、方法和意圖的新數據,然后使用這些信息來構建新的檢測,而不局限于實地數據。

基本事實

正如我一年前的文章中提到的,我們并不總是掌握網絡安全的基本事實。我們可以使用大型語言模型,通過發現我們的檢測與多個惡意軟件數據庫之間的差距、降低誤報率和頻繁地重新訓練模型來顯著改善基本事實。

2.工具

大型語言模型特別擅長使網絡安全運營變得更容易、更用戶友好、更具可操作性。到目前為止,大型語言模型對網絡安全的最大影響體現在安全運營中心 (SOC)。

例如,利用大型語言模型實現 SOC 自動化背后的關鍵能力是函數調用,這樣有助于將自然語言指令轉化為可直接操縱 SOC 的 API 調用。大型語言模型還可以協助安全分析師更智能、更快速地處理警報和事故響應。大型語言模型使我們能夠通過直接從用戶那里獲取自然語言命令來集成五花八門的網絡安全工具。

可解釋性

以前的機器學習模型表現很好,但無法回答“為什么?”的問題。大型語言模型有望通過準確而自信地解釋原因來改變游戲規則,這將從根本上變革威脅檢測和風險評估。

大型語言模型快速分析大量信息的能力有助于關聯來自不同工具的數據:事件、日志、惡意軟件系列名稱、來自常見漏洞和暴露 (CVE) 的信息,以及內部和外部數據庫。這不僅有助于找到警報或事故的根本原因,還可以極大地縮短事故管理的平均解決時間 (MTTR)。

人才稀缺

網絡安全行業的失業率為負。我們沒有足夠的專家,人類也無法追趕海量的警報。鑒于大型語言模型的優勢:快速匯集和消化大量信息、理解自然語言命令、將命令分解成必要步驟以及找到執行任務的正確工具,大型語言模型極大地減輕了安全分析師的工作量。

從獲取領域知識和數據到剖析新的樣本和惡意軟件,大型語言模型可以幫助我們更快、更有效地促進構建新的檢測工具,使我們能夠自動完成從識別和分析新的惡意軟件到查明不良行為者的工作。

我們還需要為人工智能基礎設施構建正確的工具,這樣每個人不必成為網絡安全專家或人工智能專家,也能從在網絡安全領域利用人工智能中受益。

 

2024 年的三大預測

人工智能在網絡安全領域的應用越來越廣泛,很明顯,我們正處于一個新時代的開端 – 也就是通常所說的“曲棍球效應”增長的早期階段。我們對能夠改善安全狀況的大型語言模型了解得越多,就越有可能在充分利用人工智能方面領先于潮流(以及我們的對手)。

我認為,在網絡安全領域,有很多方面都已經成熟,可以討論越來越多地使用人工智能來放大力量,對抗復雜性和不斷擴大的攻擊載體,但有三件事很突出:

1.模型

人工智能模型將在創造植根于網絡安全需求的深入領域知識方面取得巨大進步。

去年,人們對改進通用大型語言模型給予了很多關注。研究人員努力讓模型變得更智能、更快、更便宜。然而,這些通用模型可以交付的功能與網絡安全的需求之間存在巨大差距。

具體來說,我們的行業不一定需要一個巨大的模型來回答“如何制作佛羅倫薩雞蛋”或“誰發現了美洲”這樣多元的問題。相反,網絡安全需要超精確模型,具備網絡安全威脅、流程等深入的領域知識。

在網絡安全中,準確性至關重要。例如,我們每天在 Palo Alto Networks 處理來自世界各地 SOC 的超過 75TB 的數據。即使 0.01% 的錯誤檢測判定也可能是災難性的。我們需要具有豐富安全背景和知識的高精度人工智能,提供專注于客戶安全需求的定制服務。換句話說,這些模型需要執行的具體任務更少,但精確度更高。

工程師們在創建具有更多垂直行業和特定領域知識的模型方面取得了巨大進步,我相信,以網絡安全為中心的大型語言模型將在 2024 年出現。

2.用例

網絡安全領域的大型語言模型將出現變革性用例。這將使大型語言模型對于網絡安全不可或缺。

2023 年,每個人都對大型語言模型的驚人能力感到無比興奮。人們用這把“錘子”去敲擊每一顆“釘子”。

2024 年,我們將了解到并非每個用例都最適合大型語言模型。我們將針對與大型語言模型的優勢相匹配的特定任務,推出真正的大型語言模型賦能的網絡安全產品。這將真正為客戶提高效率、改善生產力、增強可用性、解決現實問題并降低成本。

試想一下,能夠閱讀成千上萬有關安全問題的劇本,例如配置端點安全設備、排除性能問題、使用適當的安全憑據和權限引入新用戶,以及逐個供應商地分解安全架構設計。

大型語言模型以可擴展且快速的方式消耗、總結、分析以及生成正確信息的能力將改變安全運營中心,并徹底變革調度安全專業人員的方式、地點和時間。

3.人工智能安全與保障

除了利用人工智能實現網絡安全之外,如何在不損害人工智能模型智能的情況下構建安全的人工智能和安全的人工智能使用也是一個重要的話題。在這個方向上已經有很多討論和偉大的工作。2024 年,真正的解決方案將得到部署,盡管這些解決方案可能只是初步的,但它們將是朝著正確方向邁出的一步。此外,還需要建立智能評估框架,動態評估人工智能系統的安全性和保障性。

請記住,大型語言模型也可能被不良行為者所利用。例如,黑客可以使用大型語言模型輕松生成大量質量更高的網絡釣魚電子郵件。還可以利用大型語言模型來創建全新的惡意軟件。但行業在使用大型語言模型方面正在采取更加協作和戰略性的行動,幫助我們相對于對手取得領先并保持領先。

2023 年 10 月 30 日,美國總統約瑟夫·拜登發布了一項行政命令,內容涉及負責任且適當地使用人工智能技術、產品和工具。這項命令的目的涉及要求人工智能供應商采取一切必要手段,確保其解決方案用于適當用途,而非惡意目的。

人工智能安全和保障代表一種真正的威脅 — 我們必須認真對待這種威脅,并且要假設黑客已經在設計部署來攻擊我們的防御。人工智能模型已經得到廣泛使用,這一簡單事實導致攻擊面和威脅載體大幅擴張。

這是一個充滿活力的領域。人工智能模型每天都在進步。即使是在部署人工智能解決方案后,模型也會不斷發展,永遠不會保持靜止。我們非常需要持續的評估、監控、保護和改進。

越來越多的攻擊將使用人工智能。作為一個行業,我們必須把開發安全的人工智能框架作為首要任務。這就好比當今的登月計劃,涉及供應商、企業、學術機構、政策制定者、監管機構 — 整個技術生態系統的通力合作。毫無疑問,這將是一項艱巨的任務,但我想我們都意識到這是一項多么重要的任務。

 

結語:最好的還在后頭

在某種程度上,ChatGPT 等通用人工智能模型的成功已經讓我們在網絡安全方面被寵壞了。我們都希望能夠構建、測試、部署并不斷改進我們的大型語言模型,使它們更加以網絡安全為中心,但我們卻被提醒,網絡安全是應用人工智能的一個非常獨特、專業、棘手的領域。我們需要從數據、工具、模型和用例這四個關鍵方面入手,使其發揮作用。

好消息是,我們可以接觸到許多聰明、堅定的人,他們有遠見,能夠理解為什么我們必須推進更精確的系統,將功能、智能、易用性以及最重要的網絡安全相關性結合起來。

我有幸在這個領域工作了很長時間,Palo Alto Networks 內部的同事和我們周圍的行業每天都在取得進步,這讓我感到非常興奮和欣慰。

回到預言家這個棘手的問題上,我們很難對未來有絕對的把握。但我確實知道這兩件事:

2024 年將是人工智能在網絡安全領域大顯身手的一年。

而與未來相比,2024 年將顯得黯然失色。

5ebfc6ef0e82c9915228c13531c8d074.jpg

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 国产精品视频a | 国产在线精品观看一区 | 亚洲精品v欧美精品动漫精品 | 亚洲欧美另类日韩 | 欧美性4khd| 亚洲无线一二三四区 | 国产丝袜护土调教在线视频 | 狠狠色噜噜狠狠狠狠色综合网 | 中文字幕视频网 | 你懂的网站在线观看 | 黄色a级片在线观看 | 国产成人免费高清激情明星 | 色吧在线视频 | 日韩色爱 | 亚洲伊人成综合网 | 男女视频在线观看免费高清观看 | 高清不卡毛片免费观看 | 色网站在线免费观看 | 男女真实有遮挡xx00动态图 | 色综合综合在线 | 精品国产免费观看久久久 | 国产黑色丝袜小视频在线 | 日操操| 亚洲日本中文字幕在线2022 | 黄色成人在线视频 | 97精品在线视频 | 波多野结衣久久精品免费播放 | 亚洲一区二区影院 | 免费级毛片 | 羞羞影院体验区 | 宠溺高h共妻 | 日日夜夜天天操 | 欧美成在人线a免费 | 91短视频版在线观看www免费 | 日日干天天干 | 国产精品成人h片在线 | 日韩大片免费看 | 亚洲日本久久一区二区va | 国产啪精品 | 日韩欧美精品在线观看 | 国产精品亚洲综合久久 |