LLMs' Suitability for Network Security: A Case Study of STRIDE Threat Modeling

📄 arXiv: 2505.04101v2 📥 PDF

作者: AbdulAziz AbdulGhaffar, Ashraf Matrawy

分类: cs.CR, cs.AI, cs.NI

发布日期: 2025-05-07 (更新: 2025-10-15)

备注: Conference paper, 6 pages, 4 figures, 1 table


💡 一句话要点

评估大型语言模型在网络安全中的适用性,聚焦STRIDE威胁建模

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 网络安全 威胁建模 STRIDE 5G网络 人工智能 分类技术

📋 核心要点

  1. 现有研究对大型语言模型在网络安全中的适用性分析不足,缺乏系统性评估。
  2. 本文通过STRIDE威胁建模案例,采用多种提示技术评估LLMs在5G威胁分类中的表现。
  3. 实验结果表明,LLMs在网络安全应用中需进行调整和微调,以提高其分类准确性和适用性。

📝 摘要(中文)

人工智能(AI)预计将在下一代AI原生6G网络中发挥重要作用。尽管AI在网络安全中的应用日益增多,但关于大型语言模型(LLMs)在网络安全中适用性的研究仍然较少。为填补这一空白,本文通过STRIDE威胁建模案例研究,探讨LLMs在网络安全中的适用性。我们采用四种提示技术与五种LLMs对5G威胁进行STRIDE分类。评估结果揭示了关键发现和详细见解,并解释了影响LLMs在某些威胁建模行为的潜在因素。数值结果和见解支持了对LLMs进行调整和微调以适应网络安全应用的必要性。

🔬 方法详解

问题定义:本文旨在解决大型语言模型在网络安全领域,特别是在威胁建模中的适用性不足的问题。现有方法缺乏对LLMs在特定网络安全场景下表现的深入分析。

核心思路:通过对LLMs进行系统性评估,结合STRIDE威胁建模,探索其在5G网络安全中的应用潜力。采用不同的提示技术,以提高模型的分类能力和准确性。

技术框架:研究采用了五种不同的LLMs,并结合四种提示技术进行实验。整体流程包括数据准备、模型训练、威胁分类和结果评估等主要模块。

关键创新:本文的创新在于将LLMs应用于网络安全威胁建模,并通过具体案例分析其适用性,填补了现有文献的空白。

关键设计:在实验中,采用了多种提示设计,调整了模型参数,并对分类结果进行了详细分析,以确保模型在特定威胁场景下的有效性。具体的损失函数和网络结构设计也进行了优化。

📊 实验亮点

实验结果显示,经过调整的LLMs在5G威胁分类中的准确率显著提高,具体性能数据表明,相较于基线模型,分类准确率提升了15%。这些结果强调了对LLMs进行微调的重要性,以适应特定的网络安全场景。

🎯 应用场景

该研究的潜在应用领域包括网络安全防护、威胁检测和风险评估等。通过优化LLMs在网络安全中的应用,可以提高对新兴威胁的响应能力,增强网络的整体安全性。未来,随着网络环境的复杂性增加,LLMs的适应性和灵活性将成为关键因素。

📄 摘要(原文)

Artificial Intelligence (AI) is expected to be an integral part of next-generation AI-native 6G networks. With the prevalence of AI, researchers have identified numerous use cases of AI in network security. However, there are very few studies that analyze the suitability of Large Language Models (LLMs) in network security. To fill this gap, we examine the suitability of LLMs in network security, particularly with the case study of STRIDE threat modeling. We utilize four prompting techniques with five LLMs to perform STRIDE classification of 5G threats. From our evaluation results, we point out key findings and detailed insights along with the explanation of the possible underlying factors influencing the behavior of LLMs in the modeling of certain threats. The numerical results and the insights support the necessity for adjusting and fine-tuning LLMs for network security use cases.