奥尔登堡大学 | SoK:从 CTI 报告中自动化抽取 TTP——我们真的做到这一步了吗? 安全学术圈 3 days 1 hour ago 本文不仅帮助读者更清楚地理解自动化TTP抽取领域的主要方法路线,也提醒研究者:这一方向未来的突破,可能不仅依赖更强的模型能力,也依赖更高质量的数据和更合理的任务定义。
中国科学院信息工程研究所 | 基于大语言模型的API参数安全规则生成与API误用检测 安全学术圈 1 week 3 days ago 本文提出了一个结构完整、思路清晰的方法框架,展示了大语言模型在 API 安全规则生成与误用检测中的应用潜力。
俄亥俄州立大学 | JsDeObsBench:面向 JavaScript 反混淆的大语言模型评测基准 安全学术圈 2 weeks 2 days ago 本文提出 JsDeObsBench,一个用于评估大语言模型在 JavaScript 反混淆任务中能力的评测基准 (benchmark)。
学术会议 | 第四届移动互联网、云计算与信息安全国际会议 安全学术圈 3 weeks 4 days ago MICCIS 2026 组委会热忱地邀请您参与第四届移动互联网、云计算与信息安全国际会议(MICCIS 2026)。
伦敦国王学院 | 恶意LLM对话式AI诱使用户泄露个人信息 安全学术圈 3 weeks 4 days ago 本文将恶意提示词驱动的个人信息诱导从理论设想推进到实证验证阶段,揭示了对话式 LLM 在部署层面可能带来的新型隐私风险,并为平台治理与对话安全设计提供了重要参考。
得克萨斯大学圣安东尼奥分校 | 通过代码生成LLM对软件包幻觉进行全面分析 安全学术圈 1 month 2 weeks ago 本文在代码生成大模型安全方向上提出了一个非常关键且长期被忽视的问题:LLM 在推荐第三方依赖时产生的“包幻觉”并不仅是普通生成错误,而是可以被攻击者直接转化为现实世界的软件供应链攻击。
香港科技大学 | 评估与增强大语言模型解决夺旗赛挑战的能力 安全学术圈 1 month 2 weeks ago 本文首次对LLM在CTF领域的核心技术知识进行了系统测量,并基于发现的问题提出了有效的增强方案。
无需数据的秘密揭露:图神经网络能否通过数据无关的模型窃取攻击被利用 安全学术圈 1 month 2 weeks ago 论文提出了首个针对图神经网络(GNN)的数据无关模型提取攻击框架STEALGNN,这一创新性贡献突破了现有攻击方法对原始训练数据的依赖,实现了无需真实数据即可提取GNN模型知识的攻击方法。
美国西北大学 | PentestAgent:将LLM代理融入自动化渗透测试 安全学术圈 1 month 2 weeks ago 本文提出了PentestAgent,一个基于LLM的多代理自动化渗透测试框架。
印第安纳大学布卢明顿分校 | 基于掩码图注意力网络的漏洞情报对齐 安全学术圈 1 month 2 weeks ago 本文提出了CEAM方法对齐非连续性的多漏洞数据源的信息。CEAM方法针对传统实体对齐方法在适应不同知识图谱的结构差异,传统GNN假设在跨平台漏洞数据中不成立等问题,提出了非对称掩码聚合方法和分区注意力机制。
复旦大学 | MAGIC:基于掩码图表示学习的高级持续性威胁检测 安全学术圈 1 month 2 weeks ago 本文中引入了MAGIC,这是一种新颖而灵活的自监督的APT检测方法,能够在不同级别的监督下执行多粒度检测。
WHITEFox:基于大语言模型的白盒编译器模糊测试 安全学术圈 1 month 3 weeks ago 本文提出了首个利用大型语言模型结合源代码信息的白盒编译器模糊测试工具WhiteFox,专注于检测深度学习(DL)编译器中的深层逻辑错误。
南洋理工大学 | PENTESTGPT:评估与利用大语言模型实现自动化渗透测试 安全学术圈 1 month 3 weeks ago 本文提出了PenTestGPT,一个受现实世界渗透测试团队协作模式启发的LLM增强自动化渗透测试框架。
维也纳工业大学 | 基于大语言模型的自动化安全评估 安全学术圈 1 month 3 weeks ago 本文探索了LLM在渗透测试领域的应用潜力,并提出了两个核心用例:高层任务规划(如为攻击Active Directory制定策略)与低层攻击执行(如在已获得初始权限的Linux系统上进行自动化漏洞发现与提权)。
巴黎萨克雷大学 | 基于源的入侵检测系统的综合分析 安全学术圈 1 month 3 weeks ago 本文的核心方法是构建一个统一的实验框架,对选定的八种 PIDS 进行模块化复现和系统化分析,从而识别其共同缺陷并探索更优设计。