生异形吗,挖掘构建你自己的Java内存马
最近在研究LLM集成应用框架时,在审计某BAT大厂的github18k大型开源LLM集成应用框架项目时发现了一处隐蔽的加载漏洞,虽然开发者打过了防御补丁,但仍然可进行绕过并已提交CVE。遂深入进行了该类型的漏洞在LLM集成应用框架中的探究,供师傅们交流指点...
Risen 勒索软件是一种加密型恶意软件,它侵入受害者系统后,会加密并重命名文件(通常在原扩展名后添加电子邮件地址与用户 ID,如 “.Default@firemail.de].E86EQNTPTT”),同时在桌面和登录前屏幕显示勒索信息,然后留下两个勒索信文件(“Risen_Note.txt” 和 “Risen_Guide.hta”),要求受害者联系攻击者(通过提供的邮箱地址)并在三天内合作,否则威胁泄露或出售网络中的数据。
在Java Web生态中,org.json是一个轻量级的json构造和解析工具包,其提供了简洁的API进行相关JSON的反序列化操作。浅谈其解析过程与参数走私案例。
议题从攻防角度出发,剖析.NET常见高危反序列化组件,结合实战案例,深入解析JavaScriptSerializer的特殊漏洞触发机制,从上传恶意DLL到加载混合程序集的完整利用链,同时针对定制化WAF展示代码层面的绕过方法,系统呈现.NET反序列化漏洞的攻防全链路。
挖掘金融类漏洞的核心不仅仅是技术点本身,更需要深入理解业务链路、资金流转规则、风控策略与账户体系,从而在“设计缺陷”中找到突破点。本文总结梳理常见的金融逻辑漏洞类型及关键节点的可利用点,帮助安全人员深入理解这些场景,快速定位高价值逻辑漏洞大大提升漏洞挖掘效率和准确度,减少资损信息泄露等高危问题的发生。
本文主要讲解mips架构下的栈溢出漏洞复现以及利用,本文涉及到固件模拟、patch、动态调试等手法
《java安全漫谈》中讲到过利用TemplatesImpl链加载字节码,当时要求恶意类需要继承AbstractTranslet,至于为什么当时并没有说清,现在再聊下这个,以及如何不需要AbstractTranslet也能成功打通这条链子,这也可以为JDK高版本下继续使用TemplatesImpl奠定基石。
AI突破限制的多种手段 前言:目前看到过很多越狱AI的手法,绝大多数都是使用提示词注入来对互联网上现有AI进行越狱,本文章中介绍另外两个方法进行越狱。
本文详细讲解了MQTT协议的基本原理,环境搭建,并以两道经典MQTT-pwn例题详细讲解了MQTT协议在通信过程中的利用
JMH,即Java Microbenchmark Harness,是专门用于代码微基准测试的工具套件。主要是基于方法层面的基准测试,精度可以达到纳秒级。该组件存在一个未被别人公开过但目前来说实战意义不大的反序列化漏洞,仅可当作思路阅读
在k8s中,一种利用sidecar容器和liveness probe技术,实现的高隐蔽性的权限维持方法
对抗图像是一种精心设计的输入数据,通过对原始图像进行细微修改,使机器学习模型(尤其是深度神经网络)产生错误的分类输出。
前段时间在某大厂做安全研究时,针对SDLC的重复性审计工作结合大模型Agent思索了一些可行的思路,便在不断摸索中构建了一个Multi-Agent的协同漏洞挖掘框架系统,目前个人使用来看对于开源的web应用的实战效果相比传统的SAST、DAST以及纯LLM的漏洞挖掘工具来说还是很不错的,便记录此篇框架实现思路和当今Agent赋能漏挖的可行性与优势供师傅们交流指点....
市面上主流的大模型服务,都已经建立一套相对成熟的安全架构,这套架构通常可以概括为三层过滤防御体系 1. 输入检测:在用户请求进入模型之前,通过黑白词库、正则表达式和语义分析,拦截掉那些意图明显的恶意问题。 2. 内生安全:模型本身经过安全对齐,通过指令微调和人类反馈强化学习(RLHF),让模型从价值观层面理解并拒绝执行有害指令。 3. 输出检测:在模型生成响应后,再次进行扫描,确保内容合规。。但攻击者依然在生成恶意内容、钓鱼邮件,甚至大规模恶意软件。
去年的时候,外网上出现了一个名为Freysa AI。它旨在通过举办大模型安全赏金竞赛游戏,来吸引全球爱好者一起探索:人类的智慧能否找到一种方法说服AGI违背其核心指令?这里对解题思路进行一波学习
该漏洞存在于JumpServer的YAML配置文件处理逻辑中,由于在使用Jinja2模板引擎渲染用户上传的YAML文件时未启用沙箱环境,导致具有应用小程序管理或虚拟应用管理权限的攻击者可以通过构造恶意的manifest.yml文件实施服务端模板注入攻击,进而在JumpServer Core容器中以root权限执行任意系统命令,窃取所有被管理主机的敏感信息或篡改数据库数据。
探讨一种结合模型窃取与拒绝服务攻击的组合路径,希望发现AI安全领域新型攻击思路。
在从事了一段时间对AI框架组件的安全审计研究后,也挖掘到了很多相似的注入漏洞,对于目前的AI框架组件(PandasAI,LlamaIndx,Langchain...)对于该类型漏洞的通病结合实战实例以及学术界的研究做了系统性的归纳,站在AI框架的顶层角度对该类AI框架组件中的注入漏洞进行研究分析,供师傅们交流指点...
在某次对单位官网的渗透测试中发现存在SQL注入,存在某云盾waf,研究后成功手注绕过,并得到数据。