本文深度剖析了 Android 混合应用中由于自定义 Schema 分发不当导致的链式安全漏洞。通过对导出组件 Intent 重定向缺陷的挖掘,配合 WebView 不安全的 JSBridge 配置,演示了攻击者如何利用恶意 DeepLink 实现远程自动化 Token 窃取。文中详细记录了静态审计、逻辑追踪及动态 PoC 验证全流程,并提出了针对性的加固方案,旨在揭示移动端从控制流劫持到敏感凭证泄露的安全风险
本次阿里 CTF 含金量极高,题目质量上乘,也让人不得不感慨 AI 技术的强大与迭代之快。每一道题都值得深入钻研,有许多新东西可以学到。以下是我这几天对比赛的复现记录与总结,并附上一些个人的拙见与思考
捕获的样本 `BKD-fnOS-Agent` 显示,攻击者采用了隐蔽性极强的**状态机架构**,通过重定向系统标准流至 `/dev/null` 来规避检测,并结合 **systemd 服务实现长效持久化**。受感染的 NAS 设备将被纳入恶意 C2 僵尸网络,可能用于执行挖矿、DDoS 攻击或作为数据外泄的中转站。
引言 在ret2dl_resolve的经典题中,经常会以read为输入参数,并且在x64架构中还会给出控制rdi等寄存器的gadget 当输入参数为gets时,结合ret2getes可以实现无需控制rdi寄存器的gadget即可控制rd...
当我们渗透遇到图片上传后裁剪的功能时,容易放弃上传图片木马,因为裁剪功能会将图片经过压缩、重新采样处理后文件中的payload会丢失。有一种方式可以绕过PHP GD库对图片的处理,结合文件名重命名的漏洞,获得Web Shell。
AviatorScript 是一门寄生在 JVM (Hosted on the JVM)上的语言。曾经在Jeecg-boot中出现过相关的漏洞。目前网上公开的POC多为BCEL或org.springframework.cglib.core.ReflectUtils进行利用,前者对jdk版本较为苛刻,后者依赖于spring框架,本文将提供一种新的仅依赖jdk的利用方式。
PE代码洞是PE文件补丁的一种方式,PE补丁的本质是在不修改原始源代码的情况下,直接对可编译的可执行文件,进行二进制级别的修改,以改变程序的行为、修复漏洞或添加功能。 它和PE壳技术原理有着异曲同工之妙。本篇文章主要讲解代码洞的利用过程以及原理,从而进行更好的防御。
> 2021年4月,企业密码管理软件 Passwordstate 遭遇供应链攻击,攻击者入侵了官方升级服务器,在更新包中植入后门。最近拿到了当时的恶意样本,来分析一下这个后门是怎么藏的、怎么工作的。...
在 React 框架某些版本存在的远程代码执行漏洞(CVE-2025-55182)中,由于 RSC 在解析客户端的相关请求时缺少安全校验,攻击者可通过构造恶意请求,从而在服务器上执行任意代码,甚至完全接管服务。
> 摘要:在Android复杂的组件通信机制中,漏洞往往隐藏在看似合法的业务逻辑之下。本文将深度解析一种名为NIV(Next-Intent Vulnerability)的跨域漏洞。该漏洞不仅挑战了Android默认的访问...
sharepoint-toolshell
在某次对单位官网的渗透测试中发现存在SQL注入,存在某云盾waf,研究后成功手注绕过,并得到数据。
本文将简单介绍frp这款隧道代理工具的项目结构和代码运行流程以及如何通过对frp二次开发(后面简称"二开")来消除其静态特征和流量特征从而规避杀软以及EDR的检测。
在漏洞验证过程中,Shellcode 必须被完整注入并成功执行,但目标程序常因使用 strcpy、sprintf 等字符串函数,或协议解析与输入校验机制,对 \x00 等坏字符进行截断或过滤,导致载荷失效。该问题不仅影响传统栈溢出利用,在 ROP 场景下同样突出:部分 gadget 地址包含坏字节,难以完整写入,迫使攻击者通过运行时计算等方式绕过,显著增加利用复杂度。因此,准确识别坏字符并制定规避策略,是构造稳定 Shellcode 的关键。本文将结合 msfvenom 的局限性,介绍实战绕过方法。
来分析一下fastjson2下的反序列化调用链全过程
jsjcw师傅提出的一条链子。只给了一个payload,然后这里来分析一下过程。
借助0ctf 2025 babyfilter 这道题,学习最新版的Windows 11 25h2 下的内核利用技巧
本文立足于大模型红队攻防实战,剖析越狱攻击的技术本质——即利用模型对齐缺陷触发非预期行为。内容涵盖结构化角色嵌套(JSON)、伪代码封装(DSPy)等具体 POC 案例,并对多语言、语义反转、格式注入等攻击手法进行了分类解析。文章进一步指出,随着模型具备 API 调用与智能体能力,越狱危害已突破内容安全层面,演变为可直接操作系统的应用安全风险。通过对比纯文本交互、插件调用与智能体驱动三种数据流,本文揭示了从“生成有害文本”到“执行恶意代码”的攻击面升级,为构建纵深防御体系提供技术参考
多模态AI系统(如Gemini、Claude、GPT-4o等)在处理用户上传图像时,通常会先对高分辨率图片进行缩放(resize)以匹配模型输入尺寸。这本是标准预处理步骤,却被安全研究人员武器化成一种隐蔽的间接提示词注入攻击:攻击者在原始大图中嵌入肉眼几乎不可见的恶意指令,当系统缩放图像时,这些指令才会“显现”并被视觉模型读取,从而触发数据泄露、越狱或其他恶意行为。
模型反演攻击(Model Inversion Attack, MIA)是机器学习隐私领域的一大隐患:攻击者仅通过访问模型输出或内部信息,就能“逆向工程”出训练数据的敏感特征。本文聚焦图像分类模型的黑白盒反演攻击,以通俗易懂的方式,从原理到代码、从实验到分析,全链路演示这一攻击的威力与风险。