Daily Study
更新: 11/2/2025 字数: 0 字 时长: 0 分钟
Daily Plan
#todo
- [ ]
Pentestllm 操作说明
3.3.1 登录
根据 PentestLLM 前端设计文档,系统的登录界面未在当前附件中详细展示,但作为一款安全工具,用户需要通过认证才能访问系统。
用户通过输入正确的用户名和密码登录系统。成功认证后,系统展示主界面,即仪表盘 。
3.3.2 初始化
系统初始化流程旨在确保平台环境和必要的工具链已准备就绪。
环境准备:PentestLLM 作为一个自动化渗透测试工具 ,依赖于多个工具(如 Nmap、Nuclei、Xray、SQLMap 等)和 AI Agent 驱动的规划与执行能力 。
首次使用:如果系统是首次部署或缺少必要的工具配置,用户可能需要进行初始化配置,包括:
配置所需的渗透测试工具路径。
设置 Agent 运行所需的 API 或凭证。
导入基础知识库或配置数据存储。
3.3.3 数据中心/主界面概览
用户认证成功后,系统跳转到主界面,首页展示为 仪表盘 (Dashboard) 。
界面布局
左侧为导航栏 ,用于访问不同的功能模块 。 导航栏包括 :
仪表盘 (Dashboard)
任务 (Tasks)
AI 智能体 (AI Agent)
知识库 (Knowledge Base)
漏洞 (Vulnerabilities)
历史 (History)
设置 (Settings)
右侧为主内容区,采用分栏与卡片式布局 ,组织核心功能模块与数据展示 。
仪表盘主要模块
仪表盘展示一个任务的完整生命周期和结果 。它主要包含以下核心模块:
启动新的渗透测试 (任务启动):
用户在该输入区输入目标 URL 。
例如,输入靶场地址
http://222.20.126.132:8888以开始渗透测试 。
当前任务/最近任务:
展示正在运行任务的目标、状态(如“运行中” )和进度(如 30% ) 。
显示最近完成或运行中的任务列表 。
AI 智能体推理(Agent Log):
展示 AI 规划器 Agent 的思考与执行过程 。
内容以日志或聊天窗口形式实时更新 。
每轮迭代输出 计划 (Plan) 和 行动 (Action) 。
迭代 1 - 计划:执行
run_nmap任务,进行端口扫描和服务发现 。迭代 1 - 行动:生成 Nmap 命令并执行 。
迭代 3 - 计划:执行
run_observer_ward,进行技术栈识别 。迭代 5 - 计划:启动
browser-use实例进行自动化交互和流量生成 。
知识库 (Knowledge Base):
聚合所有工具发现的信息,形成对目标的完整画像 。
分类展示发现:如 技术栈、服务、目录、凭证 。
可能包含敏感信息泄漏(如 hae 正则匹配到的敏感信息 )和 JSON Web Token 等指纹信息 。
说明:随着测试的进行,各模块(AI 智能体推理、知识库和漏洞列表)会实时填充新内容 ,用户可通过左侧导航栏随时切换查看测试进度和成果 。
3.3.6 漏洞列表:成果集中展示
漏洞 (Vulnerabilities) 模块集中展示所有已确认的安全漏洞,并实时更新新发现的漏洞 。
风险等级概览:顶部展示按风险等级(严重、高危、中危、低危)分类的漏洞总计数 。
详细列表:漏洞信息以可排序、可筛选的表格或列表形式展示 。
- 关键字段:包括漏洞名称、风险等级、发现工具(如 Xray )、漏洞详情(如 URL、参数)和状态(待确认/已确认) 。
- 示例数据:可查看后台被动扫描(如 Xray)得到的具体 Web 漏洞列表,显示 ID、Target URL 和 PluginName/VulnType 。
1. 运行环境硬件(服务器)
运行环境主要负责核心的 AI 大模型推理和高并发的渗透测试任务执行。
CPU:AMD EPYC 7713 64核128线程 * 2 (共 128 核心 256 线程)。内存:1TB (128GB * 8)。显卡 (GPU):NVIDIA RTX 3090 24G * 2 (两块 24GB 显存 GPU,用于 LLM 推理加速)。操作系统:Linux ubuntu 5.15.0-79-generic。
2. 开发环境硬件(工作站/测试机)
开发环境主要用于代码编写、调试、集成测试和日常操作。 CPU:英特尔(Intel)酷睿 13代 i7-14700K (16核24线程)。主板:华硕 Z790 P D5 主板。存储:三星 990 EVO PLUS 1T 固态硬盘。内存:金士顿 野兽 16G * 2 5600 (32GB)。显卡 (GPU):3090 24G * 2 (用于开发阶段的模型测试和渲染)。电源:长城 2000W 金牌全模组。其他:机箱TT 钢影360机箱,散热器 追风者T6 黑色无光 6铜管。
二、 软件环境配置
1. 运行环境软件
运行环境软件包括 LLM 推理服务和核心依赖库。 Python 环境:Python 3.12。LLM 推理服务:vLLM。模型:Qwen/Qwen-14B-Chat。启动配置:通过 python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen-14B-Chat --trust-remote-code --gpu-memory-utilization 0.8 启动 LLM API 服务,监听于 localhost:8787。关键依赖库: fastapi (0.116.1):高性能 API 框架。openai (1.97.0):调用 LLM 接口。langchain (0.3.25):Agent 框架。mitmproxy (12.1.1):用于流量捕获与分析。
2. 开发环境软件
开发环境软件包括编程语言和所有项目依赖库。 Python 环境:Python 3.12。依赖库:beautifulsoup4 (4.13.4)browser-use (0.3.2)fastapi (0.116.1)httpx-sse (0.4.1)langchain (0.3.25) mcp (1.14.0) openai (1.97. mitmproxy (12.1.1)playwright (1.53.0) pydantic (2.11.7) python-dotenv (1.1.1)
