Skip to content

Daily Study

更新: 11/2/2025 字数: 0 字 时长: 0 分钟

Daily Plan

#todo

  • [ ]

Pentestllm 操作说明

3.3.1 登录

根据 PentestLLM 前端设计文档,系统的登录界面未在当前附件中详细展示,但作为一款安全工具,用户需要通过认证才能访问系统。

用户通过输入正确的用户名和密码登录系统。成功认证后,系统展示主界面,即仪表盘

3.3.2 初始化

系统初始化流程旨在确保平台环境和必要的工具链已准备就绪。

  • 环境准备:PentestLLM 作为一个自动化渗透测试工具 ,依赖于多个工具(如 Nmap、Nuclei、Xray、SQLMap 等)和 AI Agent 驱动的规划与执行能力 。

  • 首次使用:如果系统是首次部署或缺少必要的工具配置,用户可能需要进行初始化配置,包括:

    • 配置所需的渗透测试工具路径。

    • 设置 Agent 运行所需的 API 或凭证。

    • 导入基础知识库或配置数据存储。

3.3.3 数据中心/主界面概览

用户认证成功后,系统跳转到主界面,首页展示为 仪表盘 (Dashboard)

界面布局

左侧为导航栏 ,用于访问不同的功能模块 。 导航栏包括 :

  • 仪表盘 (Dashboard)

  • 任务 (Tasks)

  • AI 智能体 (AI Agent)

  • 知识库 (Knowledge Base)

  • 漏洞 (Vulnerabilities)

  • 历史 (History)

  • 设置 (Settings)

右侧为主内容区,采用分栏与卡片式布局 ,组织核心功能模块与数据展示 。

仪表盘主要模块

仪表盘展示一个任务的完整生命周期和结果 。它主要包含以下核心模块:

  1. 启动新的渗透测试 (任务启动)

    • 用户在该输入区输入目标 URL 。

    • 例如,输入靶场地址 http://222.20.126.132:8888 以开始渗透测试 。

  2. 当前任务/最近任务

    • 展示正在运行任务的目标、状态(如“运行中” )和进度(如 30% ) 。

    • 显示最近完成或运行中的任务列表 。

  3. AI 智能体推理(Agent Log)

    • 展示 AI 规划器 Agent 的思考与执行过程 。

    • 内容以日志或聊天窗口形式实时更新 。

    • 每轮迭代输出 计划 (Plan)行动 (Action)

      • 迭代 1 - 计划:执行 run_nmap 任务,进行端口扫描和服务发现 。

      • 迭代 1 - 行动:生成 Nmap 命令并执行 。

      • 迭代 3 - 计划:执行 run_observer_ward,进行技术栈识别 。

      • 迭代 5 - 计划:启动 browser-use 实例进行自动化交互和流量生成 。

  4. 知识库 (Knowledge Base)

    • 聚合所有工具发现的信息,形成对目标的完整画像 。

    • 分类展示发现:如 技术栈服务目录凭证

    • 可能包含敏感信息泄漏(如 hae 正则匹配到的敏感信息 )和 JSON Web Token 等指纹信息 。

说明:随着测试的进行,各模块(AI 智能体推理、知识库和漏洞列表)会实时填充新内容 ,用户可通过左侧导航栏随时切换查看测试进度和成果 。

3.3.6 漏洞列表:成果集中展示

漏洞 (Vulnerabilities) 模块集中展示所有已确认的安全漏洞,并实时更新新发现的漏洞 。

  • 风险等级概览:顶部展示按风险等级(严重高危中危低危)分类的漏洞总计数 。

  • 详细列表:漏洞信息以可排序、可筛选的表格或列表形式展示 。

    • 关键字段:包括漏洞名称、风险等级、发现工具(如 Xray )、漏洞详情(如 URL、参数)和状态(待确认/已确认) 。
    • 示例数据:可查看后台被动扫描(如 Xray)得到的具体 Web 漏洞列表,显示 ID、Target URL 和 PluginName/VulnType 。

1. 运行环境硬件(服务器)

运行环境主要负责核心的 AI 大模型推理和高并发的渗透测试任务执行。

CPU:AMD EPYC 7713 64核128线程 * 2 (共 128 核心 256 线程)。内存:1TB (128GB * 8)。显卡 (GPU):NVIDIA RTX 3090 24G * 2 (两块 24GB 显存 GPU,用于 LLM 推理加速)。操作系统:Linux ubuntu 5.15.0-79-generic。

2. 开发环境硬件(工作站/测试机)

开发环境主要用于代码编写、调试、集成测试和日常操作。 CPU:英特尔(Intel)酷睿 13代 i7-14700K (16核24线程)。主板:华硕 Z790 P D5 主板。存储:三星 990 EVO PLUS 1T 固态硬盘。内存:金士顿 野兽 16G * 2 5600 (32GB)。显卡 (GPU):3090 24G * 2 (用于开发阶段的模型测试和渲染)。电源:长城 2000W 金牌全模组。其他:机箱TT 钢影360机箱,散热器 追风者T6 黑色无光 6铜管。


二、 软件环境配置

1. 运行环境软件

运行环境软件包括 LLM 推理服务和核心依赖库。 Python 环境:Python 3.12。LLM 推理服务:vLLM。模型:Qwen/Qwen-14B-Chat。启动配置:通过 python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen-14B-Chat --trust-remote-code --gpu-memory-utilization 0.8 启动 LLM API 服务,监听于 localhost:8787。关键依赖库: fastapi (0.116.1):高性能 API 框架。openai (1.97.0):调用 LLM 接口。langchain (0.3.25):Agent 框架。mitmproxy (12.1.1):用于流量捕获与分析。

2. 开发环境软件

开发环境软件包括编程语言和所有项目依赖库。 Python 环境:Python 3.12。依赖库:beautifulsoup4 (4.13.4)browser-use (0.3.2)fastapi (0.116.1)httpx-sse (0.4.1)langchain (0.3.25) mcp (1.14.0) openai (1.97. mitmproxy (12.1.1)playwright (1.53.0) pydantic (2.11.7) python-dotenv (1.1.1)

菜就多练

本站访客数 人次 本站总访问量