33 KiB
description, allowedTools
| description | allowedTools | |||||||
|---|---|---|---|---|---|---|---|---|
| 分析 Legacy Java Spring Boot 專案並生成教學文件 |
|
Legacy Java Project Analyzer
為給定的 Java Spring Boot 專案生成詳細的分析文件,using multiple specialized agents with confidence-based scoring。
要執行此操作,請精確遵循以下步驟:
準備工作
-
首先使用 TodoWrite 建立待辦事項清單,包含所有階段
-
創建工作目錄:
.legacy-analysis/session-{timestamp}/
階段 1: 資格預檢與快速掃描
-
使用 Haiku 代理檢查專案是否適合分析。代理應檢查:
- 專案根目錄是否存在
pom.xml或build.gradle? - 是否包含 Spring Boot 依賴?(檢查 spring-boot-starter)
- Java 檔案數量是否適中?(使用 Glob 統計 **/*.java,應 < 1000)
如果不符合任一條件,說明原因並終止。
- 專案根目錄是否存在
-
使用 Haiku 代理快速掃描專案結構。代理應:
- 使用 Glob 找出所有 .java 檔案並統計數量
- 使用 Grep 搜尋以下註解並統計數量:
@RestController或@Controller@Service@Repository@Entity
- 讀取 pom.xml 或 build.gradle 獲取:
- Spring Boot 版本
- 前 10 個主要依賴
- 使用 Glob 列出主要 package(src/main/java 下的第一層目錄)
返回專案摘要 JSON:
{ "projectType": "Spring Boot", "springBootVersion": "2.7.12", "buildTool": "Maven", "totalJavaFiles": 245, "componentCounts": { "controllers": 15, "services": 20, "repositories": 12, "entities": 10 }, "mainPackages": [ "com.example.order.controller", "com.example.order.service", "com.example.order.repository" ], "keyDependencies": [ "spring-boot-starter-web", "spring-boot-starter-data-jpa", "mysql-connector-java" ] } -
將專案摘要寫入:
.legacy-analysis/session-{timestamp}/01-project-scan.json
階段 2: 多視角並行分析
-
啟動 6 個並行 Sonnet 代理來獨立分析專案。
所有代理的共同輸入:
- 專案摘要 JSON(來自步驟 4)
- 專案根目錄路徑
所有代理的共同輸出格式(JSON):
{ "analyst": "代理名稱", "findings": [ { "finding_id": "分類前綴-編號", "type": "發現類型", "title": "簡短標題", "description": "詳細描述(2-3 句話)", "evidence": [ { "file": "檔案相對路徑", "lines": "起始行-結束行", "snippet": "關鍵程式碼片段(可選)" } ], "importance": "high/medium/low", "notes": "額外說明(可選)" } ], "total_findings": 數量 }所有代理的重要規則:
- ❗ 每個發現必須有實際的檔案路徑和行號作為證據
- ❗ 使用 Read 工具驗證檔案內容,確保引用正確
- ❗ 使用 Glob/Grep 輔助搜尋,不要猜測
- ❗ 如果無法確認,不要包含該發現
- ❗ 只返回 JSON,不執行 Write 操作
- ❗ 專注於自己的分析領域,不要越界
代理 #1:架構分析代理
職責:分析專案的整體架構和分層設計
應分析:
- Package 組織結構(使用 Glob 掃描目錄)
- 分層架構識別:
- Controller 層:處理 HTTP 請求
- Service 層:業務邏輯
- Repository 層:資料存取
- Entity 層:資料模型
- 識別架構模式(MVC、三層架構、DDD 等)
- 層與層之間的依賴關係(通過讀取代表性類別)
應使用工具:
- Glob: 掃描 package 結構
- Grep: 搜尋 @RestController, @Service, @Repository, @Entity
- Read: 讀取 2-3 個代表性類別(每層一個)
發現類型前綴:ARCH-
發現類型:architecture
預期發現數量:8-15 個
代理 #2:API 端點分析代理
職責:分析所有 REST API 端點和請求處理流程
應分析:
- 所有 @RestController 或 @Controller 類別(使用 Grep 找出)
- 主要 API 端點:
- HTTP 方法(GET/POST/PUT/DELETE)
- 路徑和路徑參數
- 請求/響應格式
- 主要業務流程:
- Controller → Service → Repository 的調用鏈
- 事務管理(@Transactional)
- 認證授權機制(如果有 Spring Security)
- 異常處理(@ExceptionHandler, @ControllerAdvice)
應使用工具:
- Grep: 搜尋 @RestController, @RequestMapping, @GetMapping, @PostMapping
- Read: 讀取所有 Controller 類別(或前 10 個如果太多)
- Grep: 搜尋 @Transactional, @ExceptionHandler
發現類型前綴:API-
發現類型:endpoint
預期發現數量:15-25 個(視 Controller 數量)
代理 #3:資料流分析代理
職責:分析資料模型和資料流轉
應分析:
- 所有 JPA Entity 類別(使用 Grep 找出 @Entity)
- Entity 之間的關聯關係:
- @OneToOne, @OneToMany, @ManyToOne, @ManyToMany
- 關聯的方向和級聯設定
- 資料流轉路徑:
- DTO → Entity(轉換邏輯)
- Entity → Database(Repository 操作)
- Repository 介面和自定義查詢
- 資料驗證邏輯(@Valid, @NotNull 等)
應使用工具:
- Grep: 搜尋 @Entity, @OneToMany, @ManyToOne
- Read: 讀取所有 Entity 類別
- Grep: 搜尋 @Repository, extends JpaRepository
- Read: 讀取主要 Repository 介面
發現類型前綴:DATA-
發現類型:entity 或 dataflow
預期發現數量:10-20 個
代理 #4:業務邏輯分析代理
職責:分析核心業務邏輯和 Service 層
應分析:
- 所有 @Service 類別(使用 Grep 找出)
- 主要業務方法:
- 方法簽名和參數
- 業務規則和驗證
- 複雜的業務邏輯
- Service 之間的調用關係(依賴注入)
- 事務管理:
- @Transactional 的使用
- 事務邊界
- 業務異常處理
應使用工具:
- Grep: 搜尋 @Service, @Transactional
- Read: 讀取所有 Service 類別(或主要的 5-10 個)
- 分析依賴注入(@Autowired, 建構子注入)
發現類型前綴:BIZ-
發現類型:service 或 business-logic
預期發現數量:15-25 個
代理 #5:配置分析代理
職責:分析專案配置和第三方整合
應分析:
- application.yml 或 application.properties:
- 資料庫配置
- Server 配置
- 環境變數
- Spring Boot 配置類別(@Configuration):
- Bean 定義
- 第三方服務整合
- Spring Security 配置(如果有)
- 依賴管理(pom.xml 或 build.gradle):
- 主要依賴及版本
- 第三方庫的用途
應使用工具:
- Read: 讀取 application.yml/properties
- Grep: 搜尋 @Configuration, @Bean
- Read: 讀取配置類別
- Read: 讀取 pom.xml 或 build.gradle
發現類型前綴:CONF-
發現類型:configuration 或 dependency
預期發現數量:8-15 個
代理 #6:模式識別代理
職責:識別設計模式和編碼最佳實踐
應分析:
- 設計模式的應用:
- Factory Pattern(工廠模式)
- Strategy Pattern(策略模式)
- Builder Pattern(建造者模式)
- Singleton Pattern(單例模式)
- Spring 特定模式:
- Dependency Injection(依賴注入)
- AOP(面向切面編程,如果有 @Aspect)
- 異常處理模式:
- 全域異常處理器(@ControllerAdvice)
- 自定義異常類別
- 日誌記錄實踐(Logger 使用)
- DTO 模式的使用
應使用工具:
- Grep: 搜尋常見模式關鍵字(Factory, Strategy, Builder, Singleton)
- Read: 讀取包含模式的類別
- Grep: 搜尋 @ControllerAdvice, @Aspect, @Pointcut
- 分析代碼風格和命名慣例
發現類型前綴:PATTERN-
發現類型:pattern 或 practice
預期發現數量:5-15 個
-
等待所有 6 個代理完成,收集所有輸出
-
合併所有發現清單為一個 JSON 陣列
-
將合併的發現清單寫入:
.legacy-analysis/session-{timestamp}/02-findings-raw.json -
統計總發現數量並報告(例如:"收集到 102 個發現")
階段 3: 獨立置信度評分
⚠️⚠️⚠️ CRITICAL - THIS STAGE IS MANDATORY AND CANNOT BE SKIPPED ⚠️⚠️⚠️
為什麼這個階段是核心且不可跳過的:
-
這是整個插件的靈魂
- 置信度評分系統是本插件與其他分析工具的根本差異
- 沒有評分 = 沒有質量保證 = 無法區分真實發現與幻覺
- 跳過此階段違反了插件的核心設計原則
-
防幻覺機制完全依賴此階段
- 第二層防護:評分代理使用 Glob 驗證檔案存在
- 第三層防護:閾值過濾(score >= 75, evidence >= 60)
- 沒有評分 = 防幻覺機制失效 = 可能產生錯誤文件
-
成本和時間都非常合理
- Haiku 模型速度極快(每個評分 < 1 秒)
- 100 個評分代理並行執行只需 10-20 秒
- Haiku 成本極低(相比 Sonnet 便宜 50-100 倍)
- 即使 200 個發現,總時間也只增加 10-15 秒
-
不評分的嚴重後果
- 最終文件會包含所有未驗證的發現(包括幻覺、錯誤、瑣碎內容)
- 過濾率 0%(承諾是 40-60%)
- 無法信任檔案路徑和行號
- 用戶體驗極差,失去插件價值
明確的執行要求:
❌ 絕對禁止以下行為:
- 以「發現數量太多」為理由跳過評分
- 以「節省時間」為理由跳過評分
- 以「成本考量」為理由跳過評分
- 直接使用未評分的發現生成文件
- 進入階段 4 而不先完成階段 3
✅ 你 MUST 執行以下操作:
- 對 每一個發現 啟動一個獨立的 Haiku 評分代理
- 等待 所有 評分代理完成
- 將所有評分結果寫入
03-scores.json - 只有在
03-scores.json存在後才能繼續下一階段
-
REQUIRED: 對於步驟 8 中的 每一個發現,啟動一個並行 Haiku 代理進行評分。 DO NOT SKIP ANY FINDINGS, regardless of the total count.
每個評分代理的輸入:
- 單個發現 JSON(包含 finding_id, type, title, description, evidence, importance)
- 專案摘要 JSON(作為上下文)
評分任務:
從四個維度對發現進行評分(0-100):
a. 證據強度 (Evidence Strength) - 權重 40%
評分標準:
-
90-100 分:完美證據
- 有精確的檔案路徑和行號
- 使用 Read 工具驗證檔案存在且內容匹配
- 代碼片段準確無誤
-
70-89 分:良好證據
- 有檔案路徑和行號
- 使用 Glob 確認檔案存在
- 描述與代碼基本匹配
-
50-69 分:基本證據
- 有檔案路徑但行號範圍過大(> 50 行)
- 通過推理得出,未直接驗證
- 可能需要額外確認
-
30-49 分:弱證據
- 只有檔案路徑,沒有行號
- 基於間接證據(如依賴推測)
- 不確定性較高
-
0-29 分:無效證據
- 沒有檔案路徑或檔案不存在
- 明顯的猜測或假設
- 幻覺(fabrication)
評分方法:使用 Glob 驗證檔案路徑是否存在。如果時間允許,使用 Read 讀取檔案驗證行號範圍和內容。
b. 重要性 (Importance) - 權重 30%
評分標準:
-
90-100 分:極其重要
- 核心業務邏輯(如訂單處理、支付流程)
- 主要架構決策(如分層設計、依賴管理)
- 新手必須理解的概念
- 影響整個系統的設計
-
70-89 分:很重要
- 重要的業務流程
- 關鍵的設計模式應用
- 常見的 CRUD 操作
- 第三方服務整合
-
50-69 分:中等重要
- 輔助功能
- 一般的配置項目
- 可選的理解點
- 工具方法
-
30-49 分:次要
- 邊緣功能
- 細節實現
- 進階理解點
-
0-29 分:不重要
- 瑣碎細節
- 與業務無關的內容
- 可以忽略的資訊
c. 完整性 (Completeness) - 權重 15%
評分標準:
-
90-100 分:非常完整
- 描述清晰易懂
- 包含完整的流程或調用鏈
- 有充足的上下文
- 提供了代碼範例
-
70-89 分:基本完整
- 描述清晰
- 主要流程完整
- 上下文充足
-
50-69 分:部分完整
- 描述較簡略
- 流程不完整或片段化
- 缺少部分上下文
-
30-49 分:不完整
- 描述模糊
- 只有流程片段
- 上下文不足
-
0-29 分:非常不完整
- 描述不清
- 沒有流程資訊
- 完全缺乏上下文
d. 準確性 (Accuracy) - 權重 15%
評分標準:
-
90-100 分:完全準確
- 技術描述正確無誤
- 沒有錯誤或幻覺
- 可以直接使用
-
70-89 分:基本準確
- 主要描述正確
- 有小的不精確(如版本差異)
- 需要微調
-
50-69 分:部分準確
- 有明顯錯誤
- 需要修正才能使用
- 部分資訊可能誤導
-
30-49 分:不準確
- 多處錯誤
- 包含幻覺或猜測
- 不可信
-
0-29 分:完全錯誤
- 完全不正確
- 大量幻覺
- 必須丟棄
計算最終分數:
total_score = evidence * 0.4 + importance * 0.3 + completeness * 0.15 + accuracy * 0.15輸出格式(JSON):
{ "finding_id": "ARCH-001", "scores": { "evidence": 95, "importance": 85, "completeness": 90, "accuracy": 95 }, "total_score": 91.25, "confidence_level": "very_high", "reasoning": "發現有明確的檔案路徑證據(已用 Glob 驗證存在),描述準確且清晰,對理解三層架構非常重要,新手必須知道。", "verified_files": [ "src/main/java/com/example/order/controller/OrderController.java (verified)" ], "issues": [] }confidence_level 對應:
- very_high: total_score >= 85
- high: 75 <= total_score < 85
- medium: 60 <= total_score < 75
- low: 45 <= total_score < 60
- very_low: total_score < 45
-
REQUIRED: 等待 所有 評分代理完成,收集所有評分結果。 不要只收集部分結果,必須等待全部完成。
-
REQUIRED: 將評分結果寫入:
.legacy-analysis/session-{timestamp}/03-scores.json -
統計評分分佈(例如:"58 個 >= 75, 44 個 < 75")
階段 4: 過濾與結構化整合
🔒 VALIDATION CHECKPOINT - 在繼續之前必須驗證 🔒
14.5. MANDATORY PRE-CHECK: 在執行任何過濾操作前,你 MUST 先驗證以下條件:
**檢查 1: 確認評分文件存在**
```
使用 Read 工具檢查文件是否存在:
.legacy-analysis/session-{timestamp}/03-scores.json
```
**如果文件不存在**,你 MUST:
- 立即停止執行
- 輸出錯誤訊息:
```
❌❌❌ 致命錯誤:階段 3 評分被跳過 ❌❌❌
檢測到缺少文件:03-scores.json
這表示階段 3(獨立置信度評分)沒有被執行。
沒有評分數據,無法進行質量過濾,無法保證最終文件質量。
請檢查階段 3 的執行日誌,或重新執行完整流程。
插件設計要求:所有階段必須依序完成,不可跳過。
```
- **DO NOT PROCEED** 到步驟 15
**檢查 2: 驗證評分數量一致性**
使用 Read 工具讀取以下兩個文件:
- `02-findings-raw.json` (原始發現數量)
- `03-scores.json` (評分數量)
驗證:評分數量 == 原始發現數量
**如果數量不一致**,你 MUST:
- 輸出警告訊息:
```
⚠️ 警告:評分數量與發現數量不一致
原始發現: {N} 個
評分結果: {M} 個
差異: {N-M} 個發現未被評分
可能原因:部分評分代理失敗
將繼續執行,但請注意未評分的發現將被自動過濾。
```
- 對於未評分的發現,自動賦予 total_score = 0(將被過濾)
**只有在通過所有檢查後**,才能繼續執行步驟 15。
-
REQUIRED: 過濾發現,應用以下規則:
主要規則:
- 保留 total_score >= 75 的發現
額外規則(強制):
-
如果 evidence < 60:強制丟棄(即使總分 >= 75) 理由:沒有足夠證據,可能是幻覺
-
如果 accuracy < 50:強制丟棄(即使總分 >= 75) 理由:準確性太低,可能誤導讀者
例外規則(保留):
- 如果 importance >= 90 且 evidence >= 70:保留(即使總分 < 75) 理由:極其重要的發現,證據也足夠
統計並報告過濾結果(例如:"保留 58 個高質量發現,過濾掉 44 個低質量發現,過濾率 43.1%")
-
將保留的發現按類別分組:
- architecture: 架構發現
- endpoint: API 端點
- entity: 資料模型
- dataflow: 資料流轉
- service: 業務邏輯
- business-logic: 業務邏輯(同義詞)
- configuration: 配置
- dependency: 依賴
- pattern: 設計模式
- practice: 編碼實踐
-
每個類別內按 total_score 降序排序(最高質量在前)
-
識別發現之間的關聯關係(可選但推薦):
- 例如:API-001(創建訂單端點)→ BIZ-005(OrderService.createOrder)→ DATA-003(Order Entity)
- 建立關聯圖以幫助理解完整流程
-
生成結構化資料 JSON:
{ "summary": { "total_findings_raw": 102, "total_findings_filtered": 58, "filter_rate": 0.431, "by_category": { "architecture": 8, "endpoint": 15, "entity": 7, "dataflow": 3, "service": 12, "configuration": 7, "pattern": 6 }, "average_score": 82.5 }, "findings_by_category": { "architecture": [ /* 發現陣列 */ ], "endpoint": [ /* 發現陣列 */ ], ... }, "relationships": [ { "from": "API-001", "to": ["BIZ-005", "DATA-003"], "type": "invokes" } ] } -
REQUIRED: 將結構化資料寫入:
.legacy-analysis/session-{timestamp}/04-findings-structured.json
階段 5: 教學文件生成
🔒 FINAL VALIDATION CHECKPOINT - 文件生成前的最後檢查 🔒
20.5. MANDATORY FINAL CHECK: 在啟動文件生成代理前,你 MUST 驗證所有必需文件已就緒:
**檢查 1: 驗證所有階段的輸出文件存在**
使用 Read 工具確認以下文件全部存在:
- `01-project-scan.json` (階段 1 輸出)
- `02-findings-raw.json` (階段 2 輸出)
- `03-scores.json` (階段 3 輸出) ← **關鍵文件**
- `04-findings-structured.json` (階段 4 輸出)
**如果任何文件缺失**,你 MUST:
- 立即停止執行
- 輸出錯誤訊息:
```
❌❌❌ 致命錯誤:無法生成教學文件 ❌❌❌
缺少必需的文件:{缺失的文件名}
這表示前置階段沒有正確完成。
無法在沒有完整數據的情況下生成教學文件。
請重新執行完整的分析流程,確保所有階段依序完成。
```
- **DO NOT START** 文件生成代理
**檢查 2: 驗證結構化發現的質量**
使用 Read 工具讀取 `04-findings-structured.json`,確認:
- `summary.total_findings_filtered` > 0(至少有一些高質量發現)
- `summary.filter_rate` 在 0.2-0.8 之間(過濾率正常)
**如果過濾後發現數量 = 0**,你 MUST:
- 輸出警告訊息:
```
⚠️ 警告:沒有任何發現通過質量過濾
原始發現: {N} 個
通過過濾: 0 個
可能原因:
1. 分析代理的發現質量極低(證據不足)
2. 評分標準過於嚴格
3. 專案過於簡單,沒有足夠的內容可分析
建議:
- 檢查 02-findings-raw.json 和 03-scores.json
- 考慮手動調整過濾閾值(從 75 降至 65)
- 或手動補充文件內容
```
- 繼續生成文件,但文件內容會很少
**檢查 3: 禁止使用未評分的發現**
你 MUST 確認:
- 文件生成代理的輸入 **只能** 是 `04-findings-structured.json`
- **絕對禁止** 直接使用 `02-findings-raw.json`
- **絕對禁止** 添加任何未在結構化發現中的資訊
**只有在通過所有檢查後**,才能啟動文件生成代理。
-
REQUIRED: 使用 Sonnet 代理生成教學文件。
輸入:
- 結構化發現 JSON(來自步驟 20 的
04-findings-structured.json)← 唯一允許的輸入來源 - 專案摘要 JSON(來自步驟 5 的
01-project-scan.json)
任務:
生成完整的 Markdown 教學文件,假設讀者是完全不了解此專案的新進工程師。
文件結構(必須包含):
1. 專案概述
- 專案基本資訊(名稱、類型、Spring Boot 版本、建構工具)
- 專案規模(檔案數量、元件統計)
- 專案結構(主要 package)
- 核心模組列表
2. 快速開始
- 如何運行專案(從 git clone 到 spring-boot:run)
- 重要端點列表(健康檢查、API 文件)
- 開發環境要求(JDK、Maven/Gradle、資料庫)
3. 架構說明
- 整體架構圖(使用 Mermaid flowchart)
- 分層設計說明(Controller/Service/Repository/Entity)
- Package 組織結構
- 架構優點
範例 Mermaid 圖:
graph TB Client[客戶端請求] Controller[Controller 層<br/>處理 HTTP 請求] Service[Service 層<br/>業務邏輯處理] Repository[Repository 層<br/>資料存取] DB[(MySQL 資料庫)] Client --> Controller Controller --> Service Service --> Repository Repository --> DB4. API 端點清單
對於每個重要的 API 端點(從 endpoint 類別的發現):
- HTTP 方法和路徑
- 描述和用途
- 請求範例(JSON)
- 響應範例(JSON)
- 業務流程序列圖(使用 Mermaid sequenceDiagram)
- 關鍵程式碼片段(含檔案路徑連結)
- 重要提示(如事務管理、異常處理)
範例序列圖:
sequenceDiagram participant Client participant Controller participant Service participant Repository participant DB Client->>Controller: POST /api/orders Controller->>Service: createOrder(OrderDTO) Service->>Service: 驗證庫存 Service->>Repository: save(Order) Repository->>DB: INSERT DB-->>Repository: 成功 Repository-->>Service: Order Entity Service-->>Controller: OrderResponseDTO Controller-->>Client: 201 Created5. 核心業務流程
選擇 2-3 個最重要的業務流程(基於 importance 分數):
- 流程整體說明
- 詳細步驟分解
- 完整序列圖
- 涉及的類別和方法列表(含檔案路徑連結)
- 程式碼片段和註解
- 新手提示
6. 資料模型
- Entity 關係圖(使用 Mermaid erDiagram)
- 對於每個主要 Entity:
- 資料表名稱
- 主要欄位說明
- 關聯關係說明
- JPA 註解解釋(@Entity, @Table, @OneToMany 等)
- 程式碼範例
範例 ER 圖:
erDiagram Order ||--o{ OrderItem : contains Order { Long id PK Long customerId String status Timestamp createdAt } OrderItem { Long id PK Long orderId FK Long productId int quantity decimal price } Customer ||--o{ Order : places Customer { Long id PK String name String email }7. 關鍵配置
- 資料庫配置(含 YAML/properties 範例)
- Spring Security 配置(如果有)
- 重要的 Bean 配置
- 環境變數說明
8. 設計模式與最佳實踐
對於每個識別出的設計模式:
- 模式名稱和類型
- 應用位置(檔案路徑)
- 程式碼範例
- 使用此模式的優點
- 相關的最佳實踐
9. 新手入門指南
-
我該從哪裡開始?
- 建議的學習順序(10 分鐘理解架構 → 30 分鐘追蹤一個流程 → ...)
- 推薦先看哪些類別
-
常見任務指南
- 如何添加新的 API 端點
- 如何修改業務邏輯
- 如何添加新的 Entity
-
開發環境設置
- 所需工具清單
- 資料庫設置步驟
- 環境變數配置
- 如何運行測試
-
推薦的學習資源
- Spring Boot 官方文件連結
- Spring Data JPA 文件連結
- 相關教學資源
10. 附錄
-
高質量發現清單
- 按類別列出所有發現(含 finding_id 和 score)
-
文件變更歷史
- 初始版本生成時間
- 後續手動更新記錄區
-
檔案路徑索引
- 所有引用的檔案路徑清單(方便快速導航)
撰寫風格要求:
✅ 假設讀者是新手
- 不假設任何先備知識
- 解釋所有技術術語(如 JPA、DTO、依賴注入)
- 提供充足的上下文
✅ 使用繁體中文
- 自然流暢的中文
- 技術術語保留英文(如 Controller, Service, @Transactional)
- 適當加入英文原文(如「依賴注入 (Dependency Injection)」)
✅ 大量使用圖表
- 每個複雜流程都應該有 Mermaid 圖
- 圖表類型:flowchart(架構圖)、sequenceDiagram(序列圖)、erDiagram(ER 圖)
- 圖表要清晰、標註完整
✅ 包含程式碼範例
- 關鍵程式碼片段(使用 ```java 語法高亮)
- 適當的註解(特別是複雜邏輯)
- 檔案路徑和行號(格式:
src/.../OrderController.java:67-85)
✅ 可點擊的連結
- 所有檔案路徑都使用 Markdown 連結格式(如
[OrderController.java](src/.../OrderController.java)) - 使用相對路徑
✅ 結構清晰
- 使用 Markdown 標題階層(#, ##, ###)
- 使用清單和表格組織資訊
- 每個章節之間用
---分隔
重要規則:
❗ CRITICAL RULE: 只使用高質量發現
- MUST 只能使用 total_score >= 75 的發現(來自
04-findings-structured.json) - MUST NOT 添加任何未在發現清單中的資訊
- MUST NOT 直接使用
02-findings-raw.json中的未評分發現 - 如果某個面向沒有足夠的發現,明確說明「此部分資訊不足,建議手動補充」
❗ CRITICAL RULE: 所有引用必須可驗證
- MUST: 每個程式碼範例都必須有檔案路徑
- MUST: 每個流程圖都必須基於實際的發現
- MUST NOT: 編造任何檔案路徑或類別名稱
- MUST NOT: 添加未經驗證的代碼片段
❗ 保持客觀
- 如實描述專案現況
- 不過度美化或批評
- 基於事實陳述
❗ Mermaid 語法正確
- 確保所有 Mermaid 圖表語法正確
- 測試常見的 Mermaid 語法錯誤(如缺少引號、箭頭錯誤)
輸出:
返回完整的 Markdown 文件內容(純文本,不需要 JSON 包裝)
- 結構化發現 JSON(來自步驟 20 的
-
REQUIRED: 將生成的文件寫入:
.legacy-analysis/session-{timestamp}/05-PROJECT-ANALYSIS.md -
(可選)生成統計報告並寫入:
.legacy-analysis/session-{timestamp}/session-stats.json{ "session_id": "session-20250125-143022", "start_time": "2025-01-25T14:30:22Z", "end_time": "2025-01-25T14:36:45Z", "duration_seconds": 383, "project_info": { "name": "Order Management System", "type": "Spring Boot", "total_java_files": 245 }, "analysis_stats": { "total_findings_raw": 102, "total_findings_filtered": 58, "filter_rate": 0.431, "average_score": 82.5, "by_category": { ... } }, "agent_calls": { "qualification_check": 1, "quick_scan": 1, "analysis_agents": 6, "scoring_agents": 102, "documentation_generator": 1, "total": 111 }, "quality_metrics": { "file_path_verified_rate": 1.0, "average_evidence_score": 87.3, "average_importance_score": 78.5 } }
完成
-
顯示完成摘要,包含:
╔═══════════════════════════════════════════════════════╗ ║ Legacy Project Analyzer - 分析完成 ║ ╚═══════════════════════════════════════════════════════╝ ✅ 所有階段已完成 📁 工作目錄: .legacy-analysis/session-{timestamp}/ 📄 生成的文件: ├─ 01-project-scan.json (專案掃描摘要) ├─ 02-findings-raw.json (原始發現 102 個) ├─ 03-scores.json (評分結果) ├─ 04-findings-structured.json (結構化發現 58 個) ├─ 05-PROJECT-ANALYSIS.md (最終教學文件) ⭐ └─ session-stats.json (統計資訊) 📊 分析統計: - 總執行時間: 6 分 23 秒 - 代理調用: 111 次 (2 Haiku + 6 Sonnet + 102 Haiku + 1 Sonnet) - 發現總數: 102 個 - 高質量發現: 58 個 (56.9%) - 檔案路徑驗證率: 100% - 平均置信度分數: 82.5 🎯 下一步建議: 1. 閱讀最終文件: 05-PROJECT-ANALYSIS.md 2. 根據文件理解專案架構和核心流程 3. 動手運行專案並對照文件調試 4. 如需深入特定模組,可補充手動分析 💡 提示: - 本文件由 AI 自動生成,基於 58 個高質量發現 - 所有引用的檔案路徑都已驗證存在 - 如發現任何錯誤或遺漏,歡迎手動補充 祝學習順利! 🚀
重要注意事項
-
使用 TodoWrite 追蹤進度:在步驟 1 建立待辦清單,並在完成每個階段時更新狀態
-
並行執行代理(CRITICAL for performance):
- 階段 2 的 6 個分析代理 MUST 並行啟動(在單個回應中使用多個 Task 工具)
- 階段 3 的 N 個評分代理 MUST 並行啟動(全部一次性啟動)
- DO NOT 等待單個代理完成才啟動下一個
- DO NOT 序列執行(會導致總時間從 7 分鐘變成 30+ 分鐘)
-
錯誤處理:
- 如果某個分析代理失敗,記錄錯誤但繼續其他代理
- 如果某個評分代理失敗,該發現使用預設低分(0)並標記
- 如果文件生成失敗,嘗試重試一次
-
檔案路徑格式:
- 使用相對路徑(相對於專案根目錄)
- 格式:
src/main/java/com/example/order/controller/OrderController.java - 不要使用絕對路徑或 Windows 路徑格式
-
時間估算(所有階段都是必須的):
- 階段 1: 約 1 分鐘(Haiku)
- 階段 2: 約 3-4 分鐘(6 個 Sonnet 並行)
- 階段 3: 約 10-20 秒(N 個 Haiku 並行)← 不可跳過,時間極短
- 階段 4: 約 30 秒(主 session 處理)
- 階段 5: 約 2-3 分鐘(1 個 Sonnet)
- 總計: 約 7-9 分鐘(中型專案,100 個發現)
關鍵時間說明:
- 階段 3 雖然處理 100+ 個發現,但因為 Haiku 極快且並行執行,只需 10-20 秒
- 跳過階段 3 只能「節省」10-20 秒,但會失去整個插件的核心價值
- 即使 200 個發現,階段 3 也只需 15-25 秒
-
成本優化(設計已優化,無需手動調整):
- 階段 1: Haiku(快速、便宜)
- 階段 2: Sonnet(推理能力強,用於深度分析)
- 階段 3: Haiku(任務簡單、數量多、成本極低)← 100 個 Haiku 調用成本 < 1 個 Sonnet
- 階段 4: 無模型調用(主 session 處理)
- 階段 5: Sonnet(需要創造力和結構化能力)
總成本分析:
- 中型專案(245 檔案):約 2 Haiku + 6 Sonnet + 100 Haiku + 1 Sonnet
- 等價成本:約 10-12 個 Sonnet 調用
- 相比全用 Sonnet 的簡單方案:節省 60-70% 成本
-
質量保證:
- 所有發現都必須有檔案路徑證據
- 評分代理會驗證檔案存在性
- 閾值過濾確保只有高質量發現進入最終文件
- 多層防護機制防止幻覺