---
description: 分析 Legacy Java Spring Boot 專案並生成教學文件
allowedTools:
- Task
- TodoWrite
- Read
- Write
- Glob
- Grep
- Bash
---
# Legacy Java Project Analyzer
為給定的 Java Spring Boot 專案生成詳細的分析文件,using multiple specialized agents with confidence-based scoring。
要執行此操作,請精確遵循以下步驟:
## 準備工作
1. 首先使用 TodoWrite 建立待辦事項清單,包含所有階段
2. 創建工作目錄:`.legacy-analysis/session-{timestamp}/`
## 階段 1: 資格預檢與快速掃描
3. 使用 Haiku 代理檢查專案是否適合分析。代理應檢查:
- 專案根目錄是否存在 `pom.xml` 或 `build.gradle`?
- 是否包含 Spring Boot 依賴?(檢查 spring-boot-starter)
- Java 檔案數量是否適中?(使用 Glob 統計 **/*.java,應 < 1000)
如果不符合任一條件,說明原因並終止。
4. 使用 Haiku 代理快速掃描專案結構。代理應:
- 使用 Glob 找出所有 .java 檔案並統計數量
- 使用 Grep 搜尋以下註解並統計數量:
- `@RestController` 或 `@Controller`
- `@Service`
- `@Repository`
- `@Entity`
- 讀取 pom.xml 或 build.gradle 獲取:
- Spring Boot 版本
- 前 10 個主要依賴
- 使用 Glob 列出主要 package(src/main/java 下的第一層目錄)
返回專案摘要 JSON:
```json
{
"projectType": "Spring Boot",
"springBootVersion": "2.7.12",
"buildTool": "Maven",
"totalJavaFiles": 245,
"componentCounts": {
"controllers": 15,
"services": 20,
"repositories": 12,
"entities": 10
},
"mainPackages": [
"com.example.order.controller",
"com.example.order.service",
"com.example.order.repository"
],
"keyDependencies": [
"spring-boot-starter-web",
"spring-boot-starter-data-jpa",
"mysql-connector-java"
]
}
```
5. 將專案摘要寫入:`.legacy-analysis/session-{timestamp}/01-project-scan.json`
## 階段 2: 多視角並行分析
6. 啟動 **6 個並行 Sonnet 代理**來獨立分析專案。
**所有代理的共同輸入**:
- 專案摘要 JSON(來自步驟 4)
- 專案根目錄路徑
**所有代理的共同輸出格式**(JSON):
```json
{
"analyst": "代理名稱",
"findings": [
{
"finding_id": "分類前綴-編號",
"type": "發現類型",
"title": "簡短標題",
"description": "詳細描述(2-3 句話)",
"evidence": [
{
"file": "檔案相對路徑",
"lines": "起始行-結束行",
"snippet": "關鍵程式碼片段(可選)"
}
],
"importance": "high/medium/low",
"notes": "額外說明(可選)"
}
],
"total_findings": 數量
}
```
**所有代理的重要規則**:
- ❗ 每個發現必須有實際的檔案路徑和行號作為證據
- ❗ 使用 Read 工具驗證檔案內容,確保引用正確
- ❗ 使用 Glob/Grep 輔助搜尋,不要猜測
- ❗ 如果無法確認,不要包含該發現
- ❗ 只返回 JSON,不執行 Write 操作
- ❗ 專注於自己的分析領域,不要越界
---
**代理 #1:架構分析代理**
職責:分析專案的整體架構和分層設計
應分析:
- Package 組織結構(使用 Glob 掃描目錄)
- 分層架構識別:
- Controller 層:處理 HTTP 請求
- Service 層:業務邏輯
- Repository 層:資料存取
- Entity 層:資料模型
- 識別架構模式(MVC、三層架構、DDD 等)
- 層與層之間的依賴關係(通過讀取代表性類別)
應使用工具:
- Glob: 掃描 package 結構
- Grep: 搜尋 @RestController, @Service, @Repository, @Entity
- Read: 讀取 2-3 個代表性類別(每層一個)
發現類型前綴:`ARCH-`
發現類型:`architecture`
預期發現數量:8-15 個
---
**代理 #2:API 端點分析代理**
職責:分析所有 REST API 端點和請求處理流程
應分析:
- 所有 @RestController 或 @Controller 類別(使用 Grep 找出)
- 主要 API 端點:
- HTTP 方法(GET/POST/PUT/DELETE)
- 路徑和路徑參數
- 請求/響應格式
- 主要業務流程:
- Controller → Service → Repository 的調用鏈
- 事務管理(@Transactional)
- 認證授權機制(如果有 Spring Security)
- 異常處理(@ExceptionHandler, @ControllerAdvice)
應使用工具:
- Grep: 搜尋 @RestController, @RequestMapping, @GetMapping, @PostMapping
- Read: 讀取所有 Controller 類別(或前 10 個如果太多)
- Grep: 搜尋 @Transactional, @ExceptionHandler
發現類型前綴:`API-`
發現類型:`endpoint`
預期發現數量:15-25 個(視 Controller 數量)
---
**代理 #3:資料流分析代理**
職責:分析資料模型和資料流轉
應分析:
- 所有 JPA Entity 類別(使用 Grep 找出 @Entity)
- Entity 之間的關聯關係:
- @OneToOne, @OneToMany, @ManyToOne, @ManyToMany
- 關聯的方向和級聯設定
- 資料流轉路徑:
- DTO → Entity(轉換邏輯)
- Entity → Database(Repository 操作)
- Repository 介面和自定義查詢
- 資料驗證邏輯(@Valid, @NotNull 等)
應使用工具:
- Grep: 搜尋 @Entity, @OneToMany, @ManyToOne
- Read: 讀取所有 Entity 類別
- Grep: 搜尋 @Repository, extends JpaRepository
- Read: 讀取主要 Repository 介面
發現類型前綴:`DATA-`
發現類型:`entity` 或 `dataflow`
預期發現數量:10-20 個
---
**代理 #4:業務邏輯分析代理**
職責:分析核心業務邏輯和 Service 層
應分析:
- 所有 @Service 類別(使用 Grep 找出)
- 主要業務方法:
- 方法簽名和參數
- 業務規則和驗證
- 複雜的業務邏輯
- Service 之間的調用關係(依賴注入)
- 事務管理:
- @Transactional 的使用
- 事務邊界
- 業務異常處理
應使用工具:
- Grep: 搜尋 @Service, @Transactional
- Read: 讀取所有 Service 類別(或主要的 5-10 個)
- 分析依賴注入(@Autowired, 建構子注入)
發現類型前綴:`BIZ-`
發現類型:`service` 或 `business-logic`
預期發現數量:15-25 個
---
**代理 #5:配置分析代理**
職責:分析專案配置和第三方整合
應分析:
- application.yml 或 application.properties:
- 資料庫配置
- Server 配置
- 環境變數
- Spring Boot 配置類別(@Configuration):
- Bean 定義
- 第三方服務整合
- Spring Security 配置(如果有)
- 依賴管理(pom.xml 或 build.gradle):
- 主要依賴及版本
- 第三方庫的用途
應使用工具:
- Read: 讀取 application.yml/properties
- Grep: 搜尋 @Configuration, @Bean
- Read: 讀取配置類別
- Read: 讀取 pom.xml 或 build.gradle
發現類型前綴:`CONF-`
發現類型:`configuration` 或 `dependency`
預期發現數量:8-15 個
---
**代理 #6:模式識別代理**
職責:識別設計模式和編碼最佳實踐
應分析:
- 設計模式的應用:
- Factory Pattern(工廠模式)
- Strategy Pattern(策略模式)
- Builder Pattern(建造者模式)
- Singleton Pattern(單例模式)
- Spring 特定模式:
- Dependency Injection(依賴注入)
- AOP(面向切面編程,如果有 @Aspect)
- 異常處理模式:
- 全域異常處理器(@ControllerAdvice)
- 自定義異常類別
- 日誌記錄實踐(Logger 使用)
- DTO 模式的使用
應使用工具:
- Grep: 搜尋常見模式關鍵字(Factory, Strategy, Builder, Singleton)
- Read: 讀取包含模式的類別
- Grep: 搜尋 @ControllerAdvice, @Aspect, @Pointcut
- 分析代碼風格和命名慣例
發現類型前綴:`PATTERN-`
發現類型:`pattern` 或 `practice`
預期發現數量:5-15 個
---
7. 等待所有 6 個代理完成,收集所有輸出
8. 合併所有發現清單為一個 JSON 陣列
9. 將合併的發現清單寫入:`.legacy-analysis/session-{timestamp}/02-findings-raw.json`
10. 統計總發現數量並報告(例如:"收集到 102 個發現")
## 階段 3: 獨立置信度評分
⚠️⚠️⚠️ **CRITICAL - THIS STAGE IS MANDATORY AND CANNOT BE SKIPPED** ⚠️⚠️⚠️
**為什麼這個階段是核心且不可跳過的:**
1. **這是整個插件的靈魂**
- 置信度評分系統是本插件與其他分析工具的根本差異
- 沒有評分 = 沒有質量保證 = 無法區分真實發現與幻覺
- 跳過此階段違反了插件的核心設計原則
2. **防幻覺機制完全依賴此階段**
- 第二層防護:評分代理使用 Glob 驗證檔案存在
- 第三層防護:閾值過濾(score >= 75, evidence >= 60)
- 沒有評分 = 防幻覺機制失效 = 可能產生錯誤文件
3. **成本和時間都非常合理**
- Haiku 模型速度極快(每個評分 < 1 秒)
- 100 個評分代理並行執行只需 10-20 秒
- Haiku 成本極低(相比 Sonnet 便宜 50-100 倍)
- 即使 200 個發現,總時間也只增加 10-15 秒
4. **不評分的嚴重後果**
- 最終文件會包含所有未驗證的發現(包括幻覺、錯誤、瑣碎內容)
- 過濾率 0%(承諾是 40-60%)
- 無法信任檔案路徑和行號
- 用戶體驗極差,失去插件價值
**明確的執行要求:**
❌ **絕對禁止以下行為**:
- 以「發現數量太多」為理由跳過評分
- 以「節省時間」為理由跳過評分
- 以「成本考量」為理由跳過評分
- 直接使用未評分的發現生成文件
- 進入階段 4 而不先完成階段 3
✅ **你 MUST 執行以下操作**:
- 對 **每一個發現** 啟動一個獨立的 Haiku 評分代理
- 等待 **所有** 評分代理完成
- 將所有評分結果寫入 `03-scores.json`
- 只有在 `03-scores.json` 存在後才能繼續下一階段
11. **REQUIRED**: 對於步驟 8 中的 **每一個發現**,啟動一個並行 **Haiku 代理**進行評分。
**DO NOT SKIP ANY FINDINGS**, regardless of the total count.
**每個評分代理的輸入**:
- 單個發現 JSON(包含 finding_id, type, title, description, evidence, importance)
- 專案摘要 JSON(作為上下文)
**評分任務**:
從四個維度對發現進行評分(0-100):
**a. 證據強度 (Evidence Strength)** - 權重 40%
評分標準:
- 90-100 分:完美證據
- 有精確的檔案路徑和行號
- 使用 Read 工具驗證檔案存在且內容匹配
- 代碼片段準確無誤
- 70-89 分:良好證據
- 有檔案路徑和行號
- 使用 Glob 確認檔案存在
- 描述與代碼基本匹配
- 50-69 分:基本證據
- 有檔案路徑但行號範圍過大(> 50 行)
- 通過推理得出,未直接驗證
- 可能需要額外確認
- 30-49 分:弱證據
- 只有檔案路徑,沒有行號
- 基於間接證據(如依賴推測)
- 不確定性較高
- 0-29 分:無效證據
- 沒有檔案路徑或檔案不存在
- 明顯的猜測或假設
- 幻覺(fabrication)
**評分方法**:使用 Glob 驗證檔案路徑是否存在。如果時間允許,使用 Read 讀取檔案驗證行號範圍和內容。
---
**b. 重要性 (Importance)** - 權重 30%
評分標準:
- 90-100 分:極其重要
- 核心業務邏輯(如訂單處理、支付流程)
- 主要架構決策(如分層設計、依賴管理)
- 新手必須理解的概念
- 影響整個系統的設計
- 70-89 分:很重要
- 重要的業務流程
- 關鍵的設計模式應用
- 常見的 CRUD 操作
- 第三方服務整合
- 50-69 分:中等重要
- 輔助功能
- 一般的配置項目
- 可選的理解點
- 工具方法
- 30-49 分:次要
- 邊緣功能
- 細節實現
- 進階理解點
- 0-29 分:不重要
- 瑣碎細節
- 與業務無關的內容
- 可以忽略的資訊
---
**c. 完整性 (Completeness)** - 權重 15%
評分標準:
- 90-100 分:非常完整
- 描述清晰易懂
- 包含完整的流程或調用鏈
- 有充足的上下文
- 提供了代碼範例
- 70-89 分:基本完整
- 描述清晰
- 主要流程完整
- 上下文充足
- 50-69 分:部分完整
- 描述較簡略
- 流程不完整或片段化
- 缺少部分上下文
- 30-49 分:不完整
- 描述模糊
- 只有流程片段
- 上下文不足
- 0-29 分:非常不完整
- 描述不清
- 沒有流程資訊
- 完全缺乏上下文
---
**d. 準確性 (Accuracy)** - 權重 15%
評分標準:
- 90-100 分:完全準確
- 技術描述正確無誤
- 沒有錯誤或幻覺
- 可以直接使用
- 70-89 分:基本準確
- 主要描述正確
- 有小的不精確(如版本差異)
- 需要微調
- 50-69 分:部分準確
- 有明顯錯誤
- 需要修正才能使用
- 部分資訊可能誤導
- 30-49 分:不準確
- 多處錯誤
- 包含幻覺或猜測
- 不可信
- 0-29 分:完全錯誤
- 完全不正確
- 大量幻覺
- 必須丟棄
---
**計算最終分數**:
```
total_score = evidence * 0.4 + importance * 0.3 + completeness * 0.15 + accuracy * 0.15
```
**輸出格式**(JSON):
```json
{
"finding_id": "ARCH-001",
"scores": {
"evidence": 95,
"importance": 85,
"completeness": 90,
"accuracy": 95
},
"total_score": 91.25,
"confidence_level": "very_high",
"reasoning": "發現有明確的檔案路徑證據(已用 Glob 驗證存在),描述準確且清晰,對理解三層架構非常重要,新手必須知道。",
"verified_files": [
"src/main/java/com/example/order/controller/OrderController.java (verified)"
],
"issues": []
}
```
**confidence_level 對應**:
- very_high: total_score >= 85
- high: 75 <= total_score < 85
- medium: 60 <= total_score < 75
- low: 45 <= total_score < 60
- very_low: total_score < 45
12. **REQUIRED**: 等待 **所有** 評分代理完成,收集所有評分結果。
不要只收集部分結果,必須等待全部完成。
13. **REQUIRED**: 將評分結果寫入:`.legacy-analysis/session-{timestamp}/03-scores.json`
14. 統計評分分佈(例如:"58 個 >= 75, 44 個 < 75")
## 階段 4: 過濾與結構化整合
🔒 **VALIDATION CHECKPOINT - 在繼續之前必須驗證** 🔒
14.5. **MANDATORY PRE-CHECK**: 在執行任何過濾操作前,你 MUST 先驗證以下條件:
**檢查 1: 確認評分文件存在**
```
使用 Read 工具檢查文件是否存在:
.legacy-analysis/session-{timestamp}/03-scores.json
```
**如果文件不存在**,你 MUST:
- 立即停止執行
- 輸出錯誤訊息:
```
❌❌❌ 致命錯誤:階段 3 評分被跳過 ❌❌❌
檢測到缺少文件:03-scores.json
這表示階段 3(獨立置信度評分)沒有被執行。
沒有評分數據,無法進行質量過濾,無法保證最終文件質量。
請檢查階段 3 的執行日誌,或重新執行完整流程。
插件設計要求:所有階段必須依序完成,不可跳過。
```
- **DO NOT PROCEED** 到步驟 15
**檢查 2: 驗證評分數量一致性**
使用 Read 工具讀取以下兩個文件:
- `02-findings-raw.json` (原始發現數量)
- `03-scores.json` (評分數量)
驗證:評分數量 == 原始發現數量
**如果數量不一致**,你 MUST:
- 輸出警告訊息:
```
⚠️ 警告:評分數量與發現數量不一致
原始發現: {N} 個
評分結果: {M} 個
差異: {N-M} 個發現未被評分
可能原因:部分評分代理失敗
將繼續執行,但請注意未評分的發現將被自動過濾。
```
- 對於未評分的發現,自動賦予 total_score = 0(將被過濾)
**只有在通過所有檢查後**,才能繼續執行步驟 15。
15. **REQUIRED**: 過濾發現,應用以下規則:
**主要規則**:
- 保留 total_score >= 75 的發現
**額外規則**(強制):
- 如果 evidence < 60:強制丟棄(即使總分 >= 75)
理由:沒有足夠證據,可能是幻覺
- 如果 accuracy < 50:強制丟棄(即使總分 >= 75)
理由:準確性太低,可能誤導讀者
**例外規則**(保留):
- 如果 importance >= 90 且 evidence >= 70:保留(即使總分 < 75)
理由:極其重要的發現,證據也足夠
統計並報告過濾結果(例如:"保留 58 個高質量發現,過濾掉 44 個低質量發現,過濾率 43.1%")
16. 將保留的發現按類別分組:
- architecture: 架構發現
- endpoint: API 端點
- entity: 資料模型
- dataflow: 資料流轉
- service: 業務邏輯
- business-logic: 業務邏輯(同義詞)
- configuration: 配置
- dependency: 依賴
- pattern: 設計模式
- practice: 編碼實踐
17. 每個類別內按 total_score 降序排序(最高質量在前)
18. 識別發現之間的關聯關係(可選但推薦):
- 例如:API-001(創建訂單端點)→ BIZ-005(OrderService.createOrder)→ DATA-003(Order Entity)
- 建立關聯圖以幫助理解完整流程
19. 生成結構化資料 JSON:
```json
{
"summary": {
"total_findings_raw": 102,
"total_findings_filtered": 58,
"filter_rate": 0.431,
"by_category": {
"architecture": 8,
"endpoint": 15,
"entity": 7,
"dataflow": 3,
"service": 12,
"configuration": 7,
"pattern": 6
},
"average_score": 82.5
},
"findings_by_category": {
"architecture": [ /* 發現陣列 */ ],
"endpoint": [ /* 發現陣列 */ ],
...
},
"relationships": [
{
"from": "API-001",
"to": ["BIZ-005", "DATA-003"],
"type": "invokes"
}
]
}
```
20. **REQUIRED**: 將結構化資料寫入:`.legacy-analysis/session-{timestamp}/04-findings-structured.json`
## 階段 5: 教學文件生成
🔒 **FINAL VALIDATION CHECKPOINT - 文件生成前的最後檢查** 🔒
20.5. **MANDATORY FINAL CHECK**: 在啟動文件生成代理前,你 MUST 驗證所有必需文件已就緒:
**檢查 1: 驗證所有階段的輸出文件存在**
使用 Read 工具確認以下文件全部存在:
- `01-project-scan.json` (階段 1 輸出)
- `02-findings-raw.json` (階段 2 輸出)
- `03-scores.json` (階段 3 輸出) ← **關鍵文件**
- `04-findings-structured.json` (階段 4 輸出)
**如果任何文件缺失**,你 MUST:
- 立即停止執行
- 輸出錯誤訊息:
```
❌❌❌ 致命錯誤:無法生成教學文件 ❌❌❌
缺少必需的文件:{缺失的文件名}
這表示前置階段沒有正確完成。
無法在沒有完整數據的情況下生成教學文件。
請重新執行完整的分析流程,確保所有階段依序完成。
```
- **DO NOT START** 文件生成代理
**檢查 2: 驗證結構化發現的質量**
使用 Read 工具讀取 `04-findings-structured.json`,確認:
- `summary.total_findings_filtered` > 0(至少有一些高質量發現)
- `summary.filter_rate` 在 0.2-0.8 之間(過濾率正常)
**如果過濾後發現數量 = 0**,你 MUST:
- 輸出警告訊息:
```
⚠️ 警告:沒有任何發現通過質量過濾
原始發現: {N} 個
通過過濾: 0 個
可能原因:
1. 分析代理的發現質量極低(證據不足)
2. 評分標準過於嚴格
3. 專案過於簡單,沒有足夠的內容可分析
建議:
- 檢查 02-findings-raw.json 和 03-scores.json
- 考慮手動調整過濾閾值(從 75 降至 65)
- 或手動補充文件內容
```
- 繼續生成文件,但文件內容會很少
**檢查 3: 禁止使用未評分的發現**
你 MUST 確認:
- 文件生成代理的輸入 **只能** 是 `04-findings-structured.json`
- **絕對禁止** 直接使用 `02-findings-raw.json`
- **絕對禁止** 添加任何未在結構化發現中的資訊
**只有在通過所有檢查後**,才能啟動文件生成代理。
21. **REQUIRED**: 使用 **Sonnet 代理**生成教學文件。
**輸入**:
- 結構化發現 JSON(來自步驟 20 的 `04-findings-structured.json`)← **唯一允許的輸入來源**
- 專案摘要 JSON(來自步驟 5 的 `01-project-scan.json`)
**任務**:
生成完整的 Markdown 教學文件,假設讀者是完全不了解此專案的新進工程師。
**文件結構**(必須包含):
### 1. 專案概述
- 專案基本資訊(名稱、類型、Spring Boot 版本、建構工具)
- 專案規模(檔案數量、元件統計)
- 專案結構(主要 package)
- 核心模組列表
### 2. 快速開始
- 如何運行專案(從 git clone 到 spring-boot:run)
- 重要端點列表(健康檢查、API 文件)
- 開發環境要求(JDK、Maven/Gradle、資料庫)
### 3. 架構說明
- 整體架構圖(使用 Mermaid flowchart)
- 分層設計說明(Controller/Service/Repository/Entity)
- Package 組織結構
- 架構優點
範例 Mermaid 圖:
```mermaid
graph TB
Client[客戶端請求]
Controller[Controller 層
處理 HTTP 請求]
Service[Service 層
業務邏輯處理]
Repository[Repository 層
資料存取]
DB[(MySQL 資料庫)]
Client --> Controller
Controller --> Service
Service --> Repository
Repository --> DB
```
### 4. API 端點清單
對於每個重要的 API 端點(從 endpoint 類別的發現):
- HTTP 方法和路徑
- 描述和用途
- 請求範例(JSON)
- 響應範例(JSON)
- 業務流程序列圖(使用 Mermaid sequenceDiagram)
- 關鍵程式碼片段(含檔案路徑連結)
- 重要提示(如事務管理、異常處理)
範例序列圖:
```mermaid
sequenceDiagram
participant Client
participant Controller
participant Service
participant Repository
participant DB
Client->>Controller: POST /api/orders
Controller->>Service: createOrder(OrderDTO)
Service->>Service: 驗證庫存
Service->>Repository: save(Order)
Repository->>DB: INSERT
DB-->>Repository: 成功
Repository-->>Service: Order Entity
Service-->>Controller: OrderResponseDTO
Controller-->>Client: 201 Created
```
### 5. 核心業務流程
選擇 2-3 個最重要的業務流程(基於 importance 分數):
- 流程整體說明
- 詳細步驟分解
- 完整序列圖
- 涉及的類別和方法列表(含檔案路徑連結)
- 程式碼片段和註解
- 新手提示
### 6. 資料模型
- Entity 關係圖(使用 Mermaid erDiagram)
- 對於每個主要 Entity:
- 資料表名稱
- 主要欄位說明
- 關聯關係說明
- JPA 註解解釋(@Entity, @Table, @OneToMany 等)
- 程式碼範例
範例 ER 圖:
```mermaid
erDiagram
Order ||--o{ OrderItem : contains
Order {
Long id PK
Long customerId
String status
Timestamp createdAt
}
OrderItem {
Long id PK
Long orderId FK
Long productId
int quantity
decimal price
}
Customer ||--o{ Order : places
Customer {
Long id PK
String name
String email
}
```
### 7. 關鍵配置
- 資料庫配置(含 YAML/properties 範例)
- Spring Security 配置(如果有)
- 重要的 Bean 配置
- 環境變數說明
### 8. 設計模式與最佳實踐
對於每個識別出的設計模式:
- 模式名稱和類型
- 應用位置(檔案路徑)
- 程式碼範例
- 使用此模式的優點
- 相關的最佳實踐
### 9. 新手入門指南
- **我該從哪裡開始?**
- 建議的學習順序(10 分鐘理解架構 → 30 分鐘追蹤一個流程 → ...)
- 推薦先看哪些類別
- **常見任務指南**
- 如何添加新的 API 端點
- 如何修改業務邏輯
- 如何添加新的 Entity
- **開發環境設置**
- 所需工具清單
- 資料庫設置步驟
- 環境變數配置
- 如何運行測試
- **推薦的學習資源**
- Spring Boot 官方文件連結
- Spring Data JPA 文件連結
- 相關教學資源
### 10. 附錄
- **高質量發現清單**
- 按類別列出所有發現(含 finding_id 和 score)
- **文件變更歷史**
- 初始版本生成時間
- 後續手動更新記錄區
- **檔案路徑索引**
- 所有引用的檔案路徑清單(方便快速導航)
---
**撰寫風格要求**:
✅ **假設讀者是新手**
- 不假設任何先備知識
- 解釋所有技術術語(如 JPA、DTO、依賴注入)
- 提供充足的上下文
✅ **使用繁體中文**
- 自然流暢的中文
- 技術術語保留英文(如 Controller, Service, @Transactional)
- 適當加入英文原文(如「依賴注入 (Dependency Injection)」)
✅ **大量使用圖表**
- 每個複雜流程都應該有 Mermaid 圖
- 圖表類型:flowchart(架構圖)、sequenceDiagram(序列圖)、erDiagram(ER 圖)
- 圖表要清晰、標註完整
✅ **包含程式碼範例**
- 關鍵程式碼片段(使用 ```java 語法高亮)
- 適當的註解(特別是複雜邏輯)
- 檔案路徑和行號(格式:`src/.../OrderController.java:67-85`)
✅ **可點擊的連結**
- 所有檔案路徑都使用 Markdown 連結格式(如 `[OrderController.java](src/.../OrderController.java)`)
- 使用相對路徑
✅ **結構清晰**
- 使用 Markdown 標題階層(#, ##, ###)
- 使用清單和表格組織資訊
- 每個章節之間用 `---` 分隔
---
**重要規則**:
❗ **CRITICAL RULE: 只使用高質量發現**
- **MUST** 只能使用 total_score >= 75 的發現(來自 `04-findings-structured.json`)
- **MUST NOT** 添加任何未在發現清單中的資訊
- **MUST NOT** 直接使用 `02-findings-raw.json` 中的未評分發現
- 如果某個面向沒有足夠的發現,明確說明「此部分資訊不足,建議手動補充」
❗ **CRITICAL RULE: 所有引用必須可驗證**
- **MUST**: 每個程式碼範例都必須有檔案路徑
- **MUST**: 每個流程圖都必須基於實際的發現
- **MUST NOT**: 編造任何檔案路徑或類別名稱
- **MUST NOT**: 添加未經驗證的代碼片段
❗ **保持客觀**
- 如實描述專案現況
- 不過度美化或批評
- 基於事實陳述
❗ **Mermaid 語法正確**
- 確保所有 Mermaid 圖表語法正確
- 測試常見的 Mermaid 語法錯誤(如缺少引號、箭頭錯誤)
---
**輸出**:
返回完整的 Markdown 文件內容(純文本,不需要 JSON 包裝)
22. **REQUIRED**: 將生成的文件寫入:`.legacy-analysis/session-{timestamp}/05-PROJECT-ANALYSIS.md`
23. (可選)生成統計報告並寫入:`.legacy-analysis/session-{timestamp}/session-stats.json`
```json
{
"session_id": "session-20250125-143022",
"start_time": "2025-01-25T14:30:22Z",
"end_time": "2025-01-25T14:36:45Z",
"duration_seconds": 383,
"project_info": {
"name": "Order Management System",
"type": "Spring Boot",
"total_java_files": 245
},
"analysis_stats": {
"total_findings_raw": 102,
"total_findings_filtered": 58,
"filter_rate": 0.431,
"average_score": 82.5,
"by_category": { ... }
},
"agent_calls": {
"qualification_check": 1,
"quick_scan": 1,
"analysis_agents": 6,
"scoring_agents": 102,
"documentation_generator": 1,
"total": 111
},
"quality_metrics": {
"file_path_verified_rate": 1.0,
"average_evidence_score": 87.3,
"average_importance_score": 78.5
}
}
```
## 完成
24. 顯示完成摘要,包含:
```
╔═══════════════════════════════════════════════════════╗
║ Legacy Project Analyzer - 分析完成 ║
╚═══════════════════════════════════════════════════════╝
✅ 所有階段已完成
📁 工作目錄: .legacy-analysis/session-{timestamp}/
📄 生成的文件:
├─ 01-project-scan.json (專案掃描摘要)
├─ 02-findings-raw.json (原始發現 102 個)
├─ 03-scores.json (評分結果)
├─ 04-findings-structured.json (結構化發現 58 個)
├─ 05-PROJECT-ANALYSIS.md (最終教學文件) ⭐
└─ session-stats.json (統計資訊)
📊 分析統計:
- 總執行時間: 6 分 23 秒
- 代理調用: 111 次 (2 Haiku + 6 Sonnet + 102 Haiku + 1 Sonnet)
- 發現總數: 102 個
- 高質量發現: 58 個 (56.9%)
- 檔案路徑驗證率: 100%
- 平均置信度分數: 82.5
🎯 下一步建議:
1. 閱讀最終文件: 05-PROJECT-ANALYSIS.md
2. 根據文件理解專案架構和核心流程
3. 動手運行專案並對照文件調試
4. 如需深入特定模組,可補充手動分析
💡 提示:
- 本文件由 AI 自動生成,基於 58 個高質量發現
- 所有引用的檔案路徑都已驗證存在
- 如發現任何錯誤或遺漏,歡迎手動補充
祝學習順利! 🚀
```
## 重要注意事項
- **使用 TodoWrite 追蹤進度**:在步驟 1 建立待辦清單,並在完成每個階段時更新狀態
- **並行執行代理**(CRITICAL for performance):
- 階段 2 的 6 個分析代理 **MUST** 並行啟動(在單個回應中使用多個 Task 工具)
- 階段 3 的 N 個評分代理 **MUST** 並行啟動(全部一次性啟動)
- **DO NOT** 等待單個代理完成才啟動下一個
- **DO NOT** 序列執行(會導致總時間從 7 分鐘變成 30+ 分鐘)
- **錯誤處理**:
- 如果某個分析代理失敗,記錄錯誤但繼續其他代理
- 如果某個評分代理失敗,該發現使用預設低分(0)並標記
- 如果文件生成失敗,嘗試重試一次
- **檔案路徑格式**:
- 使用相對路徑(相對於專案根目錄)
- 格式:`src/main/java/com/example/order/controller/OrderController.java`
- 不要使用絕對路徑或 Windows 路徑格式
- **時間估算**(所有階段都是必須的):
- 階段 1: 約 1 分鐘(Haiku)
- 階段 2: 約 3-4 分鐘(6 個 Sonnet 並行)
- 階段 3: 約 10-20 秒(N 個 Haiku 並行)← **不可跳過,時間極短**
- 階段 4: 約 30 秒(主 session 處理)
- 階段 5: 約 2-3 分鐘(1 個 Sonnet)
- **總計: 約 7-9 分鐘(中型專案,100 個發現)**
**關鍵時間說明**:
- 階段 3 雖然處理 100+ 個發現,但因為 Haiku 極快且並行執行,只需 10-20 秒
- 跳過階段 3 只能「節省」10-20 秒,但會失去整個插件的核心價值
- 即使 200 個發現,階段 3 也只需 15-25 秒
- **成本優化**(設計已優化,無需手動調整):
- 階段 1: Haiku(快速、便宜)
- 階段 2: Sonnet(推理能力強,用於深度分析)
- 階段 3: Haiku(任務簡單、數量多、成本極低)← **100 個 Haiku 調用成本 < 1 個 Sonnet**
- 階段 4: 無模型調用(主 session 處理)
- 階段 5: Sonnet(需要創造力和結構化能力)
**總成本分析**:
- 中型專案(245 檔案):約 2 Haiku + 6 Sonnet + 100 Haiku + 1 Sonnet
- 等價成本:約 10-12 個 Sonnet 調用
- 相比全用 Sonnet 的簡單方案:節省 60-70% 成本
- **質量保證**:
- 所有發現都必須有檔案路徑證據
- 評分代理會驗證檔案存在性
- 閾值過濾確保只有高質量發現進入最終文件
- 多層防護機制防止幻覺