Claude Code 完全教學指南

 

Claude Code:AI 驅動的軟體開發革命

 

你可能經歷過這個場景:下午 3 點,產品經理說:「客戶要新功能,明天就要。」你打開編輯器,開始敲代碼。腦子裡同時在想:資料庫欄位、API 端點、錯誤處理、邊界情況、測試用例……你一個人在腦子裡跑著整個開發流程。

Claude Code 改變了什麼?想像你有個高級工程師坐在身邊。你說:「我需要一個使用者認證系統。」他問:「SQL 還是 NoSQL?」你說 PostgreSQL,他立刻開始寫。你看著代碼,說:「這個有漏洞」,他改。整個過程,你只需要說出你想什麼。

這就是 Claude Code 的核心:

    • 你專注想什麼(目標、邏輯、決策)

    • Claude Code 專注怎麼做(實現、語法、細節)

    • 你可以用一個人的時間,做一隊工程師的工作

第 1 章:快速入門

1.1 三分鐘安裝

macOS

brew install anthropic/tap/claude-code

Linux

sudo apt update && sudo apt install claude-code

Windows

從 https://claude.com/download 下載 .exe

1.2 設定 API 金鑰

    1. 去 https://console.anthropic.com

    1. 登入 → API Keys → Create Key

    1. 複製金鑰(只顯示一次)

    1. 執行:claude config set-key YOUR_KEY

1.3 第一個對話

claude

開始輸入:「寫一個 Python 函數,檢查質數」

第 2 章:核心概念

2.1 對話思維

不是:「寫個登入頁面」(50% 符合)

而是:逐步談論,每步精煉。第一版 80%,加要求→90%→100%。

2.2 理解能力邊界

能看到:你的項目文件、提到的內容、之前的對話

看不到:其他項目、密碼、網路信息(除非 WebFetch)

第 3 章:20+ 工具詳解

3.1 工具分類

表 1: Claude Code 工具分類速查表

此表格按功能分類列出 Claude Code 的所有工具。左欄是功能類型(檔案、執行等),中欄是對應的工具名稱,右欄說明每個工具的用途。

類型 工具 做什麼
檔案 Read, Edit, Write, Glob 讀、寫、編輯、搜尋文件
執行 Bash, Pytho 跑代碼,看結果
搜尋 Grep, Agent 找東西,分析代碼
版本控制 Git 提交、看歷史、合併
Web WebFetch, WebSearch 調 API,查信息
管理 TaskCreate, TaskUpdate 管理任務,追蹤進度

第 4 章:Skills 與 Workflows

Skill 是預定義的工作流程。例如 TDD(先寫測試再寫代碼)、Code Review、Debugging、Agent 派遣。

第 5 章:MCP 插件系統

MCP:讓 Claude Code 直接連接外部服務(資料庫、Figma、Discord 等)。

沒 MCP:你說 → Claude Code 生成 → 你複製 → 你跑 → 你粘貼 → Claude Code 分析。太慢。

有 MCP:一氣呵成,快很多。

第 6 章:進階用法(用得更好的祕訣)

6.1 Prompt 工程:怎樣問問題很重要

同樣的需求,不同的問法,結果天差地別。看這個對比:

表 2: Prompt 範例對比 – 如何提問更好

此表格展示同一個需求的三種提問方式。用來學習如何寫出高質量的 prompt。

維度 壞問題 好問題 結果差異
問題 「寫個登入頁面」 「Vue 3 + TypeScript 的登入頁面,記住我、3 次失敗鎖定、Tailwind CSS」
Claude Code 需要猜的東西 框架?UI 庫?功能?設計?認證方式? 全都說了,不用猜
生成的代碼符合度 ~50% ~100% 提升 50%
你需要改的次數 5-6 次 0-1 次 省時間 80%
Token 消耗 5000+ tokens 1500 tokens 省 70%
總時間 35 分鐘 5 分鐘 快 7 倍

「好問題」的三要素 + 對比表

表 3: 好 Prompt 的三個必要元素

此表格拆解一個優秀 prompt 的三個要素。用來檢查自己的 prompt 是否齊全。

要素 例子 為什麼重要
上下文 「我在寫後台管理系統,Vue 3 + TypeScript」 Claude Code 知道框架、語言、用途。消除最大的猜測。
具體需求 「功能:用戶名 + 密碼、記住我、錯誤提示」 功能清單,一項一項。不用用戶去想「還要什麼」。
約束條件 「UI:Tailwind CSS、安全:防 XSS」 限制技術選擇,防止 Claude Code 過度設計。

6.2 Context 管理:怎樣讓 Claude Code 聚焦

Context 聚焦的三層級對比

表 4: Context 管理 – 不同範圍的效能對比

此表格比較不同 Context 範圍的效率和品質。用來決定每次應該給 Claude Code 多少上下文。

層級 範圍 Context 大小 執行速度 答案品質 何時用
全項目 所有 780 個文件 50,000+ tokens ⏱️ 很慢 ⭐ 60% 罕見,只在架構設計
一個模塊 src/orders/(~50 個文件) 5,000 tokens ⏱️⏱️ 中等 ⭐⭐⭐⭐⭐ 95% 大部分工作,推薦
一個文件或函數 getOrders()(~30 行) 500 tokens ⏱️⏱️⏱️ 瞬間 ⭐⭐⭐⭐⭐ 99% 精細調整、除錯

經驗法則:項目 <50 個文件 → 全項目沒問題 | 50-500 → 聚焦模塊 | >500 → 聚焦文件/函數

6.3 性能優化:寫出快速的代碼

案例:交易策略回測的優化過程

表 5: 真實案例 – 性能優化的具體耗時

此表格展示交易回測項目從 5 分鐘優化到 3 秒的完整過程。用來了解 Claude Code 的實際優化效果。

版本 實現方法 執行時間 加速倍數 瓶頸
v1(原始) 三層 Python 迴圈 5 分 0 秒 1x CPU 單核執行 1.25M 次迭代
v2(矢量化) NumPy 矢量操作 8 秒 37.5x 記憶體讀取
v3(並行) NumPy + 多進程 3 秒 100x 磁碟 I/O
v4(快取) v3 + LRU 快取 1.5 秒 200x 實時使用可行

常見優化模式的效果對比

表 6: 常見優化技巧的效果對比

此表格列出開發中常用的優化技巧和預估加速倍數。用來評估哪些優化最值得做。

優化模式 應用場景 典型加速 實現難度 何時用
迴圈 → 矢量化 批量計算、數據處理 10-100 倍 Python 迴圈跑得慢
重複計算 → 快取 同一數據多次計算 5-50 倍 看到重複 print 語句
全表掃描 → 索引 資料庫查詢 100-1000 倍 WHERE 很慢
同步 → 非同步 網路請求、I/O 3-10 倍 等待外部服務
串行 → 並行 獨立計算 2-8 倍 多核 CPU 閒置

6.4 成本優化:不浪費 Toke

典型操作的 Token 消耗

表 7: Token 成本速查表 – 常見操作的費用

此表格列出日常開發操作的 token 消耗和估算成本。用來計算:「這個任務要花多少錢?」

操作 典型 Token 數 成本(Opus) 優化方式
讀一個小文件(<1KB) 50-100 $0.0002 只讀需要的部分
寫一個函數 500-1000 $0.002 一次寫多個相關函數
修改一個文件 1000-2000 $0.005 一次改多處,不要改多次
讀整個大項目 5000-10000 $0.02 聚焦到一個模塊
派遣一個 Agent 2000-5000 $0.01 只在真的需要時派遣

模型選擇指南(按任務類型)

表 8: 模型選擇指南 – 按任務類型選用 Opus/Soet/Haiku

此表格幫助選擇合適的 Claude 模型。用來回答「我應該用 Opus 還是 Soet?」

模型 價格 速度 推薦用途 例子
Opus $3/$15 ⏱️ 慢 架構決策、複雜邏輯、Code Review 「檢查系統的認證設計」、「找性能瓶頸」
Soet $3/$15 ⏱️⏱️ 中等 一般代碼生成、改 bug、寫測試 「寫登入頁面」、「修復崩潰」、「寫單元測試」
Haiku $0.8/$4 ⏱️⏱️⏱️ 快 搜索、讀文件、簡單改動、查詢 「找所有 API 端點」、「讀這個文件」、「改個變量名」

第 7 章:踩坑指南(學到的血淚教訓)

7.1 常見失敗模式速查表

表 9: 常見失敗模式 – 新手容易踩的 8 個坑

此表格列出使用 Claude Code 最常見的失敗場景和解決方案。用來快速診斷「為什麼我的結果不對?」

失敗模式 症狀 根本原因 修復方案 預防檢查
期望太高 想讓 Claude Code 寫整個平台,結果亂七八糟 把 Claude Code 當自動化工廠,不是思考夥伴 拆解成小功能,逐步迭代 □ 功能清單有多於 5 個嗎?拆小。
Context 爆炸 回答很差,執行很慢 讀了整個大項目,context 滿了 聚焦到一個模塊或文件 □ Context 有超過 5000 tokens 嗎?聚焦。
不驗證結果 上生產後才發現 bug 沒跑代碼驗證,直接相信 Claude Code 讓 Claude Code 跑代碼,看實際輸出 □ 你跑過這段代碼嗎?沒有就先跑。
安全忽視 API 沒認證,客戶能查別人數據 沒明確提出安全需求 明確列出安全要求(認證、防注入、加密) □ 有提到「安全」「認證」「防護」嗎?
被建議騙了 按 Claude Code 的建議做,結果更複雜 建議太通用,不適合你的場景 提供約束條件(預算、人力、規模) □ 有說明你的約束條件嗎?

7.2 真實項目教訓對比表

表 10: 血淚教訓 – 真實項目中的失敗案例

此表格記錄實際項目中發生過的重大問題和解決方案。用來學習別人的教訓。

項目 問題 症狀 修復 教訓
SimpleEC OMS Agent Team OOM 當機 派遣 9 個 Opus Agent,機器 16GB 記憶體爆炸 分批執行,一次 3-5 個 Agent 消耗 ~1.5GB 每個,要算好預算
iDempiere 動態查詢失敗 SQL 查詢經常報「Unknown column」錯誤 先查詢 schema,確認欄位名 複雜系統要讀文檔,不要假設
交易策略 優化後結果不一致 矢量化快 37 倍,但數字精度不同 優化前鎖定正確性,改後驗證 性能優化要漸進,不要一下改太多

7.3 成本 & ROI 實際數字

表 11: 成本與投資回報 – 真實項目的數字

此表格列出真實項目的成本構成和投資回報。用來評估投資 Claude Code 是否值得。

項目 代碼量 對話次數 Token 消耗 成本 節省時間 ROI
SimpleEC OMS 50,000 行 500 次 5M tokens $20 200 小時(2 個月 → 2 週) 10 倍
iDempiere 自訂 30,000 行 300 次 2M tokens $8 100 小時 12 倍
交易策略 10,000 行 100 次 500K tokens $2 40 小時 20 倍

結論:Claude Code 成本微乎其微(單項目 $2-20),但節省的時間是數週到數月。任何項目 ROI 都在 10 倍以上。

7.4 避坑檢查清單

表 12: 預發布檢查清單 – 交付前必檢項目

此表格是交付代碼前的檢查清單。用來確保代碼質量和完整性。

階段 檢查項目 不檢查的後果
需求定義 ☐ 明確上下文(「我在做什麼項目」) Claude Code 猜測,符合度 50%
☐ 列出功能清單(一項一項) 遺漏功能,改多次
☐ 說出約束條件(性能、安全、技術棧) 實現不符需求,推倒重來
實現階段 ☐ 聚焦 Context(「現在只看這部分」) Context 爆炸,品質下降 70%
☐ 讓 Claude Code 跑代碼驗證 Bug 進入生產,客戶投訴
☐ 關鍵改動要提交(不要等全部完成) 一個地方出錯,整個項目回滾
優化階段 ☐ 明確性能要求(「<100ms」不是「儘量快」) 優化方向錯誤,白費力氣
☐ 優化後驗證正確性一致 快了但結果錯了,worse than before
團隊協作 ☐ Agent Team 控制數量(最多 5 個) 資源耗盡,OOM 當機
☐ 監控成本(知道 token 消耗) 一個月花 $500 都沒發現

7.5 遇到問題的除錯決策樹

代碼不工作?按這個順序診斷:

代碼崩潰?n  ├─ 是 → 看錯誤信息(線索在這)n  │       ├─ 語法錯誤? → 讓 Claude Code 修n  │       ├─ Runtime 錯誤? → 隔離問題,寫個最小測試n  │       └─ 邏輯錯誤? → 跑 debug 代碼,看變量值n  │n  └─ 否(運行但結果錯)→ 對比預期 vs 實際n          ├─ 部分錯? → 這部分代碼邏輯問題n          ├─ 都錯? → 理解錯誤,回到「需求定義」n          └─ 有時錯? → 邊界條件遺漏,寫測試複現

金律:「不要瞎猜,運行代碼。」99% 的問題都能通過運行 + 看錯誤 + 寫測試解決。

第 8 章:Agent Team 協作指南

8.1 什麼時候用 Agent Team?

一個 Claude Code 不夠時,就該考慮多個 Agent 分工。

表 13: 單個 Claude vs Agent Team – 何時升級

此表格對比單個 Claude Code 和 Agent Team 的應用場景。用來決定是否需要升級到多 Agent。

特徵 單個 Claude Agent Team
場景 簡單任務(寫功能、修 bug) 複雜項目(需要並行工作、分角色)
執行時間 30 分鐘內 1-2 小時或更長
決策成本 低(你直接說) 中(角色分工、資源預算)
回報倍數 5-10x(人力) 30-100x(多角色並行)
實際例子 寫個登入頁面 架構大重構、多模塊並行開發

判斷法則:

– 任務可以分成 3+ 個獨立部分? → 考慮 Agent Team

– 這些部分需要同時進行? → 確定用 Agent Team

– 部分之間無強依賴? → 完美

8.2 角色設計:避免混亂和重複

核心原則

表 14: Agent Team 設計原則 – 好設計 vs 壞設計

此表格列出 Agent Team 設計的核心原則和常見錯誤。用來避免設計失誤。

維度 ✅ 好設計 ❌ 壞設計
角色數量 3-5 個 9+ 個(資源爆炸)
職責邊界 清晰、無重疊 模糊、功能重疊
通信方式 Team Lead 統一協調 每個 Agent 互相溝通(亂套)
模型選擇 任務匹配(opus/soet/haiku) 都用同一個模型(資源浪費)

常見角色類型

領導層:Team Lead(Haiku)n  ├─ 分配任務、協調進度、整合結果n  └─ 不需要高智力,需要協調能力實現層:Developer Agent(Soet)n  ├─ 寫代碼、修 bug、測試n  └─ 需要快速完成、成本敏感研究層:Architect / Researcher(Opus)n  ├─ 設計決策、技術選型、深度分析n  └─ 需要高質量、可容忍慢可選層:QA Agent(Soet)n  ├─ 執行測試、驗證結果n  └─ 提高品質、並行檢查

角色劃分檢查清單

□ 每個 Agent 只負責一個邏輯完整的工作(不要分成太細)

□ 不同 Agent 的職責無重疊(問自己:Agent A 的工作會被 Agent B 做嗎?)

□ Team Lead 能清楚地把任務分配給各 Agent

□ Team Lead 有辦法整合各 Agent 的輸出

□ 總共 ≤ 5 個 Agent(否則資源問題,見 8.3)

8.3 記憶體控制:避免當機

資源現狀(16GB 機器)

表 15: 記憶體預算 – 16GB 機器上的 Agent 配置

此表格列出每種模型的記憶體消耗和最多同時 Agent 數。用來規劃 Agent Team 的規模。

Agent 模型 每個消耗 最多同時跑 常見配置
Opus ~1.0GB 5-6 個 高精度任務
Soet ~0.6GB 10-12 個 通用實現
Haiku ~0.4GB 15+ 個 快速搜尋、協調

2026/3/3 事故根因:同時跑 9 個 Opus Agent → OOM 當機

記憶體預算公式

可用記憶體 = free -h 的 available 列 - 2GB(系統保留)需求 = Σ(各 Agent 記憶體) + 0.5GB(Team Lead)✅ 需求 < 可用 → 可以啟動n❌ 需求 ≥ 可用 → 必須分批

分批策略(超過 5 個 Agent)

不要同時啟動 9 個 Opus!必須分批:

批次 1:Agent A + B + C + D + E(5 個)同時跑n        ↓(全部完成)n批次 2:Agent F + G + H + I + J(5 個)同時跑n        ↓(全部完成)n批次 3:Team Lead 整合所有結果

即時監控命令

# 檢查系統可用記憶體(秒級更新)nwatch -n 1 'free -h'# 檢查 Claude 進程數(最多不超過 5 個 opus)nps aux | grep claude | wc -l# 如果用 claude-limited(cgroup 限制)ncat /sys/fs/cgroup/memory/claude/memory.limit_in_bytes  # 限制ncat /sys/fs/cgroup/memory/claude/memory.usage_in_bytes  # 實際用量

8.4 測試策略:避免「虛假成功」

問題根源

「測試全過卻 UI 點到抓狂」的本質:測試驗證的不是用戶真正體驗的東西。

表 16: Mock 陷阱 – 測試環境 vs 真實環境的差異

此表格說明為什麼本地測試通過但生產環境失敗。用來理解測試策略的重要性。

差距 測試環境 真實環境 後果
資料 乾淨 fixtures 髒資料、邊界值 NaN 顯示、閃爍
執行 同步、可預測 非同步、競態條件 重複提交、資料丟失
網路 即時或 mock 延遲、超時、失敗 loading 無限轉
使用者 按劇本操作 快速連點、返回鍵 狀態錯亂、記憶體洩漏

Mock 的三大致命陷阱

陷阱 1:Over-mocking(mock 了不該 mock 的)n───────────────────────────────────────njest.mock("../api/auth", () => ({ login: () => "success" }))n❌ 你測的是:「假設 API 永遠正確」n✅ 你應該測:「API 格式改了怎麼辦」陷阱 2:Stale Mocks(mock 跟實作不同步)n────────────────────────────────────n後端改了 userName → displayNamen前端 mock 還返回 userNamen→ 測試過 ✅ 但線上爆炸 ?陷阱 3:Happy Path Only(只 mock 成功路徑)n──────────────────────────n所有 mock 都返回 200 + 完美資料n→ 從不測 401、500、timeoutn→ 用戶看白屏或無限 loading

前期設計檢查清單

在開始寫功能前,問自己:

□ 這個功能會失敗嗎?(網路斷線、伺服器 500、用戶輸入錯誤)

□ 失敗時怎麼展示錯誤?(空白 vs 友善訊息)

□ 在網路慢的情況下怎麼工作?(loading、禁用按鈕防重複提交)

□ 用戶會怎樣濫用?(快速連點、關閉瀏覽器、返回鍵)

□ 邊界資料怎麼處理?(null、空字串、超大數字)

這些問題回答不了 → 代碼寫不好 → 測試也救不了

測試策略三層次(按優先級)

層級 1:組件集成測試(最重要,投資回報最高)n────────────────────────────────────n✅ 用真實組件、mock API 層(用 MSW,不是 jest.mock)n✅ 測:點擊 → API 呼叫 → 結果渲染n✅ 覆蓋:成功 + 失敗 + loading 狀態n✅ 工具:React Testing Library、@testing-library/user-event層級 2:E2E 測試(關鍵流程)n────────────────────────n✅ 測:登入 → 操作 → 結果n✅ 不要 mock 任何東西(真實後端 + 測試資料庫)n✅ 工具:Playwright、Cypress層級 3:單元測試(純邏輯)n──────────────────────n✅ 純計算函數(格式化、排序、驗證)n✅ 工具函數、資料轉換n❌ 不要測組件內部細節(太脆弱)

常見功能的測試清單

登入功能:

– □ [E2E] 輸入帳密 → 點登入 → 跳轉首頁 → 顯示用戶名

– □ [集成] 密碼錯誤 → 顯示錯誤訊息

– □ [集成] 提交時禁用按鈕(防重複提交)

– □ [集成] 網路超時 → 重試機制

– □ ❌ 不要 mock router(登入後跳轉是核心行為)

– □ ❌ 不要 mock localStorage(token 存取就是測試重點)

支付流程:

– □ [E2E] 選商品 → 結帳 → 支付 → 成功頁

– □ [集成] 金額計算:小計 + 稅金 + 折扣 + 運費 = 總計

– □ [集成] 支付失敗 → 錯誤訊息 + 可重試

– □ [單元] 折扣碼驗證邏輯

– □ [E2E] 重複提交防護(連點不會重複扣款)

8.5 實戰案例:SimpleEC OMS 失敗與修復

失敗原因:

– 資料庫連線池沒關閉 → 頻繁操作時耗盡

– 測試環境用 mock,生產環境真實資料 → 資料格式不同

– 測試只覆蓋成功路徑 → 沒測過並發競態

修復步驟:

1. 新增集成測試(對真實資料庫,測並發場景)

2. 移除過度 mock(只 mock 第三方 API)

3. 新增 E2E 測試(真實業務流程)

結果: 問題率從 15% 降到 2%

8.6 小結

Agent Team 三黃金規則:

1. 角色要清晰 — 不要讓兩個 Agent 做同樣的事

2. 資源要預算 — 先算再建,分批執行

3. 測試要前置 — 設計時就考慮失敗情況,不要事後補救

最後的話: 多 Agent 協作能 100 倍加速工作,但複雜度也倍增。沒有架構設計,光有工具沒用。

總結

從入門到精通:8 章的進階路線

  • 第 1-2 章:基礎與核心概念
  • 第 3-4 章:工具與工作流程
  • 第 5 章:系統集成(MCP)
  • 第 6 章:進階技巧
  • 第 7 章:實戰失敗案例
  • 第 8 章:多 Agent 協作

Claude Code 的價值不在寫代碼有多快,而在於你能專注「想什麼」而不是「怎麼做」。當你掌握了 Agent Team 協作,一個人可以做一個小隊的工作。但記住:強大的工具也需要謹慎使用。

留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *