IPAS 初級 AI 應用規劃師完整學習筆記模板(繁體中文,可直接存成 .md)
1. 來源與假設
1.1 使用來源(依優先順序)
-
核心學習指引(科目一)
DOCS/AI應用規劃師(初級)-學習指引-科目1_人工智慧基礎概論1141203_20251222172144.pdf -
核心學習指引(科目二)
DOCS/AI應用規劃師(初級)-學習指引-科目2_生成式AI應用與規劃114123_20251222172159.pdf -
能力鑑定簡章(初、中級)
DOCS/115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410144547.pdf -
評鑑內容範圍參考(115.02)
DOCS/AI應用規劃師能力鑑定_評鑑內容範圍參考_11502_20260226174411.pdf -
初級樣題與公告試題
DOCS/iPAS AI應用規劃師初級能力鑑定-考試樣題(114年9月版)_20251226162246.pdf
[DOCS/114年第四梯次初級AI應用規劃師第一科人工智慧基礎概論(當次試題公告114_20251226000442.pdf](DOCS/114年第四梯次初級AI應用規劃師第一科人工智慧基礎概論(當次試題公告114_20251226000442.pdf)
[DOCS/114年第四梯次初級AI應用規劃師第二科生成式AI應用與規劃(當次試題公告114_20251226000507.pdf](DOCS/114年第四梯次初級AI應用規劃師第二科生成式AI應用與規劃(當次試題公告114_20251226000507.pdf)
DOCS/115年第一次初級AI應用規劃師_第一科_人工智慧基礎概論_公告試題_20260410164304.pdf
DOCS/115年第一次初級AI應用規劃師_第二科_生成式AI應用與規劃_公告試題_20260410164328.pdf -
抵免辦法(中級,作為制度參考)
DOCS/115年度AI應用規劃師能力鑑定(中級科目抵免辦法)_11501版_20260101234950.pdf
1.2 本模板採用原則
- 若「學習指引」與「評鑑內容範圍參考」表述不一致,以較新的評鑑內容範圍參考(115.02)作為主軸。
- 若「樣題/公告試題」出現新工具或新名詞(如 RAG、MCP、Agent、PEFT、TCO/ROI),視為高機率考點增補。
- 讀書策略採雙軌:主軌依官方評鑑主題,快軌依近期公告試題題風更新。
1.3 協作分工標註
- project-manager-senior:學習里程碑、週計畫節奏、任務切分。
- engineering-technical-writer:模板欄位可填寫性、語句清晰度、複習可執行性。
- zk-steward:知識卡設計、概念關聯、對比卡。
- product-feedback-synthesizer:弱點診斷、錯題回補流程、策略調整機制。
- testing-reality-checker:考前驗收清單、模擬檢核標準與通關門檻。
2. 執行摘要
- 初級考試兩科皆為電腦化單選題,每科 50 題。
- 學習優先順序:先打底(科目一資料與機器學習概念)再轉攻(科目二工具、導入與風險)。
- 近期題風已明顯包含「實務場景判斷」與「新工具名詞辨識」:RAG、MCP、Agent、PEFT、部署效能、治理與法遵。
- 目標不是背答案,而是建立可遷移的決策框架:
1. 題目先判斷是「概念定義」還是「情境取捨」。
2. 情境題優先抓關鍵約束(成本、風險、延遲、資料品質、法遵)。
3. 以排除法先刪除「過度絕對」或「偷換名詞」選項。
3. 考試架構總覽(含重要度)
3.1 考試規格速記
| 項目 | 初級規格 |
|---|---|
| 科目 | 科目一:人工智慧基礎概論;科目二:生成式 AI 應用與規劃 |
| 題型 | 每科 50 題單選題 |
| 測驗方式 | 電腦化測驗 |
| 每科及格 | 70 分(四捨五入) |
| 同梯同時報考兩科授證 | 平均 70 且每科不低於 60 |
| 非同時報考授證 | 各科皆達 70 |
| 成績保留 | 單科 70 以上可保留三年度 |
3.2 評鑑主題地圖(Mermaid 1)
3.3 能力關聯圖(Mermaid 2)
3.4 章節重要度(高/中/低)
| 科目 | 章節 | 重要度 | 原因(整合學習指引+評鑑範圍+公告題風) |
|---|---|---|---|
| 科目一 | 3.1 人工智慧概念 | 中 | 常見概念題、治理觀念題 |
| 科目一 | 3.2 資料處理與分析概念 | 高 | 近期公告題大量出現資料處理、統計、前處理與資料洩漏 |
| 科目一 | 3.3 機器學習概念 | 高 | 模型選擇、過擬合、評估指標、演算法判斷高頻 |
| 科目一 | 3.4 鑑別式與生成式 AI 概念 | 高 | 整合應用、模型角色、場景對應常考 |
| 科目二 | 3.1 No code / Low code 概念 | 中 | 基礎題與工具定位題 |
| 科目二 | 3.2 生成式 AI 應用領域與工具使用 | 高 | 工具、提示、上下文工程、架構理解高頻 |
| 科目二 | 3.3 生成式 AI 導入評估規劃 | 高 | 成本效益、部署效能、治理風險、導入策略高頻 |
3.5 常見題型整理
Lab B11: 模型選擇小幫手
輸入任務類型與資料量,得到建議模型方向。
| 題型 | 典型問法 | 解題關鍵 |
|---|---|---|
| 定義辨識 | 何者最正確/最不正確 | 先抓術語核心定義 |
| 場景選型 | 某公司情境應選何技術 | 抓任務類型:分類/生成/檢索/規劃 |
| 流程判斷 | ETL、前處理、資料分割順序 | 防資料洩漏與步驟順序 |
| 指標判斷 | Recall、F1、延遲、吞吐 | 對應業務目標而非背名詞 |
| 治理法遵 | 偏差、公平、揭露、風險等級 | 責任歸屬與控制機制 |
4. 科目一完整筆記(逐章固定欄位)
4.0 科目一總覽
新手導讀:30秒 → 3分鐘 → 10分鐘學習階梯
先掌握名詞,再看流程,最後做一個小練習,記憶會更穩定。
- 章節:3.1 人工智慧概念、3.2 資料處理與分析、3.3 機器學習、3.4 鑑別式與生成式 AI
- 學習任務:把「名詞」轉成「可判斷題目」的決策規則。
4.1 第 3.1 章 人工智慧概念(中)
Lab B6: 規則式 vs 機器學習(何時該升級)
調整規則數量與資料變動速度,觀察哪種方法更適合。
核心觀念
AI 本質:用資料和演算法讓機器自動做出決策,而不是人手寫規則。
AI 的三層定義(由淺入深)
-
第一層(最直覺):模仿人類智慧
- AI = 能做人類才能做的事(識別圖片、寫文案、回答問題)
- 例:ChatGPT 寫文案 = AI -
第二層(技術視角):通過資料和演算法學習
- AI ≠ 硬寫規則,而是「從資料中自動找到規律」
- 例:給演算法 1000 張貓咪圖,它自己學會「什麼是貓」,而不是我們告訴它 -
第三層(決策角度):能在不確定環境中做出選擇
- AI 能面對變化和新情況,不需要每次都更新規則
- 例:自駕車見到紅綠燈不在的十字路口,仍能安全通過
AI 的分類維度
維度 1:按能力層級 ├─ 弱 AI(現在):只能做單一任務 │ ├─ 語音助手(聽話、執行指令) │ ├─ 推薦系統(猜你喜歡什麼) │ └─ 自動駕駛(只專注開車) │ └─ 強 AI(未來科幻):通用智慧,什麼都能學 └─ 人工通用智慧 AGI(目前還未實現) 維度 2:按應用方向 ├─ 分析型 AI:分析資料找規律 │ └─ 病人症狀 → 預測疾病、推薦治療 │ ├─ 預測型 AI:預測未來 │ └─ 歷史銷售 → 預測明年銷量 │ └─ 生成型 AI:創造新內容 └─ 提示 → 自動寫文案、畫圖、作曲 維度 3:按應用場景 ├─ 決策支援:AI 給建議,人決定 ├─ 自動執行:AI 自己決定和執行 └─ 人機協作:AI + 人類共同完成
AI 治理的核心(為什麼不只看準確率)
【常見誤解】「AI 的準確率高就可以上線」 【事實】準確率只是一維,還有這些同樣重要: ┌─────────────────────────────────────────────────────────┐ │ 公平性 Fairness │ │ ├─ 問:是否對所有人群公平對待? │ │ ├─ 例:貸款審批 AI 不能因性別或種族歧視 │ │ └─ 失控後果:會被法律追究,品牌毀滅 │ │ │ │ 可解釋性 Explainability │ │ ├─ 問:能否說明為什麼做出這個決定? │ │ ├─ 例:拒絕貸款申請,要能說出理由 │ │ └─ 失控後果:無法申訴,客戶不信任 │ │ │ │ 隱私 Privacy │ │ ├─ 問:個人資料是否安全? │ │ ├─ 例:健康記錄不能洩露給保險公司 │ │ └─ 失控後果:法律罰款(GDPR 最高 4% 營收) │ │ │ │ 安全與防濫用 Safety │ │ ├─ 問:會被人惡意利用嗎? │ │ ├─ 例:人臉辨識被用來監控異議人士 │ │ └─ 失控後果:侵犯人權,社會反彈 │ │ │ │ 可持續性 Sustainability │ │ ├─ 問:能長期穩定運作嗎? │ │ ├─ 例:新資料進來,模型性能會掉嗎? │ │ └─ 失控後果:突然故障,決策失誤 │ └─────────────────────────────────────────────────────────┘ 【考試重點】治理 ≠ 道德,而是「責任體系」: - 誰負責?(機構要有 AI 治理單位) - 怎麼監控?(持續看偏差、公平指標) - 出問題誰賠?(明確的法律責任鏈)
必背重點
✅ AI 治理不是只看準確率,還包含公平性、可解釋性、隱私、安全與可持續性。
✅ 高風險場景(健康、金融、司法)一定要人為覆核。準確率 99% 也要人簽字。
✅ 「可用」≠「可上線」。可用是指技術能跑,可上線還要過法規、倫理、安全、隱私檢查。
常錯陷阱
❌ 只注重準確率 → 忽略偏差和不公平 → 搞出歧視性 AI → 被揭露 → 炎上
❌ 把責任推給演算法本身 → 說「AI 決定的,不是我決定的」 → 法律上不成立,法人代表仍要負責
❌ 高風險業務不留人工審核 → 省成本導致故障 → 一次系統失靈影響數百萬用戶 → 巨額罰款和訴訟
初學者常問的 5 個問題
| 問題 | 回答 |
|---|---|
| Q:AI 這麼厲害,以後不需要人? | A:不會。AI 自動化低風險的決定,人專注高風險和創意決定。是人 + AI 協作,不是替代。 |
| Q:為什麼準確率 99% 還要人審? | A:因為「1% 的錯誤」落在誰身上很重要。若 1% 害 100 萬人,那就很嚴重。人審是最後防線。 |
| Q:AI 偏差是怎麼來的? | A:通常來自訓練資料本身有偏見。例如歷史貸款資料顯示少數族裔被拒比例高 → AI 學會了這個歧視規律 → 複製下去。 |
| Q:AI 治理會拖累效率嗎? | A:短期看起來慢,但長期省錢。少一次大故障 = 省幾千萬罰款。舞弊一次 = 品牌毀滅。 |
| Q:什麼場景最需要治理? | A:公民權利(司法判決、警察執法)、生命安全(醫療、自駕車)、金融承諾(借貸、保險)。 |
情境題模板
| 題幹線索 | 先判斷 | 再選 |
|---|---|---|
| 涉及個人信貸評分或保險理賠判定 | 風險等級:極高 | 選有「人工審核」或「可解釋」選項 |
| 「只要準確率達 90%就能上線」 | 這是不完全的 | 選「還需檢查公平性、隱私、可解釋性」 |
| AI 做出拒絕決定,客戶投訴「為什麼拒我」 | 這是可解釋性問題 | 選「應該能說出理由」的方案 |
| 某少數族裔發現 AI 對他們成功率特低 | 這是偏差與不公平 | 選「定期審查公平指標」的方案 |
實務案例(帶著學習視角)
案例:銀行信貸評分 AI
背景:一間銀行用 AI 自動審批小額貸款,想提速,省了人工審核。
出問題:
- 婦女貸款拒絕率遠高於男性(雖然還款能力相同)
- 原因:歷史資料裡,銀行曾經傾向拒貸單親媽媽 → AI 學會了這個歧視
- 後果:被民權團體告上法庭,罰款 5000 萬 + 品牌毀滅
教訓(治理視角):
1. 應該做但沒做:
- 上線前做「公平性評估」,按性別和族裔分層檢查
- 保留 10% 案件給人工審核做 QA
- 每月定期審查拒絕率有沒有不合理差異
- 事後補救:
- 找出有偏差的決定,回溯補償
- 重新訓練去掉歧視特徵
- 建立獨立的「AI 治理委員會」做監督
考試可能問:
- 應該在什麼階段發現這個問題?→ 上線前的公平性測試
- 發現後應該怎麼做?→ 先暫停 AI,改用人工審核,同時調查和修正
- 誰該負責?→ 銀行董事會,因為他們決定了上線政策
4.2 第 3.2 章 資料處理與分析概念(高)
Lab B7: 資料切分與洩漏檢查器
輸入切分比例與處理順序,判斷是否有 Data Leakage 風險。
核心觀念
資料是 AI 訓練的基石,品質好壞直接影響模型效能。
- 資料型態(結構化/半結構化/非結構化)
- 結構化:表格式資料(關聯式資料庫、CSV),最易處理
- 半結構化:JSON、XML,有標籤但格式不完全固定
-
非結構化:文本、影像、語音,需要特別技術提取特徵
-
ETL(資料管道):從原始資料到可用資料的完整流程
- Extract:從各種來源(資料庫、日誌、API、檔案)抓資料
- Transform:清理、轉換、轉碼、特徵工程
-
Load:放入資料倉庫或模型輸入
-
資料清理與轉換:去除雜質,統一格式
- 缺失值處理:刪除、平均值填補、模型預測
- 離群值判定:用統計(3倍標準差)或領域知識判定
-
類別編碼:One-Hot、Label Encoding、Target Encoding
-
特徵工程:從原始欄位衍生出更有預測力的新特徵
-
例:購買次數 + 購買金額 = 客戶終身價值(LTV)
-
特徵縮放(標準化/正規化):讓數值範圍統一
- 標準化(Z-score):(x - μ) / σ,適合常態分佈
-
正規化(Min-Max):(x - min) / (max - min),適合邊界已知
-
描述統計與分析:理解資料特性
- 均值、中位數、眾數、標準差
- 直方圖(看分布)、散佈圖(看關聯)、箱線圖(看異常值)
資料處理全流程圖(初學者視角)
常見資料問題的解決方案
| 問題 | 症狀 | 根本原因 | 解決方法 |
|---|---|---|---|
| 缺失值 | 某欄位有 NaN/NULL | 收集不完整、系統故障 | 刪列 / 均值填補 / 預測填補 |
| 重複值 | 同一筆資料出現多次 | ETL 重複執行 | 去重後保留一筆 |
| 異常值 | 薪資 999999 元 | 輸入錯誤、資料汙染 | 檢查後修正或刪除 |
| 類別不平衡 | 詐欺樣本只有 2% | 現實比例、採樣偏差 | 重抽樣 / SMOTE / 調整損失函數 |
| 量級差異大 | 收入 100-1M,評分 1-5 | 特徵來源不同 | 標準化/正規化 |
| 資料洩漏 | 測試集用了訓練統計量 | 操作順序錯誤 | 必須先分割,後標準化 |
必背重點
✅ 黃金規則:先分割再轉換。一定要先把資料分成訓練/驗證/測試,之後的所有統計量(平均數、標準差)都只能用訓練集計算。測試集和驗證集用訓練集的統計量轉換。這樣才不會「提前看到答案」。
✅ 離群值不必一律刪除。要判斷:
- 是輸入錯誤?→ 修正或刪除
- 是真實罕見事件?→ 保留(可能很珍貴)
- 影響模型嗎?→ 樹型模型不怕,線性模型要小心
✅ 類別欄位要編碼。機器學習模型只看數字,不認得文字。「台北、新北、高雄」必須轉成 0/1 編碼。
✅ 直方圖看單個特徵分布、散佈圖看特徵間關聯。
常錯陷阱
❌ 在分割前標準化整份資料 → 會混淆訓練和測試的統計資訊 → 降低模型泛化力
❌ 把類別欄位直接丟給數值模型 → 模型無法理解文字 → 結果錯誤
❌ 遇到偏態分佈還用平均數 → 被少數極端值拉偏 → 用中位數更穩健
❌ 只看準確率,不看類別不平衡 → 詐欺偵測中 99% 的「都不是詐欺」也能達 99% 準確率 → 毫無用
情境題模板
| 場景 | 問題 | 作答方向 |
|---|---|---|
| 詐欺樣本極少(0.5%) | 類別不平衡 | 先考慮重抽樣/SMOTE 產生虛擬詐欺樣本 |
| 同客戶名字拼寫不一致 | 品質問題 | 放在資料轉換清理階段處理(正規化名字) |
| 訓練集 95% 準確,測試集 60% | 過擬合 | 不是資料問題,是模型過度複雜 → 用正則化、決策樹修剪 |
| 訓練集用了整份資料的平均值標準化 | 資料洩漏 | 錯誤!會看到測試集的鬼影 → 只用訓練集統計量 |
實務案例(含範例)
案例:電商退貨預測模型
- 原始問題
- 訂單日期格式不一(2024-01-01 vs 2024/1/1)
- 商品分類有別名(「衣服」、「服裝」混用)
- 退貨樣本只有 8%,不退貨 92%
-
某些新客戶缺少購買歷史
-
清理步驟
1. 日期正規化為標準格式
2. 商品分類去重對應表統一
3. 缺失購買歷史的新客 → 用平均值或類別平均填補
4. 檢查離群值:退貨率 >50% 的商品 → 保留(可能品質問題,有預測價值) -
特徵工程
- 購買次數、購買金額、平均客單價
- 購買頻率(週期)、退貨次數
-
衍生:退貨率 = 退貨次數 / 購買次數
-
資料分割
- 訓練集 70%:用來計算平均數、標準差、SMOTE 參數
- 驗證集 15%:調整模型超參數
-
測試集 15%:最後評估,不准碰
-
標準化(用訓練集統計量)
訓練集平均購買金額 = 2000,標準差 = 500 標準化後的購買金額 = (顧客金額 - 2000) / 500 驗證集和測試集都用同一個 2000 和 500 轉換 -
評估結果
- Recall(找到退貨客)優先 → 寧可誤判也不漏掉要退貨的
- 結果:Recall 85%(漏掉 15% 的退貨風險)
-
誤報率:15%(被判退貨但實際沒退的客戶)
-
迭代反思
- 若誤報成本高(客服成本),可調整預測閾值 0.5 → 0.7
- 若漏掉成本高(退貨虧損),保持高 Recall
4.3 第 3.3 章 機器學習概念(高)
官方考題觀念補充(章節融合)
以下觀念來自官方試題/樣題提及重點,已融入本章學習脈絡:
- SVM(支援向量機):以最大間隔分隔類別,適合中小型分類問題。
- 隨機森林:多棵決策樹投票,穩定且不易過擬合。
- 邏輯迴歸:分類基線模型,可解釋性高。
- 決策樹:以規則切分特徵,易理解。
- KNN:用鄰近樣本投票,需注意尺度一致。
- K-means:把樣本分成 K 群,適合分群起手式。
- DBSCAN:可找任意形狀群集並辨識離群點。
- PCA:降維保留主要變異,利於視覺化與壓縮。
- 混淆矩陣:用 TP/FP/FN/TN 分析分類器行為。
- Precision/Recall/F1:處理不平衡資料時比 Accuracy 更重要。
- AUC/ROC:評估不同閾值下的分類能力。
- 過擬合:訓練好但泛化差,需正則化與驗證。
- 交叉驗證:穩定估計模型泛化誤差。
- 資料洩漏:把測試資訊帶入訓練會導致假高分。
- 正規化:把值縮放至固定區間,常見 [0,1]。
- 標準化:轉成均值 0、標準差 1,常用於線性模型。
🧪 互動式 Lab 實驗室
以下實驗室讓你透過動手操作理解 AI 核心概念,所有計算在瀏覽器內完成,無需連網。
Lab 1: 擲硬幣模擬器(大數定律)
大數定律:試驗次數越多,樣本平均值越接近真實機率(0.5)。
Lab 2: 混淆矩陣計算器
輸入 TP / FP / FN / TN,即時計算 Precision、Recall、F1、Accuracy。
Lab 3: 梯度下降視覺化
目標函數 f(x) = (x-3)²+1,從起點沿梯度方向逐步收斂至最小值。
Lab 4: 過擬合 vs 欠擬合視覺化
相同資料點,不同複雜度的模型擬合結果比較。
Lab 5: Min-Max 正規化 vs Z-score 標準化
輸入一組逗號分隔的數字,比較兩種特徵縮放方式的差異。
核心觀念
機器學習的本質:從資料中自動學習規律,用來做預測或決策。
為什麼需要機器學習?
情景對比:
【傳統硬寫規則】
if 客戶年齡 > 65:
拒絕貸款
if 客戶收入 < 30000:
拒絕貸款
問題:
- 規則太死板,現實複雜得多
- 每次規則變就要改程式
- 無法抓到微妙的相互作用
【機器學習】
給演算法 10 萬筆歷史貸款資料 → 演算法自己學習
結果:模型自動發現「年齡 + 收入 + 工作穩定性 + 信用歷史」的複雜組合
優點:
- 自動找到複雜規律
- 資料變了,重新訓練就能適應
- 不需要手工列舉所有規則
監督式、非監督式、強化式學習的實際差異
【監督式 Supervised Learning】= 老師教學 訓練過程: 老師帶著學生做題 「這 1000 個郵件,我告訴你哪些是垃圾」 學生學著「什麼特徵的郵件是垃圾」 適用場景: ✓ 我有「問題-答案」配對的訓練資料 ✓ 我想預測未來(分類或迴歸) ✓ 例:郵件分類、房價預測、疾病診斷 常見模型:決策樹、SVM、邏輯迴歸、隨機森林、XGBoost、神經網路 成本:高(需要人工標籤) 準確性:高(資料充足時) 時間:需要 1-3 個月標註資料 【非監督式 Unsupervised Learning】= 自己發現規律 訓練過程: 沒有「答案」 只有客戶購買記錄,要自己分群 「演算法啊,幫我找出有幾種不同客戶」 演算法自己找相似的客戶聚在一起 適用場景: ✓ 沒有標籤資料 ✓ 我想發現資料的隱藏結構 ✓ 例:客戶分群、詐欺異常偵測、圖像壓縮 常見模型:K-means、層級聚類、DBSCAN、PCA、自編碼器 成本:低(不需要標籤) 準確性:中等(因為沒有「正確答案」來評估) 時間:快(不需要標註) 【強化學習 Reinforcement Learning】= 試錯學習 訓練過程: 機器人在環境裡不斷試行動 做對了:給獎勵(分數 +10) 做錯了:給懲罰(分數 -10) 逐漸學會「什麼動作在什麼情況下最好」 適用場景: ✓ 需要連續互動和決策 ✓ 没有清晰的訓練資料 ✓ 例:遊戲 AI、機器人控制、自駕車策略 常見模型:Q-Learning、策略梯度、A3C 成本:非常高(需要數百萬次模擬) 準確性:看獎勵函數設計得好不好 時間:非常慢(可能需要數年訓練)
模型選擇決策流程圖(從無到有)
【第 0 步】理解你的問題
↓
【第 1 步】你有標籤資料嗎?
├─ 有 → 走監督式路線
├─ 沒有 → 走非監督式路線
└─ 需要互動 → 強化學習(very hard)
↓
【第 2 步】是什麼任務?
如果是監督式:
├─ 預測類別(貓/狗/鳥)→ 分類
│ ├─ 樣本少(< 1000)→ 決策樹
│ ├─ 樣本中等(1k-100k)→ 隨機森林
│ └─ 樣本大(> 100k)→ 梯度提升(XGBoost)或深度學習
│
└─ 預測數值(房價、銷量)→ 迴歸
├─ 關係近乎線性 → 線性迴歸
└─ 關係複雜 → 梯度提升
如果是非監督式:
├─ 找群體相似性 → K-means(簡單快速)
├─ 不知道幾個群 → DBSCAN
└─ 壓縮維度 → PCA
↓
【第 3 步】評估與驗證
├─ 分類用 F1、Recall、Precision
├─ 迴歸用 RMSE、R²
└─ 聚類用 Silhouette Score
常見模型的優缺點速查表
| 模型 | 優點 | 缺點 | 最適用 | 學習難度 |
|---|---|---|---|---|
| 決策樹 | 易解釋,快速,不怕小樣本 | 容易過擬合,不穩定 | 初期嘗試、可解釋性重要 | ⭐ |
| 隨機森林 | 準確高,抗過擬合,快 | 難以解釋黑盒 | 實務中 99% 選它 | ⭐⭐ |
| XGBoost | 極高準確,可用於競賽 | 調參複雜,訓練慢 | 追求最高分時 | ⭐⭐⭐ |
| SVM | 高維數據好,理論清晰 | 訓練慢,調參難,不適合大數據 | 特徵少但複雜情況 | ⭐⭐⭐ |
| 線性迴歸 | 極快,解釋清晰,基準線 | 只能抓線性,欠擬合 | 第一版模型 | ⭐ |
| K-means | 快,直觀 | 需事先指定 K,受異常值影響 | 簡單分群 | ⭐ |
| 神經網路 | 能學極複雜模式 | 需要海量資料,訓練慢,參數多 | 深度學習任務、NLP 等 | ⭐⭐⭐⭐ |
機器學習生命週期(完整版)
第 1 月:問題定義 + 資料收集 ├─ 問清楚:預測什麼、成功標準什麼、預算多少 ├─ 蒐集資料:越多越好,但清潔很重要 └─ 基本探索:看分佈、缺值、異常值 第 2 個月:資料準備 + 特徵工程 ├─ 清理:去重複、填缺值 ├─ 編碼:文字轉數字 ├─ 縮放:統一單位(標準化) └─ 特徵工程:組合欄位、衍生新特徵 第 3 個月:模型選擇 + 訓練 ├─ 選 2-3 個候選模型 ├─ 訓練和初步評估 ├─ 比較準確率 └─ 選最好的 1 個精細調整 第 4 個月:驗證 + 除錯 ├─ 驗證集上測試超參數 ├─ 如果過擬合:減複雜度、加正則化、增資料 ├─ 如果欠擬合:加複雜度、特徵工程 └─ 在測試集上最終評估(只試一次!) 第 5 個月:上線準備 ├─ 和業務溝通結果、期望值管理 ├─ 佈署(API、服務器、監控) ├─ A/B 測試(比 AI 決策 vs 人工決策) └─ 監控:準確率是否穩定、有沒有資料漂移 持續:監控 + 維運 ├─ 每週看準確率、錯誤率 ├─ 發現性能掉時重新訓練 └─ 每季深度審視:模型還適用嗎
必背重點
✅ 監督式需要標籤資料,非監督式自己發現規律,強化式靠試錯學習。
✅ 選模型不是看哪個最複雜,而是看:樣本量、特徵複雜度、可解釋性需求。
✅ 訓練集 > 驗證集 > 測試集,順序不能亂。測試集只試一次,用來評估真實性能。
✅ 過擬合 = 訓練集 99% 準確但測試集 50% 準確 = 模型記死了訓練資料,沒有泛化力。
常錯陷阱
❌ 訓練集、驗證集、測試集混用 → 看不出真實性能 → 上線才發現慘兮兮
❌ 盲目追求最複雜的模型 → 神經網路很厲害但需要海量資料 → 樣本少時隨機森林反而更好
❌ 只看訓練準確率 → 過擬合了還以為模型很好 → 上線故障
❌ 特徵工程做太多 → 用上百個衍生特徵 → 模型難以解釋,維運困難
情境題完整版
| 題幹 | 分析角度 | 答案傾向 |
|---|---|---|
| 有 10 萬筆郵件,標籤「垃圾/正常」,要自動分類 | 監督式?標籤?任務? | 選「監督式分類」,用隨機森林或梯度提升 |
| 客戶購買記錄複雜,想自動找出有幾種客戶 | 無標籤?想發現結構? | 選「非監督式聚類」,用 K-means 或 DBSCAN |
| 模型訓練時準確率 98%,上線後準確率掉到 60% | 什麼問題?根本原因? | 過擬合或資料漂移,應該重新訓練 |
| 樣本只有 500 筆,應選什麼模型 | 樣本少→什麼模型不怕? | 決策樹或隨機森林,避免神經網路 |
| 業務說「準確率越高越好」,但推論延遲要 <1 秒 | 約束條件?準確度 vs 速度 trade-off? | 可能要蒸餾大模型成小模型,或降低精度換速度 |
實務案例(含實際數字)
案例:電商詐欺偵測機器學習系統
背景:
- 某電商日均交易 10 萬筆
- 詐欺率 0.5%(500 筆詐欺,99,500 筆正常)
- 目標:自動攔截 90% 詐欺,誤報率 < 5%
第 1 個月:問題定義 + 資料
定義: - 輸入:交易時間、金額、商品類別、用戶歷史、地點、設備 - 輸出:是否詐欺(二元分類) - 標籤來源:人工複審或銀行拒付回報 資料準備: - 歷史資料:過去 6 個月 1.8 M 筆交易 - 分割:60% 訓練 (1.08M) / 20% 驗證 (360K) / 20% 測試 (360K)
第 2 個月:特徵工程
原始特徵(10 個): - 金額、商品數量、送達地、下單地、時間 衍生特徵(30 個新增): - 用戶過去 7 天交易次數、平均金額 - 同地址過去 30 天被拒的比例 - 與用戶購買習慣的偏差度 - 時間特徵:是否夜間、是否假日 - 組合特徵:高金額 + 新地址 → 風險分數 特徵編碼: - 類別欄 One-hot(商品類別 10 個 → 10 個 0/1 欄位) - 數值欄標準化(每筆交易的金額都減去平均並除以標準差)
第 3 個月:模型選擇
候選模型: 1. 隨機森林(傳統安全選擇) 2. XGBoost(追求高準確) 3. 邏輯迴歸(作為基準線) 在驗證集上對比: ┌─────────────┬──────────┬─────────┬─────────┐ │ 模型 │ Accuracy │ Recall │ Precision │ ├─────────────┼──────────┼─────────┼─────────┤ │ 邏輯迴歸 │ 98.0% │ 45% │ 52% │ │ 隨機森林 │ 98.5% │ 75% │ 72% │ │ XGBoost │ 98.7% │ 82% │ 78% │ └─────────────┴──────────┴─────────┴─────────┘ 決策:選 XGBoost,理由: - Recall 82% 已達目標(90% 可通過閾值調整) - Precision 78%(可接受 5% 誤報率?需要檢查) - 訓練快(比神經網路快 100 倍)
第 4 個月:驗證 + 除錯
調整預測閾值: - 預設:0.5(機率 > 50% 就判詐欺) - 結果:Recall 82%、Precision 78% 降低閾值到 0.3: - Recall 92%(✓ 達到 90% 目標) - Precision 65%(✗ 誤報 35%,太高了) 評估誤報成本: - 攔截 1 筆詐欺:省 200 元 - 誤判 1 筆正常交易:損失 300 元(退款手續費) - 最佳閾值應該在 0.4 左右(Recall 88%、Precision 72%) 在測試集上最終驗證: - Recall 87%(可接受) - 誤報率 28% → 日均 1 萬誤報 → 客服需要 20 人處理
第 5 個月:上線
A/B 測試(上線前): - Group A(50% 用戶):AI 決策 + 人工複審 - Group B(50% 用戶):純人工審核 對比 2 週後: - Group A:查詐 97.2%、誤報率 28%、人工從 200 人減到 60 人 - Group B:查詐 95%、誤報率 12%、人工 200 人全時段 結論:值得上線(準確率更高,人力大幅節省) 監控指標(上線後每日看): - 查詐率(應該穩定在 87% ±5%) - 誤報率(應該穩定在 28% ±5%) - 推論延遲(應該 < 500ms) - 客戶投訴率(應該 < 0.1%)
可能掉進的坑:
- ❌ 訓練資料中有被攔截的詐欺 → 看不出新詐欺 → 上線後被繞過
- ❌ 訓練只到 6 個月前的資料 → 新型詐欺沒見過 → 準確率下降
- ❌ 沒有人工覆核流程 → 誤報導致投訴 → 信任毀滅
- ✅ 正確做法:定期重訓練(每 2 週)+ 人工複審(高金額都要驗)
4.4 第 3.4 章 鑑別式 AI 與生成式 AI 概念(高)
核心觀念
鑑別式和生成式不是敵對,是互補的兩種 AI 能力。
- 鑑別式 AI(Discriminative Models):我是「判官」
- 功能:看著資料說「是」或「不是」、分類、判斷
- 例:垃圾郵件過濾(判斷是否垃圾)、信用評分(判斷是否高風險)
- 常見模型:決策樹、SVM、邏輯迴歸、隨機森林、深度學習分類器
-
特點:訓練需要標籤,快速推論,解釋相對容易
-
生成式 AI(Generative Models):我是「創意工人」
- 功能:創造新內容(文本、影像、音樂),補充資料,理解高層結構
- 例:文案撰寫(ChatGPT)、影像生成(DALL-E)、資料增強
- 常見模型:GAN、VAE、Transformer、擴散模型、LLM
- 特點:可以無監督訓練,創造能力強,但成本高、易產生「幻覺」
鑑別式 vs 生成式完全對比
整合應用架構(最重要的一張圖)
常見模型的應用範疇
| 模型類型 | 典型模型 | 輸入 | 輸出 | 最常見應用 |
|---|---|---|---|---|
| 鑑別式 | 決策樹、SVM、邏輯迴歸 | 特徵向量 | 類別/分數 | 分類、風險評估 |
| 鑑別式 | 隨機森林、XGBoost | 特徵向量 | 類別/分數 | 現實最常用(表格資料) |
| 鑑別式 | CNN(卷積神經網) | 影像 | 物體類別 | 人臉辨識、醫學影像 |
| 生成式 | GAN | 雜訊 | 影像 | 影像生成、臉部合成 |
| 生成式 | VAE | 資料 | 類似資料 | 異常偵測、資料增強 |
| 生成式 | Transformer | 文本/多模態 | 文本 | ChatGPT、翻譯、摘要 |
| 生成式 | 擴散模型 | 雜訊 | 高品質影像 | DALL-E、Midjourney |
生成式 AI 的三大風險
| 風險 | 含義 | 防控 |
|---|---|---|
| 幻覺(Hallucination) | 模型編造假資訊當真知識 | 人工覆核、來源標註、檢索式生成(RAG) |
| 偏差與刻板化 | 訓練資料的社會偏見被放大 | 資料審核、評估偏差、多元測試 |
| 版權與隱私洩漏 | 生成內容含受保護著作或個資 | 合法授權來源、匿名化、差分隱私 |
常錯陷阱
❌ 把決策樹、SVM 誤認成生成模型 → 這些是純鑑別式,只能分類不能生成
❌ 以為生成式 AI 的輸出就是事實 → ChatGPT 再聰明也會編故事 → 必須有人審
❌ 忽略生成式的成本與延遲 → 大模型很聰明但推論慢、API 昂貴 → 要斤斤計較 Token 用量
❌ 只用生成模型,不配套鑑別式守門 → 自動生成的文案、影像可能有毒 → 需配鑑別式做品管
情境題模板
| 情境 | 推薦策略 | 理由 |
|---|---|---|
| 需要大量罕見樣本訓練分類器 | 生成式造資料 + 鑑別式訓練 | SMOTE 或 GAN 合成樣本,提高分類器準確率 |
| 需要自動寫報告草稿 | LLM 生成 + 人工或規則覆核 | ChatGPT 生成初稿,人工審核事實正確性 |
| 需要穩定高品質影像 | 評估擴散模型與成本延遲 | Stable Diffusion 比 GAN 品質好,但推論慢 |
| 需要判斷異常交易 | 鑑別式(分類)+ 生成式(檢測) | 先用分類判斷異常,再用 VAE 重建異常特徵 |
| 需要個人化推薦內容 | 先鑑別用戶興趣(分類),再生成推薦 | 分類用戶屬性,生成客製化內容 |
實務案例(可填寫)
案例:電商商品描述自動生成 + 品質控管
-
場景:有 10 萬件新商品要上架,手工寫描述太慢,需要自動化
-
解決方案(整合架構)
1. 用生成式 AI:LLM(如 ChatGPT)輸入商品名稱、規格、材質 → 自動寫描述
2. 用鑑別式 AI:文本分類器判斷生成描述是否「合格」- 是否包含必要資訊(材質、尺寸、用途)
- 是否有虛假宣傳詞(「終身保證」之類)
- 是否有隱晦誤導
-
架構流程
商品資訊 ↓ LLM 生成描述(草稿) ↓ 分類器品管:合格? ↓ 是 ↓ 否 上架 回 LLM 重寫 -
監控指標
- 生成速度:每秒多少商品完成(效率)
- 通過率:多少描述一次通過品管(品質)
-
人工介入率:多少描述需要人改(可接受 <10%)
-
風險控制
- ✓ 人工抽檢 10% 生成描述,防範 LLM 幻覺
- ✓ 禁用詞清單(不允許絕對性詞彙)
- ✓ 分類器持續學習新的不當表述
5. 科目二完整筆記(逐章固定欄位)
5.0 科目二總覽
- 章節:3.1 No/Low Code、3.2 工具與應用、3.3 導入評估規劃
- 學習任務:把工具名詞轉為「可落地導入決策」。
5.1 第 3.1 章 No code / Low code 概念(中)
核心觀念
- No Code:以視覺化與模板為主,低門檻快速上手。
- Low Code:可視化 + 少量程式碼,適合較複雜流程。
- 選型維度:用戶能力、整合性、安全、成本、擴展性。
必背重點
- No Code 適合快速原型與業務自助;Low Code 適合中大型與客製整合。
- 選型不可只看畫面,要看 API 整合、權限治理、長期維運。
- 導入成功關鍵是流程與治理,而非單一工具品牌。
常錯陷阱
- 認為 No Code 可完全取代專業工程。
- 忽略資料治理,導致權限失控。
- 只看購買成本,不看 TCO。
情境題
- 題目出現「非技術人員快速上線」多半偏 No Code。
- 題目出現「複雜商業邏輯與系統整合」多半偏 Low Code。
實務案例(可填寫)
- 部門:__
- 需求:__
- 選用平台型態:No Code / Low Code
- 選擇理由:__
- 風險與對策:__
5.2 第 3.2 章 生成式 AI 應用領域與工具使用(高)
官方考題觀念補充(章節融合)
以下觀念來自官方試題/樣題提及重點,已融入本章學習脈絡:
- 提示工程:用角色、任務、限制、格式提升輸出品質。
- RAG:檢索外部知識再生成,提升可追溯性。
- 微調:用領域資料調整模型參數。
- PEFT / LoRA:低成本微調方式,少參數更新。
- 幻覺:模型生成不實內容,需來源核對。
- Transformer:現代 NLP/生成模型核心架構。
- NLP:讓模型理解與生成自然語言。
Lab B8: Prompt A/B 品質評分器
比較兩種提示詞結構完整度,快速學會好提示的骨架。
核心觀念
生成式 AI 的實戰 = 工具選擇 + 提示工程 + 架構設計 + 成本管理。
生成式 AI 工具生態(三層架構)
生成式 AI 的四大核心技術
1. 提示工程(Prompt Engineering)
不是「寫長句」,是「精確指令」。
Ex: 你是資深數據分析師"] A -->|2 任務| A2["做什麼事
Ex: 分析銷售數據找趨勢"] A -->|3 限制| A3["限制條件
Ex: 只用 2024 年資料
避免主觀意見"] A -->|4 輸出格式| A4["要什麼格式
Ex: JSON、表格、重點列表"] A -->|結果| A5["高品質回覆"] style A5 fill:#c8e6c9
提示工程範例
🔴 不好的提示: "寫一個行銷文案" → 模型瞎猜,品質差 ✅ 好的提示: 角色:你是電商銷售團隊的資深文案撰寫 任務:為一個新的無線藍牙耳機產品寫一個 50-80 字的產品描述 限制: - 強調續航力 12 小時 - 提到降噪功能 - 不使用「終身保證」等過度承諾 輸出格式:純文本,一段落 → 模型有明確指標,輸出品質好
2. 檢索增強生成(RAG)
「先找資料再回答」,避免幻覺。
『公司 2024 銷售目標是多少』"] -->|第一步| B["在企業知識庫中檢索
向量相似度搜尋"] B -->|找到相關文件| C["2024 銷售規劃
目標 5000 萬"] C -->|第二步| D["檢索結果 + 原提問
一起餵給 LLM"] D -->|LLM 基於事實回答| E["根據貴公司內部規劃
2024 銷售目標為 5000 萬
來源:2024 銷售規劃文件"] F["不用 RAG 的後果
LLM 編造答案"] -.->|❌ 幻覺| G["可能編出『目標 3000 萬』
或瞎掰數字"] style E fill:#c8e6c9 style G fill:#ffcccc
RAG 的三個關鍵概念
| 概念 | 解釋 | 例子 |
|---|---|---|
| Chunking | 把長文件切成小片段,便於搜尋 | 一份 100 頁的規劃書 → 切成 500 個 300 字段落 |
| Embedding | 把文本轉成數字向量(高維空間的點) | 「銷售目標」和「營業指標」在向量空間很近 |
| Top-K 檢索 | 找最相似的 K 個片段 | 問題相似度前 3 個文件 → 都給 LLM 參考 |
3. 微調(Fine-tuning)與 PEFT
「用自己的資料改造模型」。
通用知識"] -->|有大量專業資料
如 500 份法律案例| B["微調"] B -->|調整參數
學會法律專用詞彙| C["專業化模型
對法律文件理解更好"] D["PEFT
Parameter-Efficient
Fine-Tuning"] -->|只調整少量參數
LoRA 等方法| E["成本低 10 倍
但效果接近"] style B fill:#fff9c4 style C fill:#c8e6c9 style E fill:#c8e6c9
微調 vs RAG 的選擇
| 場景 | 選微調 | 選 RAG |
|---|---|---|
| 有專業領域資料集(500+ 樣本) | ✅ 微調效果好 | - |
| 資料變化快(每週更新) | ❌ 微調重新訓練麻煩 | ✅ RAG 查詢最新資料 |
| 需要保護隱私(資料不出門) | ✅ 自己跑微調 | ❌ API 可能洩漏資料 |
| 只需一次性回答特定領域問題 | - | ✅ RAG 快速上線 |
4. 系統架構與推論效能
常見生成式 AI 工具對標
| 工具 | 優勢 | 劣勢 | 適合場景 |
|---|---|---|---|
| ChatGPT / GPT-4 | 最聰明、多任務、釋放版穩定 | 最貴($0.03 per 1K tokens) | 複雜推理、創意文案 |
| Claude | 長上下文(100K tokens)、分析好 | 不如 GPT-4 推理 | 文件分析、長篇內容處理 |
| Gemini | 便宜、多模態(文字+圖+音) | 中文仍有弱點 | 多模態任務、預算受限 |
| 開源 Llama | 完全免費、可自己跑、隱私好 | 能力普遍弱於商用 | 企業私有部署 |
| 國內大模型 | 對中文優化、低延遲 | 能力參差、監管限制 | 中文內容、本地化需求 |
常錯陷阱
❌ 把 RAG 誤認成模型訓練法 → RAG 只是「檢索」,模型參數沒變 → 跟微調(改參數)不同
❌ 把 MCP 誤認成檢索技術 → MCP 是「AI 與外部工具的互動協定」(如 AI 呼叫 API、資料庫)→ 不是檢索
❌ 忽略延遲與吞吐差異 → ChatGPT 聰明但回覆慢 → 客服機器人需要 <500ms,GPT-4 無法滿足
❌ 只追求模型大小,不考慮實務部署 → 大模型確實聰明但需要 GPU、成本高 → 小模型 + RAG 可能更實用
情境題模板
| 題幹線索 | 作答提示 |
|---|---|
| 「回覆品質好但成本與延遲升高」 | 思考蒸餾、量化、檢索優化 |
| 「要即時語音互動」 | 優先低延遲架構(邊緣推論或小模型) |
| 「企業資料格式混亂」 | 先做上下文工程(Chunking、Embedding)與 RAG |
| 「模型總是編造數字」 | 用 RAG 補充事實資料,或微調企業知識庫 |
| 「成本超預算」 | 評估蒸餾、量化、小模型替代 |
實務案例(含詳細範例)
案例:法務事務所 AI 助手(RAG + 微調混合)
情景:事務所有 1000 份過去案例、法律判例、內部工作流程文件,想用 AI 加速初審
第一階段:RAG 建置
資料準備:掃描 1000 份 PDF
↓
Chunking:分成 5 萬個 300 字段落
↓
Embedding:轉成向量存入 Pinecone 向量資料庫
↓
律師提問:「商標侵權案件應如何舉證」
↓
檢索:找出 Top-3 相關判例
↓
LLM 綜合回答:基於這些判例的標準程序
第二階段:微調最佳化
- 收集 200 份內部律師查詢 + 標準回答 → 微調模型
- 結果:模型學會事務所的特有用語和辦案風格
成效指標
- 查詢延遲:< 3 秒
- 回答準確率:律師認可度 > 85%
- 可引用來源:100% 有判例出處
- 成本節省:初審時間從 2 小時減到 15 分鐘
風險控制
- ✓ 敏感詞遮罩(當事人隱私)
- ✓ 律師最終簽核(法律責任溯源)
- ✓ 每月重新微調(學習新判例)
5.3 第 3.3 章 生成式 AI 導入評估規劃(高)
Lab B9: MVP 範圍平衡器(功能/時程/人力)
調整範圍、時程與人力,判斷專案是否可行。
核心觀念
導入生成式 AI 不是買產品,而是設計一個完整的系統。要經過:評估(能不能)→ 規劃(怎麼做)→ 風險控管(可持續嗎)。
導入決策框架(4 步驟)
BEFORE 導入"] -->|檢查 6 個維度| A1["技術 Readiness
資料成熟度
成本預算
人才儲備
法規限制
ROI 潛力"] A1 -->|全 6 項綠燈?| B["第 2 步:設計 MVP
最小可行產品"] B -->|3 個月試點| C["小範圍驗證
如:1 個部門、100 用戶"] C -->|成功?| D["第 3 步:全面規劃
SCALE UP"] D -->|長期 KPI| E["第 4 步:風險治理
可持續運營"] E -->|持續監控| F["模型效能
成本控制
倫理風險
法規合規"] A1 -->|有紅燈| G["❌ 暫時不導入
先補弱項"] style A1 fill:#fff9c4 style C fill:#e3f2fd style F fill:#f3e5f5
第 1 步:6 維度評估表(決策工具)
| 維度 | 評估項目 | 綠燈✅ | 黃燈⚠️ | 紅燈❌ | 權重 |
|---|---|---|---|---|---|
| 技術 Readiness | 基礎設施是否支持 AI(雲端、GPU) | 已上雲或 GPU 充足 | 部分雲化 | 完全線下 | 20% |
| 資料成熟度 | 資料品質、標籤完整性、隱私準備 | 資料清潔、>80% 有標籤 | 部分缺標籤 | 資料混亂、隱私洩露風險 | 20% |
| 成本預算 | 初期+運營成本 vs 公司預算 | < 年營收 0.5% | 0.5-1% | > 1% 或無預算 | 20% |
| 人才儲備 | 是否有懂 AI 的人(外聘或內部) | 有專任團隊 | 有兼職或顧問 | 完全外行 | 15% |
| 法規限制 | 產業監管(金融、醫療、公務) | 法規明確、可合規 | 灰色地帶、需評估 | 禁區(無法合規) | 15% |
| ROI 潛力 | 導入能節省成本或增加營收嗎 | 可量化,年 ROI > 50% | 年 ROI 10-50% | 無法量化或 ROI < 10% | 10% |
評估流程:每個維度打分(10 分滿分),乘以權重 → 總分 > 7 分才考慮導入。
第 2 步:MVP 規劃(3 個月試點)
解決最痛的問題"] -->|優先挑 High Impact
Low Complexity| A1["客服自動回覆
vs 全面 AI 轉型"] A1 --> B["團隊組成
3-5 人"] B --> B1["1 業務 PM:定義需求
1 ML 工程師:架構與部署
1 資料工程:資料準備
1 QA:品質保證"] B1 --> C["資源配置
3 個月"] C --> C1["第 1 個月:評估 + 資料準備
第 2 個月:開發 + 試運行
第 3 個月:優化 + 驗收"] C1 --> D["MVP 驗收標準"] D --> D1["✓ 解決原始痛點 30% 以上
✓ 用戶滿意度 > 70%
✓ 成本在預算內
✓ 無重大風險事件"] D1 -->|全部通過| E["✅ 決策:全面推廣"] D1 -->|部分未達| F["⚠️ 決策:調整後再試
或暫停"] style A1 fill:#e3f2fd style D1 fill:#fff9c4
第 3 步:TCO & ROI 計算(實戰例子)
場景:公司客服部門有 20 人,每人年薪 60 萬,想用 AI 客服助手減人力。
TCO(三年成本)
| 項目 | 年 1 | 年 2 | 年 3 | 合計 |
|---|---|---|---|---|
| 前期投資 | ||||
| 人才招聘/訓練 | 100 萬 | 50 萬 | 0 | 150 萬 |
| 基礎設施(雲端、GPU) | 200 萬 | 100 萬 | 100 萬 | 400 萬 |
| 運營成本 | ||||
| API 費用(年度用量) | 60 萬 | 80 萬 | 100 萬 | 240 萬 |
| 人力維運(2 人) | 120 萬 | 120 萬 | 120 萬 | 360 萬 |
| 合計成本 | 480 萬 | 350 萬 | 320 萬 | 1,150 萬 |
ROI(三年效益)
| 項目 | 量化方式 | 年 1 | 年 2 | 年 3 |
|---|---|---|---|---|
| 人力成本節省 | 減少 4 人 × 60 萬 | 240 萬 | 240 萬 | 240 萬 |
| 處理效率提升 | 自動化 30% 工單,每單省 50 元 × 10K 單 | 500K | 1 百萬 | 1.5 百萬 |
| 顧客滿意度提升 | 降低投訴 20% → 降低賠償 | 100 萬 | 100 萬 | 100 萬 |
| 合計效益 | 341.5 萬 | 441.5 萬 | 441.5 萬 |
ROI 計算
三年 ROI = (效益 - 成本) / 成本 = (1224 - 1150) / 1150 = 6.4% 年均 ROI = 6.4% / 3 = 2.1% / 年(不太理想,< 10%) → 這個專案單從 ROI 角度不推薦 → 但如果考慮顧客體驗、品牌提升、風險,可能有隱性效益
第 4 步:風險管理矩陣
隱私洩露
過度依賴 AI
失業擔憂"] A -->|技術可靠性| C["模型幻覺
推論延遲
容錯率
安全漏洞"] A -->|商業風險| D["成本超支
ROI 未達
競爭威脅
品牌風險"] A -->|合規風險| E["法律責任
資料保護
監管審查
透明度要求"] B --> B1["風險控管:
✓ 多元資料審核
✓ 隱私加密與最小化
✓ 人工監督
✓ 員工轉崗培訓"] C --> C1["風險控管:
✓ 定期模型評估
✓ 邊界情況測試
✓ 監控系統
✓ 降級方案"] D --> D1["風險控管:
✓ 嚴格的成本審批
✓ 月度 KPI 追蹤
✓ 競爭分析
✓ 溝通策略"] E --> E1["風險控管:
✓ 法務審核
✓ 用戶知情同意
✓ 可追溯性日誌
✓ 定期合規檢查"] style B1 fill:#ffe0b2 style C1 fill:#e0f2f1 style D1 fill:#f3e5f5 style E1 fill:#fff9c4
| 風險 | 嚴重度 | 發生率 | 優先度 | 控管措施 | 責任人 |
|---|---|---|---|---|---|
| LLM 編造法律條文 | 🔴 極高 | 高 | P0 | RAG + 人工複審 | 法務 |
| 推論成本超預算 | 🟡 中 | 中 | P2 | 用量監控 + 蒸餾 | 技術 |
| 客戶投訴不服 AI 決策 | 🟡 中 | 低 | P3 | 可解釋 AI + 申訴管道 | 客服 |
| 演算法偏差(某族群) | 🔴 極高 | 低 | P1 | 公平性測試 + 監控 | 合規 |
常錯陷阱
❌ 只做 PoC 不做正式 KPI 驗收 → PoC 通常樂觀 → 上線後發現效果達不到
❌ 把導入規劃當採購清單 → 買了工具但忽略流程與治理 → 淪為擺設
❌ 忽視資料存取權限與追溯性 → 無法解釋模型決策 → 違反法規
❌ 低估風險成本 → 只算 API 費用,忘了人力維運、監管風險、失敗成本
情境題模板
| 企業目標 | 優先策略 | 原因 |
|---|---|---|
| 降低客服成本 | 先自動分流與草稿回覆,再逐步自動化 | 分流是低風險入口,可快速看到效果 |
| 提升知識查詢效率 | RAG + 來源標註 + 人審流程 | 知識查詢對準確性要求高,RAG 保證可追溯 |
| 強法遵產業(金融/醫療) | 模型輸出可追溯、人工覆核必備 | 違規成本大,一定要人審 |
| 創意內容產出 | LLM 初稿 + 編輯人工調整 | 內容通常要人工調味,不能純 AI |
實務案例(完整導入計畫)
案例:銀行申貸自動審核系統(3 年期)
第 1 步:評估(2024 Q1)
- 技術:✅ 銀行已上雲(AWS)
- 資料:⚠️ 申貸表有 40% 欄位缺值
- 成本:✅ 預算充足
- 人才:✅ 有 AI 團隊
- 法規:❌ 監管要求 100% 可追溯性(核心難點)
- ROI:✅ 可減少審核 2-3 天
評估結論:可以導入,但必須完全可追溯
第 2 步:MVP 規劃(3 個月)
目標:自動預篩高風險申貸單(拒絕),人工處理邊界情況 試點:小型分行 10 個,試用 3 個月 資源: - PM:銀行風控主管 - ML 工程:外聘顧問公司 - 資料工程:內部 1 人 - QA:監管合規 1 人 MVP 目標: ✓ 自動拒絕高風險單(準確率 > 95%) ✓ 每筆決策有可追溯日誌 ✓ 降低人工審核時間 30% ✓ 沒有監管投訴
第 3 步:TCO & ROI
三年投資:約 3000 萬 - 人力 / 培訓:1000 萬 - 基礎設施:800 萬 - API / 軟體:600 萬 - 運維人力:600 萬 三年效益:約 5000 萬 - 人工審核減少(4 人):2400 萬 - 審核效率提升(減少拖延):1500 萬 - 風控更好(減少壞帳):1100 萬 ROI = (5000 - 3000) / 3000 = 67%(✅ 優秀)
第 4 步:風險與控管
| 風險 | 嚴重度 | 控管 |
|---|---|---|
| AI 誤判導致客訴 | 🔴 極高 | 建立申訴機制、定期審查誤判案例、動態重訓 |
| 演算法偏差(某族群) | 🔴 極高 | 每季進行公平性測試、監管每月報告 |
| 成本失控(API 超用) | 🟡 中 | 設定月度用量上限、異常告警 |
| 系統故障延遲批核 | 🔴 極高 | 備用人工審核流程、99.9% 可用性 SLA |
成效指標(持續監控)
- 申貸審核時間:從 3 天 → 1 天
- 自動拒絕率:20%(預期值)
- 申訴率:< 1%
- 年度成本:與預算偏差 ±5% 以內
6. 六週讀書計畫
6.1 六週路線圖(Mermaid 3)
6.2 每週執行表(project-manager-senior 規劃)
Lab B10: 章節快問快答(初學者)
三題小測驗,快速確認你是否掌握核心概念。
| 週次 | 學習主題 | 建議練習題數 | 複習重點 | 產出物 |
|---|---|---|---|---|
| 第 1 週 | 科目一 3.1 + 3.2 | 80 | AI 治理、資料型態、ETL、統計基礎 | 章節摘要卡 8 張 |
| 第 2 週 | 科目一 3.3 | 70 | 監督/非監督/強化、模型選擇、評估指標 | 模型選型表 1 份 |
| 第 3 週 | 科目一 3.4 + 科目二 3.1 | 70 | 鑑別式 vs 生成式、No/Low Code 選型 | 對比卡 10 張 |
| 第 4 週 | 科目二 3.2 | 90 | 工具定位、Prompt、RAG、上下文工程 | Prompt 模板 12 組 |
| 第 5 週 | 科目二 3.3 | 80 | 導入評估、TCO/ROI、風險治理 | 導入一頁計畫 2 份 |
| 第 6 週 | 全科模擬+回補 | 120 | 弱點章節補強、時間控管、陷阱辨識 | 模擬報告與驗收表 |
6.3 每日學習節奏(可直接套用)
| 時段 | 任務 | 時長 |
|---|---|---|
| 觀念輸入 | 讀一節 + 做 8 題 | 45 分 |
| 主題演練 | 同主題再做 12 題 | 45 分 |
| 錯題回補 | 錯因分類 + 重做 | 30 分 |
| 口頭複述 | 1 分鐘講給自己聽 | 10 分 |
7. 錯題追蹤與回補策略
7.1 錯題追蹤表(可直接複製)
| 日期 | 科目/章節 | 題號 | 你的答案 | 正確答案 | 錯因分類 | 修正後規則 | 3 天後重做 | 7 天後重做 |
|---|---|---|---|---|---|---|---|---|
| [填寫] | [例:科一/3.2] | [填寫] | [填寫] | [填寫] | 名詞混淆/流程錯/情境誤判/粗心 | [一句話規則] | □ | □ |
7.2 錯因分類字典(product-feedback-synthesizer)
| 錯因 | 判定標準 | 對策 |
|---|---|---|
| 名詞混淆 | 概念分不清(如 RAG vs 微調) | 做對比卡,24 小時內重背 |
| 流程錯誤 | 步驟順序錯(如資料分割與標準化) | 重畫流程圖並做 5 題同類題 |
| 情境誤判 | 題幹限制沒抓到(成本/風險/延遲) | 題目先畫關鍵詞再作答 |
| 指標誤用 | Recall/F1/延遲吞吐混用 | 建立指標-場景對照表 |
| 粗心 | 看錯「最不正確」等字眼 | 作答前口頭複誦題幹要求 |
7.3 每週回補策略
- 週末統計錯題,若同類錯因超過 3 題,列為下週必修弱點。
- 弱點章節採 1:2 法則:先重看 1 次概念,再做 2 倍題量練習。
- 針對「錯兩次以上」題目,必須寫出排除法理由,不可只記答案。
- 若模擬測驗低於目標分數,先補高重要度章節(3.2/3.3/3.4 與科二 3.2/3.3)。
8. 知識卡 / 概念對比卡(zk-steward)
8.1 一頁知識卡模板
| 欄位 | 內容 |
|---|---|
| 卡片主題 | [例如:RAG] |
| 一句話定義 | [填寫] |
| 關鍵詞 | [3-5 個] |
| 常見考點 | [填寫] |
| 常見誤解 | [填寫] |
| 一題測驗 | [填寫] |
| 我的口訣 | [填寫] |
8.2 概念對比卡(範例)
| 概念 A | 概念 B | 差異一句話 | 題目辨識關鍵 |
|---|---|---|---|
| 鑑別式 AI | 生成式 AI | 前者判斷分類,後者產生內容 | 題幹若問「產生新內容」偏生成式 |
| No Code | Low Code | 前者幾乎免寫碼,後者可少量客製碼 | 提到複雜整合通常選 Low Code |
| RAG | Fine-tuning | 前者補外部知識,後者改模型參數 | 題幹有檢索來源通常是 RAG |
| 批次推論 | 即時推論 | 前者吞吐優先,後者延遲優先 | 題幹提互動體感通常選即時 |
| Recall | Precision | Recall 重漏報,Precision 重誤報 | 異常漏掉代價高時看 Recall |
8.3 速記口訣區
- RAG:先找再答,不是重訓模型。
- No/Low:快上線看 No,深整合看 Low。
- 指標:怕漏掉看 Recall,怕誤抓看 Precision。
- 導入:先 MVP 再擴展,先治理再擴權。
9. 模擬檢核與考前驗收清單(testing-reality-checker)
9.1 模擬測驗檢核標準
| 檢核項目 | 通過門檻 | 本次結果 | 是否通過 |
|---|---|---|---|
| 科目一模擬分數 | >= 75 | [填寫] | □ |
| 科目二模擬分數 | >= 75 | [填寫] | □ |
| 高重要度章節正確率 | >= 80% | [填寫] | □ |
| 錯題重犯率(7 日) | <= 20% | [填寫] | □ |
| 每題平均作答時間 | <= 75 秒 | [填寫] | □ |
| 情境題正確率 | >= 75% | [填寫] | □ |
9.2 考前 7 日驗收清單
| 項目 | 檢查內容 | 完成 |
|---|---|---|
| 官方規格 | 題型、作答方式、及格門檻確認 | □ |
| 重點章節 | 科一 3.2/3.3/3.4;科二 3.2/3.3 完整複習 | □ |
| 錯題本 | 錯兩次以上題目全數重做 | □ |
| 知識卡 | 至少 30 張完成口頭複述 | □ |
| 模擬題 | 至少 3 回全真(含計時) | □ |
| 風險題 | 治理/法遵/偏差/隱私題型再複盤 | □ |
| 工具題 | RAG、MCP、Agent、PEFT、TCO/ROI 再確認 | □ |
9.3 考前 24 小時策略
- 不開新戰場,只看錯題本與高頻對比卡。
- 每科做 20 題熱身,重點看審題品質。
- 睡眠優先,維持判讀穩定度。
- 考場作答順序:先易後難,最後回頭處理情境長題。
10. 附錄:引用來源清單、差異註記
10.1 來源差異與採用原則
| 差異點 | 來源差異 | 採用原則 |
|---|---|---|
| 工具名詞更新 | 評鑑內容範圍與新公告題含較新工具與架構名詞 | 以較新文件與公告題趨勢優先 |
| 勘誤內容 | 初級學習指引部分統計敘述與答案有修正 | 以勘誤表修正版為準 |
| 題風深度 | 學習指引偏教學、公告題偏情境決策 | 以情境化解題框架補足 |
| 抵免規則 | 初級本身無科目抵免制度重點,中級另有 | 本模板僅列制度參考,不作初級學習主軸 |
10.2 全部引用來源
- DOCS/AI應用規劃師(初級)-學習指引-科目1_人工智慧基礎概論1141203_20251222172144.pdf
- DOCS/AI應用規劃師(初級)-學習指引-科目2_生成式AI應用與規劃114123_20251222172159.pdf
- DOCS/AI應用規劃師(初級)學習指引勘誤表11404_20251222101819.pdf
- DOCS/AI應用規劃師能力鑑定_評鑑內容範圍參考_11502_20260226174411.pdf
- DOCS/115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410144547.pdf
- DOCS/iPAS AI應用規劃師初級能力鑑定-考試樣題(114年9月版)_20251226162246.pdf
- [DOCS/114年第四梯次初級AI應用規劃師第一科人工智慧基礎概論(當次試題公告114_20251226000442.pdf](DOCS/114年第四梯次初級AI應用規劃師第一科人工智慧基礎概論(當次試題公告114_20251226000442.pdf)
- [DOCS/114年第四梯次初級AI應用規劃師第二科生成式AI應用與規劃(當次試題公告114_20251226000507.pdf](DOCS/114年第四梯次初級AI應用規劃師第二科生成式AI應用與規劃(當次試題公告114_20251226000507.pdf)
- DOCS/115年第一次初級AI應用規劃師_第一科_人工智慧基礎概論_公告試題_20260410164304.pdf
- DOCS/115年第一次初級AI應用規劃師_第二科_生成式AI應用與規劃_公告試題_20260410164328.pdf
- DOCS/115年度AI應用規劃師能力鑑定(中級科目抵免辦法)_11501版_20260101234950.pdf
協作成果摘要(可保留在筆記最末)
- project-manager-senior:完成六週里程碑、每週題量與產出物設計。
- engineering-technical-writer:完成可直接填寫的章節模板、錯題與驗收表。
- zk-steward:完成知識卡模板與高頻概念對比卡。
- product-feedback-synthesizer:完成錯因字典與每週回補閉環。
- testing-reality-checker:完成模擬通過門檻與考前驗收清單。
IPAS 中級 AI 應用規劃師|完整學習筆記系統
版本:v1.0 | 製作日期:2026-04-22
適用考試:經濟部 iPAS 中級 AI 應用規劃師(科目一 + 科目二)
製作角色:AgentsOrchestrator(協調 project-manager-senior、engineering-technical-writer、zk-steward、product-feedback-synthesizer、testing-reality-checker)
來源與假設
| 項目 | 說明 |
|---|---|
| 科目一來源 | AI應用規劃師(中級)-學習指引-科目1人工智慧技術應用規劃_20251222101833.pdf(168頁) |
| 科目二來源 | AI應用規劃師(中級)-學習指引-科目2大數據處理分析與應用_20251222101850.pdf(182頁) |
| 文字擷取方式 | PyMuPDF 直接提取 PDF 文字層,中文及表格結構大致完整,少數圖片說明文字可能遺漏 |
| 不確定性 | PDF 中部分圖示(如架構圖、流程圖)無法以文字擷取;題號標記方式因排版偶有錯位(如 L22303/L22304 重複出現在 L233 節) |
| 章節範圍 | 本筆記僅覆蓋兩本學習指引正文;另有「科目三:機器學習技術與應用(L23)」在兩份指引的評鑑內容表中出現,但不在這兩本指引的正文範圍內,考生須另行備考 |
執行摘要(Executive Summary)
本文件為完整的 IPAS 中級 AI 應用規劃師備考工具包,包含:
- 兩科完整架構對照表:以評鑑代碼(L211xx / L222xx)錨定每節考點
- 各章節結構化筆記:核心觀念、必背重點、常錯陷阱、情境題、實務案例五欄位
- 優先級標籤系統:🔴 High / 🟡 Medium / 🟢 Low,依題目出現頻率與難度加權
- 六週備考計畫:每週主題 + 建議練習題數 + 複習重心
- 錯題記錄模板:系統化追蹤弱點並制定補救策略
- 下一步執行指令:可直接貼入 Copilot Chat
一、考試架構總覽
中級導讀:先觀念、再指標、最後做決策
中級建議流程:看任務定義 → 選評估指標 → 用 Lab 驗證決策。
1.1 科目一:人工智慧技術應用與規劃(L21)
L21 人工智慧技術應用與規劃
├── L211 AI相關技術應用
│ ├── L21101 自然語言處理技術與應用 🔴 High
│ ├── L21102 電腦視覺技術與應用 🔴 High
│ ├── L21103 生成式AI技術與應用 🔴 High
│ └── L21104 多模態人工智慧應用 🟡 Medium
├── L212 AI導入評估規劃
│ ├── L21201 AI導入評估 🔴 High
│ ├── L21202 AI導入規劃 🔴 High
│ └── L21203 AI風險管理 🟡 Medium
└── L213 AI技術應用與系統部署
├── L21301 數據準備與模型選擇 🔴 High
└── L21302 AI技術系統集成與部署 🟡 Medium
1.2 科目二:大數據處理分析與應用(L22)
L22 大數據處理分析與應用
├── L221 機率統計基礎
│ ├── L22101 敘述性統計與資料摘要技術 🟡 Medium
│ ├── L22102 機率分佈與資料分佈模型 🟡 Medium
│ └── L22103 假設檢定與統計推論 🔴 High
├── L222 大數據處理技術
│ ├── L22201 數據收集與清理 🔴 High
│ ├── L22202 數據儲存與管理 🟡 Medium
│ └── L22203 數據處理技術與工具 🔴 High
├── L223 大數據分析方法與工具
│ ├── L22301 統計學在大數據中的應用 🟡 Medium
│ ├── L22302 常見的大數據分析方法 🔴 High
│ └── L22303 數據可視化工具 🟢 Low
└── L224 大數據在人工智慧之應用
├── L22401 大數據與機器學習 🔴 High
├── L22402 大數據在鑑別式AI中的應用 🔴 High
├── L22403 大數據在生成式AI中的應用 🟡 Medium
└── L22404 大數據隱私保護、安全與合規 🟡 Medium
二、科目一學習筆記
📘 第三章:AI 相關技術應用
3.1 自然語言處理技術與應用(L21101)🔴 High
Lab M6: 信心校準檢查器
比較模型平均信心與真實正確率,判斷是否過度自信。
核心觀念
NLP(Natural Language Processing)讓機器能「理解、處理、生成」自然語言,核心框架分三層:
- NLU(Natural Language Understanding):理解輸入語意、意圖、情緒
- NLG(Natural Language Generation):將結構資料或推理結果轉為自然語言輸出
- NLP 為二者的總框架,對話系統為典型綜合應用
技術演進四階段
| 階段 | 年代 | 代表技術 |
|---|---|---|
| 規則式(Rule-based) | 1960s–1990s | ELIZA、專家系統 |
| 統計語言模型 | 1990s–2010 | N-gram、HMM、CRF |
| 深度學習模型 | 2010–2018 | RNN、LSTM、GRU |
| 預訓練語言模型 | 2018–至今 | BERT、GPT、RoBERTa、T5 |
NLP 前處理五步驟(必背順序)
- 分詞(Tokenization):切割為詞/子詞單位(中文需斷詞字典)
- 詞性標注(POS Tagging):辨識名詞/動詞/形容詞等語法角色
- 詞形還原(Lemmatization):running → run(保留語意)
- 詞幹提取(Stemming):connections → connect(速度快但精度低)
- 停用詞移除(Stopword Removal):移除 is/the/at 等低語意詞
詞向量方法
- TF-IDF:TF(詞頻)× IDF(逆文件頻率),強調文件內的獨特詞
- Word2Vec:將詞轉為連續向量,具語意相似性(King − Man + Woman ≈ Queen)
- BERT:Bidirectional Encoder,雙向上下文理解,適合理解型任務(NLU)
- GPT:單向自迴歸生成,適合生成型任務(NLG)
Transformer 關鍵機制
- Self-Attention(自注意力):每個詞能同時參考整個序列,解決長距離依賴問題
- 預訓練 + 微調(Fine-tuning):大規模語料預訓練 → 特定任務資料微調
必背重點
| 術語 | 定義 | 常見考點 |
|---|---|---|
| NLU vs NLG | 理解 vs 生成 | 區分哪個任務屬哪一類 |
| BERT | 雙向上下文預訓練模型 | 考「雙向」是其特點 |
| GPT | 單向自迴歸預訓練模型 | 考生成任務的代表模型 |
| NER | 命名實體識別(人名/地名/組織) | 常與文本分類並列考 |
| Word2Vec | 詞嵌入,語意向量化 | 考「連續向量空間」描述 |
| Tokenization | 分詞,NLP的第一步 | 考中文分詞的特殊挑戰 |
常錯陷阱
⚠️ Lemmatization ≠ Stemming:Lemmatization 保留完整詞義(running→run),Stemming 只截詞幹(connections→connect),精度較低。
⚠️ BERT 是雙向,GPT 是單向:試題常混淆,記「BERT 看前後文,GPT 只看之前的文字」。
⚠️ NLU/NLG/NLP 三者範疇:NLP 是總稱,NLU 是理解子集,NLG 是生成子集,不能互換。
⚠️ TF-IDF 不是詞向量:TF-IDF 是統計特徵方法,Word2Vec/BERT 才是向量嵌入方法。
情境題
某智慧客服系統需辨識使用者問題中的訂單編號、公司名稱與聯絡人,應採用何種 NLP 技術?
答:命名實體識別(NER)一段文字「今天天氣真好,心情也不錯」,系統需判斷這是正面情緒,屬於哪種 NLP 任務?
答:情感分析(Sentiment Analysis)
實務案例
- 智慧客服:NLU 解析使用者意圖 → 後台查詢 → NLG 生成自然語言回覆
- 電商評論分析:情感分析挖掘負評關鍵詞,輔助產品改善決策
- 醫療文本摘要:NLP 從病歷自動提取診斷代碼(ICD codes)
3.2 電腦視覺技術與應用(L21102)🔴 High
核心觀念
電腦視覺讓機器「看懂」影像/影片,核心任務分四類:
| 任務類型 | 輸出 | 代表應用 |
|---|---|---|
| 影像分類(Classification) | 整張圖一個標籤 | 良品/瑕疵品辨別 |
| 目標偵測(Object Detection) | 多個物件 + 邊界框(Bounding Box) | 自動駕駛障礙偵測 |
| 語義分割(Semantic Segmentation) | 每個像素賦予類別 | 醫療影像分割 |
| 實例分割(Instance Segmentation) | 語義分割 + 區分同類個體 | 人群計數 |
必背模型架構
- CNN(卷積神經網路):影像特徵提取主力,由卷積層→池化層→全連接層組成
- ResNet:殘差連接(Skip Connection)解決深層網路梯度消失問題
- YOLO(You Only Look Once):即時目標偵測,單次前向傳播同時輸出位置與類別
- U-Net:U 型對稱架構,跳接連接(Skip Connections),專為醫療影像分割設計
影像前處理(Data Augmentation)
- 旋轉、翻轉、裁切、色彩調整 → 擴充訓練集、提升泛化能力
- 資料標注(Labeling):影像分類→類別標籤;目標偵測→邊界框;分割→像素遮罩
常錯陷阱
⚠️ 影像分類 ≠ 目標偵測:分類只輸出一個標籤,偵測輸出多個物件位置+類別。
⚠️ U-Net 的跳接連接(Skip Connections)是其核心創新,使高解析度特徵能保留於解碼路徑。
⚠️ 殘差連接(ResNet)解決梯度消失,不是解決過擬合問題。
情境題
製造業生產線要偵測皮帶上每顆零件的瑕疵位置並標記範圍,應選用哪種視覺任務?
答:目標偵測(Object Detection),輸出邊界框座標醫院希望系統能在 X 光片上圈出腫瘤的精確輪廓,每個像素都需分類,應使用?
答:語義分割(Semantic Segmentation)
實務案例
- 智慧製造品管:CNN 分類良品/瑕疵品,YOLO 即時偵測流水線上的缺陷位置
- 醫療影像診斷:U-Net 分割肺部 CT,輔助放射科醫師標記病變範圍
- 無人駕駛:多任務視覺(分類+偵測+分割)整合辨識道路、行人、交通號誌
3.3 生成式 AI 技術與應用(L21103)🔴 High
官方考題觀念補充(中級章節版)
以下觀念來自官方試題/樣題提及重點,已融入本章學習脈絡:
- 提示工程:用角色、任務、限制、格式提升輸出品質。
- RAG:檢索外部知識再生成,提升可追溯性。
- 微調:用領域資料調整模型參數。
- PEFT / LoRA:低成本微調方式,少參數更新。
- 幻覺:模型生成不實內容,需來源核對。
- Transformer:現代 NLP/生成模型核心架構。
- CNN:常用於影像任務的卷積神經網路。
- NLP:讓模型理解與生成自然語言。
Lab M3: LLM Token 成本估算器
估算每日/每月花費,協助中級導入規劃中的 TCO 評估。
核心觀念
生成式 AI 能創造新內容(文字、圖像、音訊),主要三大架構:
| 架構 | 機制 | 代表模型 | 優勢 |
|---|---|---|---|
| GAN(生成對抗網路) | 產生器 vs 鑑別器對抗學習 | StyleGAN、CycleGAN | 圖像品質高 |
| VAE(變分自編碼器) | 編碼至潛空間再解碼 | VAE-GAN | 潛空間可插值 |
| Diffusion Model(擴散模型) | 逐步去噪還原圖像 | Stable Diffusion、DALL-E | 高品質圖像生成 |
| LLM(大型語言模型) | Transformer 自迴歸預測 | GPT-4、Claude、Gemini | 文字生成、對話 |
GAN 架構(必考)
雜訊/潛空間 → [產生器 Generator] → 假資料
↓
真實資料 ──────────────────→ [鑑別器 Discriminator] → 真/假判斷
↓
反向傳播更新兩者參數
LLM 關鍵技術
- Prompt Engineering:設計輸入提示引導模型輸出
- RAG(Retrieval-Augmented Generation):結合外部知識庫提升準確度
- Fine-tuning(微調):在特定領域資料上繼續訓練,調整模型行為
- RLHF(人類反饋強化學習):用人類評分引導模型輸出更符合期待的結果
必背重點
| 術語 | 必記要點 |
|---|---|
| GAN 的兩個組件 | 產生器(Generator)+ 鑑別器(Discriminator) |
| 圖片風格轉換 | GAN 的典型應用(如照片→畫風) |
| Hallucination | LLM 生成不實資訊的問題 |
| Prompt | 提示詞,引導 LLM 生成的輸入文字 |
| Diffusion Model | 目前高品質圖像生成主流方法 |
常錯陷阱
⚠️ GAN 訓練不穩定是已知挑戰,Diffusion Model 生成品質更穩定但速度較慢。
⚠️ RAG ≠ Fine-tuning:RAG 在推理時動態查詢外部資料,Fine-tuning 在訓練時修改模型參數。
⚠️ DALL-E 是文字→圖像(Text-to-Image),不是文字生成模型。
情境題
電商平台希望系統根據商品描述文字自動生成產品宣傳圖,應採用何種技術?
答:Text-to-Image 生成式 AI(如 Stable Diffusion / DALL-E)企業要建立內部 FAQ 問答系統,避免 LLM 產生幻覺,最佳方案為?
答:RAG(Retrieval-Augmented Generation),結合企業文件庫
實務案例
- 廣告創意生成:DALL-E / Stable Diffusion 根據行銷文案自動產圖
- 程式碼輔助:GitHub Copilot(GPT 系列)根據注解自動補全程式碼
- 影像風格轉換:CycleGAN 將白天照片轉為夜景、馬轉斑馬等
3.4 多模態人工智慧應用(L21104)🟡 Medium
核心觀念
多模態 AI 同時處理並整合多種感知來源(文字+影像+聲音+影片),提升跨模態理解能力。
代表模型
| 模型 | 開發者 | 功能 | 關鍵技術 |
|---|---|---|---|
| CLIP | OpenAI | 文字↔圖像跨模態對齊 | 對比學習(Contrastive Learning) |
| GPT-4V | OpenAI | 圖文理解、視覺問答 | Vision Transformer + LLM |
| Gemini | 文字/圖像/音訊/影片整合 | 多模態 Transformer |
應用情境
- 視覺問答(VQA):輸入圖片+問題,輸出文字答案
- 影片字幕生成:語音辨識(ASR)+ 視覺上下文 + NLG
- 情感辨識:聲音語調 + 表情影像 + 語言內容同時分析
- 自動駕駛感知:LiDAR(點雲)+ 攝影機影像 + 地圖資料融合
常錯陷阱
⚠️ CLIP 的對比學習(Contrastive Learning)是其核心,利用大量圖文配對資料訓練跨模態對齊,考題常考 CLIP 的訓練方式。
情境題
影片字幕自動生成系統需整合哪些模態資料?
答:語音(ASR 轉文字)+ 影像(視覺上下文)+ 文字(NLG 輸出字幕)
📘 第四章:AI 導入評估規劃
4.1 AI 導入評估(L21201)🔴 High
Lab M2: 閾值調整模擬器(Precision vs Recall)
拖動閾值觀察 Precision / Recall / F1 的取捨。
核心觀念
AI 導入評估回答四個核心問題:
1. 我們需不需要 AI?(業務需求)
2. AI 導入是否值得投入資源?(成本效益)
3. 我們有能力導入 AI 嗎?(技術可行性)
4. 導入有哪些潛在風險?(風險辨識)
評估三大面向
(1)業務需求與痛點分析
- 辨識哪些流程重複性高、規則清晰、數據驅動
- 分析 As-Is(現況)vs To-Be(理想)流程差距
- 釐清需提升的 KPI(效率、準確率、回應速度)
(2)技術可行性初探
- 資料品質(Data Quality):完整性、一致性、準確性、即時性、唯一性
- IT 能力:伺服器、雲端架構、網路頻寬是否足夠
- AI 適配性:監督式/非監督式/強化學習/生成式模型的適用情境
(3)成本與效益評估
| 財務指標 | 定義 | 考點 |
|---|---|---|
| ROI(投資報酬率) | 淨利 ÷ 投資成本 × 100% | 衡量是否值得投入 |
| NPV(淨現值) | 未來現金流折現後的淨值 | 考慮時間價值 |
| Payback Period(回收期) | 投資回本所需時間 | 短期決策參考 |
POC(概念驗證)
- 正式導入前的小規模試點測試
- POC 結果是後續導入決策的重要依據,關注:技術可行性確認、效益初步量化、風險評估
必背重點
- AI 導入首要步驟:業務痛點辨識,而非技術選型
- 商業價值評估核心:預期效益與回報(ROI)
- 技術評估核心:技術成熟度與部署資源
- AI 專案跨部門協作:需在規劃階段即明確分工
常錯陷阱
⚠️ 考題常問「導入 AI 的第一步是什麼?」—— 答案是業務痛點辨識,不是選模型或準備資料。
⚠️ POC 成功 ≠ 全面導入,POC 是驗證,後續仍需評估規模化成本與組織準備度。
⚠️ ROI 是衡量商業價值,NPV 強調時間價值,兩者用途不同,勿混淆。
情境題
製造業想導入 AI 品質檢測,評估委員會說需先確認「資料是否完整、一致、有標注」,這屬於哪種評估?
答:技術可行性評估中的「資料品質(Data Quality)」分析一 AI 專案預期 3 年內節省成本 500 萬,初期投入 200 萬,ROI 為何?
答:ROI = (500-200) ÷ 200 × 100% = 150%
實務案例
- 零售業:AI 需求評估發現補貨規則可自動化(重複性高、規則清晰),選擇監督式預測模型
- 金融業:KYC 流程痛點明確,但客戶資料涉及個資法,需在評估階段納入法規可行性
4.2 AI 導入規劃(L21202)🔴 High
Lab M9: 佇列壓力估算器
當流量超過處理能力時,預估每分鐘積壓量。
核心觀念
導入規劃解答「如何導入 AI」,產出可執行的導入藍圖,涵蓋資源安排、系統設計、跨部門協作。
導入路徑選擇
| 路徑 | 說明 | 適用情境 |
|---|---|---|
| 自建(Build) | 內部開發模型與系統 | 有資料科學團隊、高度客製化需求 |
| 購買(Buy) | 採購第三方 AI 解決方案 | 快速導入、預算有限 |
| 整合(Integrate) | API 串接雲端 AI 服務 | 利用 GPT/AWS/Azure AI 服務 |
跨部門協作(考試高頻)
- AI 專案涉及:資料團隊、業務部門、IT 部門、法規合規部門
- 規劃階段需明確:職責分工、溝通機制、決策流程
- 缺乏協作機制 → 需求不對齊、資料準備延遲、部署失敗
導入階段規劃(典型 4 階段)
1. 策略規劃 → 2. POC 驗證 → 3. 試點導入 → 4. 全面擴展
每階段需定義:里程碑(Milestone)、KPI 指標、驗收標準
必背重點
- 「建立跨部門協作機制與角色分工」是 AI 導入規劃的最關鍵工作
- No-Code / Low-Code 工具降低非技術人員的 AI 應用門檻
- 導入後需持續監控:模型效能衰減(Model Drift)、資料分布漂移
常錯陷阱
⚠️ AI 導入規劃 ≠ 技術架構設計。重點在策略、流程、組織,不在模型演算法細節。
⚠️ Low-Code/No-Code 不等於「無需技術人員」,仍需 IT/資料人員監控與維運。
⚠️ Model Drift(模型漂移)是部署後的常見問題,指真實資料分布與訓練資料不一致導致效能下降。
情境題
一家公司想導入 AI 客服,業務部門要求功能 A,IT 說系統無法支援,怎麼辦?
答:建立跨部門協作機制,釐清需求優先序,制定 IT 系統升級計畫,分階段導入
4.3 AI 風險管理(L21203)🟡 Medium
核心觀念
AI 風險分為四大類別:
| 風險類型 | 具體內容 | 對應措施 |
|---|---|---|
| 技術風險 | 模型漂移、過擬合、不可解釋性 | 持續監控、A/B 測試、XAI |
| 資料風險 | 資料品質差、偏差、隱私洩漏 | 資料治理、差分隱私、匿名化 |
| 倫理與偏見風險 | 演算法歧視、性別/種族偏見 | 公平性指標、多元資料集 |
| 法規合規風險 | GDPR、個資法、AI Act | 合規審查、資料使用授權 |
AI 治理框架要素
- 可解釋性(Explainability / XAI):模型決策能被人類理解(如 SHAP、LIME)
- 公平性(Fairness):避免對特定群體的系統性歧視
- 問責性(Accountability):明確 AI 決策的負責人與申訴機制
- 透明性(Transparency):公開 AI 系統的運作邏輯與資料來源
必背重點
- GDPR(歐盟通用資料保護規範):個人資料處理需告知、取得同意、可刪除
- 差分隱私(Differential Privacy):在資料中加入統計雜訊保護個人隱私
- Model Card:記錄模型用途、效能、偏見風險的文件,提升透明度
常錯陷阱
⚠️ XAI(可解釋 AI)解決「黑盒問題」,但 SHAP/LIME 是事後解釋工具,不改變模型本身。
⚠️ 演算法偏見主要源自訓練資料的偏差,不單純是演算法設計問題。
📘 第五章:AI 技術應用與系統部署
5.1 數據準備與模型選擇(L21301)🔴 High
核心觀念
「垃圾進,垃圾出(GIGO)」—— 資料品質決定模型效能上限。
資料品質五指標(必背)
| 指標 | 說明 |
|---|---|
| 完整性(Completeness) | 關鍵欄位無缺失 |
| 一致性(Consistency) | 欄位邏輯無矛盾(年齡不為負數) |
| 準確性(Accuracy) | 值反映真實世界 |
| 即時性(Timeliness) | 資料夠新,反映當下狀況 |
| 唯一性(Uniqueness) | 無重複記錄,主鍵唯一 |
缺失值處理方法
- 均值/中位數填補(Mean/Median Imputation)
- 前後值填補(Forward/Backward Fill)— 時序資料常用
- 插值法(Interpolation)
- 模型預測填補
異常值偵測方法
- Z-score:超過 ±3 標準差視為異常
- IQR(四分位距):低於 Q1−1.5×IQR 或高於 Q3+1.5×IQR 為異常
- Isolation Forest、LOF:機器學習方法
特徵工程
| 技術 | 方法 | 適用場景 |
|---|---|---|
| 正規化(Normalization) | 縮放至 [0,1] | 特徵量綱差異大 |
| 標準化(Standardization) | Z-score,均值 0 標準差 1 | 線性模型、SVM |
| 獨熱編碼(One-hot) | 類別→二進位欄位 | 無序類別變數 |
| 標籤編碼(Label Encoding) | 類別→整數 | 有序類別(高中/碩士) |
| TF-IDF / Word2Vec | 文字→數值 | NLP 特徵 |
特徵選擇方法
- 資訊增益(Information Gain)
- 皮爾森相關係數(Pearson Correlation)
- L1 正則化(Lasso)— 係數為零即刪除特徵
- PCA(主成分分析)— 降維,保留方差最大的方向
模型選擇原則(依問題類型)
| 問題類型 | 模型 | 說明 |
|---|---|---|
| 分類(有標籤) | 決策樹、隨機森林、SVM、XGBoost | 監督式學習 |
| 迴歸(連續值預測) | 線性迴歸、Ridge/Lasso、XGBoost | 監督式學習 |
| 分群(無標籤) | K-Means、DBSCAN | 非監督式學習 |
| 推薦系統 | 協同過濾、矩陣分解 | 非監督/半監督 |
| 影像 | CNN、ResNet、ViT | 深度學習 |
| 文字 | BERT、GPT、T5 | 預訓練語言模型 |
常錯陷阱
⚠️ 正規化(Normalization)≠ 標準化(Standardization):前者縮放至 [0,1],後者轉為 Z-score,考題常混淆。
⚠️ One-hot encoding 不適合高基數(High Cardinality)類別,會造成維度爆炸。
⚠️ PCA 是降維而非特徵選擇,PCA 不刪除原始特徵,而是轉換為主成分。
情境題
資料集中「城市」欄位有 500 個不同值,使用 One-hot encoding 後特徵維度爆炸,應如何處理?
答:使用 Target Encoding、Embedding 或分組處理,避免高基數問題
5.2 AI 技術系統集成與部署(L21302)🟡 Medium
Lab M7: 服務容量與 SLA 估算
估算每秒請求量、平均延遲與節點數的關係。
核心觀念
AI 模型需從研究環境遷移至生產環境,部署方式影響效能、成本與維運複雜度。
部署方式比較
| 方式 | 特點 | 適用情境 |
|---|---|---|
| 雲端部署(Cloud) | 彈性伸縮、低維運負擔 | 流量不穩定、快速上線 |
| 地端部署(On-Premise) | 高度控制、資料不出境 | 敏感資料、低延遲需求 |
| 邊緣部署(Edge) | 低延遲、離線可用 | IoT 設備、工廠生產線 |
| 混合部署(Hybrid) | 結合雲端與地端優勢 | 需平衡安全與彈性 |
MLOps 關鍵概念
- Model Monitoring(模型監控):持續追蹤效能指標(準確率、F1、AUC)
- Data Pipeline(資料管線):自動化資料收集→前處理→特徵工程→訓練→部署流程
- CI/CD for ML:持續整合/持續部署應用於機器學習模型更新
- A/B Testing:新舊模型同時運行,比較效果後決定是否全面切換
常見 API 整合模式
- REST API:最常見,HTTP 協定,適合非即時推論
- gRPC:低延遲、高吞吐,適合微服務架構
- Message Queue(Kafka、RabbitMQ):非同步串流推論
常錯陷阱
⚠️ Edge AI(邊緣部署)的優勢是低延遲,不是高運算能力(邊緣設備算力通常有限,需模型壓縮)。
⚠️ 模型壓縮技術(量化 Quantization、剪枝 Pruning)是部署邊緣設備前的必要步驟。
三、科目二學習筆記
📗 第三章:機率統計基礎
3.1 敘述性統計與資料摘要技術(L22101)🟡 Medium
Lab M1: 貝氏更新(檢測陽性後真的有病?)
輸入盛行率、敏感度、特異度,立即計算後驗機率 P(病|+)。
核心觀念
敘述統計(Descriptive Statistics)用於概括並整理資料特徵,不涉及推論或決策。
集中趨勢三指標
| 指標 | 定義 | 適用場景 |
|---|---|---|
| 平均數(Mean) | 所有值的算術平均 | 對稱分佈、無離群值 |
| 中位數(Median) | 排序後的中間值 | 偏態分佈或有離群值 ⭐ |
| 眾數(Mode) | 出現最頻繁的值 | 類別資料 |
離散程度三指標
| 指標 | 定義 |
|---|---|
| 全距(Range) | 最大值 − 最小值 |
| 變異數(Variance) | 各值與平均數差的平方均值 |
| 標準差(Standard Deviation) | 變異數的開方,最常用的離散程度指標 |
常錯陷阱
⚠️ 偏態分佈用中位數,不用平均數!(平均數受極端值影響)
⚠️ 「資料平均偏離中心的程度」= 標準差(考題固定用語)
⚠️ 敘述統計 ≠ 推論統計:敘述統計描述現有資料,推論統計推估母體
3.2 機率分佈與資料分佈模型(L22102)🟡 Medium
核心觀念
必考四大分佈
| 分佈 | 類型 | 特徵 | 應用 |
|---|---|---|---|
| 常態分佈(Normal) | 連續 | 鐘型、對稱、均值±3σ涵蓋99.7% | 身高、體重 |
| 二項分佈(Binomial) | 離散 | n 次伯努利試驗的成功次數 | 品管抽樣 |
| 泊松分佈(Poisson) | 離散 | 單位時間/空間的事件發生次數 | 客服電話量 |
| 均勻分佈(Uniform) | 連續/離散 | 每個值等機率 | 亂數生成 |
中央極限定理(CLT)—— 高頻考點
不論母體原始分佈為何,當樣本數 n 足夠大時,樣本平均數的分佈趨近常態分佈。
⚠️ 常見錯誤選項:「原始資料本身也會趨近常態」—— 錯誤!CLT 只針對樣本平均數的分佈,不是原始資料。
必背重點
- 二項分佈 = 多次伯努利試驗(只有成功/失敗)
- 偏態分佈(Skewed Distribution)中:右偏(正偏)時均值 > 中位數 > 眾數
3.3 假設檢定與統計推論(L22103)🔴 High
核心觀念
假設檢定用科學方法驗證資料是否支持某個論述。
假設檢定流程(必背)
1. 設立 H₀(虛無假設)和 H₁(對立假設) 2. 選擇顯著水準 α(通常 0.05) 3. 計算檢定統計量(t / z / F / χ²) 4. 計算 p 值 5. 決策:p < α → 拒絕 H₀;p ≥ α → 無法拒絕 H₀
p 值(必考核心)
p 值 = 在 H₀ 成立的情況下,觀察到「至少這麼極端」的樣本結果之機率
p < 0.05 → 統計顯著 → 拒絕虛無假設
常用檢定類型
| 檢定 | 用途 |
|---|---|
| 單樣本 t 檢定 | 比較一組樣本與已知均值的差異 |
| 獨立樣本 t 檢定 | 比較兩組獨立樣本的均值差異 |
| 配對樣本 t 檢定 | 比較同一群體在前後兩個時間點的差異 |
| ANOVA(變異數分析) | 比較三組以上樣本的均值差異 |
| 卡方檢定(χ²) | 類別變數的獨立性或適配度 |
型一/型二錯誤(必考)
| 真實情況:H₀ 為真 | 真實情況:H₀ 為假 | |
|---|---|---|
| 決策:拒絕 H₀ | 型一錯誤(α) — 誤判(False Positive) | 正確(Power) |
| 決策:不拒絕 H₀ | 正確 | 型二錯誤(β) — 漏判(False Negative) |
常錯陷阱
⚠️ p 值不是「H₀ 為真的機率」,是「在 H₀ 為真的條件下觀察到此極端結果的機率」。
⚠️ α = 0.05 是顯著水準,不是 p 值本身。
⚠️ 型一錯誤(α)= 拒絕本來為真的 H₀;型二錯誤(β)= 未拒絕本來為假的 H₀。
⚠️ p < α 才拒絕 H₀,方向別搞反(p 值越小越顯著)。
情境題
研究員想檢驗新藥是否與標準藥物效果相同,設 H₀:兩組效果無差異,計算得 p = 0.03,α = 0.05,結論為何?
答:p = 0.03 < 0.05 = α,拒絕 H₀,有統計顯著差異,兩組效果不同
📗 第四章:大數據處理技術
4.1 數據收集與清理(L22201)🔴 High
核心觀念
資料來源分類:
| 來源 | 舉例 | 特點 |
|---|---|---|
| 內部資料 | ERP、CRM、機台資料、POS | 結構化為主、有業務語義 |
| 外部資料 | 政府開放資料、Web Scraping、商業資料庫 | 多元但需合規性審查 |
| IoT/感測器資料 | 高頻率、時序、串流型資料 | 近即時、量大 |
資料清理五大任務
- 缺失值(Missing Values):均值/中位數填補、插值法、模型預測填補
- 重複值(Duplicates):主鍵去重(pandas
.drop_duplicates()) - 異常值(Outliers):Z-score、IQR、Isolation Forest、LOF
- 格式標準化:日期格式統一、單位換算、編碼一致(UTF-8)
- 一致性檢查:跨欄位邏輯驗證(出生日期 < 今日)
必背重點
- 感測器資料 = 高頻率、串流型(High Frequency, Streaming)
- Imputation(遺漏值補全) = 缺失值處理的主要方法
- 資料品質指標:完整性、一致性、準確性、即時性、唯一性
常錯陷阱
⚠️ Imputation 是處理缺失值的方法,不是異常值處理(異常值用 Z-score/IQR)。
⚠️ Web Scraping 需注意網站使用條款與個資合規,不能隨意使用。
4.2 數據儲存與管理(L22202)🟡 Medium
核心觀念
關聯式 vs NoSQL 資料庫
| 類型 | 代表系統 | 特點 | 適用場景 |
|---|---|---|---|
| 關聯式(SQL) | MySQL, PostgreSQL | ACID 交易、結構化、Schema 固定 | 金融交易、ERP |
| 文件型 NoSQL | MongoDB | JSON 文件、Schema 彈性 | 電商產品目錄 |
| 列式 NoSQL | Cassandra, HBase | 高寫入吞吐、時序資料 | IoT 感測資料 |
| 鍵值型 NoSQL | Redis | 超低延遲、快取 | Session 管理 |
| 圖形資料庫 | Neo4j | 關係網路查詢 | 社群網絡、知識圖譜 |
資料湖 vs 資料倉儲
| 特性 | 資料湖(Data Lake) | 資料倉儲(Data Warehouse) |
|---|---|---|
| 資料型態 | 原始資料(結構化+非結構化) | 已清洗的結構化資料 |
| Schema | Schema-on-Read | Schema-on-Write |
| 用途 | 探索性分析、ML 訓練 | BI 報表、固定查詢 |
| 代表技術 | Hadoop HDFS、S3 | Snowflake、Redshift |
必背重點
- 感測器/IoT 資料適合文件型 NoSQL 資料庫
- 資料湖適合存放原始未處理資料,Schema-on-Read
- ACID 屬性(Atomicity、Consistency、Isolation、Durability)是關聯式資料庫的核心保證
常錯陷阱
⚠️ NoSQL ≠ 「不用 SQL」,部分 NoSQL 支援 SQL-like 查詢語法。
⚠️ 資料湖不等於「更好的資料倉儲」,兩者用途不同,現代架構常用「湖倉一體(Lakehouse)」結合兩者優點。
4.3 數據處理技術與工具(L22203)🔴 High
官方考題觀念補充(中級章節版)
以下觀念來自官方試題/樣題提及重點,已融入本章學習脈絡:
- K-means:把樣本分成 K 群,適合分群起手式。
- DBSCAN:可找任意形狀群集並辨識離群點。
- PCA:降維保留主要變異,利於視覺化與壓縮。
- 資料洩漏:把測試資訊帶入訓練會導致假高分。
- 正規化:把值縮放至固定區間,常見 [0,1]。
- 標準化:轉成均值 0、標準差 1,常用於線性模型。
Lab M8: 資料飄移監測器(PSI 簡化版)
輸入訓練期與上線期平均值,快速判斷是否需要重訓。
核心觀念
批次 vs 串流處理
| 模式 | 特點 | 工具 | 用途 |
|---|---|---|---|
| 批次處理(Batch) | 定期處理大量歷史資料 | Hadoop MapReduce、Spark | 每日報表、離線訓練 |
| 串流處理(Stream) | 即時處理持續到來的資料 | Kafka、Spark Streaming、Flink | 即時推薦、異常偵測 |
MapReduce 原理(必考)
Map 階段:將輸入資料分割為 Key-Value 對並平行處理 → Shuffle 階段:相同 Key 的資料聚合 → Reduce 階段:對每個 Key 的 Value 集合進行匯總計算 例:詞頻統計 → Map 輸出 (word, 1) → Reduce 輸出 (word, count)
Apache Spark 關鍵特性
- 記憶體內運算(In-memory Computing),比 Hadoop MapReduce 快 10-100 倍
- RDD(彈性分散式資料集):不可變的分散式資料集,支援容錯
- DataFrame/Dataset:高階抽象,支援 SQL 查詢
- 支援批次 + 串流(Spark Streaming)+ 機器學習(MLlib)
Apache Kafka 關鍵特性
- 分散式訊息佇列,高吞吐量事件串流平台
- Topic/Partition/Consumer Group 三層架構
- 生產者(Producer)→ Topic → 消費者(Consumer)
ETL vs ELT
| 模式 | 流程 | 適用場景 |
|---|---|---|
| ETL | Extract → Transform → Load | 傳統資料倉儲 |
| ELT | Extract → Load → Transform | 雲端大數據(先存再轉換) |
常錯陷阱
⚠️ Spark 不完全取代 Hadoop,Spark 通常運行於 HDFS 之上,是計算框架,Hadoop 提供分散式儲存(HDFS)。
⚠️ Kafka 是訊息佇列/串流平台,不是資料庫,資料持久化有時間限制(Retention Policy)。
⚠️ MapReduce 是計算模型,不只是 Hadoop 的功能,理解 Map→Shuffle→Reduce 的三步驟流程。
情境題
工廠即時監控系統每秒接收 10,000 筆感測器資料,需在 100ms 內觸發異常警報,應選用何種處理技術?
答:串流處理(Stream Processing),如 Apache Flink 或 Spark Streaming,搭配 Kafka 訊息佇列
📗 第五章:大數據分析方法與工具
5.1 統計學在大數據中的應用(L22301)🟡 Medium
核心觀念
大數據環境下傳統統計的挑戰與因應策略:
| 挑戰 | 說明 | 因應策略 |
|---|---|---|
| 樣本量過大導致統計顯著 | 極小差異也可能 p < 0.05 | 關注效果量(Effect Size),不只看 p 值 |
| 長尾分佈(Long Tail) | 資料極度偏態,均值失真 | 使用中位數、分位數描述 |
| 高維詛咒(Curse of Dimensionality) | 特徵過多時距離度量失效 | 降維(PCA)、特徵選擇 |
| 辛普森悖論(Simpson's Paradox) | 分群後的趨勢與整體趨勢相反 | 分層分析,控制混淆變數 |
效果量(Effect Size)
- 補充 p 值的不足,衡量差異的「實際大小」
- Cohen's d(均值差異)、r(相關係數)
- 大樣本下 p < 0.05 不代表差異有「實務意義」
5.2 常見的大數據分析方法(L22302)🔴 High
Lab M4: A/B 測試提升率與顯著性
輸入 A/B 版本樣本與轉換數,計算 uplift 與 z-score。
核心觀念
分析方法分類
| 分析類型 | 方法 | 應用 |
|---|---|---|
| 描述性分析(Descriptive) | 統計摘要、資料分佈 | 了解「發生了什麼」 |
| 診斷性分析(Diagnostic) | 相關分析、鑽取分析 | 了解「為什麼發生」 |
| 預測性分析(Predictive) | 迴歸、分類、時序預測 | 預測「會發生什麼」 |
| 處方性分析(Prescriptive) | 最佳化、模擬 | 決策「應該做什麼」 |
時序分析(Time Series)
- 趨勢(Trend):長期上升/下降方向
- 季節性(Seasonality):固定週期波動(如每週/每年)
- 殘差(Residual):去除趨勢和季節性後的隨機波動
- ARIMA 模型:整合差分的自迴歸移動平均模型,適合平穩時序預測
分群分析(Clustering)
| 方法 | 特點 | 優缺點 |
|---|---|---|
| K-Means | 需指定 K、以距離分群 | 簡單高效,不適合非球形分佈 |
| DBSCAN | 密度聚類,自動發現群數 | 適合不規則形狀,需調整半徑和最小點數 |
| 層次聚類(Hierarchical) | 樹狀結構,可視樹狀圖 | 計算成本高,適合小資料集 |
關聯規則(Association Rules)
Apriori 演算法:挖掘頻繁項目集(如購物籃分析)
指標:Support(支持度)、Confidence(信心度)、Lift(提升度)
網路分析(Network Analysis)
- 節點(Node)= 實體,邊(Edge)= 關係
- 中心性(Centrality):PageRank、Betweenness Centrality
- 應用:社群偵測、影響力傳播分析
常錯陷阱
⚠️ K-Means 對離群值敏感,離群值會扭曲群心;DBSCAN 對離群值更穩健。
⚠️ Apriori 演算法的 Lift > 1 表示規則有正向關聯,Lift = 1 表示獨立,Lift < 1 表示負關聯。
⚠️ ARIMA 適用於平穩時序(Stationary),非平穩序列需先差分(Differencing)。
情境題
超市分析購物資料,發現買尿布的顧客同時買啤酒的機率很高,這屬於哪種分析方法?
答:關聯規則分析(Association Rule Mining),Apriori 演算法,購物籃分析(Market Basket Analysis)
5.3 數據可視化工具(L22303)🟢 Low
核心觀念
圖表類型選擇原則
| 目的 | 推薦圖表 |
|---|---|
| 比較類別 | 長條圖(Bar Chart) |
| 趨勢走勢 | 折線圖(Line Chart) |
| 部分 vs 整體 | 圓餅圖(Pie Chart)、樹狀圖(Treemap) |
| 分佈形狀 | 直方圖(Histogram)、箱型圖(Box Plot) |
| 兩變數關係 | 散佈圖(Scatter Plot) |
| 地理資料 | 地圖(Choropleth Map) |
| 高維資料 | 熱力圖(Heatmap)、平行座標圖 |
常用工具:Tableau、Power BI、Python(Matplotlib、Seaborn、Plotly)、D3.js
📗 第六章:大數據在人工智慧之應用
6.1 大數據與機器學習(L22401)🔴 High
官方考題觀念補充(中級章節版)
以下觀念來自官方試題/樣題提及重點,已融入本章學習脈絡:
- SVM(支援向量機):以最大間隔分隔類別,適合中小型分類問題。
- 隨機森林:多棵決策樹投票,穩定且不易過擬合。
- 邏輯迴歸:分類基線模型,可解釋性高。
- 決策樹:以規則切分特徵,易理解。
- KNN:用鄰近樣本投票,需注意尺度一致。
- 混淆矩陣:用 TP/FP/FN/TN 分析分類器行為。
- Precision/Recall/F1:處理不平衡資料時比 Accuracy 更重要。
- AUC/ROC:評估不同閾值下的分類能力。
- 過擬合:訓練好但泛化差,需正則化與驗證。
- 交叉驗證:穩定估計模型泛化誤差。
核心觀念
大數據對機器學習的三大影響:
1. 提升模型效能:更多資料 → 更少欠擬合(Underfitting)風險
2. 加速訓練:分散式訓練(如 Horovod、Parameter Server 架構)
3. 推動新架構:Transformer、大型語言模型依賴超大規模資料集
機器學習三大範式
| 類型 | 說明 | 代表算法 |
|---|---|---|
| 監督式學習(Supervised) | 有標籤資料,學習 X→Y 映射 | 決策樹、SVM、神經網路 |
| 非監督式學習(Unsupervised) | 無標籤,發現資料結構 | K-Means、PCA、自編碼器 |
| 強化學習(Reinforcement) | 透過獎勵訊號學習最佳策略 | Q-Learning、PPO |
分散式機器學習訓練
- 資料並行(Data Parallelism):同一模型在不同資料子集上並行訓練,梯度聚合
- 模型並行(Model Parallelism):超大模型切割至不同 GPU/節點
特徵商店(Feature Store)
- 集中管理、版本控制、復用特徵的平台
- 解決訓練/推論特徵不一致的問題(Training-Serving Skew)
必背重點
- 大量資料 → 複雜模型才能充分利用(規模定律 Scaling Law)
- 過擬合(Overfitting) vs 欠擬合(Underfitting):前者訓練好測試差,後者兩者皆差
6.2 大數據在鑑別式 AI 中的應用(L22402)🔴 High
核心觀念
鑑別式 AI(Discriminative AI)= 學習輸入→輸出的映射,典型任務:分類、預測、異常偵測。
關鍵挑戰
| 挑戰 | 說明 | 解決策略 |
|---|---|---|
| 資料標注成本 | 大量標籤需人工標注 | 主動學習(Active Learning)、半監督學習 |
| 類別不平衡(Class Imbalance) | 正常樣本 >> 異常樣本 | SMOTE 過採樣、Focal Loss、權重調整 |
| 樣本偏態(Data Bias) | 訓練資料不代表真實分布 | 資料增強、重新採樣、偏差審查 |
| 概念漂移(Concept Drift) | 真實世界資料分布改變 | 線上學習、定期重訓練 |
模型評估指標(必背)
| 指標 | 計算式 | 適用場景 |
|---|---|---|
| Accuracy | (TP+TN) / Total | 類別平衡時 |
| Precision | TP / (TP+FP) | 關注誤報代價(如垃圾信) |
| Recall | TP / (TP+FN) | 關注漏報代價(如疾病篩檢) |
| F1-Score | 2 × P × R / (P+R) | 類別不平衡時 |
| AUC-ROC | ROC 曲線面積 | 二元分類整體效能 |
常錯陷阱
⚠️ 類別不平衡時 Accuracy 不是好指標,應使用 F1-Score 或 AUC-ROC。
⚠️ SMOTE(合成少數過採樣技術)生成的是合成資料點,不是複製既有資料。
⚠️ Concept Drift ≠ Data Quality 問題:Drift 指真實世界的規律改變,而非原始資料有錯誤。
情境題
信用卡詐欺偵測中,詐欺案例佔總交易的 0.1%,模型全部預測為「正常」也能達到 99.9% Accuracy,如何評估模型實際效果?
答:使用 Recall(召回率)和 F1-Score,因為漏判詐欺(False Negative)的代價遠高於誤判,不應以 Accuracy 為主要指標
6.3 大數據在生成式 AI 中的應用(L22403)🟡 Medium
核心觀念
大型語言模型(LLM)的資料需求:
| 階段 | 資料需求 | 特點 |
|---|---|---|
| 預訓練(Pretraining) | 萬億 Token 規模 | 網頁爬取、書籍、程式碼 |
| 指令微調(SFT) | 數萬到數百萬 | 人工撰寫問答對 |
| RLHF | 人類偏好排序資料 | 標注成本最高 |
資料品質對生成效果的影響
- 低品質資料 → 幻覺(Hallucination)頻率提升
- 偏頗資料 → 模型輸出帶有偏見
- 資料去重(Deduplication)是預訓練前的重要步驟
必背重點
- 生成式 AI 的「資料飛輪」:更多使用者 → 更多互動資料 → 更好的模型
- 資料合成(Synthetic Data):用 AI 生成訓練資料,降低標注成本
6.4 大數據隱私保護、安全與合規(L22404)🟡 Medium
Lab M5: 資料合規風險熱度評分
勾選情境,快速估算導入前的風險熱度(僅供規劃初篩)。
核心觀念
隱私保護技術
| 技術 | 說明 |
|---|---|
| 匿名化(Anonymization) | 移除所有可識別個人的資訊,不可逆 |
| 假名化(Pseudonymization) | 替換識別符,保留其他資料,可逆 |
| 差分隱私(Differential Privacy) | 加入統計雜訊,保護個體資料不被推斷 |
| 聯邦學習(Federated Learning) | 資料不離開本地,只共享模型梯度 |
| 同態加密(Homomorphic Encryption) | 在加密狀態下直接計算 |
法規遵循
| 法規 | 地區 | 核心要求 |
|---|---|---|
| GDPR | 歐盟 | 告知、同意、刪除權(右被遺忘) |
| CCPA | 美國加州 | 知情、拒絕、刪除個人資料 |
| 個資法 | 台灣 | 目的限制、當事人同意 |
| AI Act | 歐盟 | 高風險 AI 需合規審查、透明度 |
常錯陷阱
⚠️ 匿名化是不可逆的,假名化是可逆的,兩者保護強度不同(匿名化更強)。
⚠️ 聯邦學習(Federated Learning)不完全保護隱私,模型梯度仍可能洩露資料資訊(需結合差分隱私)。
⚠️ GDPR 的「被遺忘權(Right to be Forgotten)」是高頻考點,指個人可要求刪除其個人資料。
情境題
醫院要用多院區的病患資料聯合訓練 AI 模型,但各院區不能共享病患原始資料,應採用何種技術?
答:聯邦學習(Federated Learning),各院區本地訓練後只共享模型梯度
四、六週備考計畫
設計原則(by project-manager-senior):前兩週打底基礎,第三至五週攻略高頻章節,第六週衝刺複習與模擬。
| 週次 | 主題 | 每日讀書重點 | 建議題數 | 複習重心 |
|---|---|---|---|---|
| 第一週 | 科目一基礎:NLP + 電腦視覺 | NLP 前處理、BERT/GPT 差異、CV 任務類型、CNN 架構 | 20 題/天 | 名詞定義與對比辨別(NLU/NLG/NLP、Lemmatization/Stemming) |
| 第二週 | 科目一進階:生成式 AI + 多模態 + 科目二統計基礎 | GAN 架構、LLM 技術、描述統計、假設檢定流程 | 20 題/天 | p 值判斷、型一/型二錯誤、GAN 組件 |
| 第三週 | 科目一策略章:AI 導入評估規劃 + 系統部署 | ROI/NPV/Payback、跨部門協作、GIGO、特徵工程 | 25 題/天 | 情境題練習(業務需求分析、導入決策) |
| 第四週 | 科目二大數據處理:Ch4 收集清理 + Ch4 儲存管理 | Imputation、Spark vs Hadoop、NoSQL 分類、Data Lake/Warehouse | 25 題/天 | SQL/NoSQL 選型、串流 vs 批次處理 |
| 第五週 | 科目二 AI 應用:Ch5 分析方法 + Ch6 AI 應用 + 隱私合規 | K-Means vs DBSCAN、時序分析、類別不平衡、聯邦學習 | 30 題/天 | 評估指標計算(Precision/Recall/F1)、隱私技術比較 |
| 第六週 | 全科衝刺:錯題集 + 模擬考 | 複習所有常錯陷阱、情境題、實務案例 | 50 題/天(含模擬考) | 弱點章節強化、跨章節整合題 |
每週里程碑驗收標準
- 週一至週五:完成該週指定章節精讀 + 每日練習題
- 週六:本週錯題統一複習 + 填寫錯題記錄表
- 週日:自我測驗(模擬 20 題),目標正確率:第 1-2 週 ≥ 60%、第 3-4 週 ≥ 70%、第 5-6 週 ≥ 80%
五、錯題記錄與弱點補救模板
5.1 錯題記錄表(每日填寫)
| 日期 | 章節代碼 | 題目摘要 | 我的答案 | 正確答案 | 錯誤原因分類 | 核心概念補充 |
|---|---|---|---|---|---|---|
| YYYY-MM-DD | L21101 | 問 BERT 的特性 | (A) 單向生成 | (D) 雙向上下文 | 概念混淆 | BERT 雙向,GPT 單向 |
| YYYY-MM-DD | L22103 | p 值 = 0.03,α = 0.05 的結論 | (A) 無法拒絕 H₀ | (B) 拒絕 H₀ | 判斷方向錯誤 | p < α → 拒絕 H₀ |
錯誤原因分類碼
| 代碼 | 說明 |
|---|---|
| C | 概念混淆(定義不清楚) |
| M | 記憶錯誤(背錯了) |
| R | 閱讀失誤(誤讀題目) |
| A | 應用失誤(概念懂但情境題做錯) |
| U | 完全不會(需從頭學習) |
5.2 週末弱點分析模板(by product-feedback-synthesizer)
## 第___週 弱點分析報告 ### 📊 本週答題統計 - 總題數:___題 - 正確:___題(正確率:___%) - 目標正確率:___% ### 🔴 弱點章節排名(錯誤數 TOP 3) 1. [ L______ ] ___章節 — 錯誤 ___次,主因:___ 2. [ L______ ] ___章節 — 錯誤 ___次,主因:___ 3. [ L______ ] ___章節 — 錯誤 ___次,主因:___ ### 🛠️ 下週補救策略 - [ ] 重讀___筆記「常錯陷阱」段落(預計___分鐘) - [ ] 額外補做___題情境題 - [ ] 製作___個概念對比卡片(如 BERT vs GPT) ### 💡 本週新發現 (記錄本週學到的新連結或有趣發現)
5.3 概念對比速查卡(高頻混淆對)
| 對比概念 A | 對比概念 B | 關鍵差異 |
|---|---|---|
| BERT | GPT | BERT 雙向理解,GPT 單向生成 |
| NLU | NLG | 理解輸入 vs 生成輸出 |
| Lemmatization | Stemming | 完整詞義 vs 詞幹截取(精度 vs 速度) |
| Normalization | Standardization | 縮放至 [0,1] vs Z-score 標準化 |
| One-hot Encoding | Label Encoding | 無序類別 vs 有序類別 |
| 匿名化 | 假名化 | 不可逆(強)vs 可逆(弱) |
| 資料湖 | 資料倉儲 | 原始資料+Schema-on-Read vs 結構化+Schema-on-Write |
| 批次處理 | 串流處理 | 定期大量 vs 即時持續 |
| 過擬合 | 欠擬合 | 訓練好測試差 vs 兩者皆差 |
| Precision | Recall | 降低誤報 vs 降低漏報 |
| 型一錯誤 | 型二錯誤 | 拒絕真 H₀(α)vs 未拒絕假 H₀(β) |
| RAG | Fine-tuning | 推理時查詢外部資料 vs 訓練時修改模型參數 |
| GAN | Diffusion | 對抗學習(不穩定)vs 逐步去噪(品質穩定) |
| K-Means | DBSCAN | 需指定 K、對離群值敏感 vs 自動發現群數、穩健 |
| MapReduce | Spark | 磁碟運算(慢)vs 記憶體運算(快 10-100 倍) |
| 聯邦學習 | 差分隱私 | 資料不離本地 vs 加入統計雜訊 |
六、最終備考狀態確認清單
來自 testing-reality-checker:以下每項必須達成才算「準備充分」
科目一 ✅ 確認清單
- [ ] L21101 NLP:能說明 NLU/NLG/NLP 三者關係;能分辨 BERT(雙向)vs GPT(單向);知道 Word2Vec 和 TF-IDF 的差異
- [ ] L21102 電腦視覺:能區分影像分類/目標偵測/語義分割的輸出形式;知道 YOLO 是即時偵測;了解 U-Net 跳接連接的用途
- [ ] L21103 生成式 AI:能畫出 GAN 的兩組件架構;知道 RAG vs Fine-tuning 的差異;了解 Diffusion Model 與 GAN 的優缺點比較
- [ ] L21201 AI 導入評估:能說出 AI 導入第一步是「業務痛點辨識」;能計算 ROI;了解 POC 的目的
- [ ] L21202 AI 導入規劃:能說明跨部門協作機制的必要性;知道 Build/Buy/Integrate 三種路徑
- [ ] L21301 數據準備:能說出資料品質五指標;知道正規化 vs 標準化的差異;了解 PCA 是降維不是特徵選擇
科目二 ✅ 確認清單
- [ ] L22101 敘述統計:偏態分佈下用中位數(不用平均數);標準差 = 平均偏離中心的程度
- [ ] L22102 機率分佈:能分辨二項/常態/泊松分佈的應用情境;中央極限定理只適用於樣本平均數分佈
- [ ] L22103 假設檢定:p < α → 拒絕 H₀;型一錯誤 = 誤判(α);型二錯誤 = 漏判(β)
- [ ] L22201 數據清理:Imputation = 缺失值補全;感測器資料 = 串流型;知道 Z-score 和 IQR 的用途
- [ ] L22202 數據儲存:NoSQL 類型(文件/列式/鍵值/圖形)各自適用場景;資料湖 vs 資料倉儲差異
- [ ] L22203 數據處理:Spark vs MapReduce 速度差異;Kafka 是訊息佇列;批次 vs 串流處理差異
- [ ] L22302 分析方法:K-Means vs DBSCAN;Apriori Lift > 1 表示正關聯;ARIMA 需要平穩序列
- [ ] L22402 鑑別式 AI:類別不平衡用 F1/AUC;SMOTE 是合成資料;Precision/Recall 取捨說明
- [ ] L22404 隱私合規:匿名化不可逆/假名化可逆;聯邦學習原理;GDPR 被遺忘權
七、下一步執行指令
以下指令可直接複製貼入 GitHub Copilot Chat,繼續深化特定章節的學習:
# === 指令一:章節深化筆記 === 請針對 IPAS 中級 AI 應用規劃師,為以下章節生成 20 道單選練習題(繁體中文), 每題附詳解。章節:[填入章節名稱,如「L22103 假設檢定與統計推論」] 難度分佈:基礎 30%、應用 50%、情境整合 20%。 # === 指令二:模擬考 === 請出一份 IPAS 中級 AI 應用規劃師科目[一/二]模擬考,共 40 題單選, 涵蓋各評鑑主題,難度接近正式考試,附答案與解析,用繁體中文。 # === 指令三:弱點補強 === 我在 IPAS 中級考試中對「[填入弱點概念,如 GAN vs Diffusion Model]」 容易混淆,請用繁體中文做一份「概念對比卡片」,包含: 定義、核心差異、記憶口訣、情境選擇題2道。 # === 指令四:情境題強化 === 請根據 IPAS 中級 AI 應用規劃師的考試風格,生成10道企業情境應用題, 每題描述一個真實商業場景,考驗考生選擇適當AI技術/方法的能力,附詳解。 涵蓋:NLP應用、電腦視覺、AI導入評估、大數據處理、模型評估。 # === 指令五:全章節知識地圖 === 請將以下筆記內容整理成 Mermaid mindmap 格式,顯示科目一與科目二的 完整章節結構與關鍵術語,方便建立整體知識架構。
本文件由 AgentsOrchestrator 協調生成,整合 project-manager-senior(計畫架構)、engineering-technical-writer(模板品質)、zk-steward(知識卡片連結)、product-feedback-synthesizer(弱點分析機制)、testing-reality-checker(備考確認清單)的專業視角。
最後更新:2026-04-22
八、官方文件總索引(DOCS 自動掃描)
- 檔案總數:25
| 類別 | 檔名 | 頁數 | 字數 |
|---|---|---|---|
| 其他 | 114年第二梯次中級AI應用規劃師第一科人工智慧技術應用與規劃(當次試題公告114_20251226000616.pdf |
14 | 15,321 |
| 其他 | 114年第二梯次中級AI應用規劃師第三科機器學習技術與應用(當次試題公告114_20251226000650.pdf |
19 | 17,922 |
| 其他 | 114年第二梯次中級AI應用規劃師第二科大數據處理分析與應用(當次試題公告114_20251226000634.pdf |
17 | 15,390 |
| 其他 | 114年第四梯次初級AI應用規劃師第一科人工智慧基礎概論(當次試題公告114_20251226000442.pdf |
13 | 12,971 |
| 其他 | 114年第四梯次初級AI應用規劃師第二科生成式AI應用與規劃(當次試題公告114_20251226000507.pdf |
13 | 13,482 |
| 抵免辦法 | 115年度AI應用規劃師能力鑑定(中級科目抵免辦法)_11501版_20260101234950.pdf |
5 | 2,927 |
| 簡章 | 115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410115646.pdf |
28 | 19,804 |
| 簡章 | 115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410144503.pdf |
28 | 19,796 |
| 簡章 | 115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410144547.pdf |
28 | 19,796 |
| 試題與樣題 | 115年第一次初級AI應用規劃師_第一科_人工智慧基礎概論_公告試題_20260410164304.pdf |
12 | 13,139 |
| 試題與樣題 | 115年第一次初級AI應用規劃師_第二科_生成式AI應用與規劃_公告試題_20260410164328.pdf |
11 | 13,092 |
| 學習指引 | AI應用規劃師(中級)-學習指引-科目1人工智慧技術應用規劃_20251222101833.pdf |
168 | 120,079 |
| 學習指引 | AI應用規劃師(中級)-學習指引-科目2大數據處理分析與應用_20251222101850.pdf |
182 | 111,053 |
| 學習指引 | AI應用規劃師(中級)-學習指引-科目3機器學習技術與應用_20251222101907.pdf |
223 | 130,489 |
| 學習指引 | AI應用規劃師(中級)_學習指引勘誤表_1150410_20260410150331.pdf |
7 | 4,415 |
| 學習指引 | AI應用規劃師(初級)-學習指引-科目1_人工智慧基礎概論1141203_20251222172144.pdf |
71 | 44,967 |
| 學習指引 | AI應用規劃師(初級)-學習指引-科目2_生成式AI應用與規劃114123_20251222172159.pdf |
62 | 38,434 |
| 學習指引 | AI應用規劃師(初級)學習指引勘誤表11404_20251222101819.pdf |
3 | 1,494 |
| 程式題型說明 | AI應用規劃師中級程式題型比重說明.txt |
1 | 223 |
| 評鑑範圍 | AI應用規劃師能力鑑定_評鑑內容範圍參考_11502_20260226173740.pdf |
4 | 3,008 |
| 評鑑範圍 | AI應用規劃師能力鑑定_評鑑內容範圍參考_11502_20260226174411.pdf |
4 | 3,008 |
| 試題與樣題 | iPAS AI應用規劃師中級能力鑑定-考試樣題(114年9月版) _v2_20251222174110.pdf |
10 | 7,354 |
| 試題與樣題 | iPAS AI應用規劃師初級能力鑑定-考試樣題(114年9月版)_20251226162246.pdf |
14 | 11,473 |
| 其他 | sub1_full.txt |
1 | 120,079 |
| 其他 | sub2_full.txt |
1 | 111,053 |
九、官方規範重點摘錄
抵免辦法|115年度AI應用規劃師能力鑑定(中級科目抵免辦法)_11501版_20260101234950.pdf
- 頁數:5
- 字數:2,927
- 摘要:115 年度 AI 應用規劃師 中級考試科目抵免說明 主辦單位: 執行單位: 115.01 版 能力鑑定網址:https://ipd.nat.gov.tw/ipas/AIAP/ 服務信箱:ipas@itri.org.tw 1 一、 能力鑑定整合說明 隨著人工智慧技術快速發展,AI 在各領域之應用日益廣泛,企業對於具備AI 技 術及應用相關職能人才的需求遽增。為響應產業需求,經濟部規劃「AI 應用規劃 師」能力鑑定,期能協助產業培育AI 專業人才。 因應產業所需AI 開發實務人才類型,規劃中級「AI 應用規劃師」能力鑑定,主 要綜合程式設計、資料處理與分析、機器學習、深度學習及基於數學統計基礎進 行演算法或模型設計等核心職能。為提升能力鑑定項目的全面性與產業適配性, 將原iPAS「巨量資料分析師」與「機器學習工程師」能力鑑定項目整合至中級「AI 應用規劃師」的評鑑科目中,以更加契合產業對相關...
簡章|115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410115646.pdf
- 頁數:28
- 字數:19,804
- 摘要:115 年度 AI 應用規劃師 能力鑑定簡章(初級.中級) 主辦單位: 執行單位: 115.04 版 能力鑑定網址:https://ipd.nat.gov.tw/ipas/AIAP/ 電子郵件:ipas@itri.org.tw 電話:03-5912893;傳真:03-5820285 地址:310 新竹縣竹東鎮中興路四段195 號21 館101 室工研院產業學院能力鑑定小組 I 115 年初級考試重要日程表 級等 項目 初級 說明 第一次 第二次 第三次 第四次 考試簡章 114/12/24 AI 應用規劃師能力鑑定網 站: https://ipd.nat.gov.tw/ipas /AIAP/ 報名 期間 個人 報名 1/1~2/10 中午12 點 2/11~4/10 中午12 點 4/11~7/8 中午12 點 7/9~9/22 中午12 點 1. 個人報名:網路報名。 2. 團體報名:請...
簡章|115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410144503.pdf
- 頁數:28
- 字數:19,796
- 摘要:115 年度 AI 應用規劃師 能力鑑定簡章(初級.中級) 主辦單位: 執行單位: 115.04 版 能力鑑定網址:https://ipd.nat.gov.tw/ipas/AIAP/ 電子郵件:ipas@itri.org.tw 電話:03-5912893;傳真:03-5820285 地址:310 新竹縣竹東鎮中興路四段195 號21 館101 室工研院產業學院能力鑑定小組 I 115 年初級考試重要日程表 級等 項目 初級 說明 第一次 第二次 第三次 第四次 考試簡章 114/12/24 AI 應用規劃師能力鑑定網 站: https://ipd.nat.gov.tw/ipas /AIAP/ 報名 期間 個人 報名 1/1~2/10 中午12 點 2/11~4/10 中午12 點 4/11~7/8 中午12 點 7/9~9/22 中午12 點 1. 個人報名:網路報名。 2. 團體報名:請...
簡章|115年度AI應用規劃師能力鑑定簡章(初、中級)_0410_20260410144547.pdf
- 頁數:28
- 字數:19,796
- 摘要:115 年度 AI 應用規劃師 能力鑑定簡章(初級.中級) 主辦單位: 執行單位: 115.04 版 能力鑑定網址:https://ipd.nat.gov.tw/ipas/AIAP/ 電子郵件:ipas@itri.org.tw 電話:03-5912893;傳真:03-5820285 地址:310 新竹縣竹東鎮中興路四段195 號21 館101 室工研院產業學院能力鑑定小組 I 115 年初級考試重要日程表 級等 項目 初級 說明 第一次 第二次 第三次 第四次 考試簡章 114/12/24 AI 應用規劃師能力鑑定網 站: https://ipd.nat.gov.tw/ipas /AIAP/ 報名 期間 個人 報名 1/1~2/10 中午12 點 2/11~4/10 中午12 點 4/11~7/8 中午12 點 7/9~9/22 中午12 點 1. 個人報名:網路報名。 2. 團體報名:請...
程式題型說明|AI應用規劃師中級程式題型比重說明.txt
- 頁數:1
- 字數:223
- 摘要:為強化 AI 應用規劃師中級鑑定於技術開發、邏輯與應用能力之評估,自114年第二梯次中級考試起,科目二《大數據處理分析與應用》及科目三《機器學習技術與應用》試題已納入程式相關題型,涵蓋 Python 基本語法、程式邏輯判斷及程式片段解析等內容。 為使考生瞭解試題配置方向,並提升應試準備之明確性,特說明後續各梯次程式類型題目預計約占整體試題之25%,題型形式包含單選題及題組題。 建議考生可參考相關樣題或歷屆試題內容,提前熟悉題型方向與作答方式。
評鑑範圍|AI應用規劃師能力鑑定_評鑑內容範圍參考_11502_20260226173740.pdf
- 頁數:4
- 字數:3,008
- 摘要:115.02 更新 AI 應用規劃師能力鑑定 評鑑內容範圍參考 *此評鑑內容範圍僅供參考,旨在協助考生聚焦重點準備,實際考題不僅限於所列舉之內容 一、 初級能力鑑定 科目名稱 評鑑主題 評鑑內容 備註 L11 人工智慧 基礎概論 L111 人工智慧概念 L11101 AI 的定義與分類 L11102 AI 治理概念 如框架、歐盟、數位發展部 《公部門人工智慧應用參考 手冊》、《AI 產品與系統評 測》、金融監督管理委員會 《金融業運用人工智慧 (AI)指引》等國內外相關 政策法規、AI 風險評估與監 管等 L112 資料處理與分 析概念 L11201 資料基本概念與來源 大數據、資料型態與結構, 如數值型資料、文字資料、 圖像資料等 L11202 資料整理與分析流程 如資料收集、清理、分析和 呈現、特徵工程、資料標準 化等 L11203 資料隱私與安全 L113 機器學習概念 L11301...
評鑑範圍|AI應用規劃師能力鑑定_評鑑內容範圍參考_11502_20260226174411.pdf
- 頁數:4
- 字數:3,008
- 摘要:115.02 更新 AI 應用規劃師能力鑑定 評鑑內容範圍參考 *此評鑑內容範圍僅供參考,旨在協助考生聚焦重點準備,實際考題不僅限於所列舉之內容 一、 初級能力鑑定 科目名稱 評鑑主題 評鑑內容 備註 L11 人工智慧 基礎概論 L111 人工智慧概念 L11101 AI 的定義與分類 L11102 AI 治理概念 如框架、歐盟、數位發展部 《公部門人工智慧應用參考 手冊》、《AI 產品與系統評 測》、金融監督管理委員會 《金融業運用人工智慧 (AI)指引》等國內外相關 政策法規、AI 風險評估與監 管等 L112 資料處理與分 析概念 L11201 資料基本概念與來源 大數據、資料型態與結構, 如數值型資料、文字資料、 圖像資料等 L11202 資料整理與分析流程 如資料收集、清理、分析和 呈現、特徵工程、資料標準 化等 L11203 資料隱私與安全 L113 機器學習概念 L11301...
十、 中級新手強化導讀(由淺入深)
10.1 學習策略:先懂任務,再選模型
- 第 1 步:先判斷任務類型(分類 / 迴歸 / 生成)
- 第 2 步:確認資料條件(量、品質、更新頻率)
- 第 3 步:選評估指標(Accuracy/F1/AUC 或 RMSE/MAE)
- 第 4 步:最後才決定模型與部署架構
10.2 中級常見誤區(初學者版本)
| 誤區 | 為什麼錯 | 正確做法 |
|---|---|---|
| 只看準確率 | 類別不平衡時會被誤導 | 同時看 Precision/Recall/F1 |
| 模型越大越好 | 成本、延遲、可維運性可能崩潰 | 先做基線模型 + 小步快跑 |
| 有 LLM 就不用資料治理 | 錯誤輸入會放大錯誤輸出 | 做資料品質檢查與追溯 |
| 導入等於上線 | 沒有監控會很快失效 | 建立 drift + SLA + 成本監控 |
10.3 章節對應速讀地圖
10.4 中級考場作答框架(四句模板)
- 先定義問題與目標指標
- 描述資料條件與限制
- 給出模型/架構選擇與理由
- 補上風險控管與監控策略