身為一個每天被會議、文件、數據追著跑的 PM,我一直在思考一個問題:我的時間到底都花在哪裡?
去年我做了一個實驗,連續兩週記錄自己每小時在做什麼。結果很殘酷——將近 60% 的時間花在「整理」而非「思考」。整理會議紀錄、整理競品資料、整理數據報告、整理週報⋯⋯我的工作不是產品經理,是整理經理。
這就是我開始認真把 AI 工具融入日常工作流的起點。不是為了追潮流,而是為了把時間還給真正需要人類判斷力的事情。(如果你對 PM 轉型 AI 領域有興趣,可以看看我的轉型路徑與實戰心得)
今天這篇文章,我想跟你分享我每天實際在用的 5 個 AI 場景,包含具體工具、怎麼下 Prompt、以及踩過的坑。不是那種「推薦你 50 個 AI 工具」的清單文,而是一個 PM 真實的日常。
PM 的時間都花在哪裡?哪些環節 AI 能介入
先拉高一個層次來看。PM 的工作大致可以分成幾個區塊:
- 資訊蒐集(競品分析、市場調研)
- 文件產出(PRD、規格書、提案)
- 數據分析(看報表、找洞察)
- 溝通協調(會議、訪談、跨部門對齊)
- 進度管理(週報、追蹤、更新狀態)
這裡面有一個關鍵判斷:不是所有環節都適合讓 AI 介入,但幾乎所有環節都有 AI 能加速的部分。
我的原則是——AI 處理「從 0 到 0.7」的粗活,我負責「從 0.7 到 1」的精修與判斷。搞清楚這個分工,你才不會掉進「AI 幫我做完了但品質很差」的陷阱。
場景一:競品分析與市場調研
這是我最早開始用 AI 的場景,也是效果最明顯的。
以前的做法
打開十幾個瀏覽器分頁,一個一個讀競品的官網、Product Hunt 頁面、用戶評價,然後手動整理成表格。一份完整的競品分析,至少花掉半天。
現在的做法
我會用 ChatGPT(GPT-4) 或 Claude 來做初步的競品框架整理,再搭配 Perplexity 做即時的市場資料搜尋。
關鍵在 Prompt 的設計。以下是我實際在用的 Prompt 結構:
「你是一個資深的 B2B SaaS 產品分析師。請幫我比較以下三個競品:[A]、[B]、[C],從以下維度分析:目標用戶、核心功能、定價策略、市場定位、主要優勢與劣勢。請用表格呈現,並在最後給出你的觀察摘要。」
Prompt Engineering 的重點:給 AI 一個角色(Role)、明確的維度(Dimensions)、以及期望的輸出格式(Format)。少了任何一個,產出品質都會打折。
注意:AI 的競品資料可能有時間差,特別是定價和功能更新。所以我一定會用 Perplexity 交叉驗證即時資訊,AI 產出的內容是草稿,不是定稿。
場景二:PRD / 需求文件撰寫
這個場景最多 PM 問我:「你真的讓 AI 寫 PRD?」
答案是:是,但只寫特定部分。
該讓 AI 寫的
- 功能描述的初稿(Feature Description)
- User Story 的批量生成
- Edge Case 的列舉
- 名詞定義與 Glossary
不該讓 AI 寫的
- 產品策略與優先級判斷 —— 這是 PM 的核心價值
- 取捨的理由(Trade-off Rationale) —— AI 不知道你的 context
- 跨部門的承諾與時程 —— 這需要人跟人之間的信任
我的流程:先在 Notion AI 或 Claude 裡快速生成 PRD 的骨架,然後手動填入策略思考和判斷依據。
用這個方法,一份過去要寫 3 小時的 PRD,我現在大概 1 小時就能完成,而且 Edge Case 的覆蓋率反而更高,因為 AI 會幫你想到你沒想到的情境。
場景三:數據分析與洞察
這個場景要特別小心,因為 AI 會瞎掰數字。
我不會把原始數據丟給 ChatGPT 然後問「幫我分析」。這樣做的風險太高——它可能會給你一個看起來很合理、但完全是 Hallucination 的結論。
我的做法
- 先用 ChatGPT 的 Code Interpreter 上傳 CSV,讓它跑基本的統計和視覺化
- 用 Prompt 請它「描述你看到的 Pattern」,而不是「告訴我結論」
- 我自己驗證這些 Pattern 是否合理,再決定要不要採納
認知翻轉:不是讓 AI 幫你做分析,而是讓 AI 幫你更快地「看見」數據裡的東西,判斷還是你的事。(想看 AI 數據分析的實際案例?可以參考我做的 AI 競品分析 Dashboard)
一個實用的 Prompt:
「請分析這份數據,列出你觀察到的前 5 個有趣的 Pattern 或異常值。對每個 Pattern,請說明:1) 你觀察到什麼 2) 可能的原因假設 3) 建議進一步驗證的方向。請標注你的 Confidence Level(高/中/低)。」
要求 AI 標注 Confidence Level 是一個很好的技巧。當它說「低信心」的時候,你就知道那個部分需要自己再確認。
場景四:用戶訪談摘要與歸納
做用戶研究的 PM 應該都有同感:訪談完最痛的不是訪談本身,是事後的整理。一場 45 分鐘的訪談,光轉逐字稿加整理重點,又要花掉 1-2 小時。
我的工具組合
- Otter.ai 或 Fireflies.ai —— 會議錄音即時轉文字
- Claude(長文本處理能力較強)—— 整理訪談摘要
錄音轉文字之後,我會把逐字稿丟進 Claude,用以下 Prompt:
「以下是一場用戶訪談的逐字稿。請幫我整理:1) 用戶背景摘要 2) 提到的主要痛點(Pain Points),依嚴重程度排序 3) 用戶對現有解決方案的評價 4) 值得注意的原話引用(Verbatim Quotes)5) 建議的後續行動。」
這個流程讓我一場訪談的整理時間從 1.5 小時縮短到 20 分鐘。
一個提醒:訪談涉及用戶隱私,上傳前請確認你的公司政策是否允許將訪談內容傳到第三方 AI 服務。
場景五:自動化週報與進度追蹤
每週五下午最痛苦的事:寫週報。
我的自動化流程
用 Zapier 或 Make 串接:
- 每週五自動從 Jira / Linear 拉取本週完成的 Ticket 和狀態變更
- 從 Slack 拉取特定 Channel 的重要訊息
- 把這些資料送進 ChatGPT API,用預設 Prompt 生成週報草稿
- 草稿自動發到 Notion 或 Email Draft
整個流程設定一次,之後每週自動跑。我只需要花 10 分鐘看一下草稿、調整措辭就好。
以前:每週花 40 分鐘寫週報。現在:10 分鐘微調。
使用 AI 工具的原則:AI 是加速器,不是替代品
- AI 處理重複性高、結構化的工作 —— 整理、格式化、初稿生成
- 人類負責判斷、決策、與 Context 相關的事 —— 策略、優先級、取捨
- 永遠驗證 AI 的產出 —— 特別是涉及數字、事實、引用的部分
- 持續優化你的 Prompt —— 把好用的 Prompt 存成 Template,迭代改進
說到底,PM 的核心價值不是「產出文件的速度」,而是「做對的判斷」。不是用了 AI 工具你就變強了,而是你夠強的時候,AI 工具會讓你更強。
💡 如果你也是 PM,我很好奇——你目前工作中最花時間的環節是什麼?你有在用哪些 AI 工具來加速嗎?歡迎留言跟我分享,我們一起交流!