
就在昨天,韓國大摩出具報告認爲,以龍蝦🦞OpenClaw爲代表的智能體AI將需求從「生成答案」轉向「完成任務」,工作流中頻繁的工具調用與多步編排使CPU計算量猛增,貢獻了主要延遲。同時,由於需頻繁共享上下文與卸載KV緩存,DRAM取代HBM成爲硬約束瓶頸。這移觸發2026年Q2內存價格暴漲,大摩上調SK海力士與三星的盈利預期。 同樣是大摩,韓國分析師才剛在講,OpenClaw 這類 agentic AI 正在把 DRAM 拉回系統核心,成為新一輪需求擴張的關鍵;台灣分析師那邊,卻還在用一套缺乏邏輯連結的框架下修、看淡。這種前後落差,問題已經不只是立場不同,而是推論方法出了問題。 如果 AI 的演進還停留在「生成答案」,那你說 HBM 最重要,其他記憶體只是配角,這個邏輯還勉強說得過去。但現在產業正在往前走的方向,早就不是單次推理而已,而是從回答問題走向完成任務。Agent 要做的事情,是反覆呼叫工具、讀寫資料、串接系統、共享上下文、搬移 KV cache、執行多步驟流程。這種架構下,瓶頸自然不會只剩 HBM,而是一路往系統記憶體、CPU 端、再往下到 SSD 一層一層擴散。 韓國分析師看到的是這件事,所以他們會說 OpenClaw 這種「龍蝦」不是小題材,而是 DRAM 新需求的放大器。因為 AI 開始做事之後,記憶體的角色就變了。以前記憶體比較像配合 GPU 運作的後勤,現在變成整個 agent workflow 能不能跑得動的基礎設施。DRAM 不夠,不是速度慢一點,而是流程中斷、系統崩潰、任務根本跑不完。 但台灣分析師之前那套看法,問題就在於他們還是用很舊的方式看記憶體,把市場切成 HBM 跟非 HBM,把需求理解成只有訓練端受惠,把一般 DRAM 當成會被排擠、會被邊緣化的舊產品。這個邏輯最大的漏洞是,AI 並沒有把需求集中到更少的料號,反而是把整個 memory hierarchy 一起往上拉。HBM 當然重要,但 DRAM 沒有因此不重要,SSD 也沒有因此失去價值。相反地,當上下文變長、推理次數變多、agent 持續在線、資料要頻繁搬移時,系統對 DRAM 跟 NAND 的依賴只會更高。 更諷刺的是,美光法說早就把方向講得很清楚。公司不是只有在講 HBM 強,而是直接講 DRAM 跟 NAND 都處在供給受限狀態,AI 跟傳統伺服器需求一起推升整體記憶體與儲存需求。連終端裝置也一樣,具備 agentic AI 能力的 PC,記憶體規格直接往 32GB 甚至更高走,個人 AI 工作站甚至已經走到 128GB。這代表需求不是集中,而是擴散;不是單點爆發,而是全面墊高。 再往長線看,車用跟機器人更是另一個更大的落差。現在多數車還在 L2 以下,平均只用約 16GB DRAM,但 L4 自駕車會拉到 300GB。人形機器人的運算與記憶體需求,長期看也會往這個等級靠近。這些都代表記憶體的需求曲線不是快走完,而是才剛從資料中心往更多應用延伸。這種情況下還在用舊週期思維看 DRAM,只能說不是太保守,而是根本沒跟上產業結構變化。 所以我對台灣大摩那份悲觀報告的質疑,不是因為它看空就不對,而是它的邏輯前提本身站不住腳。當韓國分析師已經看到 agentic AI 對 DRAM 的新增量,看到瓶頸從 HBM 往系統記憶體遷移,台灣分析師如果還在用「非 HBM 就不行」「傳統 DRAM 沒有新故事」這種方式下修,那不是保守,那是分析架構出了問題。 記憶體這一輪最重要的變化,就是市場不能再只看單一產品,也不能再只看短週期價格。真正該看的,是 AI 正在把運算需求從 GPU 核心往整個系統展開,從 HBM 延伸到 DRAM,從 DRAM 再延伸到 SSD。龍蝦不是在替記憶體續命,而是在證明一件事:當 AI 從會回答問題,變成會自己做事,記憶體的需求天花板會被整個打開。