AI & Tech2026-04-03

Consumer AI 的贏家公式:不是模型最強,是 ARPU 跑贏推論成本

Andrew Chen 提出 consumer AI 贏家公式:ARPU 必須跑贏推論成本。目前差距約 10 倍,月 ARPU $2-5 但 token 成本可能 $20-50。高 ARPU 類別(金融、健康、生產力)有空間用最好的模型,低 ARPU 類別被迫用更差的模型、更脆弱的留存。


Consumer AI 的贏家公式:不是模型最強,是 ARPU 跑贏推論成本

重點摘要

  • Andrew Chen 指出 consumer AI 目前 ARPU 與推論成本有 10 倍差距:月 ARPU $2-5,但 AI 密集型 app 的 token 成本可能 $20-50
  • 高 ARPU 類別(個人理財、健康、生產力、遊戲)有「鯨魚動態」支撐更重的模型投入,低 ARPU 類別正被迫走向更差的體驗
  • 根據 Epoch AI 數據,推論成本自 2022 年以來已下降超過 1,000 倍,但 Chen 預估還需要 18-24 個月才能讓廣告模式包裹 AI 功能

  • a16z 的 Andrew Chen 這週在 X 上丟了一個我覺得很值得認真想的框架。他說 consumer AI 的贏家不是包裝最聰明模型的那個人,而是 ARPU 能可靠跑贏推論成本的那個。

    這句話聽起來像廢話,但你把數字攤開看就知道問題有多大。目前 consumer AI app 的月 ARPU 大概在 $2-5 之間,但一個 AI 功能密集的 app,每個用戶每月的 token 成本可能是 $20-50。差距大概是 10 倍。

    這不是「模型再強一點就能解決」的問題。這是商業模式層級的結構性挑戰。


    ARPU 跑不贏 token 成本,什麼模型都救不了你

    Consumer AI 的核心經濟學問題很簡單:每一次用戶觸發 LLM,都有一筆直接的變動成本。根據 The Marketing Hub 的分析,典型的 AI SaaS 訂閱定價大約 $20/月,一般用戶每月消耗約 200,000 tokens。但重度用戶的消耗量可能是平均值的 5-10 倍,把 LLM 成本推到 $2-3/用戶/月甚至更高。

    這就是 Chen 說的「鯨魚動態」(whale dynamics)。在傳統 SaaS 裡,你的最活躍用戶是你最有價值的用戶。在 AI app 裡,你最活躍的用戶可能是你最貴的用戶。如果你的 power user 產生的成本超過他們付的錢,你的商業模式就有根本性的問題。

    過去大部分訂閱制產品的邊際成本幾乎是零。AI 改變了這個假設。每多一個 API call,就多一筆帳單。


    高 ARPU 類別 vs 低 ARPU 類別:兩條完全不同的路

    Chen 的框架裡最有洞察的部分是這個分類。

    高 ARPU 類別包括個人理財、健康管理、生產力工具、遊戲。這些類別天生有付費意願,用戶願意為結果買單。你可以在這些領域用最好的模型、做最多的迭代、投入最好的 UX,因為 ARPU 撐得住。特別是那些 agent 能大幅改善結果的方向,像是理財規劃、健康追蹤、自動化工作流,付費轉換率和 LTV 都高很多。

    低 ARPU 類別就慘了。內容創作工具、通訊 app、社群平台,這些類別的用戶付費意願低,廣告收入也不夠覆蓋 AI 推論成本。結果就是被迫用更便宜的模型、提供更差的體驗、然後留存率更低、然後更沒錢投入模型。惡性循環。


    推論成本在降,但降得夠快嗎?

    好消息是推論成本確實在快速下降。根據 Epoch AI 的追蹤數據,LLM 推論成本自 GPT-3 問世以來已經下降了超過 1,000 倍。2024 年 1 月之後,降價速度更是加速,中位數從每年 50 倍提升到每年 200 倍。

    具體數字:GPT-3.5 在 2022 年每百萬 output tokens 大約 $12,到了 2024 年 GPT-4 Turbo 和 Gemini Flash 已經把這個數字壓到 $2 以下。GPT-4o 的 output token 成本在 16 個月內降了 83%,input token 成本降了 90%。

    a16z 自己的研究也用了一個很傳神的詞:LLMflation,形容 LLM 推論成本的通縮速度。

    但 Chen 的判斷是:還不夠。他預估大約還需要 18-24 個月,才能讓殘餘廣告收入(remnant ads)包裹 AI 功能並讓經濟模型成立。也就是說,到 2027 年左右,consumer AI 才會迎來真正的「巨大爆發」。


    小模型和 on-device 推論能解套嗎?

    Chen 也提到了另一條路:小模型和本地推論。如果推論可以在手機上跑,變動成本就趨近於零,ARPU vs 推論成本的問題就消失了。

    但他自己也承認這條路有侷限。本地推論能處理一些 use case,但跟雲端 frontier model 的能力差距還是很大。你不可能在手機上跑一個 Claude Opus 等級的模型做複雜的多步驟推理。

    RevenueCAT 2026 年的報告也指出,產業正在往混合定價模式 (hybrid monetization) 移動。不再是純訂閱制,而是讓重度用戶自選更高的消費層級,讓他們的付費覆蓋自己產生的 token 成本,而不是被其他用戶補貼。

    這個趨勢的底層邏輯很清楚:AI app 必須讓定價結構反映真實的使用成本。


    回到我們自己,怎麼用這個框架

    我自己看完 Chen 的分析,覺得最實用的 takeaway 是一個很具體的動作:算一下你的產品每月每用戶的推論成本。

    如果你在做 consumer AI,把這個數字跟你的 ARPU 放在一起看。如果推論成本超過 ARPU,你需要立刻做三件事其中一件:調整模型選擇(用更便宜的模型處理低複雜度任務)、調整定價策略(引入 usage-based 元素)、或者調整產品方向(往高 ARPU 類別靠)。

    說實話,我覺得台灣的 consumer AI 團隊特別容易踩到低 ARPU 的坑。因為台灣市場的付費意願本來就比美國低,如果你做的又是免費社群或內容工具,推論成本吃掉你的問題會比美國團隊更嚴重。

    反過來說,如果你鎖定的是高 ARPU 類別,像是金融科技、健康管理、B2B 生產力工具,台灣市場的規模可能不夠大,但你有機會從第一天就把 unit economics 做對,然後往海外擴張。

    Chen 在 2027 年看到 consumer AI 的大爆發。在那之前的 18 個月,是讓你的 ARPU 和推論成本曲線交叉的關鍵窗口。


    資料來源

  • Andrew Chen on X — Consumer AI characteristics
  • a16z — LLMflation: LLM inference cost is going down fast
  • Epoch AI — LLM inference price trends
  • The Marketing Hub — The Hidden Economics of AI SaaS 2026
  • RevenueCAT — Why hybrid monetization is the default model for subscription apps in 2026
  • Walt Chuang

    Walt Chuang

    ARTOGO 共同創辦人・成長行銷


    相關文章

    你可能也會喜歡...