Core AI框架:不只是改名,而是戰略宣言
根據Bloomberg資深記者Mark Gurman的最新報導,Apple正準備在2026年6月的全球開發者大會(WWDC)上推出名為「Core AI」的全新開發框架,正式取代自2017年起一直作為Apple機器學習基礎設施核心的Core ML。這個看似簡單的命名變更,背後蘊含的卻是Apple對人工智能策略的根本性重新定位。
Core ML自推出以來,為iOS和macOS開發者提供了一套高效的裝置端機器學習推論工具,涵蓋影像辨識、自然語言處理、語音識別等功能。然而,隨著大型語言模型和生成式AI的崛起,「機器學習」這個術語已經無法完整涵蓋Apple在AI領域的野心。從Core ML到Core AI,Apple正式承認行業語境已從狹義的「機器學習」轉向更廣義的「人工智能」——這不僅是技術術語的演進,更是產品哲學和市場定位的全面升級。
值得注意的是,這一命名轉變反映了整個科技行業的趨勢。當65%的消費者聽到「AI」一詞時首先聯想到ChatGPT,Apple顯然需要在開發者生態系統中更積極地擁抱這個術語,否則就有在公眾認知上被邊緣化的風險。Core AI的推出,本質上是Apple在開發者工具層面的一次品牌重塑——讓外界清楚看到,Apple不僅在做機器學習,更在全面佈局人工智能。
「從Core ML到Core AI的轉變,不只是一次API重命名。這是Apple向開發者社群發出的明確信號:我們的平台已經從傳統的機器學習推論引擎,進化為一個涵蓋大型語言模型、多模態理解、代理式AI的完整人工智能開發平台。」——業界分析觀點
Gemini驅動Siri:白標合作的深層邏輯
Core AI框架革新的背後,是Apple在AI基礎能力上的一系列重大佈局。其中最引人關注的,莫過於Apple在2026年1月與Google簽訂的多年期合作協議:採用Google旗下1.2萬億(1.2T)參數的Gemini模型,作為全面改造後Siri的底層引擎。
這項合作的架構設計極具Apple風格——它是完全「白標」(White-labeled)的。終端用戶在使用新Siri時,不會看到任何Google品牌標識,整個體驗從介面到互動方式都維持純粹的Apple風格。這種做法與Apple一貫的產品哲學高度一致:Apple從來不在乎技術是否完全自研,但絕對在乎用戶體驗的完整性和品牌的統一性。正如Apple多年來在iPhone中使用Samsung製造的OLED面板,卻從不讓用戶意識到這一點。
更關鍵的是,Gemini模型運行在Apple自家的Private Cloud Compute(PCC)基礎設施上。這意味著即使底層AI引擎來自Google,用戶的數據仍然在Apple設計的隱私保護架構內處理——數據不會被Google訪問,不會被用於模型訓練,處理完成後立即清除。這個設計巧妙地化解了「與Google合作是否犧牲隱私」的質疑,讓Apple能夠在獲得世界級AI能力的同時,維護其隱私捍衛者的品牌形象。
Siri推遲上線:技術現實與品牌承諾的拉鋸
然而,這個宏大的Siri改造計劃正面臨意料之外的技術挑戰。根據最新消息,原定隨iOS 26.4推出的Gemini驅動Siri,其上線時間已被進一步推遲——目前的時間表是iOS 26.5(預計2026年5月),甚至可能延至iOS 27(2026年9月)。
推遲的主要原因是「處理問題」(Processing Issues)。運行一個1.2萬億參數的巨型模型——即使是在專門設計的伺服器叢集上——所涉及的延遲管理、並發處理和錯誤率控制,遠比實驗室環境中的測試複雜得多。當數億用戶同時向Siri提問時,確保每一次回應都在可接受的時間內返回,且品質穩定,這是一個工程規模與技術難度並重的挑戰。
Apple Foundation Models v10正是這項合作的核心產物——這套基於Gemini的1.2萬億參數模型,經過Apple團隊的深度調校和優化,針對Apple裝置生態系統的特定需求進行了定制。但從模型調校完成到大規模生產部署之間的鴻溝,顯然比Apple最初預估的要大。對於一家將用戶體驗視為生命線的公司而言,寧可推遲也不願推出一個不夠穩定的產品,是合理但昂貴的選擇。
Gemini驅動Siri的時間線演變
- 2026年1月:Apple與Google簽訂多年期Gemini模型授權協議
- 原定計劃:iOS 26.4(2026年3月)推出全新Siri
- 第一次推遲:iOS 26.5(2026年5月)——處理問題尚未解決
- 可能再推遲:iOS 27(2026年9月)——配合WWDC和Core AI框架一同發布
- 底層引擎:Apple Foundation Models v10(基於1.2T參數Gemini模型)
- 隱私機制:所有處理在Apple Private Cloud Compute上完成
Ferret-3:Apple的AI自主之路
儘管與Google的合作是當前解決Siri能力不足問題的務實方案,Apple並沒有放棄自研AI模型的長期計劃。公司內部正在積極開發代號為「Ferret-3」的下一代自研模型系列,預計在2026至2027年間逐步推出。
Ferret系列模型代表了Apple對AI自主權的堅持。在科技巨頭紛紛投入巨資建設AI基礎設施的今天,過度依賴外部模型供應商意味著戰略上的脆弱性——如果Google未來調整合作條件,或者Gemini的技術路線與Apple的產品需求出現分歧,Apple需要有備選方案。Ferret-3的開發,就是這個備選方案的核心。
從產業策略的角度來看,Apple正在走一條「雙軌並行」的路線:短期內利用Gemini快速提升Siri的能力,長期則通過Ferret系列建立自己的AI模型護城河。這種策略在Apple歷史上並非沒有先例——回想當年Apple從Intel晶片過渡到自研Apple Silicon的歷程,同樣是先借助外部技術滿足當下需求,再透過長期投入實現技術自主。
3月產品發布週:AI穿戴裝置集中亮相
就在WWDC的技術願景尚在醞釀之際,Apple已經在3月2日至4日的產品發布週中展示了其AI硬體戰略的最新成果。這次發布週的產品線極為豐富,涵蓋多個全新品類:
AI智能眼鏡——這是Apple在穿戴式AI領域最大膽的嘗試。不同於Meta Ray-Ban智能眼鏡的社交媒體定位,Apple的智能眼鏡更側重於「環境智能」(Ambient Intelligence)——通過內建的感測器和AI模型,為佩戴者提供即時的環境理解和資訊疊加。Apple為此專門安排了Visual Intelligence穿戴式AI的媒體演示,展示眼鏡如何在日常場景中自然地提供AI輔助。
配備相機的AirPods——將微型攝影鏡頭整合到AirPods中,賦予這款全球最暢銷無線耳機視覺感知能力。這不僅是音頻設備的進化,更是Apple打造「多模態AI入口」策略的具體體現——未來的AI助手不僅要能聽,還要能看。
AI吊墜(AI Pendant)——一款全新品類的穿戴裝置,專注於環境語音理解和即時AI互動。這款產品的推出,意味著Apple正在將AI能力從手腕(Apple Watch)和耳朵(AirPods)進一步擴展到更多身體佩戴位置。
此外,發布週還包括入門級MacBook和iPhone 17E的亮相,進一步降低用戶進入Apple Intelligence生態的門檻。
「Apple的3月產品週不僅僅是硬體發布,它代表了一個清晰的戰略意圖:讓AI能力無處不在地環繞在用戶身邊——從口袋裡的手機,到手腕上的手錶,到耳朵裡的耳機,再到眼睛前的眼鏡和胸前的吊墜。這是AI從螢幕走向身體的關鍵一步。」——穿戴式科技觀察
Visual Intelligence:穿戴式AI的體驗範式
在3月產品發布週期間,Apple為媒體精心安排了Visual Intelligence功能的現場演示。Visual Intelligence是Apple Intelligence的視覺理解模組,它允許裝置通過攝影鏡頭即時分析眼前的場景,並提供相關資訊、翻譯、導航指引或消費建議。
在穿戴裝置上,Visual Intelligence的意義尤為深遠。當這項能力從手持的iPhone轉移到配戴在面部的智能眼鏡上,用戶與AI的互動方式將發生質的變化——從「掏出手機、對準目標、等待分析」的主動操作模式,轉向「看到即理解」的被動感知模式。這種轉變意味著AI將首次真正融入用戶的自然視覺體驗中,而非作為需要刻意調用的工具存在。
對於開發者而言,即將在WWDC上推出的Core AI框架將提供統一的API,讓同一套視覺智能功能能夠無縫運行在iPhone、iPad、Mac和各種穿戴裝置上。這種跨裝置的一致性,正是Apple生態系統的核心競爭力——開發者只需編寫一次視覺AI邏輯,就能部署到所有Apple硬體上。
AI投資策略:精明還是保守?
Apple在2025財年的AI相關資本支出為127.2億美元——這個數字放在任何其他行業都是天文數字,但在當前的AI軍備競賽中,它卻顯得相當克制。Amazon在同期投入了2,000億美元,Google母公司Alphabet宣布了1,750億美元的AI基礎設施計劃。相比之下,Apple的投入僅是Amazon的6%、Google的7%。
這種差異背後有兩個結構性原因。首先,Amazon和Google的AI支出大量用於構建面向外部客戶的雲端AI服務(AWS和Google Cloud),而Apple的AI投資主要服務於自家產品生態系統,不需要為數百萬外部開發者提供算力。其次,Apple的商業模式始終以硬體銷售為核心,AI是增強硬體價值的手段而非獨立的營收來源,這決定了Apple不需要像雲端服務商那樣進行大規模的基礎設施擴張。
然而,批評者認為Apple的AI投資力度可能不足以支撐其在AI時代保持領先。當競爭對手動輒投入千億美元建設資料中心和訓練超大規模模型時,Apple相對溫和的投入是否能產出足夠強大的AI能力,是一個尚待時間驗證的問題。
Apple的底氣在於其超過1,300億美元的現金儲備。這意味著如果AI競爭形勢需要,Apple完全有能力在短時間內大幅增加投入——它選擇不這樣做,可能更多是出於對投資效率的考量,而非資金不足。Apple向來不喜歡「先花錢再算帳」的模式,更傾向於看清方向後再精準出擊。
AI資本支出對比(2025財年)
- Amazon:約2,000億美元——主要用於AWS雲端AI基礎設施
- Google / Alphabet:約1,750億美元——涵蓋TPU叢集、資料中心與AI研究
- Apple:127.2億美元——聚焦Private Cloud Compute與裝置端AI
- Apple現金儲備:超過1,300億美元——提供靈活的追加投資空間
智能家居的AI化:7吋觸控螢幕中樞
除了穿戴裝置和開發框架,Apple的AI佈局也延伸到了智能家居領域。根據可靠消息,一款配備7吋觸控螢幕的智能家居中樞預計將在2026年3月或4月推出。這款產品將結合Apple Intelligence的能力,成為家庭環境中的AI互動中心。
這款家居中樞的推出時機極具策略性。隨著Core AI框架即將在WWDC上亮相,開發者將獲得統一的工具來為iPhone、iPad、Mac、穿戴裝置和家居中樞開發AI功能。Apple正在構建一個真正的「環境智能」(Ambient Intelligence)生態系統——AI不再僅存在於你手中的裝置,而是遍布你的家、你的穿戴配件、你的整個生活環境。
7吋觸控螢幕的尺寸選擇也頗具深意。它足夠大以展示豐富的視覺資訊(食譜、家居控制面板、視訊通話),又不至於大到成為客廳或廚房中突兀的存在。這種對「恰到好處」的追求,是Apple設計哲學在智能家居領域的延伸。
競爭格局:Samsung的AI代理主題與行業趨勢
Apple並不是唯一一家全力推進AI穿戴和AI框架的科技巨頭。三星(Samsung)已經明確將AI代理(AI Agents)定位為Galaxy S26系列的「重大主題」。在三星的願景中,2026年的智能手機不僅是運行AI功能的工具,更是用戶的「AI代理人」——能夠自主理解用戶需求、跨App執行任務、與其他裝置和服務協調合作。
這種趨勢對Apple構成了直接的壓力。當三星和Google攜手將AI代理能力深度整合到Android生態系統中,Apple需要確保自己的AI體驗不僅不落後,還要在體驗品質上建立差異化。Core AI框架的推出、Gemini驅動的新Siri、以及一系列AI穿戴裝置的發布,可以視為Apple對這種競爭壓力的全面回應。
然而,消費者認知的戰場同樣關鍵。當65%的消費者將「AI」一詞主要與ChatGPT聯繫在一起時,Apple面臨的挑戰不僅是技術上的,更是敘事上的。如何讓普通消費者認識到Apple的AI能力——而不是僅僅將AI等同於OpenAI的產品——需要的不僅是技術實力,還有品牌傳播的智慧。將框架從Core ML重命名為Core AI,正是這種品牌敘事策略的一部分。
開發者生態的AI轉型:Core AI的技術內涵
對於iOS和macOS開發者社群而言,Core AI框架的推出意味著一次重要的技術遷移。從目前已知的信息推斷,Core AI預計將在Core ML的基礎上大幅擴展功能範圍:
- 大型語言模型API:提供標準化的介面讓開發者調用Apple Foundation Models,包括文本生成、對話管理和知識型問答功能
- 多模態理解:統一的視覺、語音和文本理解API,讓開發者輕鬆構建能夠同時處理多種輸入的AI功能
- 代理式AI支援:提供任務規劃、工具使用和多步驟推理的框架,讓開發者能夠構建像新Siri那樣的跨App代理功能
- 裝置端與雲端混合推論:自動在裝置端處理和Private Cloud Compute之間分配AI工作負載,開發者無需手動管理
- 隱私優先設計:內建的隱私保護機制,確保所有AI處理都符合Apple的隱私標準
對於已經在使用Core ML的開發者而言,遷移到Core AI的過程預計將是漸進式的。Apple很可能會提供兼容層,讓現有的Core ML代碼能夠在Core AI框架中繼續運行,同時鼓勵開發者逐步採用新的API來獲取更先進的AI能力。這種「向後兼容、向前引導」的做法,是Apple在開發者關係管理上的一貫策略。
從ML到AI:行業術語背後的戰略博弈
Core ML到Core AI的更名,表面上是術語的更新,深層來看卻折射出整個科技行業在AI定位上的微妙博弈。在2017年Core ML推出時,「機器學習」是業界的主流術語,涵蓋了從影像分類到自然語言處理的各種技術。彼時的AI應用主要聚焦在特定任務上——辨識照片中的人臉、將語音轉化為文字、推薦相關內容——這些任務用「機器學習」來描述是精確且恰當的。
但到了2026年,情況已經截然不同。ChatGPT在2022年底的橫空出世,不僅革新了技術界對AI的理解,更深刻改變了公眾認知。當一般消費者聽到「AI」時,他們腦海中浮現的不是支撐向量機或梯度下降算法,而是像ChatGPT那樣能夠自然對話、生成內容、執行複雜任務的智能系統。Apple需要確保自己的開發工具命名與這種公眾認知保持同步,而非停留在前一個技術時代的語言中。
這也是為什麼Samsung在Galaxy S26的行銷中強調「AI代理」作為年度主題,而非繼續使用「機器學習」。在AI消費化的大趨勢下,術語本身已經成為品牌戰略的一部分。Apple從Core ML轉向Core AI,與其說是技術驅動的改名,不如說是市場驅動的品牌重塑。
編輯觀點:Apple的AI棋局,精算還是冒險?
縱觀Apple在2026年3月前後的一系列動作——Core AI框架預告、Gemini合作深化、穿戴裝置產品週、智能家居中樞即將推出——我們可以看到一幅精心設計的戰略棋盤。Apple正試圖在不放棄品牌核心價值(隱私、體驗、生態整合)的前提下,完成從「有AI功能的硬體公司」到「AI驅動的生態系統公司」的轉型。
這個策略的精明之處在於其層次感。短期內,Apple通過白標Gemini合作快速獲得世界級的AI能力,避免了在模型開發上的時間劣勢。中期,Core AI框架將把這些能力系統化地開放給開發者,構建一個繁榮的AI應用生態。長期,Ferret-3等自研模型將逐步降低對外部依賴,實現真正的AI技術自主。
然而,風險同樣存在。Gemini驅動的Siri一再推遲,暴露了大規模AI部署的技術難度;127億美元的AI投入在競爭對手動輒千億美元的對比下顯得單薄;65%的消費者仍將AI等同於ChatGPT的現實,意味著Apple的AI品牌認知仍有很長的路要走。
最值得關注的是Apple的穿戴式AI策略。如果智能眼鏡、相機AirPods和AI吊墜能夠真正建立起「環境智能」的使用範式,Apple將在AI人機互動上開闢一條與ChatGPT和Gemini的聊天介面截然不同的道路。在這個賽道上,Apple的硬體設計能力、供應鏈管理經驗和品牌溢價能力,才是真正的護城河。
對於開發者而言,WWDC 2026將是一個轉折點。Core AI框架的具體API設計、Ferret-3的能力邊界、穿戴裝置的開發工具——這些細節將決定Apple的AI生態系統究竟能吸引多少開發者投入。歷史已經證明,贏得開發者生態的平台,最終會贏得消費者。Apple在這一點上有豐富的經驗,但AI時代的開發者爭奪戰,可能比以往任何一次都更加激烈。
Apple手握1,300億美元現金,擁有全球最忠誠的用戶群和最成熟的硬體生態系統。問題不在於Apple是否有資源參與AI競爭,而在於它是否能以自己的節奏和方式,在這場競賽中找到獨特的致勝路徑。從3月的產品發布週到6月的WWDC,接下來的幾個月將是關鍵的觀察窗口。