文|侃科技
早幾年出現的折疊屏沒能拯救頹勢的手機市場,直接證據就是去年全球出貨量依舊拉胯,同比下滑3.2%至11.7億部,為近十年來最低。
好在Q4出現了些許回暖,全球和中國市場分別有8.5%和1.2%的同比增幅,尤其是后者,在連續同比下降10個季度后首次轉正。
很難說這其中沒有AI的功勞。
2023下半年起,以谷歌、三星、OPPO為代表的廠商將大模型內置于智能手機中,完成從云端AI向終端AI的轉變,AI手機浪潮正式開啟。
IDC更是預測,2024年全球新一代AI手機出貨量將達1.7億部,占智能手機總出貨量的近15%。
于是,AI就成了比折疊屏更有效的“救命稻草”,但在產業鏈眼里,TA更像是一顆“搖錢樹”。
端側AI能省錢
高通曾在去年9月出過一份報告,標題言簡意賅——混合AI是AI的未來。
這份報告的核心是高通借大模型云端推理的“宕機”現象,再次向市場強調終端和云端協同工作的混合AI才是真正的首選。
所謂混合AI,是在以云為中心的場景下,終端將根據自身能力,在可能的情況下從云端分擔AI工作負載;而在其他場景下,計算將主要以終端為中心,必要時向云端分流任務。
高通的邏輯是,類比傳統計算從大型主機和瘦客戶端演變為當前云端和PC、智能手機等邊緣終端相結合的模式,生成式AI也將形成云端和終端結合的形式。
但這份報告的真正意圖,是高通提出的兩個趨勢:
AI算力將由現在的云端集中部署逐漸轉變為云端與終端靈活分配;大模型將逐漸向終端滲透。
事實上,在高通拿出這份報告前,它的那些合作伙伴早就這么干了,而之所以跑的快,不僅是對未來趨勢的準確預判,更重要的是省錢。
算法交易公司Deep Trading的創始人Yam Peleg曾算過一筆賬,8K版本的ChatGPT云端推理成本為0.0049美分/千token(128個A100 GPU)。以全球1.8億日活躍用戶、每人每天100千token推理需求測算,ChatGPT4在云端進行推理的成本約為88.2萬美元/天。
如果換到用戶量更大的智能手機上呢?
按照vivo副總裁周圍公布的數據,vivo大模型單次對話成本約為0.012-0.015元/次,當前vivo全國用戶數約為3億。以2.5億日活用戶(假設的未來滲透率天花板)、每人每天10次對話需求測算,vivo大模型每天云端推理的成本就要3000萬-3750萬人民幣。

假設以50%分流率計算,將一半的推理分流至端側進行,那么vivo每年將節約55-68億人民幣的云端運算成本。
看在錢的份上,不搞端側AI都不行。只是,手機廠商雖然目標高度一致,但在解決大模型手機內存瓶頸的問題上,卻出現了分歧。
三條路線
眾所周知,大型語言模型的泛化能力及通用性取決于其參數量,如GPT-4擁有16個專家模型,共包含1.8萬億個參數。大多數大模型都在具有強大服務器硬件支持的云端運營,若直接部署于終端設備,則需要設備擁有足夠大的內存。
哪怕參數量較小的主流AI大模型也有70億或130億參數,分別需要約14GB和20GB的內存。例如有70億參數的小型LLaMA,其FP16版本大小為14GB,遠超當前手機的內存承載能力。
為了解決這個難題,當前主要有三種技術路線:一是直接拔高終端內存,二是壓縮大模型體積,三是優化內存調用邏輯。
三條路線分別對應著三個陣營,以微軟、聯想、OPPO為代表的勢力致力于大模型壓縮路線,蘋果擬通過優化閃存交互和內存管理邏輯來解決內存壁壘,希望通過直接拔高終端內存以突破瓶頸的3DDram技術,代表則是內存廠商。
首先來看規?;疃嗟拇竽P蛪嚎s,主要包括量化、剪枝及蒸餾等幾種方案。
大模型壓縮翻譯過來其實就是在不影響性能的前提下縮減模型的資源占用。比如通過INT4量化技術支持,AquilaChat2-34B僅需接近7B級別模型的GPU資源消耗,即可提供超過Llama2-70B模型的性能,同時內存占用大幅降低70%,而綜合性能指標僅降低了0.7%。

再比如屬于剪枝方案的微軟SliceGPT技術,實驗數據顯示,該技術可以為LLAMA-2 70B、OPT 66B和Phi-2模型去除多達25%的模型參數(包括嵌入),同時分別保持密集模型99%、99%和90%的零樣本任務性能。
其次是優化內存管理。如前文所分析,70億參數的模型僅加載參數就需要超過14GB的內存,這超出了大多數智能手機的能力。
蘋果提出將模型參數存儲在至少比DRAM大一個數量級的閃存上,然后在推理過程中直接且巧妙地從閃存中加載所需的參數。
具體而言,蘋果構建了一個以閃存為基礎的推理成本模型,并使用窗口化(Windowing)以及行列捆綁(Row-Column Bundling)兩項關鍵技術,來最小化數據傳輸并最大化閃存吞吐量。
更具體的技術實現步驟這里就不做贅述,總之蘋果的閃存方法實現了可以運行比設備DRAM容量大兩倍的模型,并在CPU和GPU上分別比傳統方法提速4-5倍和20-25倍。
美光CEO此前的說法是,AI手機的內存容量預計將比當今非AI旗艦手機高出50%到100%。除了壓縮和優化,還有一個看似是笨辦法的辦法就是直接拔高終端內存,也就是3D Dram(垂直存儲器)技術。
3D Dram是一種利用垂直堆疊方式,將存儲單元置于一個二維陣列中,通過垂直疊加顯著提高容量的技術。相當于蓋起了復式,降低平面面積占用的同時,增加單位面積內的存儲容量,從而實現容量的最大化。
根據Neo Semiconductor的估計,3D X-DRAM技術可以跨230層實現 128Gb的密度,是當前DRAM密度的八倍。NEO提出每十年容量增加8倍的目標,目標是在2030年至2035年間實現1Tb容量,比目前DRAM核心容量增加64倍。
誰能受益?
雖然路線不同,但在可行性的前提,各個陣營都能達到一定程度上的預期效果。
比如芯片廠,無論是高通還是聯發科,都在推行端側AI下的大模型壓縮,目的自然是為了讓下一代芯片能夠支撐起手機廠商嵌入大模型的需求。只要完成了這個需求,它們就能是率先吃到紅利的一方。
復盤4G到5G的迭代過程,高通就是靠著特殊供需關系,直接將手機廠商的芯片采購成本翻了一倍。
以三星為例,GalaxyS20 Ultra(12G+256G)物料成本中,驍龍865 SoC的整體成本超過150美元,比2019年上半年不包含X50基帶的驍龍855 4G移動平臺貴1倍左右。
芯片廠對手機廠商又有絕對的議價權,供需失衡下價格掌控能力更強的一方,是很樂意把支持端側AI的SoC價格打上去的。
在SoC之外,還有一個零部件能在這波AI升級中受益,但可能很多人想不到。
在三星S24系列的拆機結果中,人們發現不僅石墨散熱片有額外增加,連平均散熱板面積也被提升了,算下來S24、S24+、S24 Ultra分別大了1.5、1.6、1.9倍。
最后測算下來,S24 Ultra里增加的散熱材料,相較上一代5G手機每部多出來11元。若考慮高性能、高價格的石墨烯滲透率提高帶來的價值增量,還能再增加3塊錢。
還有一個零部件,是類似SoC的內存。
根據前文所述,在大模型體積壓縮、優化內存調用邏輯、3DDram技術發展等三路線共同作用下,當前16/24GB內存已具備運行端側大模型的條件,且未來內存容量仍有跨越式提升的空間,容量已不再是桎梏,提升帶寬以適應復雜AI任務是更為迫切的需求。
JEDEC固態技術協會已經正式完成了LPDDR 6內存標準的定稿,預計將會在2024年第三季度正式發布,目前LPDDR5X內存的主流帶寬為8533Mbps,而LPDDR6帶寬可以達到12.8Gbps,比LPDDR5X高出了54%,LPDDR6X更是擁有17Gbps的帶寬。
受益于AI手機對高帶寬內存的需求,預計LPDDR5/LPDDR5X/LPDDR6將持續供不應求。三星和海力士申請LPDDR6 RAM認證后,將會率先量產LPDDR6內存,同芯片廠一樣,供需關系也決定了LPDDR6的漲價。
尾聲
作為下游的手機廠,在這場技術迭代革命里是要爭取主動的。
AI催生的換機潮確實會帶來一波量價齊升,但參考上一輪迭代,僅靠組裝而生的手機廠商無法獲得大規模溢利。
也就是說,想要吃到更大的紅利,尤其在軟硬件成本高企的情況下,就必須具備自研能力,比如最重要的大模型和芯片。
當然在今天的環境下,高企的大模型訓練成本和供需錯配的高性能AI推理芯片,都對手機廠商提出了嚴峻挑戰。但同時具備這兩項自研能力的,就有了成本可控及供應穩定的一體化優勢。
而其它不具備或不完全具備的廠商,也不是一定會被淘汰。拿捏不了上游,可以轉身去拿捏下游。
智能手機的下游,就是移動互聯網了。
高度智能化的AI手機應擺脫臃腫、繁多的APP,垂直整合端側應用,深層次聯通各個獨立的孤島,用戶一個指令可以調動多個APP自動解決需求,提供一站式服務。
因此,高度智能化的手機必須由其自身來集成各類數據、權限、應用,而單個應用無法這一點,所以天然占據了各項功能入口的手機廠商,就有了取代部分App開發商的可能,進一步瓜分流量及變現。
以智能修圖、錄音摘要功能為例,運行端側大模型的AI手機將部分或全部取代孤立的修圖類(如美圖秀秀)、錄音類App(如訊飛聽見),此類功能將集成于手機的操作系統中,完全內置于攝像、通話功能中。
對上述App來說,這一切已經發生了,而未來還會有更多App被集成、替代。