AI產業「向前走」、AI個股「擠泡沫」
2home.co 楊惟婷
輝達(NVDA-US)執行長黃仁勳2024年2/22日表示,「加速運算和生成式AI來到『引爆點』,全球各公司、產業和國家對AI的需求正在激增。」
若從對AI產業的發展角度來看,這場人工智慧 (AI) 的派對確實才剛開始。
初期各大科技巨頭恐落人後、對AI的資本支出皆處於「加速」模式、毫不手軟。
當然,在淘金熱初期,賣「鏟子」的絕對有利可圖,利之所驅,當然也吸引投資人追逐輝達(NVDA-US)、AMD (AMD-US)、高通 (QCOM-US)等淘金公司,也不斷堆高這些公司股價估值,更帶旺AI產業的想像空間。
然而,各大科技巨頭的資本支出不斷膨脹後,多久才能進入消費市場變現呢?
假如消費者只習慣免費、而難以變現呢?萬一這些淘金公司最終啥都沒淘到?
加上,這場AI賽局是一場長期消耗戰。各大科技巨頭最終為了持久戰,必須控制成本,也必將從「拚成長」的短期戰略,逐步轉向「省成本」的長期戰略,甚至推出自製晶片應戰。淘金者自製「鏟子」,賣「鏟子」的將會如何呢?
可想而知,掀起AI產業狂潮的帶頭大哥輝達,長期毛利率將會逐步回到合理區間。所以,若從輝達股價角度來看,短期可能會先漲到瘋狂的右上方、但長期開始「擠泡沫」。這是一定的啦!
值得一提的是,這波AI產業的確奠基於科技技術創新,可提昇各行各業生產力的實體經濟面,因此,AI產業派對才剛開始,仍會持續狂歡幾年!
但AI個股股價卻會逐一出現泡沫!即使初期是輝達(NVDA-US)一個人的武林,但在AI派對狂歡、進入中場休息後,相信會有新人持續進埸接盤子,直到百家爭鳴的春秋戰國出現。此時,AI產業才進入成熟期!
所以,AI產業熱潮是否出現泡沫?這與輝達(NVDA-US)的股價是否跌落神壇?
其實是兩碼事!
其間,最尷尬的莫過於「七巨頭」,其插上AI的翅膀、股價狂奔後,正巧遇在貨幣面的「貨幣超發」、又即將回收路上,初期的信手撒錢、博弈AI王者的豪氣凌雲,焉知成王之路,步步驚心!而伴隨著資金退潮後,未來將看出是誰在資金浪潮下「裸泳」?
一、AI產業熱潮,仍會持續狂歡幾年!
「生成式AI」將帶來巨大的產業變化。因它有兩大特點:
首先,生成式AI人機互動的介面是採用「語言對話」的模式,讓使用者體驗非常友善。
第二是生成式AI可以基於現在許多的知識,進一步衍伸出來以為大家所不知道的知識,能提升使用者生產、工作效率。
■2024年AI「算力」競賽持續加溫,「AI伺服器」是首波題材!
AI「算力」競賽是從2023年5月才剛剛開始,因NVIDIA執行長黃仁勳表示,針對生成式AI應用趨勢,「高效運算」是必要配備,而且,他提到 NVIDIA將不只賣晶片,而是向大企業出售整個 AI超級運算系統,簡單而言就是「AI伺服器」。
包含Amazon、Google、Microsoft及Meta等大型雲端業者,紛紛自2023年下半年起大舉增加AI伺服器的採購,且2024年採購量亦倍數增加中。
另外,中國三大業者包括字節跳動(ByteDance)、阿里巴巴(Alibaba)及百度(Baidu),2024年採購量亦不遑多讓。
事實上,無論是物聯網、雲端或是 AI機器人,共同點就是需要處理天文數字的資料,因此強大的「算力」將是決定大型雲端業者勝負關鍵!
由於透過高效能「AI伺服器」能使「算力」大幅升級。因此,伺服器的需求,成了這波AI產業浪潮首發商機。總之,初期賣鏟子的—「AI伺服器」最有利可圖!
■AI「資料中心」建制,目前是「輝達」一個人的武林?
「七巨頭」(Magnificent Seven) 這個名詞源自於 1960 年由尤伯連納 (Yul Brynner) 和史蒂夫麥昆 (Steve McQueen) 主演的經典西部動作片《豪勇七蛟龍》。這部電影的粉絲、美銀證券 (BofA Securities) 首席投資策略師哈奈特 (Michael Hartnett) 在 2023年5月的一份報告中,在談到科技公司時使用了這個詞,然後美國科技「七巨頭」之說就開始流行起來。
2022年10月,ChatGPT的橫空出世推動「輝達」在這波AI淘金熱中,獨賣「鏟子」的角色,促使輝達市值一路飆升,在 2023年增逾3倍。
亦即,在生成式人工智慧 (AI) 觸及「引爆點」後,美國科技「七巨頭」2023年表現最「豪勇」的是輝達。
無論是國內外公司關於大模型的競爭,或是如同 Sora一般帶給AI產業震撼的新品,都不斷釋放著對輝達晶片的高需求。在萬眾矚目之下,2024年開年至今,輝達 (NVDA-US)在半年內,市值漲逾3兆億美元。
反而進入2024年以來,除了輝達 (NVDA-US),其它「6巨頭」的表現不是平平無奇、就是糟糕至極,亦即「七巨頭」一詞似乎已經變得毫無意義。
從產業現實角度來看,「輝達」能夠實現這樣的成長,還沒有先例可循。或許,這正是 AI力量的展現。
「輝達」表示,「資料中心」業績的成長反映出用於運行大語言AI模型和生成式 AI應用程式的 Hopper GPU 出貨量的成長。
大型雲端運算供應商如亞馬遜 (AMZN-US) 的AWS、微軟 (MSFT-US) 的Azure和谷歌 (GOOGL-US) 的雲端,占2023年第4季資料中心營收一半以上。
「輝達」也透露,資料中心 40%的營收估計來自「推理」業務。這個數字「表明輝達在 LLM (大語言模型) 推理領域保持著強大的競爭地位。
並指出,推理「需要滿載堆疊加速」,而輝達有能力透過整合晶片、網路和軟體為客戶提供更好的服務。
二、「輝達」的AI武林霸主地位還能坐多久?
當然,未來最令人關注的是:
輝達是否能長久地維持其今日在市場中的不可替代性?
AI產業熱潮是否出現泡沫?與輝達(NVDA-US)的股價是否跌落神壇?
其實是兩碼事!
■科技巨頭高額AI支出變成「不能輸」的競爭!
如同Meta執行長祖克伯用「博弈論」的術語解釋AI產業競爭戰況,錯過生成式 AI 繁榮的風險,大於在 GPU和伺服器上投入過多資金的風險。
這些科技巨頭深信、並不斷對大眾洗腦:生成式 AI 是下一個智慧型手機、下一個網路世界的革命性技術。
當然,這些科技巨頭皆有「不能輸」的壓力;Meta (META-US) 將資本支出財測上修至 370至400億美元;微軟 (MSFT-US) 上季花費了 190億美元;亞馬遜 (AMZN-US) 2024年至今已花費 300億美元,並表示將在 2024 年結束時再提高一個檔次。
但基礎設施的構建是一個「競相升級的循環」,而這些高額支出是否風險太高?甚至這些高額支出最終卻無法滿足對生成式 AI 的崇高期望?
例如,蘋果 (AAPL-US)十年來、每年花費 10億美元開發一款據稱會改變產業的汽車,但2024年初放棄了這項努力。
但如果投資人對這些科技巨頭的「獲利期待」有任何不耐跡象的話,接下來的「跳船期」可能就已經開始了。
■巴克萊:大廠砸錢搞AI是FOMO,2025年就會有人「跳船」
巴克萊認為FOMO情緒正成為AI投資浪潮的主導力量。FOMO是 Fear of Missing Out 的縮寫,意即「害怕錯過」,描述對錯失投資良機的恐懼,這種恐懼往往能驅使投資人在沒有充分理性分析下做出決策。
巴克萊最新報告指出,這些科技巨頭擔心錯過這個重大AI技術創新,從而在沒有充分瞭解長期潛力情況下,對新興AI技術大量投資。儘管 AI技術仍處於起步階段,但大廠對 AI的資本支出已呈現出一種非理性繁榮,FOMO情緒佔據主導,隨著這種情緒消退,2025年就會有大廠逐漸削減 AI投資。
巴克萊預測,這種情緒在上一波「元宇宙」投資泡沫中表現得淋灕盡致,而今日的 AI技術領域,歷史可能正在重演。
巴克萊在報告中提到,目前市場上對 AI的資本支出預測存在顯著的 FOMO情緒。並指出,分析師們預計 AI 領域的資本支出將從 2023年到 2026年累計達到 1670億美元,而這數字是基於對 AI產品需求的樂觀預期。
然而,與此形成鮮明對比的是,預計到2026年,雲服務的收入增量僅為200億美元。這種資本支出與預期收入之間的巨大差距,引發了市場對 AI投資過熱的擔憂。
巴克萊認為,儘管早期的 AI公司可能會以用戶註冊數量和新創公司的增長作為需求存在的證據,但華爾街的懷疑情緒正在上升。
這種懷疑基於一簡單事實:過去兩年內,只出現ChatGPT 和Github Copilot兩個大模型的AI應用產品。目前市場上成功的 AI產品數量有限,且距離 AI技術的廣泛應用還有很長的路要走。
基於以上理由,巴克萊認為2025年或更久之後,就會有大廠退縮並削減 AI資本支出計畫。巴克萊也注意到,近期在較小的基礎模型領域的突破可能會在 2026年之前將大量產品和查詢,從雲端轉移到邊緣技術,這可能進一步加大雲端對這種大規模 AI容量的需求壓力。
但儘管短期內市場可能面臨調整,巴克萊也強調,從長期來看,AI 技術仍處於超級早期階段,中期對AI產業維持樂觀態度,科技巨頭在可預見的未來仍將繼續投資AI產業。
以蘋果為例,距離 iPhone首次亮相近五年後,才出現了領先的移動原生應用程序,而目前我們才剛剛進入 AI產業浪潮 20個月。而且,運行 AI模型所需的「算力」遠超過當前的軟體和網路服務能力。
要實現這一「算力」,仍需要時間及資本支出來克服技術挑戰、教育市場和用戶習慣的培養。此外,AI 技術的廣泛應用還需要解決包括數據隱私、倫理和監管在內諸多問題。
■輝達必須透過不斷推出新應用和新產品,帶來新的成長引擎
1、CUDA 成為輝達的護城河
CUDA(Compute Unified Device Architecture)是輝達自 2006年推出的一套並行計算平台和程式設計模型,旨在充分發揮其圖形處理單元(GPU)的運算能力。CUDA 允許開發者使用熟悉的程式語言(如 C、C++ 和 Fortran)來編寫能在輝達 GPU上高效運行的應用程式,這使得 GPU的強大性能得以廣泛應用於各種計算密集型任務,包括 AI、深度學習、科學計算等。
為何 CUDA 成為輝達的護城河?
輝達主要優勢在於,軟體 CUDA 生態長期以來所培養的全球 AI 開發者習以為常的設計流程慣性與 Omniverse 等軟體開發配套的完備性,以及 GPU 互聯技術全球領先的NVLink解決方案。這些優勢為輝達在大模型算力訓練階段構築了極深的產業護城河。例如,HGX H100 8-GPU 使用高速 NVIDIA NVLink 4.0 技術、NVSwitch互連,以及 NVIDIA Quantum-2 InfiniBand 與 Spectrum-4 乙太網,大幅突破 AI 集群互聯的極限。
a、生態系統的建立:
CUDA 不僅是一套程式設計工具,它還促進了開發者社群的形成。隨著越來越多的開發者投入 CUDA 的開發,輝達建立了強大的生態系統,使得使用 CUDA 的應用程式數量不斷增加,進一步鞏固其市場地位。
b、技術壁壘:
由於 CUDA 是專為輝達的 GPU 設計的,其他競爭對手難以模仿或替代這一技術。這種專屬性使得使用 CUDA 的應用程式只能在輝達的 GPU 上發揮最佳性能,形成了一道難以逾越的技術壁壘。
c、高效的並行計算:
CUDA 的設計充分利用了 GPU 的並行計算能力,讓開發者能夠輕鬆地將計算任務分配給數以千計的處理單元,從而顯著提高運算效率。在 AI 和深度學習等領域,這一特性尤其重要,因為這些應用通常需要處理大量的數據和複雜的計算。
d、持續的創新與支持:
輝達不斷對 CUDA 進行更新和擴展,增強其功能和性能,並提供豐富的文檔和技術支持,這使得開發者能夠隨時獲得最新的技術資訊,並快速解決問題。
e、市場佔有率:
隨著越來越多的企業和研究機構選擇輝達的 GPU 進行計算,CUDA 的普及使輝達在市場上佔據了主導地位。這種市場佔有率進一步加強了其護城河,使得競爭對手在進入市場時面臨更大的挑戰。
總結來說,CUDA 不僅是輝達 GPU 性能的關鍵驅動力,更是其在激烈競爭中保持領先的重要護城河。隨著 AI 和高性能計算需求的持續增長,CUDA 的影響力將愈加凸顯。
2、在新應用方面,輝達特別提到了軟體收入。
黃仁勳表示,「軟體」對於加速運算至關重要,這是加速運算和通用運算之間的根本區別。軟體在輝達與雲端廠商合作方式中非常關鍵,輝達為其帶來CUDA 生態,又因為生成式AI,讓所有軟體企業都需要加速運算,提高吞吐量,但絕大多數企業沒有大型工程團隊來維護和優化他們的軟體堆疊,以在全球所有雲端和私有雲以及本地運行。因此,輝達將對這些企業所有的軟體堆疊進行管理、最佳化、修補,也就是 Nvidia AI Enterprise 服務。
黃仁勳說:「下一波人AI浪潮將讓50兆美元的重工業自動化」,而輝達將從中受惠。此外,他也提到隨著主權AI的需求增加,輝達已布局良好。
另外,黃仁勳指出,全球最夯的電動車自動駕駛系統,其實也是機器人商機的另一種展現。他透露,其實全球汽車產業許多很早就採用 NVIDIA Omniverse 平台,因為它正在尋求將從設計到建造、模擬和運營的整個工作流程數位化,甚至在虛擬環境中體驗其工廠和汽車。
3、新產品方面,輝達「 Blackwell」六大革命技術引領AI加速運算時代!
輝達(NVIDIA)3/18日正式發表Blackwell平台,標誌著「加速運算」新時的來臨。Blackwell創新平台將提供強大算力,用於構建和運行兆級參數的大型語言模型,實現即時生成式AI。
其中,與NVIDIA H100 Tensor Core GPU相比,最新GB200 NVL72可提供高達30倍的大型語言模型推論工作負載效能,並將成本和能源消耗降低多達25倍。
Blackwell GPU架構具備六項革命性技術,將推動資料處理、工程模擬、電子設計自動化、藥物設計和量子運算等領域的突破,開啟輝達在這些產業的機會。
Blackwell六大創新包括:最高2,080億晶體的GPU、第二代Transformer引擎、第五代NVLink互連、RAS可靠性引擎、安全AI功能和專用解壓縮引擎,共同支援AI訓練和大模型推理,可擴展至10兆參數。黃仁勳強調,Blackwell將被「每一家主要雲端服務提供商、伺服器業者和領導型AI企業所採用」,包括亞馬遜、Google、Meta、微軟、ChatGPT開發商OpenAI、特斯拉和馬斯克的新創公司xAI。
輝達推出整合Blackwell的Grace超級晶片GB200,將兩個B200 GPU與Grace CPU連接。GB200驅動系統可透過新Quantum-X800網路獲得800Gb/s超高速網路。
此外,輝達還推出GB200 NVL72液冷機架級系統,集成36個Grace Blackwell超級晶片,與傳統H100 GPU相比,在大模型推理上可提升30倍性能。
基於GB200系統,輝達發布新一代DGX SuperPOD超級電腦平台,採用液冷設計,提供11.5 exaflops AI運算能力。
SuperPOD可擴展至數萬個GB200超級晶片,並透過NVLink連接576個Blackwell GPU,獲取龐大共享記憶體。該平台具備智慧管理和持續運行能力,將極大推進大規模生成式AI的部署。
除SuperPOD外,輝達也推出DGX B200系統,提供144 petaflops AI性能、1.4TB GPU記憶體,且比上代快15倍。B200支援DGX SuperPOD配置,為企業部署AI提供彈性。
■2025年後,輝達可能面臨「成長放緩」考驗?
華爾街8/29日指出,輝達的成長指標不再像以前那樣給人印象深刻,亦即「成長放緩」是目前輝達面臨的主要擔憂。
輝達8/28日公布 2025財年第二季財報顯示,營收達300億美元,年升122%,且利潤和收入年增超過100%,但這也標誌著該公司一年來營收年增最慢的一次,因為122%成長率還不到輝達在 2024年前兩季的一半。因此輝達 8/29日崩跌6.38% 至每股117.59美元,僅在這天交易日就蒸發近 2000億美元。而自 6月股價登頂以來,輝達市值已蒸發 4,417億美元、跌破3兆美元。
由於,微軟 (MSFT-US)、亞馬遜 (AMZN-US)、Alphabet (GOOGL-US) 和 Meta (META-US) 等大型科技超大規模企業AI資本支出將放緩。鑑於它們佔輝達目前人工智慧晶片銷售的最大份額,這可能會成為未來收入成長的阻力。
雖然黃仁勳表示,新一代 Blackwell晶片的需求仍「令人難以置信」。然而,輝達股價自 2022年 10月以來已上漲超過1000%,對投資人來說,「成長放緩」似乎是一個不可承受之「重」。亦即輝達業績也沒有像以前那樣讓華爾街感到驚訝。
■小摩:避險基金連二季減持輝達等「科技七巨頭」
摩根大通 (小摩) 8/28日指出,在它最近的一項分析顯示,在 2024年第二季和第三季,對沖基金減持對輝達和其他「科技七巨頭」的投資。
摩根大通強調,避險基金和主動股票共同基金對美國科技股 (尤其是輝達) 已採取謹慎態度。尤其在2024年第一季達到高峰後減持,這樣的謹慎態度特別明顯。
事實證明,此舉幫助避險基金它們在輝達股票面臨下行壓力的情況下實現正回報。
同時,摩根大通表示,散戶對輝達和科技股整體表現出強烈的看漲情緒,從散戶資金持續流入以輝達為主的股票基金和 ETF 就可以凸顯散戶的樂觀情緒。
亦即當前市場環境下投資機構和散戶間截然不同的策略,避險基金採取更具防禦性的立場,而散戶投資者則繼續大力押注科技股,尤其是輝達。
三、投資人是否可以接受輝達從「指數成長」退回到「線性成長」?
目前AI晶片市場,基本上被輝達壟斷,占據 90%以上的市場。
Nvidia的AI加速器對於訓練和運行大型AI模型至關重要,但每台價格高昂。這種壟斷導致大型科技公司成本高昂,供應受到限制,促使它們尋求替代方案。
可預見的是,生成AI市場的兩大支柱 Google和微軟 (MSFT-US),以及CPU市場的競爭對手英特爾 (INTC-US) 和 AMD(AMD-US),已經聯手圍堵輝達。亦即,科技巨頭正以「沒有永遠的敵人或朋友」的態度,來對抗輝達。
呈現在財測上的—-
輝達 (Nvidia)(NVDA-US) 8/28日盤後公布第二季財報,表現超出華爾街預期,在資料中心晶片需求帶動下,第二季營收為300.4億美元,高於預期的287億美元。營收年增 122%,但在此前的三個季,年增幅均超過 200%。
且輝達預測第三季的營收為 325億美元,預測第三季毛利率可能低於市場預期,未能令投資人滿意,導致股價盤後重挫。
投資人對輝達晶片商抱有高度期待,因此在過去兩年中,輝達的股價上漲超過7倍。隨著基期墊高,輝達要超越預期的挑戰也愈來愈大。
此外,Carson Group 首席市場策略師 Ryan Detrick 表示,「問題在於,這次超出預期的幅度比我們之前看到的小得多。即使未來的財測有所上調,但幅度仍不及前幾季。這是一間非常優秀的公司,營收仍以 122% 的速度在增長,但看起來這個財報季的期望門檻設得太高了。」
(一)來自同業們的「競爭」
■「輝達」AI晶片的豐厚利潤,讓同業競爭者都想分一杯羹
除了AMD (AMD-US) 以及微軟 (MSFT-US)、Google (GOOGL-US) 之外,競爭者正從更多方向襲來。
例如,英特爾推出人工智慧晶片Gaudi 3,直接與輝達最暢銷的人工智慧晶片H100競爭,加上Alphabet推出基於ARM架構的中央處理器Axion,顯示科技巨頭的投資進入成熟階段,輝達的優勢恐被削弱。
又如孫正義近日宣布計畫籌措 1000億美元資金,成立全新的 AI晶片企業,與旗下晶片設計部門 Arm形成互補,實現 AI領域的進一步拓展,即劍指輝達。
目前,市場對AI模型「推理」需求呈指數級成長,全球最大AI晶片獨角獸 Cerebras Systems在8/28日宣布,推出Cerebras Inference,據稱是全世界最快AI解決方案,較輝達目前這一代GPU快20倍。
資料顯示,Cerebras於2015年創立,更獲ChatGpt開發商OpenAI行政總裁阿爾特曼(Sam Altman)投資。另據悉,Cerebras計劃最快10月在美國上市。
另外,2023年9月,美國 AI晶片新創公司 SambaNova也開發了其 AI晶片系統—基於可重構資料流單元 (RDU) 的 AI晶片 SN40L晶片系統,可以為 5兆參數模型提供支持,單一系統節點上的序列長度可達 256k+。
對比輝達 (NVDA-US) 的 H100 晶片,SN40L不僅推理性能達到了 H100 的 3.1倍,在訓練性能也達到了H100 的 2倍,總擁有成本卻僅有其 1/10。
此款晶片專為運行企業應用程式的大型語言模型而構建,其設計目標是能承載 ChatGPT高級版本兩倍容量以上的大模型,將挑戰輝達霸主地位。
未來,全新 SambaNova SN40L“Cerulean”架構,採用台積電的 5奈米晶片,具有三層內存,非常簡潔。它也是一種資料流架構,被設計為訓練和推理晶片。
實際應用中,SN40L 在生成文字、處理影像以及運行大規模 AI 模型時表現出色。尤其在生成自然語言方面,每秒可以高達 1100 個 Token 的生成速度,大幅提升了 AI 應用的效率。
SambaNova Systems 是一家位於美國加州的新創公司,專注於人工智慧晶片和數據分析軟體的開發。該公司成立於 2017 年,旨在透過軟硬體結合的方式提供一整套解決方案,幫助企業客戶在 AI 領域取得突破。
■高通、Google等科技巨頭聯手要打破AI生態輝達CUDA一家獨大局面
目前全球有超過 400萬開發人員,依賴 Nvidia的 CUDA軟體平台來建立人工智慧和其他應用程式。這是,目前AI產業只剩「輝達」一個人武林的關鍵。
一項挑戰來自同業競爭,各企業正在聯手遏制輝達繼續變得更強大。
例如,英特爾(INTC-US)、高通 (QCOM-US)等科技巨頭成立UALink,召集八大門派圍攻光明頂。其中包括輝達現有的大客戶,亞馬遜、谷歌和微軟等大型雲端運算公司也正在設計自己的人工智慧晶片,以減少對輝達晶片的依賴。
儘管短期AI 晶片供不應求,輝達的成長暫時不會放緩,但輝達高層仍深知未來挑戰四伏。
尤其高通 (QCOM-US)、Google(GOOGL-US)、英特爾 (INTC-US) 等科技巨頭成立UALink,計畫聯手開發一套軟體和工具,旨在創建一個開放原始碼的 AI軟硬體生態系統,以打破輝達 (NVDA-US) 在 AI領域的軟硬體主導地位,特別是其 CUDA平台的壟斷。
這一專案計畫支援多種 AI晶片,並使電腦程式碼能在任何晶片架構和硬體上運行,提高開發效率並促進 AI硬體選擇的多樣性,以放鬆輝達的控制,讓開發者在軟體上與輝達脫鉤。
具體來說,在機器學習框架的背景下,UALink聯盟要做的是如何創建一個開放的生態系統,促進生產力和硬體選擇。
除了最初參與的公司之外,UALink尋求亞馬遜 (AMZN-US) 和微軟 (MSFT-US)Azure 等雲計算公司以及其他晶片製造商的支援。
從長遠來看,UALink最終旨在支援 Nvidia 硬體和程式碼。
■「Claude 3」正追上 GPT-4,它是何方神聖?
OpenAI的聊天機器人GPT-4發佈一年後,終於有了一個評測指標全面超越它的大模型。
Anthropic 在3/4 日發佈三個版本的大模型系列 Claude 3,性能由強到弱分別是:Opus(拉丁語「作品」)、Sonnet(英語「十四行詩」)及 Haiku(日語「俳句」的音譯)。
在Anthropic 列出的十項常用模型能力評估數據集表現,Opus的得分全都超過 GPT-4,視覺識別能力評估數據集上的情況也一樣。
成立於 2021年的 Anthropic,早期團隊成員全部來自 OpenAI。截至 2023 年底,Anthropic 從亞馬遜、Google、Salesforce 等投資者手中籌集 70多億美元的資金,融資規模僅次於 OpenAI。
這些投資人不只為 Anthropic提供資金,還提供稀缺的算力資源,Claude 3就是用 AWS和 Google的雲端運算平台的硬體訓練出來的。
Anthropic共同創始人 Dario Amodei 在 OpenAI工作五年,離職前擔任研發副總裁,參與了 GPT-2、GPT-3 的研究。
最初 OpenAI 嘗試多種方法探索人工智慧(AI)的可能性,比如遊戲、機械手,是 Amodei 和 OpenAI首席科學家 Ilya Sutskever一起確定了OpenAI 專注研究大語言模型。
另一位共同創始人 Sam McCandlish,在 OpenAI負責研究如何擴展大模型。
此外,團隊中還有負責 GPT-3訓練基礎設施的Tom Brown、參與數據處理的 Benjamin Mann、參與算法研究的 Nicholas Joseph等人。
而Anthropic與 OpenAI最大的差異,是如何讓大模型更安全。
在 Anthropic,他們的目標是開發一個「有用、誠實、無害」的大模型。
Amodei 等人在 2020年底離開 OpenAI,是因為不滿公司偏重盈利,降低大模型安全研究的重要性。當時 OpenAI發布 GPT-3的 API,加快商業化節奏。
值得一提的是,Anthropic的模型趕上 GPT-4並不只靠堆砌資源,他們本就是熟悉 OpenAI技術路線的團隊。Anthropic 因此也被稱為最有可能與 OpenAI 競爭的公司。
■大模型「Groq」首秀也引爆話題,自研LPU服務速度遠快於GPU
ChatGPT的另一新競爭對手Groq也推出了語言處理單元 (LPU),並於近期首度公開成果。當提示模型時,答案立即產生。而且,答案是依據事實,並引述來源,長達數百字,這讓它在社群媒體造成轟動。
Groq憑藉的武器是語言處理單元 (LPU)。這項尖端技術的速度接近每秒 500個 token。它為數位處理的速度和效率樹立了新的基準。LPU 能將延遲降至最低而脫穎而出,提供了迄今為止聞所未聞的服務速度。
據報導,Groq的 LPU旨在解決 CPU和 GPU等舊技術的限制。當面對大量運算需求時,傳統的處理架構往往無法滿足要求。
Groq使用新的張量流處理器 (TPS) 架構來實現 LLM 運算。憑藉其快速推理和降低功耗的承諾,TPS和 LPU有望改變處理資料的方式。
據 X平台帳號 k_zer0s 發文表示,Groq的 LPU不需要像 Nvidia GPU那樣快速的資料傳輸,因為它們的系統中沒有 HBM。它們使用 SRAM,其速度比GPU 使用的速度大約快 20倍。由於推理運行使用的資料比模型訓練少得多,因此Groq的 LPU更節能。與用於推理任務的 Nvidia GPU相比,它從外部記憶體讀取的資料更少,功耗也更少。
LPU的運作方式與 GPU不同。它使用臨時指令集電腦架構,因此不必像 GPU 使用高頻寬記憶體 (HBM) 那樣頻繁地從記憶體重新載入資料。這有助於避免 HBM 短缺問題並降低成本。
LPU不像 GPU需要超高速儲存。Groq聲稱其技術可以憑藉其強大的晶片和軟體在人工智慧任務中取代 GPU。
Google TPU 專案的先驅 Jonathan Ross於2016年創立了Groq。該公司迅速確立了自己在處理單元創新領域的領導者地位。 Ross在人工智慧和處理技術方面的豐富背景推動了 LPU的發展。
Groq公司宣稱,其技術能夠透過其強大的晶片和軟體,在推理任務中取代 GPU 的角色。
Ross 曾表示,「Groq的存在是為了消除『富人和窮人』,並幫助人工智慧社群中的每個人發展。而推理是實現這一目標的關鍵,因為『速度』是將開發人員的想法轉化為商業解決方案和改變生 APP 的關鍵」。
(二)科技巨頭們的「成本考量」
■科技巨頭AI資本支出熱潮,亦伴隨著投資陷阱?
大型科技公司正在為AI資本支出投入更多資金。亞馬遜 (AMZN-US)、Alphabet (GOOGL-US)、微軟 (MSFT-US) 和 Meta (META-US) 都在第一季財報季中透露了推進技術發展的積極新承諾。
而華爾街也正在密切關注科技領域的巨頭如何執行他們的 AI策略,並利用他們的資產負債表來實現目標。亦即,股東們十分關注這些資本支出的大幅增加將帶來什麼結果?
鑑於大型科技公司已向人工智慧熱潮投入數十億美元,這最終可能導致基礎設施過度建設,消耗對未來利潤的承諾。
這波AI資本支出狂潮是歷史性的市場賭博,但也是實力大的科技巨頭們,例如亞馬遜 (AMZN-US)、Alphabet (GOOGL-US)、微軟 (MSFT-US) 和 Meta (META-US)正調動大量資源,且搶個占下一個科技時代佔據主導地位的捷徑。
但人工智慧擴張所需的基礎設施非常昂貴:科技巨頭各自圍繞著一個概數,即到 2024 年可能會超過 500億美元。
巨額人工智慧資本支出的最大收穫是,大型企業並不滿足於當前市場,而且所有人都對自己擴大收入基礎的能力充滿信心。
但對新商業模式、基本上未經證實成敗的尖端技術,進行大量資本支出,其實是伴隨巨大風險的。
誠如Meta 執行長祖克柏表示,公司需要數年時間才能從大量人工智慧支出中獲得回報。但會不會如踩進「元宇宙」一般呢?
尤其微軟、亞馬遜和 Alphabet 可以透過其AI運算基礎設施以及將 AI 應用到自己的產品中賺錢,但社群媒體Meta沒有 Azure、AWS 或 Google 雲端平台 (GCP) 可供依賴。當然,Meta 擁有自己的廣告帝國,但其大型語言模型 Llama是開源的,這使得 AI貨幣化變得不太確定。祖克柏只能請求投資者相信他。因為AI賽局中,早期的表現是無法保證的。
■蘋果選擇走一條不同的AI投資戰略
蘋果 (Apple Inc.)(AAPL-US) 8/1日表示即將推出AI系統 Apple Intelligence將刺激新一輪 iPhone 升級和硬體銷售。
但蘋果選擇走另一條不同的道路。蘋果財報顯示,蘋果的資本支出增幅相對大型科技同業如微軟 (Microsoft)、Google 和 Meta 而言相對較小。
上述這些公司正投入鉅額以打造和裝備以輝達(Nvidia) 晶片為基礎的 AI 資料中心。例如,微軟在上季財報中的資本支出為 138.7億美元,按年增長 55%。Alphabet 的支出躍升 91% 至 131.9億美元,而 Meta 上季資本支出則增長 31% 至 83億美元。
而與亞馬遜 (Amazon)、Google 和微軟不同,蘋果並未出租基礎設施給其它公司的雲端業務。Meta也不從事這項業務,但該公司正投資訓練自己的開源語言模型,並利用 AI來驅動其龐大的推薦引擎。
反之,蘋果選擇以相對較小的數量、租用了便宜的 Google TPU,而不是採購輝達晶片,來訓練其 Apple Intelligence 模型。該Apple Intelligence 模型的AI功能將改進 Siri,自動生成電子郵件和圖像、並整理通知。
亦即在建造其AI基礎設施時,蘋果具設計自身晶片的優勢,無論是用於手機、還是伺服器,因此該公司不需要在第三方處理器上花費數十億美元。
蘋果對資料中心採取「混合」方式,將部分資本支出轉移給合作夥伴,並將其轉化為蘋果的營業費用。庫克表示,「在資本支出方面,重要的是要記住,我們採取了一種混合的方式,在內部進行之外,在外部也和一些合作夥伴進行業務,這些資本支出將出現在他們的各自業務中。」
例如,蘋果蘋果 (AAPL-US) 決定使用 Google(GOOGL-US) 設計的處理器,來訓練其人工智慧系統學習模型,此舉被業界視為一項戰略舉措,可使其 AI硬體來源多樣化,並減少對 Nvidia(NVDA-US) 的依賴,此可能重塑全球人工智慧產業。
又如,蘋果與合作夥伴是 OpenAI合作,將其ChatGPT技術整合進iOS。
而OpenAI 則從主要股東微軟租用了輝達 GPU。
■2024年OpenAI可能虧損40-50億美元
人工智慧 (AI) 明星公司OpenAI無疑是史上成長最快的公司之一。不過該公司也逐漸暴露出其所面臨的一個大問題:收入無法涵蓋高額的開發和運作成本。
據估,ChatGPT在2024年可能會虧損50億美元。
因開發和執行AI模型需要高昂的成本,而 AI公司目前還無法做到降低成本。
例如,預計今年在租用微軟的伺服器以支援 ChatGPT這個大型語言模型上花費近40億美元。加上,包括數據費用在內的訓練成本可能也會攀升至 30億美元。
此外,員工薪資也是一筆很高的支出,OpenAI員工總數在 1500人左右,為了和矽谷大佬們爭取優秀的人才,總成本在 15億美元。並且,該公司官網上羅列的空缺職位約達到 200個,或許這意味著下半年將進行更多招聘。
整體來看,OpenAI 今年的營運成本可能高達 85億美元。
至於收入,除了來自 ChatGPT 訂閱服務的約 20億美元的年收入外,OpenAI還向開發者收費。目前,這項業務的收入將超過 8000萬美元。
再加上公司其他的收入,估計OpenAI今年的年收入將達到35至45億美元之間。
透過計算就可以得出,OpenAI 今年可能會虧損 40-50 億美元。
■OpenAI擬開發自家晶片,制霸輝達AI晶片CUDA護城河?
隨著人工智慧 (AI) 技術的迅猛發展,對運算晶片的需求日益增加。
科技公司在激烈的大模型競爭中,強大的運算能力已成為必不可少的基礎設施。即使是領先行業的 OpenAI,亦面臨著 AI 晶片日益短缺的困境。
對於 OpenAI來說,晶片的短缺不僅限制了其成長速度,更重要的是,目前市場上的 AI晶片幾乎被輝達 (NVDA-US) 所壟斷,促使 OpenAI 意識到建立自身晶片供應鏈的必要性。
OpenAI 執行長奧特曼表示:「世界需要比目前計劃更多的 AI 基礎設施,包括晶圓廠產能、能源和數據中心等。建立大規模的 AI 基礎設施及有彈性的供應鏈,對於經濟競爭力至關重要。」
7/30日,為了減少對輝達晶片的依賴,OpenAI 宣布計劃自行設計晶片。
OpenAI 計劃成立一家合資晶片設計公司,並可能與博通 (AVGO-US) 展開合作,將晶片生產委託給台積電 (2330-TW) (TSM-US),此決策將衝擊輝達在市場中的獨特地位。
從廣義上講,任何能進行 AI相關運算的晶片都可稱為 AI晶片,但一般所指的 AI 晶片是專門針對 AI算法進行加速設計的晶片。
目前,圖形處理單元(GPU)是 AI晶片的主要資源。
早在 2007 年之前,通用的中央處理器(CPU)就能滿足 AI 運算的需求,但隨著技術的進步,GPU 因其優越的「並行計算」特性,逐漸成為 AI計算的主流。
在實際運算中,CPU負責處理複雜的邏輯判斷和串行任務,而GPU則專注於大規模的並行運算,特別是在深度學習算法中,GPU 的優勢愈加明顯 (深度學習演算法的一個訓練模型可能要成千上萬個 GPU)。
例如2023 年,OpenAI 在訓練 GPT-4 時使用25000張輝達的 A100 GPU,顯示出 GPU在 AI研發中的重要性。
根據國際半導體產業協會的報告,2024年全球半導體設備總銷售額預計將達到創紀錄的 1090億美元。輝達作為這場熱潮中的佼佼者,其市值在2024年上半年一度超越了微軟,成為全球市值最高的公司。
然而,隨著市場競爭的加劇,OpenAI、Meta(META-US)、微軟 (MSFT-US)、谷歌(GOOGL-US) 及亞馬遜 (AMZN-US) 等輝達大客戶,以及英特爾 (INTC-US)、AMD (AMD-US) 和高通 (QCOM-US) 這些輝達競爭者正聯手推動開源語言項目 Triton,旨在打破輝達的 CUDA霸權。
Triton 能夠兼容流行的編程語言 Python,目標是能同時在輝達和其他 GPU供應商的產品上運作。
倘若 OpenAI 成功,任何程式開發者都能夠使用 Triton給任何 GPU編程,無需依賴輝達的CUDA平台技術,將改變當前的市場格局。
此外,中國也有十數家企業擁有自家 GPU項目,有些企業也擁有類似 CUDA的 GPU軟體平台,並開發了將 CUDA程式遷移到自家平台上的工具。
在 AI晶片的競爭中,未來的局勢仍然充滿變數。隨著越來越多企業進入這一領域,輝達的市場優勢可能面臨挑戰,AI 晶片的未來競爭將愈發激烈。
■「客製化晶片」崛起,挑戰輝達武林盟主地位
OpenAI一直在推進客製化晶片ASIC 的相關計劃,正在與博通、美滿等全球晶片設計巨頭洽談開發「客製化晶片」。
隨全球 AI演算法發展進入高潮階段,基於 Transformer架構及其演算法變種的認可度正在加速成為主流,底層計算中以「張量運算!為主的演算法確定性逐漸增強,進而推高產業面向張量運算「ASIC體系」發展的價值量。
在全球 AI發展的下半場,隨著 AI演算法及其架構現階段趨於穩定,客製化ASIC 預測將重新焕發生機,輝達未來的產業發展將充滿變數。
全球晶片品類從計算時代的 CPU橫掃資料中心與個人電腦等全產品線,再到現如今算力時代 GPU的崛起,產業資本支出對算力晶片持續保持高位運行,客戶需求與產品線的完美共振造就了輝達及美股自去年以來的一路高歌猛進。
與此同時,大模型算力需求至今持續井噴,2024年也未見放緩跡象。
近期輝達在算力晶片方面對台積電繼續增加高達 25% 的投片量,台積電下半年業績或繼續超預期。
目前仍不停地堆加算力和資料,資料中心的「算力規模」如今成為了大模型迭代速度的最關鍵因素。在 Transformer 架構及堆料張量運算乘法核所構建的現階段高確定性行業發展設計思路支持下,促使定客製化ASIC重出江湖。
現階段全球算力客製晶片 ASIC方面,以博通和美滿的市占率為主。
博通以 35% 的市占率位居第一,其次是美滿以 12% 的市占率位居第二。
據研究公司 650 Group 估計,資料中心客製化晶片市場2024年將增長至100億美元,到 2025年將翻一番。
在20年前,晶片發展史上就出現過「定制晶片ASIC」取代「通用晶片」GPU 的過程。
早年行業算力需求較低,並行計算較弱的CPU也曾經參與早期的比特幣挖礦,並成為當時主要的算力來源。
但2010年起,隨著比特幣持續走高,挖礦算力需求快速提升,同時由於比特幣採用 SHA256 哈希演算法適合並行計算,因此在 2010年至 2012年期間,GPU 算力逐漸取代 CPU,成為當時主要的算力來源。
2012年後期,比特幣持續全球暴漲,挖礦算力需求進一步增長,高性價比「客製晶片ASIC」開始出現在市場上。
而哈希演算法的確定性以及行業對下游算力需求的樂觀預期,共同造就了挖礦行業 ASIC晶片快速取代通用晶片GPU 的歷史進程,自此全球挖礦算力需求絕大部分市場皆由定制晶片ASIC 所佔領。
此「客製晶片ASIC」產品針對固定架構及演算法所設計的場景需求定制晶片,其在特定應用方面性能明顯優於通用晶片GPU,因此在特定演算法場景下,擁有最佳性能的客製晶片比輝達的通用 GPU 更具優勢。
輝達也完全意識到自身主營業務的潛在風險,因此成立了新的業務部門,專注於為雲運算公司設計定制算力晶片,客戶群涵蓋輝達現階段的主要收入來源,包括谷歌、微軟、亞馬遜、Meta 等,旨在搶佔客製晶片未來爆炸性的市場需求,以此提前布局免受尋求輝達晶片替代品的潛在風險影響。
尤其,2024年起 AI處理的重心正從雲端算力轉向邊緣端側場景應用,預測「客製晶片ASIC」的高性價比優勢在全球應用推理階段將進一步放大,市場規模相較全球AI發展初期的算力訓練階段將顯著提升,競爭格局整體走向利好全球頭部數家AI 晶片設計廠商。因此,輝達未來所面臨的市場局勢不容樂觀。
但是,在晶片議價方面,輝達在晶圓的採購量現階段遠超博通和美滿,進而擁有較高的議價能力和規模量產的優先權。按此邏輯,即使超級雲運算廠商擁有強大的 IC設計團隊,除非能與台積電簽訂具價格競爭力的長期協議訂單,否則難以在價格上取得優勢,打破輝達現階段的壟斷局面。
從挖礦時代客製晶片 ASIC 的崛起,進而取代通用晶片 GPU 成為挖礦主力,再到如今 AI 算力晶片 ASIC 的重新登場,歷史似乎正在重演。
總體來看,當某一類重要的特定演算法推動了下游晶片需求的大爆發,進而使此通用型晶片中的特定功能被分割出來,形成了新的客製化晶片。
現階段在 Transformer 架構下的張量堆料矩陣運算趨於穩定,基於此穩定且特定演算法需求的出現,通用晶片中的小核心、甚至是向量計算核心,逐漸成為了功耗與成本的負擔。客戶終究不會因為此單一特定的張量運算需求而負擔通用晶片中的額外硬體成本,因此客製化片 ASIC 的崛起是歷史的必然。
預測未來大方向—–現階段產業前期由通用晶片探索新演算法、搭建大模型,後期由 ASIC晶片通過高性價比將下游需求大規模釋放,特別是在接下來全球應用推理階段,其價值量預測將進一步放大。整體發展方向包括:
1、效仿 Google 客製晶片 TPU 擴大晶片面積,即在單個晶片內設計更多張量運算核心,進而提升定制晶片的算力。
2、效仿客製晶片Groq設計的sRAM、DDR 高速存儲橋接產品路線,即張量運算核心將數據運算後直接轉移給相鄰的sRAM或 DDR,進而實現多運算核心之間的更高效協作方案,其性價比勝過 HBM 方案。
3、控制算核運算的編譯器相較以往更加重要。由於ASIC晶片架構中缺少了如通用晶片中對數據預處理的小核心,AI晶片設計廠商需重塑編譯器軟體設計環節。
(三)「地緣政治」風險
■「地緣政治問題」,使「輝達」在中國市場拓展受限
「地緣政治問題」也正在衝擊輝達的市場競爭,成為輝達未來的挑戰。
例如2023年10月,美國政府正式發布禁令,規定以輝達為首的晶片廠商,不得出售高性能 AI晶片給中國,以維持其技術領先地位。
但過去輝達核心業務的四分之一來自中國,這項禁令勢必會影響其未來收入。
例如輝達2023手第四季中國地區數據中心營收占比已自2023財年的19%下降至個位數。
但輝達顯然不想輕易放棄中國市場。輝達仍努力開發出降規版的晶片,在美國框定的限制範圍內,盡力提供中國市場晶片。
但相較於性能大打折扣的輝達晶片,中國企業已經開始考慮國產替代品。因降級後的輝達晶片,在性能方面已接近更便宜的中國晶片。
尤其,考慮到隨時可能再次發生改變的美國限制政策,提前開發並適應自產晶片似乎是更安全的道路。
■面臨「美國總統大選」變數,使美股政治風險波動加大?
「輝達」的腳步一路狂奔,成為AI市場霸主,但漲多是最大風險,未來,「輝達」亦面臨「美國總統大選」變數,漲勢是否能延續呢?
時序進入2024下半年,即便AI算力應用領域日進千里,技術革命加速,但「美國總統大選」11/5日仍將帶來衝擊,是否迫使AI派對狂歡,進入中場休息?
(四)來自中國的挑戰
■WSJ:華為將推新AI晶片昇騰910C 挑戰輝達
《華爾街日報》(WSJ) 8/13日報導,近幾周中國網路公司和電信營運商一直在測試華為最新的處理器昇騰 910C(Ascend 910C)。
據悉,華為對潛在客戶說,這款新的晶片與輝達 (NVDA-US) 2023年推出的 H100相當,H100 因受到美國2023年推出的限制新規而未在中國上市。
不過,華為目前的晶片有生產延遲的情況。因為該公司有面臨美國進一步限制的可能,製造設備和 AI硬體中使用的最新記憶體晶片恐怕會被新規剝奪。
但是,包括 Tik Tok 母公司字節跳動、搜尋引擎巨擘百度 (BIDU-US)(9888-HK) 和中國移動 (600941-CN) 在內的公司正在就拿到昇騰910C晶片進行初步討論,目前初估訂單可能會超過 7萬個晶片,總價值約為 20億美元,華為力拚最快在 10月開始出貨。
反之,在美國限制下,輝達目前只能賣給中國「降規版」H20 晶片。
雖然,輝達正在研究一款替中國量身訂造的晶片「B20」,但倘若白宮收緊相關規定,這款晶片設計恐怕難讓美國同意對中國出口。
產業研究公司 SemiAnalysis表示,如果華為能夠順利生產昇騰 910C晶片,輝達卻遲遲無法銷售「B20」晶片,後者恐怕會迅速丟了中國市占。
■全球爆紅「生成式AI專利」申請量中國獨佔70%
隨著生成式人工智慧(Gen AI)持續火爆,全球生成式AI專利的申請量也呈現爆發式增長。
據世界知識產權組織(WIPO)近日公佈的最新報告指出,2014年至2023年的10年間累計專利申請量達到約5.4萬件,但其中約25%都是在2023年申請的,來自中國的企業在Gen AI相關專利的申請量高達7成,位居全球第一,達到了38210件,是排名第2的美國(6276件)的6倍。緊隨其後的分別是韓國(4155件)、日本(3409件)、印度(1350件)、英國(714件)、德國(708件)。
中國在所有5個GenAI模型中的專利家族申請數量上都佔據了主導地位,其中在擴散模型的領先地位尤為明顯,自 2014年以來,中國公佈的在該領域的專利家族申請數量達到500件,是排名第2的美國的(35件)的 14倍多。
從全球企業在已識別的五種關鍵 GenAI 模型所涉及的專利申請量排名時,發現來自中國的企業處於領先地位。排名前20的企業分別為騰訊控股、平安保險、百度、IBM、阿里巴巴、三星電子、谷歌母公司Alphabet、字節跳動、微軟、步步高電子、網易、NTT、華為、中國移動、中國國家電網、Adobe、索尼集團、西門子、螞蟻集團、中國工商銀行。其中12家企業來自中國,4家來自美國,2家來自日本,1家來自韓國,1家來自德國。
另外,從全球科研院校在上述5種關鍵 GenAI 模型所涉及的專利申請量排名來看,同樣是中國的科研院校排名居前。排名前十的科研機構分別為中國科學院、清華大學、浙江大學、浙江工業大學、韓國國家科學技術研究委員會、南京航空航天大學、大連理工大學、中國石油大學、中國礦業大學、美國加州大學。
可以看到,排名前10的科研院校當中,有8家來自中國,1家來自韓國,1家來自美國。
(五)「反壟斷」風險
■「輝達」遭法國競爭管理局展開「反壟斷」調查
全球AI浪潮讓輝達(NVDA-US)的事業如日中天,卻引發各國擔憂輝達壟斷AI市場,濫用市場支配地位。
7/2日法國競爭管理局開出「反壟斷」第一槍、展開調查,若輝達「壟斷」罪名最終成立,最高恐受到營業額10%的罰款。
監管機關對晶片產業依賴輝達 (NVDA-US) CUDA 晶片程式編寫軟體表達擔憂,對於輝達 (NVDA-US) 近期投資CoreWeave等專注於 AI的雲端服務供應商,也感到不安。違反法國反壟斷規定的公司,將面臨其全球年營業額 10% 的罰款,但這些企業也可以做出讓步、以避免罰款。
■美國議員敦促司法部展開輝達AI晶片「反壟斷」調查
8/1日,美國進步團體和民主黨參議員沃倫 (Elizabeth Warren) 敦促司法部調查輝達(Nvidia)(NVDA-US),認為該公司在推動 AI晶片市場上占據主導地位。
沃倫反對輝達將軟體和硬體捆綁在一起的做法,並提倡政府對科技公司進行監管,以防止扼殺創新。
實際上,目前輝達占據全球逾 80%的 AI晶片市場,近 92%的生成式 AI 訓練算力市場,其中包括 Google、微軟和亞馬遜等雲運算公司均採用輝達的 GPU產品。這種主導地位,幫助輝達產品實現了 70%至 80%的毛利率。
除輝達之外,OpenAI 目前也面臨相關的質疑和調查問題。7 /31 日,包括美國夏威夷州民主黨參議員 Brian Schatz 在內的五位參議員向 OpenAI 執行長 Sam Altman 發表了一封信,信中對 OpenAI 的政策提出質疑,尤其是在對美國 AI 技術發展方面提出許多疑問。
對此,Sam Altman 指出,OpenAI 將繼續履行承諾,在未來幾年內將 20% 的運算資源分配給安全相關研究。該公司在信中承諾,除了雙方達成互不貶損協議的特定情況外,它不會對現任和前任員工強制執行互不貶損協議。OpenAI 之前對離職員工的限制因異常嚴格而受到審查。公司此後表示已改變其政策。
四、AI產業熱潮,與2000年網路泡沫時的比較
不到一年半的時間,輝達 (Nvidia) 股價飆漲7倍以上,市值一度超過3兆美元,成為美國市值第一大。輝達 (NVDA-US) 股價2024年以來累計漲幅超過140%,逢高調節賣壓似乎已出籠。近日快速衝高、拉回後,呈現高檔動盪。
事實上,輝達並不是唯一出現股價大幅度震盪的 AI 概念股。很多科技巨頭股票在今年上半年都出現了驚人的漲幅,而在進入充滿風險的下半年之前,獲利盤的湧現使得股價短期回調的風險加劇。因此,關於「AI泡沫」話題再度成為市場熱點。
但AI產業熱潮是否出現泡沫?與輝達(NVDA-US)的股價是否跌落神壇?其實是兩碼事。
目前美股值得注意的是,除了漲幅太大和估值過高之外,還有更多讓人感到擔憂的現象:股市漲幅集中在少數幾支股票上,如「四巨頭」,這也是某些人擔心股市能否持續上漲的一個原因?
■此波AI產業熱潮,與2000年網路泡沫時的差異
2023年標普500指數上漲 24%;而2023年「七巨頭」上漲 111%,2024年繼續上漲;美股目前估值非常高,這一點毫無疑問。
標普500指數的本益比已超過25倍,遠高於16倍的歷史平均水平;「七巨頭」和 AI革命龍頭輝達按過去12個月獲利計算的本益比已超過45倍。
難怪有些人認為AI熱潮和網路泡沫非常相似,並且預計股市很可能出現類似的崩潰。例如投資大佬格蘭珊 (Jeremy Grantham) 和岡拉克 (Jeffrey Gundlach) 等人斷言,美股正處於泡沫之中,估值過高,和 2000 年初網路泡沫的情況一樣。
不過,現在和2000年初仍有些不一樣之處。因2000年初的估值比現在高得多。例如2000年當時最受追捧的科技股按過去12個月獲利計算的本益比高達三位數,而目前「七巨頭」的平均本益比約為45倍。
另外,再比較兩個時代的代表性企業:思科和輝達。
2000年1月思科的本益比達到三位數。而當時思科成長率為36%,亞馬遜等許多當時股市上的寵兒則根本沒有獲利。所以網路泡沫破裂時,思科市值蒸發超過90%,不過接下來幾年思科收入仍繼續溫和成長。
反觀輝達(NVDA-US)生產的用於訓練 AI模型的晶片目前需求量很大,該公司最近的漲幅可說是史無前例;輝達2023年獲利成長 769%,在網路榮景時期,沒有哪家大公司能達到這樣的成長:而2024年輝達以更高速速度成長,那麼它的遠期本益比將只有30倍:此外,AI 有望大幅提升生產力,可能和工業革命一樣重要,所以輝達的支持者認為它還是一支便宜的股票。
當然,要確認市場泡沫化,只有在事後才能蓋棺確定。
如今的美股也許像1996年般狂野,但當時股市仍然持續上漲多年,而直到2000年初才暴跌、崩落。因此,輝達帶領的AI產業革命可能才剛剛起步階段。
■高盛:這輪AI產業熱潮,目前遠沒到1999年的網路泡沫瘋狂
隨著美股科技股仍持續上漲,市場擔憂2000年的網路泡沫破裂將重演,但高盛認為這輪科技多頭還有空間,因目前遠沒到1999年的網路泡沫瘋狂。
高盛在2 /24日最新的報告中指出,提出「短期內科技股的漲勢還會繼續」看法,因1994年 IT資本支出和生產力的激增開啟了納指的多年上升趨勢,直到1999年和2000年才出現泡沫破裂。
■「輝達」是否重演2000年網路泡沫「思科(Cisco)」歷史?
輝達股價2024年迄今仍飆漲將近3倍,並推升美股走升,而輝達股價漲多拉回,亦讓市場想起2000年初的網路泡沫。思科在2000年1月的本益比高達三位數,當網路泡沫破裂時,該公司市值蒸發超過90%。
凱投宏觀(Capital Economics)首席經濟學家Neil Shearing示警,雖然AI浪潮的泡沫可能持續推升美股未來1年半的漲勢,但之後終究會破滅,投資人應注意,美股將會迎來一段明顯表現不佳的時期。
另資深專欄作家James Mackintosh也說,現在市場過度依賴「輝達成功、美股就成功」的想法是很危險的,若輝達光芒不再,美股走勢將連帶受影響。
隨著AI需求從成長轉趨穩定,科技巨頭與雲端服務業者的投資活動逐漸成熟,加上主要客戶開始依賴自家晶片,且把更多資源投入自行研發的產品,恐讓輝達陷入下行循環。
未來,輝達必須藉由軟體優勢,來訓練客戶的AI模型,以形成「輝達生態系」的軟體優勢,輝達才能建立企業的護城河。
五、跋尾–當AI行情與「貨幣超發」產生量子糾纏時
這波AI產業奠基於科技創新、生產力提昇的實體經濟面,因此,AI產業仍會持續狂歡幾年!
但是,AI「七巨頭」的股價狂奔,卻是巧遇在貨幣面的「貨幣超發」上,光是川普、拜登「拼選舉」即超發14兆美元,形成資金狂潮載舟的驚濤駭浪景象,但隨著「抗通膨」、「縮表」下,資金退潮後,將看出誰在浪潮下「裸泳」?
■人工智慧(AI)可能帶動一場產業革命,推升實體經濟成長
即使目前 AI熱潮存在一些投機因素,但這波AI熱潮是由擁有雄厚資金的大型科技公司所主導,其充裕的資金可支持 AI熱潮發展。
尤其,人工智慧(AI)可能帶動一場產業革命,並在生產力方面帶來巨大效益。充分應用 AI的公司最終能夠降低生產成本、產生更高的利潤,降低本益比。
另一方面,這是一個長期的大趨勢,意味著 AI貨幣化所需的時間,可能比我們預期的更長。
Ned Davis Research投資組合策略師 Pat Tschosik 指出,1930年以來的多頭市場平均持續 694天。目前這輪多頭市場只持續 344天,顯示它只處於中點位置。
因而,他建議投資人應該接受這樣一個事實:始於 2022年10月的美股牛市只過去一半,至少從歷史來看是這樣呈現。
■回收「貨幣超發」抗通膨,將使AI股的風險貼水溢價縮水
在整個Q1財報季,押注 AI個股一直是高回報、高風險投資。
這是因為 AI 股票在獲利高於或低於預期時的貝塔係數更高。
但近期有些事情出現變化。
每當出現一個像惠普 (HPQ-US) 這種獲利超出預期、並宣傳其「為AI和混合時代設計的創新解決方案組合」後股價上漲 17% 的公司,就會出現一樣像戴爾 (DELL-US) 這種獲利僅比預期高 1美分導致股價暴跌 22%的公司;對於在過去三個月上漲 80%的戴爾來說,這樣的獲利表現顯然不夠好。
目前,就整個股市而言,只剩輝達才是貨真價實、重要的AI 股。
Evercore ISI 數據顯示,輝達 5 /22日公布財報時,其股價與標普500指數的相關性為 0.95;且過去一年輝達和標普500指數的走勢幾乎完全一致。
隨著股市失去上漲動力,或許AI行情到了中場休息的時候了。
但AI行情休息只為走更長的路,至少,輝達Blackwell GPU架構產品尚未上市,並非已經走到盡頭。
■AI是長期多頭題材,但仍應留意短期回檔風險!
在這波AI漲勢中,會發現只要跟 AI沾上邊的公司,股價都出現不小反彈,但並非所有企業都在 AI方面提早佈局,當 AI熱潮冷卻之後,那些來自 AI營收不如預期的公司,股價勢必將出現回檔;AI題材漲多,其實就是回調最大的利空,回挫力道將不容小覷。
目前大盤看似強勢,但是除半導體及電子零組件外,多數產業的基本面狀況依然偏弱,只要AI獲利了結賣壓一出現,樂觀情緒不一定持續下去。因此,AI可視為長期多頭題材沒錯,但短線不建議再追高,逢修正再擇優布局,才是正確的投資策略。
另外,AI是新題材,但長遠發展商業模式都還沒確定。
誠如分析師翁偉捷表示:「輝達已經把未來五年後利多,提前到2023年做反應,所以接下來,股價比較偏高,後續營收狀況還沒實現同時,大家一定要特別留意,追高的風險。」
■童子賢:AI爆炸成長,十分耗電,可能2025年就要重估電力需求
「得 AI得天下」這波 AI浪潮的主思維,而不論晶片到零組件,台灣的業者都一直處於核心地位,這是台灣產業的機會。
而國師童子賢表示,AI產業的發展前提是要穩定供電,在目前 AI產業爆炸性跳升下,估計台灣2025年可能就要重新評估電力需求。
且在節能減碳的趨勢下,要如何大量發電,在環保要求下、又得同時減少碳排,這是政府相關部會需要思考的議題。