現在美股七姐妹幾乎都和AI有關,并且都在造顯卡。巔峰時美股近四分之一市值來自七姐妹。
英偉達的邏輯是AI的大規模落地,會帶來對顯卡的爆發式需求。
然而DeepSeek v3的橫空出世,證明不用燒那么多顯卡只需要十分之一的成本也能接近、達到OpenAI的效果。
我不否認美國人在創新方面的能力啊,但是在落地應用、大規模推廣方面,我更看好東大。
作為AI愛好者,我在玩stable diffusion的時候就發現了,字節、小米以及國內外大模型開發者,能把巨無霸級的模型進行優化和瘦身,能夠以非常小的資源來運行本來巨大的模型。
比如SDXL剛推出的時候,我的12G顯卡要跑十幾分鐘才能跑出滿意的效果,而字節的加速技術能壓縮到十幾秒鐘,小米整了一個1秒數十張圖的“神跡”(不過出圖效果有限)。
在Sora遲遲不能正式發布的時候,騰訊出了個混元AI視頻,效果好于Sora,并且開源。第一批愛好者是在4090上勉強跑起來的,我的12G的3060壓根沒有資格,結果短短一周之后,開發者們把它優化到能在8G顯卡上跑起來。
DeepSeek 的技術也是類似,在方向既定的情況下,把成本降到最低,然后碾壓全球,是東大的祖傳技能了。
這也就意味著,未來會出現兩個情況:
一是對算力卡的數量要求沒那么高了,那么英偉達可能賣不了那么多顯卡;
二是對算力卡的質量要求沒那么高了,可能不需要英偉達了,只需要昇騰甚至更低檔的貨就足夠訓練地表最強大模型。
一旦這個商業邏輯做實,英偉達的股價以及它帶領的七姐妹都會崩盤。