陸行之發文分析重點如下:
第一,AMD正式推出 MI350 AI GPU系列, 提前於6月量產出貨(原本是下半年推出),使用台積電3nm 製程技術,Nvidia現在量產的B200/GB200/GB300還是用4nm 製程技術。
第二,MI355X裝了288GB HBM3e Dram,宣稱一個gpu可以支援 5200參數的大語言模型,並在浮點運算FP 6, 64比B200/GB200快兩倍,但在其他精度上沒什麼優勢。
第三,MI355X 比第一代的MI300X晶片AI效能改善了35倍。
第四,在Deepseek R1的模型運算下,AMD 宣稱其MI355X GPU比B200快了20%,在Llama 3.1 模型,AMD 宣稱其MI355X GPU比B200快了近30%;因為比較便宜,可以比B200製造40% more tokens per dollar. 但在pre training 方面公司沒有明顯勝出。
第五,AMD也推出一個128/96顆gpu 的水冷機櫃及64顆GPU的氣冷機櫃跟NVL72 來拼場。
第六,AMD執行長蘇姿丰推出一個訓練跟推理的市場預測,看起來未來幾年Ai推理市場的成長將遠遠高於訓練的市場(請看留言貼圖),這似乎是AMD跟Nvidia的主戰場,因為AMD GPU在訓練方面明顯落後於Nvidia,AMD也說新產品要持續改進在訓練方面的不足。
第七,AMD新推出 Rocm 7 and Rocm enterprise ai and Rocm on client,公司期望能改善其在軟體發展的落後。
第八,蘇姿丰找了xAI、meta,、Oracle,、沙烏地阿拉伯的Humain、Microsoft、cohere、Red hat、Astera Labs、Marvell、Open AI 來背書,表示這些都是AMD 押注的客戶。
第九,至於機櫃內 Scale up 的 GPU 連結,AMD是採用 Ultra Accelerator Link (vs. Nvidia's NVLink 5.0, 900Gbps per port with 18 ports per GPU,可連接576 GPUs) ,其支援最高到800Gbps per port with multiple ports per GPU,最多可連接 1024 GPUs,而在CPU的使用,管理軟體,都是採開放標準。

第十,機櫃跟機櫃 GPU Scale out NIC 的連結,AMD 是採用 Ultra Ethernet consortium UEC (vs. Nvidia's InfiniBand)標準, 可支援到超過1mn GPUs 的連接, 透過AMD的 Pollara 400 NIC 產品。
第十一,AMD除了今年要推出Turin server CPU, MI350/355X GPU, Pollara 400 NIC之外,2026明年要推出Helios 機櫃(對標Nvidia Vera Rubin NVL 144 的Oberon機櫃,配36 Vera CPU+288GB HBM4的72顆 Rubin GPUs, 144 Rubin GPU dies)。其中,包括 18顆台積電2nm/256核心的Venice server CPU, 72顆 配432GB HBM4的MI400 GPU(沒說2 or 3nm), 還有3nm/800Gbps 的 Pensando Vulcano NIC。
陸行之指出,AMD認為其在HBM4 memory capacity, Memory bandwidth, Scale out Bandwidth 都勝出50%(很難說Nvidia明年推出 Rubin GPU 會不會突然加碼HBM的容量)。2027年要推出下世代機櫃配備Verano CPU, MI500 GPU, NIC不變,對標Nvidia's Vera Rubin Ultra NVL 576 機櫃,配72 Vera CPUs+ 144 Rubin Ultra GPUs, or 576 Rubin Ultra GPU dies。
