快訊

    高通正式進軍AI伺服器戰場股價暴漲! 陸行之點AI賽道奔馳看6關鍵

    2025-10-28 07:34 / 作者 陳俐妏
    高通商標,圖為2023年8月。路透社
    不讓輝達和AMD專美於前!晶片大廠高通昨宣布推出兩款AI加速器伺晶片AI200 與 AI250,將以液冷伺服器機櫃系統形式銷售,協同運作以執行大型 AI 模型,預計2026 年與 2027 年上市,揭示急起直追AI伺服器戰場的決心,故價也大漲回應。知名半導體分析師陸行之表示,高通能否在AI戰場占據重要地位,需觀察部屬成本、軟體能力、銷售額和相關記憶體和封裝技術等六項指標。

    高通資料中心與邊緣運算事業總經理 Durga Malladi 表示,AI200 與 AI250 延伸自高通行動晶片中的Hexagon 神經處理單元 (NPU)。高通透過其他領域累積 AI 運算實力,如今進軍資料中心相對順利。

    以目前高通 AI200和AI250機架系統方案來看,皆採用高散熱效率的直接液冷架構,透過PCIe進行縱向擴展,橫向擴展則採用乙太網路,機架級系統功耗為160kW,強調聚焦AI推論並著重成本效益。

    高通並未公布 AI200 與 AI250 的售價或記憶體配置上限,但已釋出單張 AI 運算卡可支援高達 768GB 記憶體,更受市場上同級 GPU 產品。今年 5 月,高通已與沙烏地阿拉伯企業 Humain 簽署合作協議,為沙國資料中心供應 AI 推論晶片,預計部署規模可達 200 兆瓦 (megawatts) 電力運算容量。

    陸行之表示,高通宣布加入AI晶片戰局,股價暴漲11%,但目前估計這個沙烏地阿拉伯的Humain 200MW合作案貢獻還不大,是否對輝達, 超微, 博通造成威脅,還需要繼續追蹤觀察。

    陸行之進一步以6個觀點分析,高通能否在AI賽道占據重要地位:

    1. 每千兆瓦部署成本
    高通10億美元、輝達50-60億美元,超微45-50億美元,Google小於45億美元
    2. 軟體能力對比
    高通對比輝達的CUDA護城河、超微的ROCM。
    3. 2026年推出的AI200及2027年推出的AI250卡/機架能否按期交付給Humain(沙特公共投資基金)
    4. 假設高通晶片提供200兆瓦推理算力,預計未來三年銷售訂單達48億美元(400億美元×20%×60%),但仍不足總銷售額5%。
    5. 高通未說明每機架配置多少張卡,以及200MW資料中心需多少機架,晶片尺寸與性能可能低於同行(提及每卡768GB LPDDR DRAM/每機架160kW)
    6. 可能不採用HBM/CoWoS技術,使用PCIE重計時器實現縱向擴展,並通過乙太網交換機實現橫向擴展。
    陳俐妏 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見