著實(shí)有點(diǎn)Amazing啊。新顯
這兩天GPU圈子發(fā)生了個(gè)事兒,賣爆被網(wǎng)友們討論地津津樂道——有一款顯卡賣爆了。大顯都搶
火到什么程度呢?存也就是一進(jìn)貨就被搶光。
GPU供不應(yīng)求其實(shí)已經(jīng)司空見慣了,新顯但之所以這次能被熱議起來,賣爆是大顯都搶因?yàn)檫@款產(chǎn)品背后的廠家。
不是存也你以為的NVIDIA、AMD,新顯而是賣爆……Intel。
為什么會(huì)如此?大顯都搶
從玩家們的討論中不難得出答案——性價(jià)比夠高,2000元價(jià)位就能在2K畫質(zhì)下暢玩3A游戲。存也
The 新顯Verge也非常“直給”地給予了一句評(píng)價(jià):
Intel終于在GPU上拿下了一次勝利。
而這款顯卡,賣爆正是大顯都搶Intel不久前發(fā)布的第二代銳炫B580,售價(jià)僅2049元起。
要知道,NVIDIA 299美元的RTX 4060和AMD 269美元的RX 7600,僅配備了8GB的VRAM。
但I(xiàn)ntel的銳炫B580不僅價(jià)格比它們低,還配備了12GB的VRAM和192bit的顯存位寬。
即使是價(jià)格更低的銳炫B570(219美元,下個(gè)月上市)也配備了10GB的VRAM。
除此之外,還有一個(gè)更有意思的事情。
雖然銳炫是游戲顯卡,但畢竟是GPU啊,于是……也有一部分人買來開始搞AI了。而這,可能會(huì)讓它未來的銷售再增三分熱度。
這不,有人在Reddit上就分享了怎么在銳炫B580上搞AI畫圖Comfy UI了:
不僅是個(gè)人用戶的嘗鮮,我們還打聽到有些企業(yè)已經(jīng)著手把Intel的顯卡塞進(jìn)包括工作站和服務(wù)器在內(nèi)的商用計(jì)算設(shè)備中了,具體搭配的“食譜”就是:Intel至強(qiáng)系列CPU+銳炫顯卡。
不過暫時(shí)用的還是Intel上一代的A770,作為上一代的旗艦型號(hào),A770有著16G大顯存,用在AI推理上,也算游刃有余。
據(jù)可靠的消息,如此組合最為搶眼的優(yōu)勢(shì),同樣是“性價(jià)比”三字。
而由此引發(fā)的,更值得討論的一個(gè)話題應(yīng)當(dāng)是:
消費(fèi)級(jí)顯卡搞AI,到底行不行?
首先可以看出來,無論個(gè)人還是企業(yè),買Intel消費(fèi)級(jí)顯卡來搞AI,基本都是來做AI推理的。
實(shí)際上,推理算力需求正在飛速增長(zhǎng),大有超過訓(xùn)練算力需求之勢(shì)。
一方面,隨著行業(yè)熱議的“預(yù)訓(xùn)練Scaling Law撞墻”了,像OpenAI o1/o3系列模型也開始依靠增加推理算力提高模型能力。
另一方面,AI應(yīng)用落地的爆發(fā)也使得推理需求大幅增長(zhǎng),這些需求往往不強(qiáng)求算力的溢出甚至極致,即所謂硬需求不高,而是更加注重實(shí)現(xiàn)夠用的性能(包括并發(fā)度和時(shí)延),以及與之同步的易獲取、易部署、易使用和成本上是否夠?qū)嵒荨?/p>
那么做AI推理為什么選擇Intel游戲顯卡?
正如前面分析,性價(jià)比肯定是一大考慮因素。
從硬件方面講,即使是頂級(jí)的算力卡,單卡做AI推理在面對(duì)高并發(fā)等場(chǎng)景時(shí),顯存也會(huì)成為瓶頸,但升級(jí)到四卡、八卡成本又會(huì)飆升。此時(shí),Intel A770這種2000元價(jià)位就有16G大顯存的型號(hào),就成了兼顧性能與成本之選。
從應(yīng)用方面講,很多場(chǎng)景其實(shí)對(duì)每秒token生成速度要求并不高,特別是有流式傳輸?shù)葍?yōu)化手段,只要first token latency到位了,后面生成速度滿足一定要求,體驗(yàn)就很好。
這是我們拿到的4張Intel銳炫A770顯卡跑Qwen2.5 32B模型的演示Demo,來感受一下這個(gè)速度,是不是足夠了?
看到這里可能有人要問了,用Intel顯卡跑AI,CUDA的問題怎么解決?
拿最流行的大模型推理框架之一vLLM來說,得益于開源軟件的發(fā)展,其早已實(shí)現(xiàn)了高級(jí)別的抽象和封裝,其實(shí)換用哪種硬件,用起來都沒差太多。
再加上Intel自己提供的開源oneAPI,就能做到很低的遷移成本。
可能還有人要問了,那為什么不選專用AI推理加速器,比如風(fēng)頭正盛的Groq、Sambanova這些?
這就要說到,多模態(tài)交互是現(xiàn)在AI應(yīng)用的一大趨勢(shì),無論是與AI視頻對(duì)話、數(shù)字人,還是直播、短視頻場(chǎng)景的一些應(yīng)用,都同時(shí)會(huì)用到視頻解碼或圖形渲染能力,這就非得是通用GPU不可。
專用加速器雖然在特定任務(wù)上有優(yōu)勢(shì),但在處理多樣化需求時(shí),通用GPU更具靈活性。
所以總結(jié)來看,用Intel顯卡搞AI推理,算力夠用,大顯存還有,可行性就有了,性價(jià)比也有了,對(duì)于現(xiàn)有業(yè)務(wù)來說,遷移成本更是理想。
后面能拿下多大市場(chǎng),會(huì)不會(huì)成為一個(gè)趨勢(shì),就拭目以待了。
Intel的曲線突圍
Intel消費(fèi)級(jí)顯卡被企業(yè)拿去搞AI推理了,Intel自己是什么態(tài)度?
那肯定是樂見其成的,而且相當(dāng)重視。
其實(shí),Intel在兩年前剛推出銳炫系列時(shí)就采取與友商不同的策略,許可證方面明確不限制數(shù)據(jù)中心使用。
為了方便大家用好AI,Intel的軟件團(tuán)隊(duì)一直沒閑著,除了更新oneAPI,還在持續(xù)推出和更新一系列開源工具,吸粉不斷。
例如加速庫(kù)IPEX-LLM,可用于大模型的推理和微調(diào),在GitHub上已經(jīng)有6.8k star。
以及低比特量化工具neural-compressor,也獲得2.3k star。
從IPEX-LLM也可以看出Intel對(duì)中國(guó)市場(chǎng)的重視,針對(duì)中國(guó)主流的開源大模型ChatGLM、Qwen、MiniCPM等都提供了適配,中文文檔和教程也做的比較完善。
為了方便大家選擇模型,Intel還在HuggingFace上維護(hù)了一個(gè)低比特量化模型的排行榜,設(shè)置好條件,就可以一鍵比較并篩選出自己需要的模型。
其中性能排名靠前的,不乏Intel自己動(dòng)手量化的開源社區(qū)優(yōu)秀模型。
這么看下來,Intel為AI開源社區(qū)做的眾多貢獻(xiàn),給企業(yè)和開發(fā)者提供了便利,也是現(xiàn)在大家愿意嘗試Intel顯卡的原因之一。
最后,我們還打聽到一個(gè)內(nèi)幕消息:
Intel看到AI推理這個(gè)市場(chǎng)需求逐漸擴(kuò)大后,在后續(xù)產(chǎn)品策略上也有所調(diào)整。
2025年,Intel準(zhǔn)備推出Battlemage系列顯卡的更大顯存版本,其容量將增至24G。
以后就是現(xiàn)有版本繼續(xù)服務(wù)于游戲等消費(fèi)級(jí)市場(chǎng),24G的更大顯存版本瞄準(zhǔn)“生產(chǎn)力市場(chǎng)”。
“生產(chǎn)力市場(chǎng)”的目標(biāo)用戶涵蓋了數(shù)據(jù)中心、邊緣機(jī)房、教育科研和個(gè)人開發(fā)者等。
擁有更大顯存的Intel顯卡,不僅可在AI推理需求上,也能在渲染和視頻編解碼應(yīng)用上做到比專業(yè)圖形卡、工作站顯卡性價(jià)比更高。
還真別說,“從游戲人間轉(zhuǎn)向打工賺錢”+“算力夠用、顯存保大”,很有可能會(huì)成為IntelGPU突圍的一招妙棋。
參考鏈接:
[1]https://www.reddit.com/r/pcgaming/comments/1hh2dvn/intel_finally_notches_a_gpu_win_confirms_銳炫_(tái)b580/
[2]https://www.techspot.com/news/105810-intel-launches-new-銳炫-battlemage-b580-b570-gaming.html
[3]videocardz.com/newz/intel-will-not-prohibit-gaming-銳炫-gpu-use-in-data-centers
[4] https://github.com/intel-analytics/ipex-llm
[5] https://github.com/intel/neural-compressor[6] https://huggingface.co/spaces/Intel/low_bit_open_llm_leaderboard