2023年伊始,Chat GPT掀起了人工智能的浪潮,似乎表示我們提及多年的人工智能時代,即將來臨。面對這一變革,有的人恐慌,有的人淡定,有的人不知所措。
然后對于我們從事涉及芯片行業的人來說,更擔心的是AI芯片走向的問題,更多的人工智能產品出現,是否有足夠的AI芯片供應,現有的芯片是否能夠滿足人工智能產品的需求呢?我們是否已經進入AI芯片的短缺時代呢?
AI芯片市場現狀
隨著現象級AI產品Chat GPT的走紅,以大型語言模型為代表的前沿AI技術走向聚光燈之下。不少相關企業都接連推出了自己的大模型,百度、阿里、360、商湯等國內企業紛紛宣布入局AI大模型。
為啥需要大量的AI芯片呢?
AI芯片可分為GPU(圖形處理器)、ASIC(專業集成電路)、FPGA(現場可編程門陣列)和類腦芯片。大模型對于GPU的要求極高。主要是數量要求和性能要求,也就是說,不是每一款GPU都是符合要求的,好不容易生產出來的芯片可能是個“廢物”。
據網上的消息,Chat GPT每天在計算硬件成本方面的運營成本為69萬美元。Open AI需要約3,617臺HGX A100服務器(2.8萬個GPU)來為Chat GPT提供服務。
哪些企業在搶AI芯片?
國內的互聯網公司幾乎都在搶購,不管自己之前有沒有人工智能產品,都在進行語言模型訓練。比如百度的文心一言,阿里的通義千問,華為的盤古系列AI大模型、科大訊飛 的1+N認知智能大模型、昆侖萬維的天工、知乎的知海圖AI等。另外好像騰訊也有新的動作,具體模型還未知。
不過,國內如果想要直接訓練出一個GPT-3級別的大模型,最少需要3000到5000枚A100級別的AI芯片。以保守情況估計,目前國內A100級別的AI芯片缺口在30萬枚左右。
除了國內企業,國外企業的需求更甚,微軟、谷歌、蘋果等公司,都有自己的大語言模型,馬斯克的公司,為了推進推特內部的新AIGC項目,直接購買了約1萬個GPU。
AI芯片價格暴漲?一芯難求?
截止5月5日,英偉達最新發布的旗艦AI芯片H100在ebay上的售價達到4萬美元一枚。國內方面,AI應用的主力芯片——由英偉達2020年發布的A100,價格也在飛速飆升。從年初到現在的5個月內,A100的價格從原來的6萬元一路飆升到10萬元,漲幅超過50%。英偉達A100顯卡,價格也在同步上漲。
對于用于AI的特定類型的芯片,實際上已經出現了繁榮和一些已經變得明顯的短缺。而且似乎對這些類型芯片的需求只會增長。
AI芯片產能如何?
作為最強GPU,英偉達選擇了擁有全球最先進制程的臺積電進行獨家代工。具體來看,英偉達的A100、A800采用的是臺積電7nm工藝、H100則是由臺積電5nm定制版(4N)打造。
今年Chat GPT的火熱帶來了芯片產能的又一暴漲需求。但是臺積電本身產能有限,再加上原有訂單,導致AI芯片產能完全跟不上市場需求。
再加上國際政策,貿易摩擦等因素,受到美國禁令的影響,英偉達直接對臺積電下了“超級急件(super hot runs)”訂單。這批“超級急件”總量約5000片,交期將大幅縮短,從原本預估的5至6個月,壓縮為2至3個月,最快10月底至11月初開始交貨。這就表示即使英偉達現在下單臺積電,正常情況下GPU的量產仍需要一段時間。
現實的情況就是想買買不到,需求旺盛產能過低,估計未來AI芯片慌還會持續一段時間。
聲明:網站文章由長龍鑫電子http://clxet.com/原創首發,轉載或者引用本文內容請注明來源!
Copyright ? 2002-2022 長龍鑫 版權所有 Powered by EyouCms 地址:廣東省深圳市寶安區新安街道創業二路 新一代信息技術產業園C座623號 備案號:粵ICP備17052896號 網站地圖