(資料圖)
5月29日消息,在剛剛召開的2023年臺北電腦展上,NVIDIA首席執(zhí)行官黃仁勛進行了演講。
在演講中,黃仁勛向傳統(tǒng)的CPU服務(wù)器集群發(fā)起“挑戰(zhàn)”,認為在人工智能和加速計算這一未來方向上,GPU服務(wù)器有著更為強大的優(yōu)勢。
根據(jù)黃仁勛在演講上展示的范例,訓練一個LLM大語言模型,將需要960個CPU組成的服務(wù)器集群,這將耗費大約1000萬美元(約合人民幣7070萬元),并消耗11千兆瓦時的電力。
相比之下,同樣以1000萬美元的成本去組建GPU服務(wù)器集群,將以僅3.2千兆瓦時的電力消耗,訓練44個LLM大模型。
關(guān)鍵詞: