手机免费看国产欧美精品_久久精品国产9久久综合_免费无码一区二区三区视频_亚洲综合精品一二三区在线

您的位置:首頁>AI>

Cerebras CS-1通過比任何其他芯片更快的來計算深度學習AI問題

如今,深度學習已成為企業(yè)界的熱門話題,并且不難理解為什么。無論是優(yōu)化廣告支出,尋找治療癌癥的新藥,還是僅向客戶提供更好,更智能的產(chǎn)品,機器學習(尤其是深度學習模型)都具有大規(guī)模改進一系列產(chǎn)品和應用的潛力。

不過關鍵字是“潛力”。盡管過去幾年我們在企業(yè)會議上聽到了關于深度學習的大量言論,但要廣泛使用這些技術仍然存在巨大障礙。深度學習模型是高度網(wǎng)絡化的,節(jié)點的密集圖與計算機處理信息的傳統(tǒng)方式不太“匹配”。另外,擁有深度學習模型所需的所有信息可能占用PB級的存儲空間,并在處理器機架上占用大量空間才能使用。

目前有很多方法可以解決此下一代計算問題,而Cerebras必須是最有趣的方法之一。

正如我們在8月份發(fā)布公司的“晶圓級引擎”(該公司提供的全球最大的硅芯片)時所談到的那樣,塞雷布拉斯的理論是,深度學習的方向實質上就是將整個機器學習模型裝在一塊大芯片上。因此,該公司的目標是做大—確實做大。

今天,該公司宣布推出其最終用戶計算產(chǎn)品Cerebras CS-1,并宣布了其第一位客戶Argonne國家實驗室。

CS-1是“完整解決方案”產(chǎn)品,旨在添加到數(shù)據(jù)中心以處理AI工作流。它包括Wafer Scale Engine(或Was Scale Engine,即WSE,即實際的處理核心),以及將處理器集成到數(shù)據(jù)中心所需的所有冷卻,聯(lián)網(wǎng),存儲和其他設備。它的高度為26.25英寸(15個機架單元),包括40萬個處理核心,18 GB的片上內存,每秒9 PB的片上內存帶寬,12 GB的以太網(wǎng)連接,用于將數(shù)據(jù)移入CS-1和移出CS-1。系統(tǒng),僅消耗20千瓦的功率。

Cerebras聲稱CS-1可以提供超過1000個領先GPU的性能-盡管TechCrunch尚未對此進行驗證,但我們仍在等待測試人員在接下來的幾個月中等待行業(yè)標準基準測試。

除了硬件本身,Cerebras還宣布發(fā)布了一個全面的軟件平臺,該平臺使開發(fā)人員可以使用TensorFlow和PyTorch等流行的ML庫將其AI工作流程與CS-1系統(tǒng)集成。

在設計系統(tǒng)時,首席執(zhí)行官兼聯(lián)合創(chuàng)始人安德魯·費爾德曼(Andrew Feldman)表示:“過去一年多的時間里,我們已經(jīng)與100多個客戶進行了交談,”以確定對新AI系統(tǒng)和軟件層的需求。在它上面。“多年來,我們了解到,您想與他們所在的軟件社區(qū)見面,而不是要求他們搬到您那里。”

我問費爾德曼,為什么公司要重建這么多的硬件來為其系統(tǒng)提供動力,而不是使用現(xiàn)有組件。“如果要制造法拉利發(fā)動機并將其安裝在豐田車上,就無法制造賽車,”費爾德曼類比。“在Dell或[其他]服務器中放置快速芯片不會進行快速計算。Feldman解釋說,CS-1旨在采用基礎的WSE芯片,并為其提供使其能夠發(fā)揮其全部功能所需的基礎結構。

免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!