搜尋結果:3則
OpenAI營收達40億美元,阿特曼稱經常與美官員聊AI
華爾街日報週四(9月12日)引述知情人士報導,阿拉伯聯合大公國在今年3月成立的MGX有意透過最新一輪融資投資OpenAI。報導指出,阿拉伯聯合大公國主權財富基金「穆巴達拉投資公司(Mubadala Investment Company)」以及G42(阿拉伯聯合大公國支持的AI企業)是MGX的創始合夥人。 Ope...詳全文(本文由 MoneyDJ新聞 授權轉載)
安提國際於COMPUTEX 2024發表NVIDIA MGX邊緣AI伺服器
宜鼎國際(Innodisk)集團子公司安提國際(Aetina),4日於COMPUTEX 2024中宣布,推出旗下首款創新的NVIDIA MGX短機身伺服器「SuperEdge AEX-2UA1」。 AEX-2UA1是市場上首批採用x86 CPU架構的NVIDIA MGX短機身邊緣AI伺服器,代表著安提在邊緣AI產品版圖的重大突破,從專業邊緣裝置跨足至全方位人工智慧伺服器解決方案。 隨著SuperEdge NVIDIA MGX短機身伺服器的推出,更象徵了宜鼎集團AI布局更推進至下一個重要里程碑;自此,宜鼎集團將可全方位滿足客戶從前端感測器、儲存裝置、AI軟體工具、邊緣運算平台到邊緣AI伺服器的多元需求。 SuperEdge AEX-2UA1邊緣AI伺服器,能於緊湊外形中提供強勁效能,助力企業透過私有大型語言模型 (LLM) 等企業級人工智慧應用,有效處理較為敏感的數據資料。其緊湊強勁、空間優化的系統設計,特別適用於注重資料隱私的金融、醫療,以及5G電信產業等領域,適合用於關鍵型任務應用與部署。 隨著生成式AI技術的快速發展,各行各業都湧現出巨大的應用潛力。然而,傳統的雲端開放式大型語言模型(Cloud-based LLM)服務,對於處理敏感資料的行業,例如金融、生物科技、醫學研究而言,可能在營運及合規性方面潛藏風險。有鑑於此,這些企業急需一套能兼具安全性與成本效益,同時效能符合企業需求情境中運行大型語言模型的解決方案。 安提推出AEX-2UA1企業級邊緣AI伺服器,協助企業在本地端部署私有大型語言模型的AI訓練與推理,賦能企業得以利用敏感資料訓練模型,並於符合嚴格法規的前提下安全地運用這些模型。 AEX-2UA1結合先進的NVIDIA和Intel 技術,搭載最新Intel® 第六代Xeon處理器,支援高達兩張NVIDIA 雙插槽 (Double-deck) GPU,並透過強大的NVIDIA NVLink GPU至 GPU的雙向直接互連技術,釋放高效能邊緣運算應用的完整潛能。 此外,AEX-2UA1支援先進的網路解決方案,包括NVIDIA Bluefield-3 DPU、SuperNIC和NVIDIA ConnectX-7 NICs,讓企業的邊緣AI系統可在伺服器與伺服器或儲存設備之間進行高效通訊、達到平行處理,相互串聯成企業級邊緣AI系統。 有鑑於邊緣端的環境限制,AEX-2UA1採用 x86短機身設計(43.8cm x 42cm x 8.8cm),並透過前置式I/O設計和緊湊機架式外型提升空間利用率,使其能夠靈活部署於各種機架和非機架環境,使企業能將多元的AI應用部署於任何所需的邊緣端位置。 同時,AEX-2UA1採用NVIDIA MGX模組化伺服器架構,提供最大的靈活性和相容性,並支援NVIDIA新一代的Blackwell GPU,以協助企業確保更高的未來擴充性。
《電週邊》雲達科技GTC秀創新 NVIDIA MGX架構系統亮相
【時報記者任珮云台北報導】廣達(2382)旗下雲達科技(QCT)今天在NVIDIA GTC展出自家基於NVIDIA MGX架構的系統和AI應用案例,並宣布支援即將推出的NVIDIA GB200 Grace Blackwell超級晶片和NVIDIA GB200 NVL72,後者為專門為生成式AI時代所設計的多節點水冷式機櫃規模平台。雲達科技今年以「QCT NVIDIA MGX架構系統,加速邁入AI時代」為主題展出。 雲達科技最新NVIDIA MGX架構系統搭載NVIDIA GH200 Grace Hopper超級晶片,採用模組化參考架構。系統製造商可運用NVIDIA MGX架構,針對生成式AI、高效能運算(HPC)和邊緣部署等多種應用量身訂做最適合的機型。例如,QCT QuantaGrid S74G-2U是一台基於MGX架構且搭載NVIDIA GH200超級晶片的機種,協助奧勒岡州立大學和聖荷西州立大學加速模擬和HPC建模,取得突破性的科學研究進展。 QuantaEdge EGX77GE-2U是雲達科技首台採用NVIDIA GH200 超級晶片和NVIDIA MGX架構的短機身邊緣伺服器,可實現智慧城市、智慧製造、智慧醫療等工作負載。雲達科技運用NVIDIA最新科技打造一系列空冷與水冷的加速伺服器,以因應於不同的垂直產業在各種需要同時運行的工作場景中對於系統工作負載的需求。 全新公布的NVIDIA GB200 Grace Blackwell超級晶片即將催生一個全新的運算時代。與NVIDIA Hopper架構GPU相比,它可加速即時大語言模型推論速度30倍、降低總擁有成本25倍,並降低能耗25倍。一張NVIDIA GB200 Grace Blackwell超級晶片具有兩個NVIDIA Blackwell GPU和一個NVIDIA Grace CPU,可以擴充到GB200 NVL72,利用第五代NVIDIA NVLink將72個Blackwell GPU、36個Grace CPU與多個NVIDIA BlueField-3 DPU連結起來,成為單一個巨型GPU。GB200超級晶片搭配同樣在本次GTC公布的NVIDIA Quantum-X800 InfiniBand和Spectrum-X800 Ethernet,可提供生成式AI、HPC和資料處理前所未見的性能。 「隨著生成式AI導入各行各業,運用最新NVIDIA AI架構和科技打造的系統將可協助雲達的客戶快速洞見商機,達到目標」,雲達科技總經理楊麒令表示。「雲達科技在自家QuantaGrid、QuantaEdge產品線實現NVIDIA MGX架構,以及包括GB200 NVL72等Blackwell開創性進展,搭配BlueField-3 DPU、NVIDIA Quantum-X800和Spectrum-800,我們已準備好要提供空前強大的性能、效率與安全性的系列產品」。 「生成式AI正在蓬勃發展,各大公司與研究人員都在思考如何運用這項創新科技,才能達到更高效能,縮短取得研究結果所需的時間」,NVIDIA GPU產品管理副總Kaustubh Sanghani表示。「雲達科技運用NVIDIA最新科技開發先進系統—包括配備全新Blackwell架構的NVIDIA GPU加速伺服器和搭載GH200超級晶片的NVIDIA MGX伺服器—持續開拓AI疆界」。