NVIDIA Kenalkan Platform Komputasi AI Supercharges Hopper

NVIDIA HGX H200

GayaTekno.id – NVIDIA mengumumkan peningkatan platform komputasi AI terbaik di dunia dengan memperkenalkan NVIDIA HGX H200.

Secara teknis, spesifikasi NVIDIA HGX H200 dilengkapi GPU Tensor Core NVIDIA H200 berbasis arsitektur NVIDIA Hopper dan memori canggih untuk menangani data dalam jumlah besar untuk beban kerja performa tinggi dan AI generatif.

Dengan menggunakan HBM3e, kecepatan dan kapasitas memori pada NVIDIA H200 meningkat hampir dua kali lipat dibandingkan pendahulunya, yaitu A100. Rencananya, sistem bertenaga H200 ini akan mulai dikirimkan pada kuartal kedua tahun 2024.

Ian Buck selaku Wakil Presiden Hyperscale dan HPC di NVIDIA menjelaskan, penggunaan data dalam jumlah besar secara efisien harus diproses dengan kecepatan tinggi melalui GPU yang memiliki kapasitas memori besar dan cepat agar dapat menciptakan aplikasi AI generatif serta aplikasi skala besar seperti ilmu komputer.

“Dengan hadirnya NVIDIA HGX H200 ini maka platform superkomputer AI end-to-end menjadi lebih cepat dalam menyelesaikan beberapa tantangan paling penting di dunia,” ujar Buck dalam keterangan tertulisnya, Minggu (19/11/2023).

HGX H200 delapan arah menyediakan lebih dari 32 petaflops komputasi pembelajaran mendalam FP8 dan 1,1TB agregat bandwidth memorinya untuk kinerja tertinggi dalam aplikasi AI generatif serta High Performance Computing (HPC).

Saat digabungkan dengan CPU Grace milik NVIDIA yang memiliki NVLink-C2C interkoneksi sangat cepat maka GH200 Grace Superchip dapat diciptakan bersama dengan modul terintegrasi dari teknologi baru, yakni Memoria Bandwidth Memory (HBM3e) sehingga melayani aplikasi skala besar baik itu bidang industri maupun akademis.

Selain itu, opsi papan server empat atau delapan arah tersedia pada HGX-H200 sehingga bisa diterapkan di semua jenis pusat data termasuk on-premise ataupun hybrid-cloud selain juga tersedia di Superchip GH200 Grace milik NVIDIA sendiri.

Hingga saat ini, terdapat sejumlah mitra global pembuat server yang dipastikan menggunakan produk NVIDIA terbaru itu, termasuk ASRock Rack, ASUS, Dell Technologies, Evident, Gigabyte, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron, dan Wiwynn.

Sedangkan di masa depan, platform komputasi berbasis teknologi AI ini akan diterapkan oleh Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure.

Selain itu, ada pula perusahaan lainnya seperti CoreWeave, Lambda, dan Vultr sebagai penyedia layanan cloud pertama guna meningkatkan kualitas jasa yang ditawarkan kepada para konsumennya.

Untuk diketahui, platform akselerator komputasi NVIDIA didukung oleh perangkat lunak canggih demi membantu pengembangan produk-produk berkualitas tinggi bagi pelanggan mereka dari segmen bisnis hingga ilmuwan riset, meliputi rangkaian perangkat lunak NVIDIA AI Enterprise untuk beban kerja seperti ucapan sistem rekomendasi inferensi skala luas, dan lain-lain.

Rencananya, teknologi baru ini akan tersedia mulai kuartal kedua tahun 2024 melalui mitra-mitra global maupun penyedia layanan cloud utama.

Tivan Rahmat
The advance of technology is based on making it fit in so that you don't really even notice it, so it's part of everyday life