Samsung Pimpin Pasar Memori AI dengan Pengiriman HBM4 Komersial Pertama

Nabila Putri

Februari 12, 2026

2 menit baca
Min Read
Samsung Pimpin Pasar Memori AI dengan Pengiriman HBM4 Komersial Pertama

Samsung telah menjadi produsen pertama yang mengirimkan chip memori HBM4 komersial kepada pelanggan, menandai tonggak penting dalam infrastruktur kecerdasan buatan (AI) generasi berikutnya. Langkah ini menempatkan Samsung di posisi terdepan dalam pasar memori bandwidth tinggi (HBM) untuk AI, dengan kecepatan transfer data mencapai 11,7 gigabit per detik (Gbps) dan efisiensi daya yang lebih baik.

Pengiriman chip HBM4 ini merupakan langkah awal Samsung dalam persaingan memori AI generasi mendatang. Memori HBM4 dirancang khusus untuk mengakselerator AI dan unit pemrosesan grafis (GPU) pusat data, yang sangat penting untuk kinerja sistem AI modern.

Chip HBM4 dari Samsung menunjukkan kecepatan pemrosesan data yang konsisten pada 11,7 Gbps. Angka ini 46% lebih cepat dari standar industri 8 Gbps dan 22% lebih cepat dari kecepatan maksimum HBM3E sebesar 9,6 Gbps. Samsung juga menyatakan bahwa chip ini memiliki potensi untuk didorong hingga 13 Gbps, memberikan ruang lebih seiring dengan pertumbuhan ukuran dan kompleksitas model AI.

Lagi anget:  OpenAI Hentikan Akses Lima Model ChatGPT Lama, Termasuk GPT-4o

Bandwidth memori total per tumpukan (stack) telah meningkat 2,7 kali lipat dibandingkan HBM3E, mencapai puncaknya pada 3,3 terabyte per detik (TB/s). Peningkatan bandwidth ini setara dengan kemampuan streaming ribuan film 4K secara bersamaan, namun terjadi antara GPU dan memorinya ribuan kali per detik. Dalam beban kerja pelatihan dan inferensi AI, di mana kemacetan data dapat menghambat kinerja, bandwidth yang lebih tinggi ini secara langsung berarti pelatihan model yang lebih cepat dan latensi yang lebih rendah.

Efisiensi daya juga mengalami peningkatan signifikan, mencapai 40% melalui penggunaan DRAM 1c canggih dan proses logika 4 nanometer (nm). Samsung mencapai pencapaian ini dengan melewati pendekatan konvensional, langsung beralih ke proses DRAM kelas 10nm generasi ke-6 (1c) dan logika 4nm yang paling canggih.

Lagi anget:  Elon Musk Usulkan Pabrik Satelit AI di Bulan untuk xAI di Tengah Isu IPO

“Alih-alih mengambil jalur konvensional dengan memanfaatkan desain teruji yang sudah ada, Samsung mengambil lompatan,” kata Sang Joon Hwang, Wakil Presiden Eksekutif dan Kepala Pengembangan Memori di Samsung. Perusahaan mengklaim telah mencapai hasil yang stabil dan kinerja terdepan di industri tanpa memerlukan desain ulang.

Samsung memproyeksikan penjualan HBM akan meningkat lebih dari tiga kali lipat pada tahun 2026. Selain itu, sampel HBM4E diharapkan mulai tersedia pada paruh kedua tahun ini. Pengumuman ini datang di tengah permintaan yang tinggi dari perusahaan hyperscaler dan produsen GPU yang berebut untuk mengamankan pasokan memori untuk sistem AI generasi berikutnya.

Tinggalkan komentar

Related Post

Tinggalkan komentar