Samsung dilaporkan akan memasok secara eksklusif memori HBM4 untuk chip AI Titan generasi pertama milik OpenAI. Informasi ini menandai langkah penting bagi Samsung di pasar memori berkecepatan tinggi, sekaligus memperlihatkan upaya OpenAI untuk mengurangi ketergantungan pada chip AI pihak ketiga.
Mengacu pada laporan Hankyung yang dikutip SammyGuru, Samsung akan mengirimkan HBM4 12-layer pada paruh kedua tahun ini. Memori tersebut disebut akan menjadi komponen utama untuk Titan, chip AI internal pertama OpenAI yang dikembangkan bersama Broadcom.
Samsung rebut momentum di pasar HBM
Pasar HBM menjadi salah satu elemen paling krusial dalam infrastruktur AI modern. Jenis memori ini dibutuhkan untuk menangani beban komputasi besar dengan bandwidth tinggi dan latensi rendah, terutama untuk pelatihan dan inferensi model AI skala besar.
Samsung sebelumnya dinilai sempat melambat pada era HBM3E. Namun, perusahaan itu terus mendorong pengembangan HBM4 dan kini disebut berhasil mencatat kecepatan pemrosesan konsisten tertinggi di industri, yakni 11,7 Gbps.
Data tersebut menjadi faktor penting di balik meningkatnya minat pelanggan global terhadap HBM4 Samsung. Sebelumnya, Samsung juga telah mengonfirmasi perjanjian pasokan dengan Nvidia dan AMD, dua nama besar yang sangat menentukan arah pasar akselerator AI.
Laporan tersebut memperkuat sinyal bahwa Samsung mulai memulihkan posisinya dalam persaingan HBM. Di segmen ini, produsen memori tidak hanya bersaing pada kapasitas, tetapi juga pada efisiensi termal, kestabilan produksi, dan kemampuan memenuhi spesifikasi klien hyperscale.
Mengapa OpenAI memilih HBM4 Samsung
OpenAI saat ini masih banyak mengandalkan chip AI Nvidia untuk kebutuhan komputasinya. Namun, pengembangan Titan menunjukkan bahwa perusahaan ingin memiliki kendali lebih besar atas tumpukan perangkat keras, efisiensi biaya jangka panjang, dan optimasi khusus untuk model buatannya sendiri.
Seorang sumber industri yang dikutip dalam laporan itu menyebut OpenAI tengah “mencurahkan upaya besar” untuk riset dan pengembangan agar Titan dapat diproduksi massal. Sumber yang sama juga mengatakan Samsung memenangkan kontrak pasokan ini karena mampu memenuhi tuntutan OpenAI untuk HBM4 generasi keenam yang sangat ketat.
Pemilihan HBM4 12-layer menunjukkan fokus OpenAI pada performa memori yang tinggi. Dalam chip AI modern, HBM bukan sekadar komponen pendukung, melainkan penentu utama throughput data antara prosesor dan memori saat model besar dijalankan.
Peta awal proyek Titan
Berdasarkan laporan yang sama, berikut gambaran proyek Titan yang kini mencuat ke publik:
- OpenAI mengembangkan Titan sebagai chip AI generasi pertama miliknya.
- Broadcom menjadi mitra pengembangan semikonduktor tersebut.
- Samsung akan memasok HBM4 12-layer secara eksklusif.
- TSMC berpotensi memulai produksi pada kuartal ketiga tahun ini.
- Rilis Titan ditargetkan pada akhir tahun depan.
Rangkaian ini menunjukkan bahwa OpenAI tampaknya menempuh model yang kini umum di industri AI. Desain chip dikerjakan bersama mitra semikonduktor, manufaktur dipercayakan ke foundry besar, dan memori canggih disuplai oleh vendor spesialis.
Strategi seperti ini juga terlihat pada perusahaan teknologi besar lain yang mengembangkan chip internal untuk pusat data. Tujuannya sama, yakni mengurangi ketergantungan pada pasokan terbatas GPU umum dan menciptakan arsitektur yang lebih sesuai dengan kebutuhan beban kerja AI internal.
Dampaknya bagi Samsung dan industri AI
Bagi Samsung, kontrak ini bernilai strategis karena melibatkan OpenAI, salah satu pemain terpenting dalam ledakan AI generatif. Jika Titan berhasil masuk produksi dan dipakai luas, posisi Samsung dalam rantai pasok AI kelas atas akan semakin kuat.
Pengamat industri juga menilai generasi berikutnya dari Titan kemungkinan tetap memakai solusi HBM Samsung. Jika itu terjadi, Samsung berpeluang membangun hubungan jangka panjang di pasar AI memory yang sangat kompetitif.
Samsung juga sudah memamerkan HBM4E pada ajang Nvidia GTC 2026. Produk itu disebut menawarkan kecepatan transfer data 16 Gbps dan bandwidth 4 TB/s, angka yang memperlihatkan arah pengembangan memori AI menuju kapasitas dan kecepatan yang semakin ekstrem.
Selain itu, Samsung telah mengungkap rencana untuk HBM5 dan HBM5E. HBM5 disebut akan memakai proses DRAM 1c dan foundry 2nm, sedangkan HBM5E akan menggunakan proses DRAM 1d dan foundry 2nm.
Fakta kunci yang perlu dicermati
| Aspek | Detail |
|---|---|
| Pemasok memori | Samsung |
| Jenis memori | HBM4 12-layer |
| Klien | OpenAI |
| Chip AI | Titan generasi pertama |
| Mitra pengembangan | Broadcom |
| Mitra manufaktur potensial | TSMC |
| Target rilis chip | Akhir 2026 |
| Kecepatan HBM4 Samsung | 11,7 Gbps |
| HBM4E Samsung | 16 Gbps, bandwidth 4 TB/s |
Perkembangan ini menegaskan bahwa persaingan AI tidak lagi hanya soal model dan layanan perangkat lunak. Perebutan komponen inti seperti HBM kini menjadi penentu besar, karena kemampuan membangun dan memasok memori berbandwidth tinggi akan sangat memengaruhi siapa yang unggul dalam komputasi AI skala besar.
Source: sammyguru.com