Jakarta (ANTARA) - Nvidia pada Senin (13/11) menambahkan fitur-fitur baru pada chip andalannya untuk kecerdasan buatan, penawaran baru ini akan mulai diluncurkan tahun depan dengan Amazon.com, Google dari Alphabet, dan Oracle.
Dikutip dari Reuters, Selasa, chip yang disebut H200 akan menggantikan chip teratas Nvidia saat ini, H100. Peningkatan utamanya adalah memori dengan bandwidth tinggi, salah satu bagian termahal dari chip yang menentukan seberapa cepat data dapat diproses.
Baca juga: Selamat tinggal kabel, ini daftar perangkat streaming nirkabel terbaik
Nvidia mendominasi pasar chip kecerdasan buatan dan mendukung layanan ChatGPT dari OpenAI serta banyak layanan kecerdasan buatan generatif serupa yang merespons pertanyaan dengan penulisan mirip manusia.
Penambahan memori dengan bandwidth tinggi lebih banyak dan koneksi yang lebih cepat ke elemen pemrosesan chip berarti layanan semacam itu dapat memberikan jawaban dengan lebih cepat.
H200 memiliki 141 gigabyte memori dengan bandwidth tinggi, naik dari 80 gigabyte pada H100. Nvidia tidak mengungkapkan pemasok memori untuk chip baru ini, tetapi Micron Technology menyatakan pada bulan September bahwa mereka bekerja untuk menjadi pemasok Nvidia.
Baca juga: Saham Eropa dibuka naik karena perkiraan Nvidia angkat pembuat cip
Nvidia juga membeli memori dari SK Hynix Korea, yang mengatakan bulan lalu bahwa chip kecerdasan buatan membantu menghidupkan kembali penjualan.
Nvidia pada hari Rabu mengatakan bahwa Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi penyedia layanan awan pertama yang menawarkan akses ke chip H200, selain penyedia layanan awan kecerdasan buatan khusus seperti CoreWeave, Lambda, dan Vultr.
Baca juga: Nvidia tingkatkan "chip video game" dengan teknologi AI
Penerjemah: Fathur Rochman
Editor: Siti Zulaikha
Copyright © ANTARA 2023