DeepSeek Luncurkan Model “Sparse Attention”: Potong Biaya API Hingga 50%
Biaya operasional kecerdasan buatan seringkali jadi “gajah di ruangan” yang jarang dibicarakan. Melatih model butuh miliaran dolar, tapi menjalankannya (inference cost) juga tidak murah. Setiap kali pengguna memanggil API untuk memproses teks panjang, server harus bekerja keras, dan biaya pun melonjak.
Inilah konteks di balik langkah mengejutkan DeepSeek, startup AI asal Tiongkok, yang baru saja merilis model eksperimen V3.2-exp dengan klaim bisa memangkas biaya pemanggilan API hingga setengahnya dalam kasus long-context.
Apa Itu “Sparse Attention”?
Kunci inovasi DeepSeek ada pada sistem yang mereka sebut Sparse Attention.
- Pertama, ada modul bernama lightning indexer, yang bertugas memilih bagian paling relevan dari teks panjang.
- Kedua, sistem fine-grained token selection menyaring token-token penting dari potongan teks itu untuk masuk ke jendela perhatian (attention window) yang terbatas.
Hasilnya, model tetap bisa bekerja dengan konteks panjang, tapi tanpa harus “membaca” semuanya sekaligus. Server lebih ringan, biaya jadi jauh lebih efisien.
Menurut uji coba internal DeepSeek, sebuah panggilan API sederhana bisa turun biaya hingga 50% bila memakai teknik ini. Karena modelnya dirilis terbuka di Hugging Face beserta paper akademik di GitHub, komunitas riset global diperkirakan akan segera melakukan uji coba independen.
Mengapa Penting?
Bagi perusahaan penyedia layanan AI, biaya inference adalah bom waktu. Semakin banyak pengguna, semakin besar beban server. Tidak heran Google, OpenAI, maupun Anthropic terus mencari cara menekan biaya.
Dengan pendekatan sparse attention, DeepSeek memberi satu jawaban: mungkin bukan soal model yang lebih besar, tapi bagaimana kita mengelola perhatian model lebih pintar.
DeepSeek: Pemain Unik dari Tiongkok
Nama DeepSeek bukan baru pertama kali membuat heboh. Awal 2025, perusahaan ini sempat mencuri perhatian lewat R1, model AI yang dilatih menggunakan teknik reinforcement learning dengan biaya jauh lebih rendah dibanding pesaing Amerika.
Meski tidak sampai mengubah lanskap AI global seperti yang diprediksi, langkah itu membuat banyak pihak sadar bahwa Tiongkok bisa bersaing dalam inovasi AI, bahkan dengan sumber daya lebih terbatas.
Sekarang, lewat “sparse attention”, DeepSeek kembali memberi sinyal bahwa efisiensi bisa jadi keunggulan strategis—bukan sekadar model raksasa dengan parameter miliaran.
Dampak ke Industri AI Global
Apakah inovasi ini akan seheboh R1? Mungkin tidak. Tapi tetap saja, pelajaran dari DeepSeek relevan untuk semua pemain: biaya operasional AI harus ditekan agar teknologi ini bisa benar-benar massal.
Jika klaim DeepSeek terbukti, bukan mustahil metode sparse attention akan diadopsi luas—bahkan oleh penyedia layanan AI asal AS. Dengan pasar API AI yang tumbuh pesat, siapa pun yang bisa menawarkan kualitas sama dengan harga lebih murah akan punya keunggulan kompetitif besar.
Inovasi AI tidak selalu datang dalam bentuk model yang lebih besar atau parameter yang lebih kompleks. Kadang, seperti yang ditunjukkan DeepSeek, terobosan justru lahir dari cara lebih cerdas menggunakan sumber daya.
Model V3.2-exp mungkin tidak membuat hype sebesar R1, tapi jika benar bisa memangkas biaya API hingga setengahnya, maka ia bisa jadi batu loncatan besar menuju masa depan AI yang lebih murah, efisien, dan inklusif.