Telko.id – DeepSeek memperkenalkan model eksperimental baru bernama DeepSeek V3.2-Exp yang dirancang untuk menekan biaya inferensi yang jauh lebih rendah saat digunakan dalam operasi konteks panjang. DeepSeek menyebut model tersebut sebagai ‘langkah anatara menuju arsitektur generasi berikutnya’.
Arsitektur baru yang dimaksud kemungkinan akan menjadi peluncuran produk terpenting DeepSeek sejak model V3 dan R1 yang sempat mengejutkan publik.
Mengutip dari TechCrunch, Selasa (30/9/2025) fitur utama dalam model baru ini disebut DeepSeek Sparse Attention.
Mekanismenya cukup unik menggunakan modul Bernama Lighting Indexer untuk memprioritaskan bagian-bagian tertentu dari jendela konteks. Setelah itu, ada sistem lain Bernama fine-grained token selection yang memilih token paling relevan dari potongan tersebut untuk dimasukkan ke jendela perhatian model yang terbatas.
Dengan cara ini, model DeepSeek V3.2-Exp ini tetap bisa menangani konteks panjang tanpa membebani server terlalu besar. Berdasarkan uji awal, biaya panggilan API untuk operasi dengan konteks panjang bisa ditekan hingga 50%.
Baca juga:
- Jerman Desak Hapus DeepSeek, Dianggap Langgar Privasi
- Microsoft Batalkan Kontrak Data hingga 2 Gigawatt, Ulah DeepSeek?
Meski begitu, pengujian lanjutan masih diperlukan untuk memastikan klaim tersebut. Karena model ini bersifat open weight dan tesedia gratis di Hugging Face, uji coba independes dari pihak ketiga diperkirakan akan segera menyusul.
Riset terbaru dari DeepSeek ini menambah deretan inovasi yang berfokus pada pengurangan biaya inference yaitu biaya menjalankan model AI yang sudah dilatih, berbeda dengan biaya melatihnya.
Upaya ini berangkat dari kebutuhan agar arsitektur transformer bisa bekerja lebih efisien. DeepSeek, perusahaan yang berbasis di Tiongkok ini dikenal sebagai pemain unik di tengah persaingan riset AI Global.
Pada awal 2025 lalu, mereka sempat mencuri perhatian lewat model R1 yang dilatih terutama dengan reinforcement learning dengan biaya yang lebih rendah dibandingkan pesaing dari Amerika Serikat. Namun, gaungnya meredup setelah R1 tidak memicu perubahan besar seperti yang sempat diprediksi.
Meski mungkin tidak menimbulkan kehebohan sebesar R1, pendekatan baru berbasis ‘Sparse Attention’ ini diyakini tetap dapat memberikan Pelajaran penting bagi penyedia AI di AS dalam menjaga biaya operasional tetap rendah dan memberikan pesaing domestik seperti Qwen milik Alibaba sebuah tekanan yang besar.