DeepSeek V3.1 Hadir dengan Kemampuan Baru, Begini Detailnya!

DeepSeek V3.1 Hadir dengan Kemampuan Baru, Begini Detailnya!

DeepSeek V3.1 Hadir dengan Kemampuan Baru, Begini Detailnya!

Perusahaan AI asal Tiongkok, DeepSeek, secara resmi merilis versi V3.1 dari model bahasa utamanya. Pembaruan ini hadir dengan peningkatan signifikan pada kapasitas konteks hingga 128.000 token, memungkinkan pengolahan teks setara dengan buku berisi 300 hingga 400 halaman. Jumlah parameter juga meningkat menjadi 685 miliar, menjadikan model ini salah satu yang paling kuat dalam kategori model bahasa besar.


Rilis ini diumumkan secara diam-diam melalui grup WeChat pengguna pada 19 Agustus, tanpa adanya postingan di saluran media sosial resmi perusahaan. Berikut adalah detail lengkap tentang apa yang baru dalam pembaruan ini.


Apa yang Baru di DeepSeek V3.1?

Penambahan Panjang Konteks

Fitur paling signifikan dalam V3.1 adalah peningkatan panjang konteks menjadi 128.000 token, dua kali lipat dibandingkan versi sebelumnya. Hal ini memungkinkan model untuk lebih efektif dalam tugas-tugas seperti:


  • Pembuatan konten jangka panjang: Misalnya artikel atau laporan teknis yang membutuhkan analisis mendalam.
  • Analisis dokumen teknis: Kemampuan membaca dan memahami dokumen besar seperti manual atau jurnal ilmiah.
  • Konversi multi-turn yang lebih panjang: Memungkinkan percakapan lebih alami dengan mempertahankan konteks yang luas selama percakapan berlangsung.


Meskipun fitur ini sudah tersedia secara internal dalam versi sebelumnya (V3), sekarang ia telah diaktifkan secara resmi di semua antarmuka pengguna.


Arsitektur Mixture-of-Experts (MoE)

DeepSeek V3.1 tetap menggunakan arsitektur Mixture-of-Experts (MoE), di mana hanya 37 miliar parameter yang aktif per token. Arsitektur ini memberikan fleksibilitas lebih saat digunakan di berbagai lingkungan penyebaran, termasuk dukungan untuk format presisi seperti BF16, FP8, dan F32.


Pengembang dapat mengakses model ini melalui API DeepSeek atau mengunduhnya langsung dari platform Hugging Face di bawah lisensi open-source MIT.


Performa dalam Benchmark

Dalam uji coba awal oleh pihak ketiga, DeepSeek V3.1 menunjukkan performa yang solid. Beberapa hasil unggulan meliputi:


  • Skor 71,6% pada ujian pemrograman Aider, melebihi model populer lainnya seperti Claude Opus 4.
  • Peningkatan dalam tugas matematika dan logika, meskipun beberapa pengguna melaporkan tidak ada perbaikan signifikan dalam kemampuan penalaran dibandingkan model sebelumnya (R1-0528).


Perubahan Strategi DeepSeek: Integrasi Model Hybrid

DeepSeek tampaknya sedang melakukan pergeseran strategis dengan mengintegrasikan kemampuan penalaran ke dalam model tunggal hybrid, yaitu V3.1. Langkah ini menandakan penghapusan referensi ke model R1 dari antarmuka chatbot mereka.


Sebelumnya, DeepSeek menggunakan pendekatan dual-model dengan model penalaran terpisah. Namun, kini perusahaan memilih untuk menyatukan kedua fungsi ini dalam satu kerangka kerja serbaguna. Pendekatan ini bertujuan untuk menyederhanakan ekosistem model dan memperluas aplikasi praktis.


Keterlambatan Model R2: Masalah Teknis dan Tekanan Nasional

Banyak pihak mengantisipasi bahwa rilis berikutnya dari DeepSeek akan menjadi model R2, yang dirancang khusus untuk memajukan kemampuan penalaran. Namun, V3.1 malah muncul sebagai langkah berikutnya. Menurut laporan Financial Times, peluncuran R2 tertunda akibat masalah teknis terkait chip AI Huawei Ascend.


DeepSeek dilaporkan diminta untuk menggunakan chip Ascend sebagai bagian dari strategi nasional Tiongkok untuk mandiri dalam infrastruktur AI. Meski didukung oleh insinyur Huawei, pelatihan model gagal karena masalah kompatibilitas dan performa. Akhirnya, perusahaan beralih ke GPU Nvidia H800 untuk pelatihan sambil tetap menggunakan Ascend untuk inferensi.


Selain itu, proses labeling data yang panjang turut memperlambat perkembangan. Pendiri DeepSeek, Liang Wenfeng, dikabarkan frustrasi dengan kemajuan yang lambat.


Sementara itu, pesaing seperti Alibaba Qwen3 telah melangkah lebih cepat dengan algoritma serupa namun eksekusi yang lebih efisien. Insiden ini menyoroti tantangan yang dihadapi perusahaan startup AI Tiongkok dalam memenuhi ekspektasi teknis dan politik secara bersamaan.


Apa Selanjutnya untuk DeepSeek?

Meskipun peluncuran R2 belum dipastikan, DeepSeek tetap membuka kemungkinan untuk merilis model tersebut di masa mendatang. Ketika akhirnya keluar, performa R2 akan diawasi dengan sangat ketat.


Saat ini, V3.1 tetap menjadi model andalan DeepSeek, melayani baik beban kerja penalaran maupun non-penalaran dalam satu kerangka kerja yang terpadu.


Kesimpulan:

Rilis DeepSeek V3.1 menandai langkah penting dalam pengembangan model AI perusahaan, dengan peningkatan signifikan pada kapasitas konteks dan jumlah parameter. Namun, keterlambatan model R2 menunjukkan tantangan besar yang dihadapi perusahaan dalam mengimbangi persyaratan teknis dan politik. Bagaimana menurut Anda? Apakah V3.1 cukup kuat untuk bersaing dengan model-model lain di pasar global? Bagikan pendapat Anda di kolom komentar!

Silahkan tinggalkan pesan jika Anda punya saran, kritik, atau pertanyaan seputar topik pembahasan.