Advertisement
DeepSeek Rilis Teknologi DSA, Proses AI Jadi Lebih Efisien
Deepseek logo - Deepseek
Advertisement
Harianjogja.com, JOGJA—DeepSeek, sebuah perusahaan teknologi kecerdasan buatan (AI), memperkenalkan teknologi Deepseek Sparse Attention (DSA) yang mampu menghemat biaya komputasi namun tetap mempertahankan performa tinggi dalam pemrosesan input panjang.
Model ini diklaim memiliki kapabilitas yang setara dengan AI kelas atas dari Amerika Serikat, seperti GPT-5 milik OpenAI dan Gemini 3.0 Pro dari Google. Kehadiran DeepSeek V3.2 secara resmi menempatkan China sebagai pemain kunci dalam peta persaingan teknologi AI generatif dunia.
Advertisement
Menurut laporan dari The Decoder, DeepSeek V3.2 dirilis dalam dua varian. Versi pertama adalah V3.2 "reguler," yang dirancang khusus sebagai asisten penalaran ( reasoning) untuk penggunaan sehari-hari. Varian kedua, DeepSeek V3.2 Speciale, adalah versi berperforma tinggi yang fokus pada kompetisi dan tugas yang sangat kompleks.
DeepSeek menyatakan bahwa model V3.2 hadir sebagai solusi komprehensif atas isu-isu yang melekat pada model open-source saat ini. Permasalahan tersebut mencakup pemrosesan teks panjang yang dianggap tidak efisien, kapabilitas agen otonom yang masih lemah, serta alokasi investasi pascapelatihan (post-training) yang dinilai belum memadai.
BACA JUGA
Untuk mengatasi tantangan efisiensi, DeepSeek menyematkan teknologi mutakhir bernama Deepseek Sparse Attention (DSA). DSA berfungsi sebagai model AI standar yang secara cerdas memeriksa ulang setiap token yang telah diproses untuk setiap respons baru.
Praktik pemeriksaan ini memanfaatkan sistem indeks untuk mengidentifikasi bagian-bagian paling krusial dari riwayat teks. Dengan mekanisme DSA, V3.2 diklaim mampu memangkas biaya komputasi secara signifikan tanpa mengorbankan kualitas performanya.
Perusahaan asal China ini bahkan sesumbar bahwa DSA dapat mempercepat pemrosesan input yang panjang. Meskipun demikian, pihak DeepSeek tidak membagikan rincian persentase pasti peningkatan kecepatan tersebut. Selain itu, untuk mengoptimalkan kinerja model, DeepSeek meningkatkan anggaran post-training hingga 10% lebih tinggi dari biaya pra-pelatihan (pre-training), sebuah peningkatan drastis dibanding alokasi 1% dua tahun silam.
Proses pembangunan data pelatihan DeepSeek V3.2 dilakukan secara intensif. Tim DeepSeek menciptakan model-model khusus untuk menangani berbagai tugas, meliputi matematika, pemrograman, logika, dan kapabilitas agen otonom. Hasil dari model-model spesifik ini kemudian digunakan untuk menghasilkan data final bagi model AI utama.
"DeepSeek juga membangun lebih dari 1.800 synthetic environments (ruang simulasi virtual yang dibuat secara artifisial untuk melatih, menguji, dan memvalidasi agen AI), serta ribuan skenario yang bisa dijalankan berdasarkan masalah yang nyata di GitHub, untuk melatih agen otonom."
Pendekatan ini menunjukkan komitmen DeepSeek untuk melatih agen otonomnya dalam kondisi yang realistis dan kompleks, melampaui sekadar data pelatihan tradisional.
Duel Statistik: DeepSeek V3.2 Mendekati dan Mengungguli Rival AS
Dalam pertempuran kemampuan teknis, DeepSeek V3.2 terbukti menjadi penantang serius bagi model AI dari Amerika Serikat.
1. Kompetisi Matematika (AIME 2025):
- GPT-5 memimpin dengan skor 94,6%.
- V3.2 meraih skor 93,1%, sangat tipis di belakang GPT-5.
- Gemini 3 Pro berada di posisi tertinggi dengan skor 90,7%.
2. Pemrograman (LiveCodeBench):
- Gemini 3 Pro unggul telak dengan skor 90,7%.
- V3.2 kembali membuntuti GPT-5 (84,5%) dengan perolehan skor 83,3%.
3. Pengembangan Perangkat Lunak (SWE Multilingual): Dalam pengukuran yang melibatkan masalah nyata di GitHub, V3.2 menunjukkan keunggulan signifikan:
- V3.2 mampu menyelesaikan 70,2% masalah.
- Pencapaian ini membuatnya unggul jauh dari GPT-5 yang hanya 55,3%.
4. Performa Terminal Bench (Terminal Bench 2.0):
- V3.2 mencapai performa 46,4%.
- GPT-5 hanya mencatatkan skor 35,2%.
- Gemini 3 Pro masih memimpin di segmen ini dengan skor 54,2%.
DeepSeek V3.2 Speciale: Performa Eksperimen yang Lampaui Gemini 3 Pro
Meskipun versi regulernya bersaing ketat, varian performa tinggi, DeepSeek V3.2 Speciale, berhasil menunjukkan dominasi dalam lingkungan uji coba yang lebih spesifik. Model AI eksperimental ini mampu melampaui Gemini 3 Pro milik Google.
V3.2 Speciale bahkan mencatatkan prestasi gemilang di tingkat internasional:
- Meraih medali emas di Olimpiade Informatika Internasional 2025 (peringkat ke-10).
- Meraih peringkat kedua di ICPC World Final 2025.
- Meraih medali emas di Olimpiade Matematika Internasional 2025, berkat integrasi komponen dari DeepSeek Math V2.
- Keunggulan performa Speciale ini didukung oleh penggunaan token yang jauh lebih masif. Dalam memecahkan masalah Codeforces, Speciale menggunakan rata-rata 77.000 token, jauh lebih banyak dibandingkan Gemini yang hanya 22.000 token.
Kendati berhasil menantang dominasi AI Barat, DeepSeek secara terbuka mengakui bahwa model AI terbarunya masih memiliki kekurangan dalam tiga aspek utama: keluasan pengetahuan, efisiensi token, serta kinerja pada tugas-tugas yang sangat kompleks. Startup AI ini menyatakan komitmennya untuk mengatasi kekurangan tersebut melalui alokasi pelatihan awal (pre-training) yang lebih intensif di masa depan.
Bagi pengembang, DeepSeek V3.2 kini telah tersedia untuk umum melalui lisensi Apache 2.0 di platform Hugging Face atau dapat diakses melalui API resmi perusahaan.
Cek Berita dan Artikel yang lain di Google News
Berita Lainnya
Berita Pilihan
Advertisement
Ledakan Hebat di Sydney Lontarkan Puing 100 Meter ke Udara
Advertisement
KA Panoramic Kian Diminati, Jalur Selatan Jadi Primadona
Advertisement
Berita Populer
- Malioboro Full Pedestrian, Dishub Siapkan 12 Kantong Parkir
- Alumni Santri Krapyak Perkuat Sinergi Ekonomi Lewat Ngobrol Bisnis
- Efisiensi Anggaran, Rapat ASN Kulonprogo Hanya Disuguh Air Putih
- Harga Turun, Penyerapan Pupuk Bersubsidi Gunungkidul Meningkat
- DIY Siap Hadapi Lonjakan 9,5 Juta Pergerakan Nataru
Advertisement
Advertisement



