Mistral AI telah merilis Small 4, model bahasa sumber terbuka baru yang dirancang untuk menggabungkan beberapa fungsi AI ke dalam satu paket yang efisien. Model ini menggabungkan penalaran, kemampuan multimodal (menangani teks dan gambar), dan kinerja pengkodean – semuanya bertujuan untuk menghasilkan biaya inferensi yang lebih rendah dibandingkan solusi pesaing. Hal ini penting karena bisnis sering kali menerapkan model terpisah untuk setiap tugas, sehingga meningkatkan kompleksitas dan biaya.
Kemampuan Terpadu dalam Paket yang Lebih Kecil
Small 4 dibangun di atas Mistral Small 3.2, menawarkan model tunggal yang cocok dengan kinerja penawaran Mistral yang lebih besar, seperti Magistral (penalaran), Pixtral (pemahaman multimodal), dan Devstral (pengkodean). Meskipun hanya memiliki 6 miliar parameter aktif per token dari total 119 miliar, model ini menawarkan jendela konteks 256 ribu, berguna untuk analisis dan percakapan jangka panjang. Arsitektur ini, yang didasarkan pada gabungan para ahli, memungkinkan penskalaan dan spesialisasi yang efisien, yang berarti respons yang lebih cepat bahkan untuk tugas-tugas kompleks.
Pertukaran: Efisiensi vs. Fragmentasi
Meskipun fleksibilitas Small 4 merupakan keunggulan teknis, pasar menghadapi fragmentasi yang semakin besar seiring dengan semakin banyaknya model kecil yang bermunculan dari perusahaan seperti Qwen dan Claude. Menurut Rob May, CEO Neurometric, memenangkan “mindshare” – menjadi sebuah kasus uji standar – sangat penting untuk diadopsi. Mistral harus membuktikan kemampuan modelnya untuk mengatasi kebingungan pasar dan menjadikan dirinya sebagai pilihan yang layak.
Penalaran Sesuai Permintaan dengan Upaya yang Dapat Disesuaikan
Fitur utamanya adalah parameter reasoning_effort, yang memungkinkan pengguna menyesuaikan perilaku model secara dinamis. Perusahaan dapat memilih antara respons cepat dan ringan yang serupa dengan Small 3.2 atau penalaran langkah demi langkah yang lebih mendetail seperti Magistral. Kontrol atas gaya keluaran ini berguna untuk beragam aplikasi, mulai dari penguraian dokumen cepat hingga tugas analitis mendalam.
Perangkat Keras dan Kinerja
Mistral Small 4 dioptimalkan untuk perangkat keras Nvidia, hanya membutuhkan empat GPU HGX H100/H200 atau dua DGX B200. Tolok ukur menunjukkan kinerjanya mendekati Mistral Medium 3.1 dan Large 3 di MMLU Pro, meskipun tertinggal di belakang Qwen dan Claude Haiku dalam tolok ukur yang intensif seperti LiveCodeBench. Namun, Mistral berpendapat bahwa outputnya yang jauh lebih pendek berarti biaya dan latensi yang lebih rendah, sehingga membuatnya kompetitif dalam aplikasi perusahaan bervolume tinggi. Dalam mode instruksi, Small 4 menghasilkan keluaran terpendek dari semua model yang diuji.
Kesimpulannya, Mistral Small 4 mewakili langkah menuju konsolidasi kemampuan AI ke dalam model yang lebih efisien dan mudah diakses. Keberhasilannya akan bergantung pada mengatasi fragmentasi pasar dan membuktikan nilainya bagi bisnis yang memprioritaskan efektivitas biaya dan kinerja.






























