Mistral AI wypuścił Small 4, nowy model o otwartym kodzie źródłowym, zaprojektowany w celu połączenia wielu funkcji AI w jeden potężny pakiet. Model łączy w sobie rozumowanie, możliwości multimodalne (przetwarzanie tekstu i obrazu) oraz wydajność kodowania, mając jednocześnie na celu zmniejszenie kosztów wnioskowania w porównaniu z konkurencyjnymi rozwiązaniami. Jest to ważne, ponieważ firmy często wdrażają osobne modele dla każdego zadania, co zwiększa złożoność i koszty.
Połączone funkcje w kompaktowym pakiecie
Small 4 opiera się na Mistral Small 3.2 i oferuje pojedynczy model, który dorównuje wydajnością większym produktom Mistral, takim jak Magistral (rozumowanie), Pixtral (zrozumienie multimodalne) i Devstral (kodowanie). Pomimo posiadania tylko 6 miliardów aktywnych parametrów na token z całkowitej podaży 119 miliardów, model może pochwalić się oknem kontekstowym o wielkości 256 tys., przydatnym do analizy i dialogu w długim formacie. Architektura ta, oparta na mieszance ekspertów, pozwala na efektywne skalowanie i specjalizację, co oznacza szybsze reagowanie nawet na złożone problemy.
Kompromis: wydajność kontra fragmentacja
Chociaż elastyczność Small 4 jest zaletą techniczną, rynek staje w obliczu rosnącej fragmentacji w miarę pojawiania się coraz większej liczby małych modeli takich firm jak Qwen i Claude. Według Roba Maya, dyrektora generalnego Neurometric, zdobywanie „wpływu” – co staje się standardowym studium przypadku – ma kluczowe znaczenie dla adopcji. Mistral musi udowodnić możliwości swojego modelu, aby przezwyciężyć zamieszanie na rynku i zyskać pozycję realnej opcji.
Rozumowanie na żądanie przy regulowanym wysiłku
Kluczową cechą jest parametr „reasoning_effort”, który pozwala użytkownikom dynamicznie dostosowywać zachowanie modelu. Firmy mogą wybierać pomiędzy szybkimi i łatwymi odpowiedziami, podobnymi do Small 3.2, lub bardziej szczegółowym, szczegółowym rozumowaniem, podobnym do Magistral. Ta kontrola nad stylem wyjściowym jest cenna w różnych zastosowaniach, od szybkiego analizowania dokumentów po zaawansowane zadania analityczne.
Sprzęt i wydajność
Mistral Small 4 jest zoptymalizowany pod kątem sprzętu Nvidia i wymaga tylko czterech procesorów graficznych HGX H100/H200 lub dwóch DGX B200. Porównanie pokazuje, że radzi sobie na równi z Mistral Medium 3.1 i Large 3 w MMLU Pro, chociaż pozostaje w tyle za Qwen i Claude Haiku w testach wymagających intensywnego rozumowania, takich jak LiveCodeBench. Jednak Mistral twierdzi, że jego znacznie krótsza moc wyjściowa skutkuje niższymi kosztami i mniejszymi opóźnieniami, co czyni go konkurencyjnym w zastosowaniach korporacyjnych o wysokiej wydajności. W trybie instrukcji Small 4 generuje najkrótszy sygnał wyjściowy ze wszystkich testowanych modeli.
Podsumowując, Mistral Small 4 stanowi krok w kierunku skonsolidowania mocy sztucznej inteligencji w bardziej wydajne i dostępne modele. Jego sukces będzie zależał od przezwyciężenia fragmentacji rynku i udowodnienia swojej wartości przedsiębiorstwom, dla których priorytetem jest efektywność kosztowa i produktywność.
