DeepSeek-V3-0324 to zaawansowany model językowy typu Mixture-of-Experts (MoE) o łącznej liczbie 671 miliardów parametrów, będący ulepszoną iteracją flagowego modelu DeepSeek-V3. Oferuje on znaczące postępy w zakresie rozumowania, programowania oraz obsługi funkcji, przy zachowaniu okna kontekstowego o długości ponad 160 tysięcy tokenów. Model ten został udostępniony na zasadach open-source, zapewniając wydajność porównywalną z czołowymi zamkniętymi rozwiązaniami AI.
📖 Dowiedz się więcej w kontekście:
Reklama





