Model s1, opracowany przez badaczy ze Stanford University i University of Washington, udowadnia, że zaawansowane modele wnioskujące w AI można tworzyć przy kosztach poniżej 50 USD. Kluczem okazała się technika destylacji oraz optymalizacja zasobów obliczeniowych.
Główne punkty techniczne
1. Proces destylacji
- s1 powstał poprzez transfer umiejętności z modelu Gemini 2.0 Flash Thinking Experimental (Google), wykorzystując zaledwie 1000 przykładowych pytań i odpowiedzi z dołączonym procesem rozumowania.
- Destylacja polegała na trenowaniu mniejszego modelu na wynikach większego, co pozwoliło replikować zdolności logiczne przy minimalnym zużyciu danych.
2. Optymalizacja kosztów i czasu
- Trening przeprowadzono w 30 minut na 16 procesorach NVIDIA H100, z całkowitym kosztem ok. 20-50 USD.
- W kodzie modelu wprowadzono mechanizm “wait”, wymuszający dłuższe przetwarzanie przed generacją odpowiedzi, co poprawiło dokładność o 27% w testach matematycznych.
3. Architektura i dostępność
- Bazą dla s1 był Qwen2.5-32B-Instruct od Alibaba, dostosowany poprzez nadzorowane dostrojenie (SFT).
- Kod, dane treningowe i dokumentacja dostępne są publicznie na GitHubie.
Praktyczne zastosowania
– Demokratyzacja AI: Umożliwia mniejszym zespołom i uczelniom prowadzenie zaawansowanych badań bez milionowych inwestycji.
– Edukacja: Model może służyć jako narzędzie do nauki programowania i matematyki, oferując interaktywne wyjaśnienia.
– Testowanie innowacji: Otwarty kod pozwala eksperymentować z modyfikacjami, np. optymalizacją zużycia energii.





