Knowledge Distillation (destylacja wiedzy) to technika uczenia maszynowego polegająca na przenoszeniu wiedzy z dużego, złożonego modelu (nazywanego nauczycielem) do mniejszego i lżejszego modelu (ucznia). Proces ten pozwala na stworzenie kompaktowej sieci neuronowej, która zachowuje wysoką precyzję oryginału, ale działa znacznie szybciej i zużywa mniej zasobów obliczeniowych. Dzięki temu zaawansowane modele AI mogą być efektywnie uruchamiane na urządzeniach mobilnych lub systemach o ograniczonej mocy sprzętowej.
📖 Dowiedz się więcej w kontekście:
Reklama





