Low-Rank Adaptation

Low-Rank Adaptation (LoRA) to efektywna technika dostrajania dużych modeli językowych, która polega na zamrożeniu wag oryginalnego modelu i dodaniu do jego warstw małych, trenowalnych macierzy o niskim rzędzie. Pozwala to na znaczne zmniejszenie liczby parametrów wymagających aktualizacji, co przyspiesza proces uczenia i drastycznie obniża wymagania sprzętowe przy zachowaniu wysokiej jakości wyników.

Reklama

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry