Mixture-of-Experts (MoE)

Mixture-of-Experts (MoE) to architektura uczenia maszynowego, która dzieli złożone zadania na mniejsze podmodele zwane ekspertami, z których każdy specjalizuje się w innym rodzaju danych. Zamiast aktywować całą sieć dla każdego zapytania, inteligentny mechanizm bramkujący (gating network) dynamicznie wybiera tylko najbardziej odpowiednich ekspertów do przetworzenia konkretnego fragmentu informacji. Pozwala to na budowanie modeli o ogromnej liczbie parametrów przy jednoczesnym zachowaniu wysokiej wydajności i niższych kosztów obliczeniowych podczas wnioskowania.

Reklama

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry