Attention mechanism (mechanizm uwagi) to technika w uczeniu maszynowym, która pozwala modelom selektywnie skupiać się na najistotniejszych częściach danych wejściowych podczas generowania odpowiedzi. Zamiast przetwarzać wszystkie informacje z jednakową wagą, przypisuje on poszczególnym elementom, takim jak słowa w zdaniu lub piksele w obrazie, dynamiczne wagi odzwierciedlające ich znaczenie w danym kontekście. Dzięki temu rozwiązaniu modele, takie jak transformery, znacznie lepiej radzą sobie z długimi sekwencjami danych i złożonymi zależnościami.
attention mechanism
Reklama





