Tokeny tekstu to podstawowe, najmniejsze jednostki informacji, na jakie dzielone są dane wejściowe podczas przetwarzania przez modele językowe (LLM). W zależności od zastosowanej metody tokenizacji mogą nimi być całe wyrazy, ich części (subwordy) lub pojedyncze znaki, co pozwala maszynie na efektywną analizę struktury gramatycznej i semantycznej języka.
📖 Dowiedz się więcej w kontekście:
Reklama





