Prompt injection to rodzaj ataku na modele językowe (LLM), polegający na wprowadzeniu złośliwych instrukcji w celu przejęcia kontroli nad działaniem AI i zmuszenia jej do zignorowania pierwotnych wytycznych. Atakujący wykorzystuje fakt, że system nie potrafi odróżnić poleceń dewelopera od danych wejściowych użytkownika, co może prowadzić do wycieku poufnych informacji, obejścia zabezpieczeń lub wykonywania nieautoryzowanych działań.
📖 Dowiedz się więcej w kontekście:
Reklama





