prompt injection

Prompt injection to rodzaj ataku na modele językowe (LLM), polegający na wprowadzeniu złośliwych instrukcji w celu przejęcia kontroli nad działaniem AI i zmuszenia jej do zignorowania pierwotnych wytycznych. Atakujący wykorzystuje fakt, że system nie potrafi odróżnić poleceń dewelopera od danych wejściowych użytkownika, co może prowadzić do wycieku poufnych informacji, obejścia zabezpieczeń lub wykonywania nieautoryzowanych działań.

Reklama

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry