Ataki typu prompt injection to technika manipulacji modelami językowymi polegająca na wprowadzaniu złośliwych instrukcji, które zmuszają sztuczną inteligencję do zignorowania pierwotnych wytycznych programisty. Dzięki odpowiednio sformułowanym zapytaniom napastnik może przejąć kontrolę nad zachowaniem systemu, co prowadzi do wycieku poufnych danych, szerzenia dezinformacji lub wykonywania nieautoryzowanych działań.
📖 Dowiedz się więcej w kontekście:
Reklama





