Adversarial attacks (ataki oparte na przeciwniku) to celowe działania mające na celu oszukanie modeli uczenia maszynowego poprzez wprowadzanie zmanipulowanych danych wejściowych, zwanych przykładami przeciwnymi. Polegają one na stosowaniu subtelnych, często niezauważalnych dla człowieka modyfikacji, które wykorzystują luki w logice algorytmu, aby wymusić błędną klasyfikację lub niepożądane zachowanie systemu AI.
📖 Dowiedz się więcej w kontekście:
Reklama





