adversarial attacks

Adversarial attacks (ataki oparte na przeciwniku) to celowe działania mające na celu oszukanie modeli uczenia maszynowego poprzez wprowadzanie zmanipulowanych danych wejściowych, zwanych przykładami przeciwnymi. Polegają one na stosowaniu subtelnych, często niezauważalnych dla człowieka modyfikacji, które wykorzystują luki w logice algorytmu, aby wymusić błędną klasyfikację lub niepożądane zachowanie systemu AI.

Reklama

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry