Nadzór ludzki nad systemami AI to proces zapewniający zachowanie przez osobę fizyczną faktycznej i intelektualnej kontroli nad działaniem sztucznej inteligencji, szczególnie w przypadku rozwiązań wysokiego ryzyka. Jego celem jest zapobieganie zagrożeniom dla zdrowia, bezpieczeństwa oraz praw podstawowych poprzez umożliwienie człowiekowi zrozumienia ograniczeń systemu, monitorowanie jego pracy oraz reagowanie na anomalie. Osoba sprawująca nadzór musi mieć możliwość zignorowania, zmiany lub przerwania działania algorytmu w dowolnym momencie za pomocą odpowiednich narzędzi, takich jak przycisk bezpieczeństwa. Taka kontrola pozwala minimalizować błędy poznawcze, jak np. automation bias, i gwarantuje, że ostateczna odpowiedzialność za skutki decyzji spoczywa na człowieku.
Nadzór ludzki nad systemami AI (Human Oversight)
Reklama





