Klasyfikacja ryzyka w ramach unijnego Aktu o AI dzieli systemy sztucznej inteligencji na cztery kategorie w celu zapewnienia ich bezpiecznego i etycznego stosowania. Systemy o ryzyku niedopuszczalnym (zakazane) obejmują praktyki groźne dla ludzi, takie jak scoring społeczny czy manipulacja behawioralna, natomiast systemy wysokiego ryzyka muszą spełniać surowe wymogi bezpieczeństwa przed wprowadzeniem na rynek. Kategorie ryzyka ograniczonego i minimalnego (np. filtry spamu) wiążą się z mniejszymi obostrzeniami, skupiając się głównie na przejrzystości informacji o interakcji z modelem AI.
Klasyfikacja ryzyka systemów AI (minimalne/ograniczone/wysokie/zabronione) (Risk Classification)
Reklama





