Wykorzystanie otwartych modeli sztucznej inteligencji do celów monitorowania społeczeństwa stało się faktem. Najnowsze doniesienia ujawniają działanie systemu „Peer Review”, opartego na technologii Meta Llama, który w czasie rzeczywistym analizuje treści w mediach społecznościowych pod kątem krytyki chińskiego reżimu.
Technologia pod lupą
Mechanizm „Peer Review” wykorzystuje zaawansowane możliwości przetwarzania języka naturalnego (NLP) do skanowania milionów postów dziennie. Jak wynika z analiz OpenAI, system łączy w sobie:
- Moduł klasyfikacji sentymentu dla wykrywania treści antyrządowych
- Algorytmy śledzenia powiązań między użytkownikami
- Automatyczne generowanie raportów dla służb bezpieczeństwa
„To pierwszy potwierdzony przypadek wojskowego zastosowania modelu LLM do celów cywilnej inwigilacji” – podkreśla Ben Nimmo z OpenAI
Pułapki otwartego dostępu
Sukces operacji „Peer Review” pokazuje fundamentalny problem współczesnego rozwoju AI. Meta udostępniając kody Llama 2 na licencji komercyjnej, nie przewidziała militarnych zastosowań technologii. Chińscy badacze z Akademii Nauk Wojskowych:
| Moduł | Funkcja | Skuteczność |
|---|---|---|
| Qianyue Overseas | Analiza sentymentu | 92% |
| ChatBIT | Wsparcie decyzyjne | 87% |
Nowe wyzwania dla bezpieczeństwa
Incydent „Peer Review” ujawnił luki w globalnym systemie kontroli technologii podwójnego zastosowania. Podczas gdy UE pracuje nad AI Act, Chiny konsekwentnie rozwijają własne standardy nadzoru. Eksperci wskazują na konieczność:
- Wprowadzenia certyfikacji modeli open source
- Monitorowania łańcuchów dostaw komponentów AI
- Rozwoju kontrtechnologii wykrywających systemy monitorowania





