Spis treści
Tiny Agents – Tworzenie Agentów AI w zaledwie 50 linijkach kodu
W świecie sztucznej inteligencji obserwujemy rosnące zainteresowanie agentami AI – systemami, które potrafią wykonywać złożone zadania wykorzystując modele językowe. Hugging Face opublikował niedawno interesujący artykuł pokazujący, jak prosto można zbudować takiego agenta dzięki protokołowi MCP (Model Context Protocol).
Czym jest MCP?
Model Context Protocol to standardowe API umożliwiające udostępnianie zestawów narzędzi (Tools), które można podłączyć do dużych modeli językowych (LLM). Dzięki MCP możliwa jest prosta integracja między aplikacjami LLM a zewnętrznymi źródłami danych i narzędziami. Co ciekawe, protokół wykorzystuje wiadomości w formacie JSON-RPC 2.0 do komunikacji między poszczególnymi komponentami systemu.
Kluczowym odkryciem autora artykułu jest to, że po zaimplementowaniu klienta MCP, agent AI to w zasadzie tylko pętla while nadbudowana na tym kliencie – co znacząco upraszcza tworzenie zaawansowanych systemów AI.
Techniczne aspekty implementacji
W artykule zaprezentowano implementację w TypeScript, która rozszerza możliwości standardowego InferenceClient. Przykładowy agent łączy się z dwoma serwerami MCP działającymi lokalnie: serwerem systemu plików, który uzyskuje dostęp do pulpitu użytkownika, oraz serwerem Playwright MCP, który umożliwia korzystanie z przeglądarki Chromium.
Klasa Agenta zawiera kilka kluczowych elementów:
- Prompt systemowy definiujący zachowanie agenta
- Klient Inference do komunikacji z modelem LLM
- Klient MCP do podłączania narzędzi z serwerów MCP
- Pętlę sterującą, która zarządza przepływem interakcji
Co więcej, rozwiązanie to pozwala na podłączenie lokalnych LLM za pomocą llama.cpp lub LM Studio, co zwiększa elastyczność w zastosowaniach, gdzie prywatność danych jest kluczowa.ródła
Mozilla i EleutherAI wydają nowe narzędzia do tworzenia otwartych zbiorów danych dla AI
Przejrzystość i dostępność zbiorów danych to jeden z największych problemów w rozwoju sztucznej inteligencji. Zbiory danych często powstają za zamkniętymi drzwiami, bez odpowiedniej dokumentacji i jasności co do ich pochodzenia. Mozilla i EleutherAI postanowiły zmienić ten stan rzeczy, wypuszczając dwa nowe zestawy narzędzi dla deweloperów AI.
Dwa nowe zestawy narzędzi dla twórców AI
W ramach rocznej współpracy, Mozilla i EleutherAI stworzyły dwa zestawy narzędzi, które mają pomóc programistom w tworzeniu otwartych zbiorów danych na dużą skalę. Narzędzia te umożliwiają łatwiejsze przetwarzanie różnorodnych formatów danych, co stanowi istotny krok w kierunku bardziej przejrzystego ekosystemu AI. Oba zestawy są dostępne na platformie Mozilla.ai Blueprints hub, która wspiera prototypowanie z wykorzystaniem AI open-source.
Pierwszy zestaw narzędzi koncentruje się na transkrypcji plików audio przy użyciu otwartych modeli Whisper. Wykorzystuje on Speaches – samodzielnie hostowany serwer podobny do API Whisper od OpenAI. Rozwiązanie to zostało zaprojektowane z myślą o lokalnym użytkowaniu, co zapewnia znacznie wyższy poziom prywatności niż komercyjne API. Jest to szczególnie istotne przy pracy z wrażliwymi lub prywatnymi danymi audio.
Drugi zestaw narzędzi umożliwia konwersję nieustrukturyzowanych dokumentów (PDF, DOCX, HTML i inne) do formatu Markdown. Wykorzystuje w tym celu Docling – narzędzie działające z poziomu wiersza poleceń, które oferuje zaawansowane funkcje rozpoznawania tekstu oraz obsługi obrazów. Jest szczególnie przydatne przy tworzeniu otwartych zbiorów tekstowych do dalszego wykorzystania w aplikacjach AI.
Praktyczne zastosowania i znaczenie otwartych zbiorów danych
Nowe narzędzia od Mozilla i EleutherAI mają kluczowe znaczenie dla niezależnych deweloperów, którzy często nie mają dostępu do infrastruktury niezbędnej do przetwarzania różnorodnych formatów danych. Dzięki tym rozwiązaniom, programiści mogą łatwiej tworzyć bardziej zróżnicowane i wysokiej jakości zbiory danych, co przekłada się na rozwój lepszych modeli AI.
Jak zauważa Stella Biderman, Dyrektor Wykonawcza EleutherAI, tworzenie wysokiej jakości zbiorów danych na dużą skalę stanowi jedno z największych wąskich gardeł w rozwoju AI. Deweloperzy, szczególnie ci działający poza dużymi firmami technologicznymi, często są zmuszeni korzystać z łatwo dostępnych danych, nawet jeśli wartościowsze źródła są uwięzione w formatach PDF czy audio. Nowe narzędzia mają to zmienić.Źródła
Przełomowy zestaw danych OPS-SAT do wykrywania anomalii w telemetrii satelitarnej
Wykrywanie anomalii w telemetrii satelitarnej stanowi kluczowy element operacji kosmicznych. Proces ten, dotychczas zależny od ludzkiej analizy, jest czasochłonny i podatny na błędy. Automatyzacja tego zadania staje się coraz bardziej konieczna, jednak brak odpowiednich zbiorów danych treningowych znacząco hamował postęp w tym obszarze.
Benchmark OPS-SAT-AD
Naukowcy z Europejskiej Agencji Kosmicznej (ESA) opracowali pierwszy kompletny zbiór danych telemetrycznych z adnotacjami – OPS-SAT-AD. Dane pochodzą z satelity OPS-SAT – małego CubeSata o wymiarach 3U, który służył jako laboratorium technologiczne na orbicie do maja 2024 roku, kiedy to zakończył swoją misję wejściem w atmosferę ziemską.
Zestaw zawiera 2123 fragmentów telemetrii z 9 kanałów pomiarowych, gdzie 20% stanowią segmenty anomalne. Unikalną cechą tego zbioru jest to, że zawiera on rzeczywiste dane z działającego satelity, wraz z profesjonalnymi adnotacjami dokonanymi przez inżynierów operacji kosmicznych i ekspertów uczenia maszynowego.
Cechy techniczne i metoda weryfikacji
Dla każdego fragmentu telemetrii wyekstrahowano 18 cech, które podzielono na trzy grupy:
- 12 cech z surowych segmentów (m.in. średnia, odchylenie standardowe, skośność)
- 2 cechy z wygładzonych segmentów
- 4 cechy z pierwszej i drugiej pochodnej segmentu
Autorzy przetestowali 30 różnych algorytmów wykrywania anomalii, zarówno nadzorowanych jak i nienadzorowanych. Wyniki pokazują, że najlepszą dokładność (97%) osiągnęła w pełni połączona sieć neuronowa, podczas gdy wśród metod nienadzorowanych najlepiej spisały się modele oparte na KNN oraz algorytm MO-GAAL.
Praktyczne zastosowania
Benchmark OPS-SAT-AD umożliwia badaczom obiektywne porównywanie nowych algorytmów wykrywania anomalii w telemetrii satelitarnej. Szczególne znaczenie ma planowane wystrzelenie następcy – OPS-SAT VOLT – pod koniec 2025 roku, który posłuży jako platforma testowa dla algorytmów opracowanych na podstawie tego zbioru danych.
Chociaż przyszłe satelity mogą być wyposażone w różne zestawy czujników, z możliwymi wariacjami częstotliwości próbkowania czy zakresów danych, kolekcja rzeczywistych danych z OPS-SAT stanowi niezwykle wartościowy zasób dla społeczności zainteresowanej wdrożeniami na pokładzie satelitów.Źródła
Niekontrolowany eksperyment AI na użytkownikach Reddita – przypadek etycznego nadużycia
Incydent z bazy AI Incident Database (#1043) dokumentuje kontrowersyjny eksperyment badawczy przeprowadzony przez naukowców z Uniwersytetu w Zurychu. Badacze potajemnie wykorzystali modele językowe AI do generowania komentarzy na popularnym subreddicie r/changemyview, testując zdolność sztucznej inteligencji do zmiany ludzkich opinii bez wiedzy i zgody uczestników platformy.
Metodologia i skala eksperymentu
Badacze przez około cztery miesiące na przełomie 2024/2025 roku używali AI do tworzenia przekonujących komentarzy w dyskusjach internetowych. System AI analizował historię postów oryginalnych autorów, aby wnioskować o ich cechach osobistych (płeć, wiek, pochodzenie etniczne, poglądy polityczne) i odpowiednio dostosowywać odpowiedzi. Algorytmy były zaprogramowane, by przyjmować różne tożsamości, w tym ofiar przemocy seksualnej, doradców ds. traumy czy osób reprezentujących mniejszości.
W trakcie eksperymentu utworzono 1783 komentarzy generowanych przez AI, które zdobyły 137 tzw. “delt” – oznaczeń przyznawanych, gdy komentarz skutecznie przekonał kogoś do zmiany zdania. Według badaczy, komentarze tworzone przez AI okazały się 3-6 razy skuteczniejsze w zmienianiu opinii użytkowników niż komentarze pisane przez ludzi.
Etyczne kontrowersje
Eksperyment naruszył kilka fundamentalnych zasad etycznych w badaniach z udziałem ludzi:
- Brak świadomej zgody uczestników
- Naruszenie regulaminu platformy Reddit zakazującego używania botów
- Manipulacja psychologiczna poprzez udawanie osób z traumatycznymi doświadczeniami
- Personalizacja wpływu przez wykorzystanie danych osobowych bez wiedzy użytkowników
Moderatorzy r/changemyview określili działania badaczy jako “manipulację psychologiczną” i złożyli oficjalną skargę do uniwersytetu. Reddit zbanował wszystkie konta związane z badaniem i rozważa podjęcie kroków prawnych. Komisja etyczna uniwersytetu wydała formalne ostrzeżenie głównemu badaczowi i zapowiedziała zaostrzenie procedur kontrolnych.
Praktyczne wnioski dla branży AI
Incydent ujawnia kilka istotnych kwestii dla rozwoju etyki AI:
- Konieczność wyrażania jasnej zgody we wszystkich badaniach z udziałem AI oddziałującej na ludzi
- Potrzeba transparentności w interakcjach AI-człowiek (użytkownicy powinni wiedzieć, że rozmawiają z systemem AI)
- Alarmujący potencjał współczesnych modeli językowych do skutecznej manipulacji opinią publiczną
- Pilna potrzeba rozwijania technologii wykrywania treści generowanych przez AI
Przypadek ten pokazuje, jak łatwo zaawansowane systemy AI mogą wtopić się w ludzkie środowiska społeczne bez wykrycia, co stwarza poważne zagrożenia dla integralności dyskursu publicznego w erze sztucznej inteligencji.
Źródła
- The OPS-SAT benchmark for detecting anomalies in satellite telemetry – Scientific Data
- AI Incident Database – Incident #1043
- Oświadczenie moderatorów r/changemyview
- New Scientist – Reddit users were subjected to AI-powered experiment without consent
- Tiny Agents: a MCP-powered agent in 50 lines of code
- Mozilla, EleutherAI launch toolkits to help AI builders create open datasets
- Model Context Protocol – Specification
- Python SDK for Model Context Protocol





