Postęp w dziedzinie dużych modeli językowych (LLM) i hybrydowych systemów wnioskowania otwiera nowe możliwości w projektowaniu autonomicznych robotów. Dotychczas systemy sterowania dronem (GCS – Ground Control Station) były pisane ręcznie przez inżynierów i wymagały dedykowanego sprzętu naziemnego. Artykuł opublikowany w npj Artificial Intelligence (Nature) przez Petera J. Burke’a z Uniwersytetu Kalifornijskiego w Irvine pokazuje, że ta konwencja może odejść w przeszłość.
Czym jest ten eksperyment?

Burke zademonstrował w pełni wygenerowany przez AI system sterowania dronem – żadna linia kodu nie została napisana przez człowieka. Model AI (z minimalnym wkładem człowieka ograniczonym do wysokopoziomowych poleceń) samodzielnie stworzył kompletny stos oprogramowania dla stacji dowodzenia w czasie rzeczywistym. System ten został przetestowany zarówno na rzeczywistym dronie w locie, jak i na wirtualnym symulatorze chmurowym.
Kluczową innowacją jest jednak nie samo generowanie kodu, lecz miejsce hostowania stacji dowodzenia. Zamiast uruchamiać oprogramowanie GCS na komputerze naziemnym, cały serwer działa bezpośrednio na pokładzie drona – na module Raspberry Pi Zero 2 W. Dron staje się więc jednocześnie platformą latającą i serwerem webowym dostępnym z dowolnej przeglądarki internetowej, z dowolnego miejsca na świecie.
Architektura techniczna
System oparty jest na serwerze Flask uruchomionym na Raspberry Pi Zero 2 W zamontowanym na dronie. Interfejs użytkownika dostępny jest przez przeglądarkę, co eliminuje konieczność instalowania specjalistycznego oprogramowania (jak Mission Planner czy QGroundControl) na komputerze operatora. Pilot może sterować dronem z poziomu smartfona, tabletu lub laptopa.
Proces tworzenia kodu przebiegał przez pipeline obejmujący kilka etapów:
- Generowanie kodu przez agentyczne modele LLM działające lokalnie (w IDE) oraz w chmurze
- Synchronizację bazy kodu z systemem kontroli wersji (GitHub/GitLab)
- Wdrożenie i testy – najpierw w symulacji, potem na prawdziwym dronie w locie
- Iteracyjne poprawki prowadzone przez AI na podstawie wyników testów
Companion computer na dronie pełni funkcję “mózgu wyższego rzędu” (analogicznie do kory mózgowej), podczas gdy kontroler lotu obsługuje niskie warstwy stabilizacji lotu (analogicznie do pnia mózgu). Cały kod warstwy wyższej – stacja dowodzenia w powietrzu – został w całości napisany przez maszynę.
Wyniki i benchmarki
Burke porównał ilościowo swój system z poprzednimi architekturami pisanymi ręcznie. Wyniki pokazują, że kod generowany przez AI dostarcza funkcjonalnie kompletny stos sterowania w czasie krótszym o rzędy wielkości w porównaniu z tradycyjnym programowaniem przez ludzi. Dla porównania:
| Cecha | Tradycyjny GCS (kod ludzki) | AI-generated WebGCS (Burke 2026) |
|---|---|---|
| Autor kodu | Człowiek | Model AI (LLM) |
| Miejsce hostowania | Komputer naziemny | Dron (Raspberry Pi Zero 2 W) |
| Wymagania po stronie operatora | Dedykowane oprogramowanie (Mission Planner, QGroundControl) | Dowolna przeglądarka internetowa |
| Czas wytworzenia kodu | Tygodnie/miesiące | Wielokrotnie szybszy (wg benchmarków ok. 20×) |
| Mapowanie, telemetria, misje autonomiczne | Tak | Tak |
System obsługuje mapowanie terenu w czasie rzeczywistym, telemetrię lotu, autonomiczne planowanie misji i protokoły bezpieczeństwa – wszystko przez interfejs webowy hostowany bezpośrednio na dronie.
Ograniczenia obecnego podejścia
Badanie nie pomija słabych stron. Burke identyfikuje dwa główne ograniczenia aktualnych modeli AI przy generowaniu kodu robotyki:
- Długość kontekstu modelu (context window) – przy bardziej złożonych systemach modele mogą “gubić” wcześniejsze fragmenty logiki, co prowadzi do błędów spójności kodu
- Głębokość wnioskowania – modele mają trudność z rozwiązywaniem problemów wymagających wielopoziomowej analizy zależności systemowych
Są to ograniczenia charakterystyczne dla obecnej generacji LLM-ów, a nie fundamentalne bariery architektoniczne. W miarę jak modele będą zyskiwać większe okna kontekstowe i lepsze zdolności planowania, ograniczenia te będą stopniowo eliminowane.
Praktyczne zastosowania
Podejście zademonstrowane przez Burke’a otwiera kilka konkretnych ścieżek zastosowań w robotyce i systemach UAV:
- Szybkie prototypowanie systemów dronów – firmy mogą tworzyć prototypowe stacje dowodzenia w ciągu dni zamiast miesięcy, bez angażowania dużych zespołów programistów
- Zdalne operacje bez infrastruktury naziemnej – dron jako własny serwer webowy eliminuje potrzebę utrzymywania dedykowanej stacji naziemnej; wystarczy sieć i przeglądarka
- Operacje wieloplatformowe – pilot może sterować dronem z Windows, macOS, Linuxa, Androida lub iOS bez instalacji żadnego oprogramowania
- Autonomiczne tworzenie oprogramowania dla robotyki – badanie wyznacza kierunek, w którym przyszłe roboty będą mogły samodzielnie generować, testować i aktualizować własne oprogramowanie sterujące
- Misje w trudnym terenie lub warunkach ekstremalnych – skoro dron sam hostuje stację dowodzenia, można nim zarządzać zdalnie nawet przy ograniczonej infrastrukturze naziemnej
Znaczenie dla inżynierii robotyki
Artykuł Burke’a jest częścią szerszego trendu, w którym AI przestaje być tylko narzędziem wspomagającym programistów, a staje się pełnoprawnym autorem systemów sterowania. Wcześniejsze prace zespołu dotyczyły webowych GCS hostowanych na ziemi – ten artykuł przesuwa granicę, relokując stację dowodzenia do powietrza i usuwając ostatnią zależność od infrastruktury naziemnej po stronie sterowania.
W szerszym kontekście badanie sugeruje nowy paradygmat inżynierii robotyki: zamiast pisać kod ręcznie, inżynierowie będą formułować wymagania wysokopoziomowe, a systemy AI będą generować, walidować i wdrażać oprogramowanie. To zmiana nie tylko w narzędziach, ale w samym procesie wytwarzania robotów.
„Robot (maszyna do pisania kodu AI) tworzy, od podstaw, przy minimalnym wkładzie człowieka, mózg innego robota – drona.” – Peter J. Burke, npj Artificial Intelligence, 2026
Źródła
- Burke P.J., „AI generated drone command and control station hosted in the sky”, npj Artificial Intelligence, Nature (2026)
- Preprint arXiv: Robot builds a robot’s brain – AI generated drone command and control station hosted in the sky
- The Register: „Robots can program each other’s brains with AI, scientist shows” (2025)
- Burke Lab – lista publikacji





