Większość platform z „osobowością AI” to w istocie nakładki na komercyjne modele językowe z predefiniowanymi promptami systemowymi. Blaniel to projekt, który podchodzi do tematu zupełnie inaczej – implementuje rzeczywiste psychologiczne frameworki do modelowania emocji i zachowania agentów. Całość działa lokalnie, bez potrzeby wysyłania danych do zewnętrznych serwerów.
Repozytorium zostało opublikowane przez użytkownika Lucas-Dono na GitHubie i udostępnione na licencji MIT. Projekt ogłoszono na forum r/LocalLLaMA 9 kwietnia 2026 roku, gdzie autor szczegółowo opisał architekturę i możliwości silnika.
Czym jest Blaniel i skąd pochodzi jego podejście do emocji
Kluczową różnicą między Blaniel a typowymi chatbotami z „osobowością” jest oparcie przetwarzania emocji na sprawdzonych modelach psychologicznych, a nie na heurystykach. Projekt bazuje na dwóch teoriach: teorii oceny poznawczej OCC (Ortony, Clore, Collins) oraz kole emocji Plutchika. Pierwsza z nich opisuje, jak ludzie interpretują zdarzenia przez pryzmat swoich celów i wartości, co generuje konkretne emocje. Drugie narzędzie definiuje osiem emocji podstawowych i dwadzieścia cztery emocje złożone, powstające z ich kombinacji.
W praktyce oznacza to, że agent nie dostaje polecenia „bądź smutny”. Zamiast tego, na podstawie przebiegu rozmowy i kontekstu, system wylicza bieżący stan emocjonalny i odpowiednio modyfikuje zachowanie agenta. To podejście przypomina bardziej symulację procesu poznawczego niż wstrzyknięcie instrukcji do promptu.
Pipeline emocjonalny – jak to działa w środku
Blaniel implementuje kilka warstw przetwarzania, które współpracują ze sobą w czasie rzeczywistym:
- Ocena poznawcza (cognitive appraisal) – każde zdarzenie w konwersacji jest oceniane pod kątem jego znaczenia dla celów agenta, co generuje odpowiedź emocjonalną
- Koło emocji Plutchika – reprezentacja 8 emocji pierwotnych i 24 złożonych, co pozwala na niuansowane stany takie jak zaufanie+strach=poddanie się lub radość+oczekiwanie=optymizm
- 13 profili behawioralnych – każdy z osobnością ma zdefiniowane fazy progresji zachowania, nie jednorodną reakcję; agent może np. stopniowo zamykać się w sobie lub eskalować agresję w zależności od przebiegu interakcji
- Dramatyczny dyrektor (dramatic director system) – mechanizm koordynujący środowiska wieloagentowe, dbający o narracyjną spójność interakcji między agentami
Całość tego procesu jest widoczna dla użytkownika w czasie rzeczywistym przez interfejs playground na localhost:3000. Można tam obserwować, jak zmieniają się stany emocjonalne agentów krok po kroku – co jest szczególnie przydatne przy debugowaniu i dostrajaniu osobowości.
System pamięci wektorowej
Blaniel nie ogranicza się do kontekstu okna konwersacji. Wdrożono trójwarstwowy system pamięci oparty na bibliotece HNSWLib (Hierarchical Navigable Small World), która umożliwia szybkie wyszukiwanie wektorowe:
- Pamięć semantyczna – wiedza ogólna i fakty, do których agent może się odwoływać
- Pamięć epizodyczna – zapis poprzednich interakcji i zdarzeń z historii konwersacji
- Pamięć proceduralna – wzorce zachowań i umiejętności wyuczone przez agenta
Wyszukiwanie po pamięci odbywa się z użyciem techniki RAG (Retrieval-Augmented Generation). Dzięki temu agent może przywoływać wcześniejsze zdarzenia z rozmowy i odpowiednio reagować na nie – np. pamiętać, że rozmówca go wcześniej skrytykował, i uwzględniać to w dalszym zachowaniu emocjonalnym.
Stos technologiczny
Projekt jest napisany w całości w TypeScript i zbudowany na nowoczesnym stosie webowym. Skala przedsięwzięcia jest znaczna jak na projekt open-source jednego autora:
| Warstwa | Technologia | Szczegóły |
|---|---|---|
| Frontend / Backend | Next.js 16 | Jeden monorepo dla UI i API |
| Język | TypeScript | 884 pliki .ts/.tsx |
| Baza danych | PostgreSQL + Prisma | 157 modeli Prisma |
| Komunikacja czasu rzeczywistego | Socket.IO | Czat w czasie rzeczywistym |
| Wyszukiwanie wektorowe | HNSWLib | Pamięć semantyczna + RAG |
| LLM | Ollama / LM Studio / LocalAI / cloud | Testowane z Llama 3.1 |
| Licencja | MIT | Pełna swoboda użytkowania |
Liczba 157 modeli Prisma wskazuje na bardzo rozbudowany schemat bazy danych – to więcej niż większość komercyjnych aplikacji. Oznacza to, że Blaniel przechowuje w bazie szczegółowe dane o stanach emocjonalnych, historiach agentów, profilach osobowości i zdarzeniach konwersacyjnych.
Wsparcie dla lokalnych modeli LLM
Kluczowym założeniem projektu jest pełna kompatybilność z lokalnie uruchamianymi modelami językowymi. Blaniel obsługuje:
- Ollama – najpopularniejsze narzędzie do lokalnego uruchamiania modeli open-source (testowane z Llama 3.1)
- LM Studio – GUI do zarządzania i uruchamiania modeli GGUF
- LocalAI – kompatybilny z API OpenAI serwer lokalny
- text-gen-webui – zaawansowany interfejs do generowania tekstu z wieloma backendami
- Serwisy chmurowe – jako opcja dla użytkowników, którzy nie chcą hostować LLM lokalnie
Brak kluczy API i kosztów zewnętrznych to nie tylko kwestia prywatności – to też realne oszczędności przy intensywnym użyciu w środowiskach wieloagentowych, gdzie liczba tokenów przetwarzanych przez orchestrator może być bardzo wysoka.
Środowiska wieloagentowe
Blaniel wykracza poza model jednego chatbota z osobowością. System dramatycznego dyrektora umożliwia tworzenie środowisk, w których wiele agentów wchodzi ze sobą w interakcje niezależnie – każdy z własnym stanem emocjonalnym, pamięcią i profilem behawioralnym. Dyrektor dramatyczny pełni rolę koordynatora narracyjnego, pilnując, by interakcje między agentami były spójne i miały sens fabularny.
To podejście otwiera możliwości, które wykraczają poza typowe zastosowania chatbotów. Można budować symulacje społeczne, środowiska do testowania reakcji emocjonalnych, interaktywne narracje, a nawet narzędzia do badań nad zachowaniem agentów AI w warunkach stresu emocjonalnego.
Jak zacząć
Uruchomienie Blaniel sprowadza się do kilku kroków:
- Zainstaluj Ollama ze strony ollama.com i pobierz model (np.
ollama pull llama3.1) - Sklonuj repozytorium:
git clone https://github.com/Lucas-Dono/blaniel - Skonfiguruj bazę danych PostgreSQL i uruchom migracje Prisma
- Zainstaluj zależności (
npm install) i uruchom serwer (npm run dev) - Otwórz przeglądarkę na
localhost:3000i skonfiguruj pierwszego agenta.
Poradnik o ollamie znajdziesz tutaj.
Po uruchomieniu playground pozwala na definiowanie osobowości agentów, obserwowanie zmian emocjonalnych w czasie rzeczywistym i śledzenie pełnego procesu oceny poznawczej krok po kroku. Projekt nie wymaga żadnych kont, kluczy API ani połączenia z zewnętrznymi serwisami – cała logika działa na lokalnym sprzęcie.
Dla kogo jest ten projekt
Blaniel adresuje kilka różnych grup użytkowników. Badaczy AI i NLP zainteresuje implementacja teorii OCC i koła Plutchika w środowisku open-source – dotychczas tego typu frameworki rzadko pojawiały się w praktycznych projektach. Deweloperów aplikacji może zainteresować gotowa infrastruktura do budowania chatbotów z długoterminową pamięcią i spójną osobowością bez vendor lock-in. Twórcom gier i narracji interaktywnych daje narzędzie do budowania wiarygodnych postaci NPC z dynamiczną reakcją emocjonalną.
Przy 884 plikach TypeScript i 157 modelach Prisma jest to projekt wymagający pewnego nakładu pracy przy konfiguracji – nie jest to gotowy do użycia pakiet instalowany jedną komendą. Jednak skala i przemyślana architektura wyróżniają go na tle większości hobbystycznych projektów z kategorii emotional AI.






