Blaniel – open-source’owy silnik emocjonalny AI działający lokalnie

ciekawostki

Większość platform z „osobowością AI” to w istocie nakładki na komercyjne modele językowe z predefiniowanymi promptami systemowymi. Blaniel to projekt, który podchodzi do tematu zupełnie inaczej – implementuje rzeczywiste psychologiczne frameworki do modelowania emocji i zachowania agentów. Całość działa lokalnie, bez potrzeby wysyłania danych do zewnętrznych serwerów.

Repozytorium zostało opublikowane przez użytkownika Lucas-Dono na GitHubie i udostępnione na licencji MIT. Projekt ogłoszono na forum r/LocalLLaMA 9 kwietnia 2026 roku, gdzie autor szczegółowo opisał architekturę i możliwości silnika.

Czym jest Blaniel i skąd pochodzi jego podejście do emocji

Kluczową różnicą między Blaniel a typowymi chatbotami z „osobowością” jest oparcie przetwarzania emocji na sprawdzonych modelach psychologicznych, a nie na heurystykach. Projekt bazuje na dwóch teoriach: teorii oceny poznawczej OCC (Ortony, Clore, Collins) oraz kole emocji Plutchika. Pierwsza z nich opisuje, jak ludzie interpretują zdarzenia przez pryzmat swoich celów i wartości, co generuje konkretne emocje. Drugie narzędzie definiuje osiem emocji podstawowych i dwadzieścia cztery emocje złożone, powstające z ich kombinacji.

W praktyce oznacza to, że agent nie dostaje polecenia „bądź smutny”. Zamiast tego, na podstawie przebiegu rozmowy i kontekstu, system wylicza bieżący stan emocjonalny i odpowiednio modyfikuje zachowanie agenta. To podejście przypomina bardziej symulację procesu poznawczego niż wstrzyknięcie instrukcji do promptu.

Pipeline emocjonalny – jak to działa w środku

Blaniel implementuje kilka warstw przetwarzania, które współpracują ze sobą w czasie rzeczywistym:

  • Ocena poznawcza (cognitive appraisal) – każde zdarzenie w konwersacji jest oceniane pod kątem jego znaczenia dla celów agenta, co generuje odpowiedź emocjonalną
  • Koło emocji Plutchika – reprezentacja 8 emocji pierwotnych i 24 złożonych, co pozwala na niuansowane stany takie jak zaufanie+strach=poddanie się lub radość+oczekiwanie=optymizm
  • 13 profili behawioralnych – każdy z osobnością ma zdefiniowane fazy progresji zachowania, nie jednorodną reakcję; agent może np. stopniowo zamykać się w sobie lub eskalować agresję w zależności od przebiegu interakcji
  • Dramatyczny dyrektor (dramatic director system) – mechanizm koordynujący środowiska wieloagentowe, dbający o narracyjną spójność interakcji między agentami

Całość tego procesu jest widoczna dla użytkownika w czasie rzeczywistym przez interfejs playground na localhost:3000. Można tam obserwować, jak zmieniają się stany emocjonalne agentów krok po kroku – co jest szczególnie przydatne przy debugowaniu i dostrajaniu osobowości.

System pamięci wektorowej

Blaniel nie ogranicza się do kontekstu okna konwersacji. Wdrożono trójwarstwowy system pamięci oparty na bibliotece HNSWLib (Hierarchical Navigable Small World), która umożliwia szybkie wyszukiwanie wektorowe:

  • Pamięć semantyczna – wiedza ogólna i fakty, do których agent może się odwoływać
  • Pamięć epizodyczna – zapis poprzednich interakcji i zdarzeń z historii konwersacji
  • Pamięć proceduralna – wzorce zachowań i umiejętności wyuczone przez agenta

Wyszukiwanie po pamięci odbywa się z użyciem techniki RAG (Retrieval-Augmented Generation). Dzięki temu agent może przywoływać wcześniejsze zdarzenia z rozmowy i odpowiednio reagować na nie – np. pamiętać, że rozmówca go wcześniej skrytykował, i uwzględniać to w dalszym zachowaniu emocjonalnym.

Stos technologiczny

Projekt jest napisany w całości w TypeScript i zbudowany na nowoczesnym stosie webowym. Skala przedsięwzięcia jest znaczna jak na projekt open-source jednego autora:

WarstwaTechnologiaSzczegóły
Frontend / BackendNext.js 16Jeden monorepo dla UI i API
JęzykTypeScript884 pliki .ts/.tsx
Baza danychPostgreSQL + Prisma157 modeli Prisma
Komunikacja czasu rzeczywistegoSocket.IOCzat w czasie rzeczywistym
Wyszukiwanie wektoroweHNSWLibPamięć semantyczna + RAG
LLMOllama / LM Studio / LocalAI / cloudTestowane z Llama 3.1
LicencjaMITPełna swoboda użytkowania

Liczba 157 modeli Prisma wskazuje na bardzo rozbudowany schemat bazy danych – to więcej niż większość komercyjnych aplikacji. Oznacza to, że Blaniel przechowuje w bazie szczegółowe dane o stanach emocjonalnych, historiach agentów, profilach osobowości i zdarzeniach konwersacyjnych.

Wsparcie dla lokalnych modeli LLM

Kluczowym założeniem projektu jest pełna kompatybilność z lokalnie uruchamianymi modelami językowymi. Blaniel obsługuje:

  • Ollama – najpopularniejsze narzędzie do lokalnego uruchamiania modeli open-source (testowane z Llama 3.1)
  • LM Studio – GUI do zarządzania i uruchamiania modeli GGUF
  • LocalAI – kompatybilny z API OpenAI serwer lokalny
  • text-gen-webui – zaawansowany interfejs do generowania tekstu z wieloma backendami
  • Serwisy chmurowe – jako opcja dla użytkowników, którzy nie chcą hostować LLM lokalnie

Brak kluczy API i kosztów zewnętrznych to nie tylko kwestia prywatności – to też realne oszczędności przy intensywnym użyciu w środowiskach wieloagentowych, gdzie liczba tokenów przetwarzanych przez orchestrator może być bardzo wysoka.

Środowiska wieloagentowe

Blaniel wykracza poza model jednego chatbota z osobowością. System dramatycznego dyrektora umożliwia tworzenie środowisk, w których wiele agentów wchodzi ze sobą w interakcje niezależnie – każdy z własnym stanem emocjonalnym, pamięcią i profilem behawioralnym. Dyrektor dramatyczny pełni rolę koordynatora narracyjnego, pilnując, by interakcje między agentami były spójne i miały sens fabularny.

To podejście otwiera możliwości, które wykraczają poza typowe zastosowania chatbotów. Można budować symulacje społeczne, środowiska do testowania reakcji emocjonalnych, interaktywne narracje, a nawet narzędzia do badań nad zachowaniem agentów AI w warunkach stresu emocjonalnego.

Jak zacząć

Uruchomienie Blaniel sprowadza się do kilku kroków:

  1. Zainstaluj Ollama ze strony ollama.com i pobierz model (np. ollama pull llama3.1)
  2. Sklonuj repozytorium: git clone https://github.com/Lucas-Dono/blaniel
  3. Skonfiguruj bazę danych PostgreSQL i uruchom migracje Prisma
  4. Zainstaluj zależności (npm install) i uruchom serwer (npm run dev)
  5. Otwórz przeglądarkę na localhost:3000 i skonfiguruj pierwszego agenta.
    Poradnik o ollamie znajdziesz tutaj.

Po uruchomieniu playground pozwala na definiowanie osobowości agentów, obserwowanie zmian emocjonalnych w czasie rzeczywistym i śledzenie pełnego procesu oceny poznawczej krok po kroku. Projekt nie wymaga żadnych kont, kluczy API ani połączenia z zewnętrznymi serwisami – cała logika działa na lokalnym sprzęcie.

Dla kogo jest ten projekt

Blaniel adresuje kilka różnych grup użytkowników. Badaczy AI i NLP zainteresuje implementacja teorii OCC i koła Plutchika w środowisku open-source – dotychczas tego typu frameworki rzadko pojawiały się w praktycznych projektach. Deweloperów aplikacji może zainteresować gotowa infrastruktura do budowania chatbotów z długoterminową pamięcią i spójną osobowością bez vendor lock-in. Twórcom gier i narracji interaktywnych daje narzędzie do budowania wiarygodnych postaci NPC z dynamiczną reakcją emocjonalną.

Przy 884 plikach TypeScript i 157 modelach Prisma jest to projekt wymagający pewnego nakładu pracy przy konfiguracji – nie jest to gotowy do użycia pakiet instalowany jedną komendą. Jednak skala i przemyślana architektura wyróżniają go na tle większości hobbystycznych projektów z kategorii emotional AI.

Źródła

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane posty

Zacznij wpisywać wyszukiwane hasło powyżej i naciśnij Enter, aby wyszukać. Naciśnij ESC, aby anulować.

Powrót do góry
Hej. Nie zapomnij podzielić się opinią oraz udostępnić dalej.