← Biblioteka · agents

Agenci — kiedy LLM dostaje ręce i pamięć

Agenci — kiedy LLM dostaje ręce i pamięć

LLM z tool use, pętlą i pamięcią. Dużo marketingu, mało definicji. Tu jest wersja bez owijania.

Co to jest

Agent = LLM w pętli, mający dostęp do narzędzi (search, shell, API)
i jakąś formę pamięci. Cykl jest tępy:

while not done:
    zdecyduj(następną akcję) → wywołaj tool → przeczytaj wynik → zaktualizuj plan

I tyle. Wszystko inne to wariacje.

Czym to nie jest

  • To nie świadomość. To nie "AGI". To nie "AI, które cię zastąpi".
  • To nie chatbot, któremu powiedziałeś "zrób cokolwiek". To po prostu
    chatbot z sfrustrowanym użytkownikiem.
  • To nie jeden wielki prompt. Stan, plan i pamięć żyją poza LLM,
    w aplikacji. LLM tylko wybiera następną akcję.

Gdzie kończy się workflow, a zaczyna agent

  • Workflow: kroki są ustalone z góry, LLM tylko wypełnia luki.
    (Klasyczne "summarize → translate → email".)
  • Agent: LLM sam wybiera następny krok na podstawie stanu. Pętla
    może trwać długo i robić rzeczy, których się nie spodziewałeś.

Workflow jest bezpieczniejszy, tańszy, łatwiejszy do debugowania. Agent
ma sens, kiedy zadanie wymaga eksploracji — nieznane dane, nieznane
środowisko.

MCP, ReAct, tool use

  • Tool use = format, którym LLM sygnalizuje "wywołaj X z argumentami
    Y". Anthropic robi to natywnie, OpenAI też — problem rozwiązany.
  • ReAct = oryginalny paper mówiący "naprzemiennie Reasoning i Action".
    Dziś to już tylko historyczny termin na "agent loop".
  • MCP (Model Context Protocol) = standardowy sposób udostępniania
    modelowi narzędzi i zasobów (system plików, DB, API) jak pluginów.
    Lokalny serwer, deklaratywny schemat. Anthropic to pcha, ekosystem
    rośnie.

Pamięć

Trzy warstwy, które warto rozróżniać:

  1. Working memory — okno tokenów bieżącej rozmowy.
  2. Episodic — co się działo w poprzednich sesjach.
    Typowo log + sumaryzacja + RAG.
  3. Semantic — wyuczone fakty o domenie.
    Typowo structured store + narzędzie do lookupu.

Jedna "magiczna" warstwa pamięci nie istnieje. To marketing.

Częste błędy

  • Brak limitów pętli → agent się zapętla i przepala budżet tokenów.
  • Brak human-in-the-loop przy nieodwracalnych akcjach (delete, payment,
    deploy).
  • Za dużo narzędzi → model wybiera źle.
    Zasada kciuka: poniżej 10, najlepiej 3–5.
  • Brak evals. Jeśli nie wiesz, ile akcji średnio zajmuje zadanie
    i jaki jest success rate, tylko zgadujesz.

Co zapamiętać

Agent to tępa pętla wokół mądrego modelu. Większość problemów, które
ludzie przypisują modelowi (halucynacje, zgubiony kontekst, głupie
decyzje), to w rzeczywistości błędy w tej pętli — nie w modelu.