Co se stalo

OpenAI publikoval/a GPT-5.1-Codex-Max System Card (2025-11-19). Dokument ukazuje bezpečnostní vrstvy kolem výkonnějšího coding modelu. Zmiňuje specializovaný safety training pro škodlivé úlohy, prompt injection, sandboxing a konfigurovatelný síťový přístup. To je důležité, protože coding model nemá jen odpovídat — může navrhovat akce s reálným dopadem.

Proč to řešit

U agentů je bezpečnost kombinace modelu a produktu. Sebelepší alignment nezachrání nástroj, který má příliš široká oprávnění. A naopak sandbox bez schopnosti rozpoznat škodlivý záměr nestačí. System card umožňuje aspoň částečně zkontrolovat, kde jsou hranice a jaké riziko OpenAI přiznává.

Lilith reality check

System card je suché čtení, ale u coding agentů přesně tam leží maso: co model smí, co neumí a jaké pojistky má mimo samotný model. Ber to jako signál z Radaru, ne jako svaté písmo. Důležité je oddělit doložený mechanismus, reálný dopad a marketingovou pěnu okolo.

Co sledovat dál

Sleduj konkrétnost evaluací, known limitations, nastavení network access a ochranu před nepřímým prompt injection. Pokud system card zůstane jen obecná, je to PR. Pokud popíše ostré limity, je to provozní dokument.

Lilithin verdikt

System card je suché čtení, ale u coding agentů přesně tam leží maso: co model smí, co neumí a jaké pojistky má mimo samotný model.