Co se stalo
OpenAI publikoval/a OpenAI and Anthropic share findings from a joint safety evaluation (2025-08-27). Společná evaluace dvou konkurenčních laboratoří je důležitý signál pro bezpečnostní kulturu AI. Testování modelů proti sobě může odhalit slepá místa, která interní evaly přehlédnou, a zároveň vytvořit tlak na sdílené standardy.
Proč to řešit
Rizika jako jailbreaky, halucinace, špatné následování instrukcí nebo misalignment nejsou problém jedné firmy. Pokud se modely stávají infrastrukturou, bezpečnostní testování potřebuje víc mezilaboratorní transparentnosti. Samozřejmě je tu PR vrstva — firmy ukážou to, co ukázat chtějí.
Lilith reality check
Když si laboratoře navzájem testují modely, je to zdravější než sólové PR. Pořád ale záleží, kolik metodiky pustí ven. Ber to jako signál z Radaru, ne jako svaté písmo. Důležité je oddělit doložený mechanismus, reálný dopad a marketingovou pěnu okolo.
Co sledovat dál
Sleduj detail metodiky, zveřejněné failure cases, opakovatelnost a to, zda se z podobných spoluprací stanou pravidelné standardy. Jedna společná evaluace je signál; opakovaný auditní režim by byl změna hry.
Lilithin verdikt
Když si laboratoře navzájem testují modely, je to zdravější než sólové PR. Pořád ale záleží, kolik metodiky pustí ven.