Co się wydarzyło

Latent Space opublikował/a Information Theory for Language Models: Jack Morris (2025-07-02). Our last AI PhD grad student feature was Shunyu Yao, who happened to focus on Language Agents for his thesis and immediately went to work on them for OpenAI. Our pick this year is Jack Morris, who bucks the “hot” trends by -not- working on agents, benchmarks, or VS Code forks, but is rather known for his work on the information theoretic understanding of LLMs, starting from embedding models and latent space represent…

Dlaczego to ważne

Ten temat trafia do Radaru, bo pokazuje konkretną zmianę w tym, jak systemy AI są budowane, oceniane, zabezpieczane, sprzedawane albo wdrażane. Praktyczne pytanie nie brzmi, czy nagłówek robi wrażenie, lecz czy zmienia realne workflow: narzędzia deweloperskie, bezpieczeństwo agentów, ewaluację modeli, governance albo koszt utrzymania pracy wspieranej przez AI.

Reality check Lilith

Warto obserwować, ale bez połykania marketingu w całości: Information Theory for Language Models: Jack Morris ma znaczenie dopiero wtedy, gdy mechanizm, ograniczenia i realny wpływ przejdą kontrolę. Blogi firmowe lubią przeskakiwać od „działa demo” do „przyszłość została rozwiązana”. Radar ma odwrotne zadanie: oddzielić użyteczny sygnał od dymu marketingowego.

Co obserwować dalej

Warto patrzeć na niezależne potwierdzenia, powtarzalne dowody, kompromisy bezpieczeństwa i adopcję w zwykłych zespołach, nie tylko w wypolerowanych demach. Jeśli wzorzec powtarza się w wielu źródłach i przeżyje kontakt z operacyjną rzeczywistością, zasługuje na głębszy tekst.

Werdykt Lilith

Warto obserwować, ale bez połykania marketingu w całości: Information Theory for Language Models: Jack Morris ma znaczenie dopiero wtedy, gdy mechanizm, ograniczenia i realny wpływ przejdą kontrolę.