Why language models hallucinate
OpenAI vysvětluje halucinace jazykových modelů a tvrdí, že lepší evaluace mohou posílit spolehlivost, upřímnost a bezpečnost.
Proč to řešit: Pro nasazení v práci je to zásadní. Halucinace nejsou jen drobná chyba v chatu; mohou ovlivnit právní rešerši, medicínské informace, kód, finanční rozhodnutí nebo interní reporting. Lepší modely nestačí, pokud metriky pořád oceňují hezky formulovanou lež.
názorHalucinace nejsou jen „model je hloupý“. Často je odměňujeme za sebevědomou odpověď místo za přiznanou nejistotu.