Lielo valodu modeļu (large language models jeb LLM) “halucinācijas” nav kļūda to programmatūras kodā, bet gan to arhitektūras (autoregresīvās prognozēšanas) dabisks rezultāts. Lai šo problēmu risinātu, nepietiek tikai ar jautājuma uzdošanu; ir fundamentāli jāmaina veids, kā modelis apstrādā informāciju savā konteksta logā (context window). 1. Problēmas sakne: lineārā prognozēšana Lielie valodu modeļi ģenerē tekstu pakāpeniski – vārdu pa vārdam (jeb marķieri pa marķierim, kurus sauc par tokeniem). Brīdī, kad modelis izvēlas nākamo vārdu, tas balstās…
Tag