雷峰網
11min1 d ago
播放聲音
喜歡
評論
分享

詳細信息

最近,一篇名為《Language Models are Injective and Hence Invertible》的論文在學術界和科技圈引起了廣泛討論,甚至連老馬的 Grok 官方也下場轉發。 這篇論文出自意大利羅馬第一大學的 GLADIA Research Lab,文中提出了一個頗有爭議卻又耐人尋味的觀點:主流的 Transformer 語言模型在信息處理過程中幾乎不會丟失任何輸入內容,從數學意義上看,它們是可逆的。 換句話說,模型的隱藏狀態並不是模糊的語義壓縮,而是一種能夠完整保留輸入信息的精確重編碼。這一發現不僅挑戰了人們對語言模型“理解”機制的傳統認識,也讓研究者開始思考一個...

查看更多