雷峰網最具爭議性研究:大模型中間層輸出可 100% 反推原始輸入
11min1 d ago
詳細信息
最近,一篇名為《Language Models are Injective and Hence Invertible》的論文在學術界和科技圈引起了廣泛討論,甚至連老馬的 Grok 官方也下場轉發。
這篇論文出自意大利羅馬第一大學的 GLADIA Research Lab,文中提出了一個頗有爭議卻又耐人尋味的觀點:主流的 Transformer 語言模型在信息處理過程中幾乎不會丟失任何輸入內容,從數學意義上看,它們是可逆的。
換句話說,模型的隱藏狀態並不是模糊的語義壓縮,而是一種能夠完整保留輸入信息的精確重編碼。這一發現不僅挑戰了人們對語言模型“理解”機制的傳統認識,也讓研究者開始思考一個...