近期,中國科學院軟件研究所研究團隊為提升大語言模型時間序列預測性能,提出了向量注入式上下文學習框架。該框架能夠穩定提升時間序列預測性能,并可以降低計算開銷。大語言模型進行時間序列預測時面臨一項主要挑戰——預訓練文本與時間序列數據在分布與結構上存在差異。傳統方法采用全量微調來減少這種差異,但其訓練成本高、顯存占用大,限制了實際應用。研究團隊提出引入上下文學習的方法LVICL。該方法通過在輸入提示中引入任務示例,使模型無需更新參數即可實現“類似微調”的效果。為提升上下文學習對示例選擇與順序敏感的不穩定問題,該方法提取示例的向量表示,并以置換不變的方法進行聚合,從而消除順序敏感性;采用輕量適配器對聚合后的上下文向量進行精練,抑制其中可能干擾預測的分量,增強對示例選擇的魯棒性;將優化后的向量注入到大語言模型各層的殘差流中,以可控方式引導模型進行預測。研究團隊在多個時間序列預測基準數據集上對LVICL進行系統評估。實驗表明,LVICL在保持大語言模型完全凍結、訓練開銷降低的前提下,能夠穩定復現并進一步放大上下文學習帶來的收益。與輕量微調方法相比,LVICL在多種數據集與實驗設置下均表現出更強的預測能力,并在效率與性能的平衡上展現出更好的實用性。相關論文被互聯網領域頂級國際學術會議The Web Conference 2026(WWW-26)錄用。論文鏈接LVICL總體框架