在人工智能大模型競爭日益激烈的當下,如何打造一款能精準“抓住”用戶的爆款應用,成為眾多開發者關注的焦點。當算力與性能不再是唯一優勢,個性化技術成為關鍵突破口。傳統推薦系統和對話模型依賴ID Embedding或特定參數表示用戶偏好,這種“黑盒”范式存在不可解釋、難以遷移等問題,限制了個性化發展。而大模型強大的推理與生成能力,為打破這一局限帶來新契機,推動個性化從“黑盒”走向“白盒”。
近日,一支由螞蟻與東北大學研究人員組成的團隊,在大模型個性化領域取得重要進展,推出AlignXplore+。該成果實現文本化用戶建模新范式,讓復雜用戶偏好既能被人理解,也能被機器解讀,還具備良好擴展性與遷移性。傳統個性化技術路線下,無論是靜態用戶向量還是為每個用戶微調模型,本質都是不透明的“黑盒”。團隊指出,這種表示方式存在兩大痛點:一是不可解釋性,用戶無法理解、修改系統定義的“自己”,在注重隱私與控制權的AI Agent時代難以接受;二是無法遷移,向量和參數與特定模型架構深度綁定,推薦系統里的興趣無法被聊天機器人復用,不同模型間的畫像也難以通用。
基于這些思考,團隊提出范式轉移:摒棄隱空間向量,直接用自然語言歸納和推理解析用戶偏好。這種基于文本的偏好歸納,人眼可讀、可控,且完全解耦偏好推理與下游模型和任務。無論是推薦、寫作還是閑聊,也無論是GPT、Llama還是Qwen,都能無縫“讀懂”用戶。
AlignXplore+具有三大核心特性,重構用戶理解范式。其一,全域通用,打破數據孤島。它不局限于單一交互形式,可處理真實世界中異構數據源,如社交網絡發帖、電商平臺點擊、新聞流瀏覽記錄等,能提煉高價值偏好摘要,拼湊完整用戶全貌。其二,極致遷移,一次畫像,處處通用。從單一任務到全能應用,它打破任務邊界,將能力擴展到推薦和生成等廣泛個性化應用;從特定模型到通用接口,實現跨模型遷移,生成的畫像可被任何下游大模型直接讀取使用。其三,實戰適配,無懼真實世界數據噪點。真實世界交互流式且充滿噪點,AlignXplore+無需每次都重新“閱讀”用戶所有歷史,像人類記憶一樣,基于舊摘要和新交互不斷演化;面對“不完美信號”,如缺乏明確負反饋的數據和跨平臺混合數據,仍能保持穩定推理能力,免受噪音干擾。
AlignXplore+是一個面向大模型個性化對齊的統一框架,核心目標是讓大模型在不重訓、不續訓前提下持續理解用戶。該框架包含兩個主要階段。SFT階段通過“生成 - 驗證 - 合并”流程創建高質量訓練數據,確保對多個未來交互的準確預測,綜合生成全面偏好總結。RL階段采用課程剪枝策略,選取推理密集型樣本,并通過累積獎勵函數優化偏好總結,提升流式場景中的長期有效性。
在這個框架下,團隊將“用戶偏好學習”拆解為兩個核心步驟。SFT階段,為解決文本化偏好歸納“太泛”或“太偏”問題,設計一套流程,讓模型基于多種可能未來交互行為反推當前偏好,并引入“行為驗證”機制,確保生成的用戶偏好能準確預測用戶行為。RL階段,僅有SFT不夠,團隊引入強化學習,設計課程剪枝和累積獎勵兩個關鍵機制。課程剪枝篩選出“難但可解”的高推理價值樣本,避免模型在簡單或不可解樣本上空轉;累積獎勵讓模型關注生成的用戶偏好在未來持續交互中的可演化性,適應流式更新。
相較于現有方法,AlignXplore+在用戶理解準確性、遷移能力和魯棒性上實現全面升級。在效果上,8B參數的AlignXplore+在包含推薦、回復選擇和回復生成的九大基準測試中,平均分數取得SOTA成績,平均得分75.10%,絕對提升幅度比GPT - OSS - 20B高出4.2%,在復雜任務上表現尤為突出,驗證顯式推理比隱式向量更能捕捉深層意圖。在遷移能力上,生成的用戶偏好展現驚人Zero - shot遷移能力。跨任務遷移方面,對話任務中生成的偏好,直接指導新聞推薦依然有效;跨模型遷移方面,生成偏好給Qwen2.5 - 7B或GPT - OSS - 20B等不同下游模型使用,均能帶來穩定性能提升,用戶偏好不再被單一模型鎖定。在魯棒性上,真實場景往往只有用戶點擊記錄(正樣本),缺乏明確負反饋,實驗表明,即便移除所有負樣本,AlignXplore+依然保持顯著性能優勢,展現強大推理魯棒性。用戶真實歷史行為跨越多種領域,實驗結果顯示,即使混合不同領域歷史記錄,AlignXplore+依然能精準捕捉多重興趣,不像傳統模型那樣將興趣“平均化”。





















