根据用户个人兴趣偏好不同,输出不同的内容,实现大模型多样化回复,同时也更切近用户需求。
为了实现个性化输出,普遍的有两种做法:
新的方案和前面两个方案的对比:


对应的右图,将历史记录和用户输入通过encoder,转换为向量表示。为后面的Aggregator做准备。
为了提升训练效率,在论文中freeze了User Behavior Encoder,对Input Encoder进行了微调
不太理解为什么这里要微调input encoder,微调的目标是什么?
实验中,两个encoder都选用了BGE-base-en-V1.5作为默认的encoder模型,同时对比了Contriver,两者差距不大。
