Aligning Dense Retrievers with LLM Utility via DistillationAligning Dense Retrievers with LLM Utility via Distillation
通过蒸馏对齐密集检索器与LLM效用,UAE在QASPER基准上提升Recall@1达30.59%。
Rajinder Sandhu, Di Mu, Cheng Chang 等
通过蒸馏对齐密集检索器与LLM效用,UAE在QASPER基准上提升Recall@1达30.59%。
Rajinder Sandhu, Di Mu, Cheng Chang 等
研究通过QPP选择RAG管道中最佳查询变体,提升生成质量。
Negar Arabzadeh, Andrew Drozdov, Michael Bendersky 等
提出TAWin方法,通过WPAUC优化RL推荐系统,提升Top-K性能。
Wentao Shi, Qifan Wang, Chen Chen 等
提出语义与协同视图的互补融合方法,避免全局对齐带来的局限,提升推荐系统性能。
Maolin Wang, Dongze Wu, Jianing Zhou 等
ResRank通过残差段落压缩和端到端联合训练,提升信息检索的效率和效果。
Xiaojie Ke, Shuai Zhang, Liansheng Sun 等
结合ECLASS语义的密集检索方法在电子元件语义搜索中实现94.3%的HitRate@5。
Nico Baumgart, Markus Lange-Hegermann, Jan Henze
Diagnosable ColBERT通过对齐临床知识的参考潜在空间,提升ColBERT模型的诊断能力。
François Remy
LoopCTR通过循环扩展范式提升点击率预测性能,显著减少计算成本。
Jiakai Tang, Runfeng Zhang, Weiqiu Wang 等
CAST框架通过语义级转换建模,提升了17.6%召回率和16.0% NDCG,训练加速65倍。
Qian Zhang, Lech Szymanski, Haibo Zhang 等
CS3框架通过循环自适应结构、跨塔同步和级联模型共享,实现了两塔推荐系统的高效在线能力协同,提升了8.36%的广告收入。
Lixiang Wang, Shaoyun Shi, Peng Wang 等
文档作为图像的表示在科学检索中表现不佳,文本+图像交错表示更有效。
Ghazal Khalighinejad, Raghuveer Thirukovalluru, Alexander H. Oh 等
MARC方法通过模块化表示压缩提高推荐系统效率,在线测试提升eCPM 2.82%。
Yunjia Xi, Menghui Zhu, Jianghao Lin 等
通过BERT Score和专家评估,研究ChatGPT-4o、GeminiAI和Perplexity AI在生成泰卢固语孕产健康问答中的表现,Gemini表现最佳。
Anagani Bhanusree, Sai Divya Vissamsetty, K VenkataKrishna Rao 等
NanoVDR通过蒸馏2B视觉语言检索器为视觉文档检索提供了一个70M的文本编码器,保留了95.1%的教师质量。
Zhuchenyang Liu, Yao Zhang, Yu Xiao
提出EISAM优化框架,显著提升长尾项目推荐性能。
Jiaming Zhang, Yuyuan Li, Xiaohua Feng 等
AnchorRec通过锚点对齐防止多模态推荐系统中的位置崩溃,提升推荐准确率。
Yonghun Jeong, David Yoon Suk Kang, Yeon-Chang Lee
FGTR通过层次化LLM推理实现细粒度多表检索,在Spider和BIRD数据集上分别提升F_2指标18%和21%。
Chaojie Sun, Bin Cao, Tiantian Li 等
VLM4Rec通过大规模视觉语言模型实现多模态推荐的语义表示,提升推荐性能。
Ty Valencia, Burak Barlas, Varun Singhal 等
InterDeepResearch通过交互式深度研究实现人机协作的信息检索,提升研究过程的可观察性和实时可控性。
Bo Pan, Lunke Pan, Yitao Zhou 等
FedShare框架通过个性化数据共享和对已共享数据的反向学习,提升推荐系统性能。
Liang Qu, Jianxin Li, Wei Yuan 等