A Systematic Study of Pseudo-Relevance Feedback with LLMs
研究表明,使用LLM生成的伪相关反馈文本能显著提高查询效果,尤其在低资源任务中。
Nour Jedidi, Jimmy Lin
研究表明,使用LLM生成的伪相关反馈文本能显著提高查询效果,尤其在低资源任务中。
Nour Jedidi, Jimmy Lin
使用RCT方法评估AI系统对人类表现的提升,揭示方法学挑战与解决方案。
Patricia Paskov, Kevin Wei, Shen Zhou Hong 等
利用跨物种迁移学习,提升皮层GABA能中间神经元的电生理到转录组映射精度。
Theo Schwider, Ramin Ramezani
MLP层在Transformer中执行二进制路由,GPT-2中验证其有效性,减少MLP层提升困惑度43.3%。
Peter Balogh
GLM-OCR结合CogViT视觉编码器和GLM语言解码器,提升文档理解效率。
Shuaiqi Duan, Yadong Xue, Weihan Wang 等
通过高度增强的ReLU网络实现对解析和L^p函数的高效逼近,显著提高了逼近率。
ZeYu Li, FengLei Fan, TieYong Zeng
我们发布了一个大型双语图书馆目录数据集,支持基于GND的多标签分类。
Jennifer D'Souza, Sameer Sadruddin, Maximilian Kähler 等
通过LLM辅助生成MIPVU规则脚本,实现可解释的中文隐喻识别,跨协议比较显示协议选择是主要变异来源。
Weihang Huang, Mengna Liu
RAGPerf是一个用于检索增强生成系统的端到端基准框架,支持多种数据集和嵌入模型,性能开销可忽略。
Shaobo Li, Yirui Zhou, Yuan Xu 等
使用结构化链接数据作为记忆层,提升RAG系统的检索准确性,标准RAG提高29.6%,agentic管线提高29.8%。
Andrea Volpini, Elie Raad, Beatrice Gamba 等
本文提出了一种事件驱动的E-Skin系统,通过动态二进制扫描和实时SNN分类,实现了12.8倍扫描次数减少和92.11%的识别准确率。
Gaishan Li, Zhengnan Fu, Anubhab Tripathi 等
引入DOWIS数据集,评估语音大语言模型在多语言环境下的指令跟随能力,发现文本提示优于语音提示。
Maike Züfle, Sara Papi, Fabian Retkowski 等
N-gram模型在预测阅读时间上表现最佳,因其对简单统计更敏感。
James A. Michaelov, Roger P. Levy
提出了一种变分潜在平衡(VLE)方法,以生物学上合理的方式近似BPTT,提升了复杂时空模式学习的生物可行性。
Simon Brandt, Paul Haider, Walter Senn 等
提出NEMO-DE和NEEF-DE两种进化框架,实现近场多源定位,避免网格化误差。
Seyed Jalaleddin Mousavirad, Parisa Ramezani, Mattias O'Nils 等