Quantized Inference for OneRec-V2
OneRec-V2通过FP8量化推理实现49%延迟减少和92%吞吐量提升。
Yi Su, Xinchen Luo, Hongtao Cheng 等
OneRec-V2通过FP8量化推理实现49%延迟减少和92%吞吐量提升。
Yi Su, Xinchen Luo, Hongtao Cheng 等
MDER-DR框架通过实体中心的摘要提高多跳问答性能,提升66%。
Riccardo Campi, Nicolò Oreste Pinciroli Vago, Mathyas Giudici 等
COMIC系统利用LLM评论家生成接近专业水平的喜剧短片。
Susung Hong, Brian Curless, Ira Kemelmacher-Shlizerman 等
NeFTY通过可微物理框架实现高精度3D热扩散重建,显著提高缺陷定位准确性。
Tao Zhong, Yixun Hu, Dongzhe Zheng 等
V2M-Zero通过事件曲线实现视频到音乐的时间同步生成,在多个数据集上提升音质和节拍对齐。
Yan-Bo Lin, Jonah Casebeer, Long Mai 等
DynVLA通过动态CoT预测紧凑的世界动态,在NAVSIM等数据集上表现优异。
Shuyao Shang, Bing Zhan, Yunfei Yan 等
IsalGraph方法将有限简单图表示为九字符指令字母表上的紧凑字符串,适用于图相似性搜索。
Ezequiel Lopez-Rubio, Mario Pascual-Gonzalez
LLMGreenRec通过多智能体系统和大型语言模型,优化绿色产品推荐,减少数字碳足迹。
Hao N. Nguyen, Hieu M. Nguyen, Son Van Nguyen 等
Leech Lattice Vector Quantization (LLVQ) 提供高效的LLM压缩,优于Quip#和QTIP。
Tycho F. A. van der Ouderaa, Mart van Baalen, Paul Whatmough 等
研究表明,使用LLM生成的伪相关反馈文本能显著提高查询效果,尤其在低资源任务中。
Nour Jedidi, Jimmy Lin
使用RCT方法评估AI系统对人类表现的提升,揭示方法学挑战与解决方案。
Patricia Paskov, Kevin Wei, Shen Zhou Hong 等
利用跨物种迁移学习,提升皮层GABA能中间神经元的电生理到转录组映射精度。
Theo Schwider, Ramin Ramezani
MLP层在Transformer中执行二进制路由,GPT-2中验证其有效性,减少MLP层提升困惑度43.3%。
Peter Balogh
GLM-OCR结合CogViT视觉编码器和GLM语言解码器,提升文档理解效率。
Shuaiqi Duan, Yadong Xue, Weihan Wang 等
通过高度增强的ReLU网络实现对解析和L^p函数的高效逼近,显著提高了逼近率。
ZeYu Li, FengLei Fan, TieYong Zeng
我们发布了一个大型双语图书馆目录数据集,支持基于GND的多标签分类。
Jennifer D'Souza, Sameer Sadruddin, Maximilian Kähler 等
通过LLM辅助生成MIPVU规则脚本,实现可解释的中文隐喻识别,跨协议比较显示协议选择是主要变异来源。
Weihang Huang, Mengna Liu
RAGPerf是一个用于检索增强生成系统的端到端基准框架,支持多种数据集和嵌入模型,性能开销可忽略。
Shaobo Li, Yirui Zhou, Yuan Xu 等
使用结构化链接数据作为记忆层,提升RAG系统的检索准确性,标准RAG提高29.6%,agentic管线提高29.8%。
Andrea Volpini, Elie Raad, Beatrice Gamba 等
本文提出了一种事件驱动的E-Skin系统,通过动态二进制扫描和实时SNN分类,实现了12.8倍扫描次数减少和92.11%的识别准确率。
Gaishan Li, Zhengnan Fu, Anubhab Tripathi 等