Multi-Cycle Spatio-Temporal Adaptation in Human-Robot Teaming
RAPIDDS框架通过多周期时空适应提高人机协作效率,显著改善计划流畅性和用户偏好。
Alex Cuellar, Michael Hagenow, Julie Shah
RAPIDDS框架通过多周期时空适应提高人机协作效率,显著改善计划流畅性和用户偏好。
Alex Cuellar, Michael Hagenow, Julie Shah
结合ECLASS语义的密集检索方法在电子元件语义搜索中实现94.3%的HitRate@5。
Nico Baumgart, Markus Lange-Hegermann, Jan Henze
通过GPT模型预测开放式调查文本的体验评分,提示优化提升2个百分点。
Andrew Hong, Jason Potteiger, Luis E. Zapata
使用OpenCLIP视觉学习模型实现手势识别,提升AcoustoBot群体交互准确率至87.8%。
Alex Lin, Lei Gao, Narsimlu Kemsaram 等
微型语言模型(μLMs)通过在设备上生成前4-8个词,结合云端模型,实现即时响应。
Wen Cheng, Tuochao Chen, Karim Helwani 等
SafetyALFRED评估多模态大语言模型在厨房环境中的安全规划,发现模型在识别危险方面表现良好,但在风险缓解上成功率较低。
Josue Torres-Fonseca, Naihao Deng, Yinpei Dai 等
通过ESKF-PRE-VMPC框架,自动化无人机管道检查在无风条件下减少52.63%和75.04%的RMSE。
Wen Li, Hui Wang, Jinya Su 等
研究表明大语言模型影响了AI顶会的同行评审,尤其在语言复杂度和评价重点上。
Wenqing Wu, Chengzhi Zhang, Yi Zhao 等
Diagnosable ColBERT通过对齐临床知识的参考潜在空间,提升ColBERT模型的诊断能力。
François Remy
LoopCTR通过循环扩展范式提升点击率预测性能,显著减少计算成本。
Jiakai Tang, Runfeng Zhang, Weiqiu Wang 等
LiveVLN通过多步动作延续打破视觉语言导航中的停走循环,减少77.7%的等待时间。
Xiangchen Wang, Weiye Zhu, Teng Wang 等
提出异质性感知的个性化联邦学习模型,提升工业预测分析中的故障时间预测精度。
Yuhan Hu, Xiaolei Fang
CAST框架通过语义级转换建模,提升了17.6%召回率和16.0% NDCG,训练加速65倍。
Qian Zhang, Lech Szymanski, Haibo Zhang 等
MARS模型通过并行化和跳跃连接实现了21倍训练加速和显著性能提升。
Coşku Can Horuz, Andrea Ceni, Claudio Gallicchio 等
大型语言模型展现规范性从众行为,研究揭示其内在机制。
Mikako Bito, Keita Nishimoto, Kimitaka Asatani 等
CS3框架通过循环自适应结构、跨塔同步和级联模型共享,实现了两塔推荐系统的高效在线能力协同,提升了8.36%的广告收入。
Lixiang Wang, Shaoyun Shi, Peng Wang 等
通过居中和奇异值阈值法快速估计高斯混合模型的成分数,无需迭代。
Huan Qing
S2MAM通过双层优化实现鲁棒估计和变量选择,验证于16个数据集。
Xuelin Zhang, Hong Chen, Yingjie Wang 等
MathNet提供了一个全球多模态数学推理和检索基准,涵盖47国的30,676道奥数题。
Shaden Alshammari, Kevin Wen, Abrar Zainal 等
MUA方法通过小波引导的多层空间因子化混合形状,实现高达2000倍的计算成本降低。
Heming Zhu, Guoxing Sun, Marc Habermann