Influence Malleability in Linearized Attention: Dual Implications of Non-Convergent NTK Dynamics
线性化注意力机制中的影响可塑性:非收敛NTK动态的双重影响。
Jose Marie Antonio Miñoza, Paulo Mario P. Medina, Sebastian C. Ibañez
线性化注意力机制中的影响可塑性:非收敛NTK动态的双重影响。
Jose Marie Antonio Miñoza, Paulo Mario P. Medina, Sebastian C. Ibañez
InterEdit通过语义感知计划令牌对齐和交互感知频率令牌对齐,实现多人人体3D动作编辑。
Yebin Yang, Di Wen, Lei Qi 等
DDIM反向链作为分区迭代函数系统,提供去噪扩散模型的统一设计语言。
Ann Dooms
WALAR方法利用单语数据提升低资源语言翻译能力,超越LLaMAX模型。
Yifeng Liu, Siqi Ouyang, Yatish Hosmane Revanasiddappa 等
提出PCA扫掠方法,优化SSD中的维度选择,提升解释性和稳定性。
Hubert Plisiecki, Maria Leniarska, Jan Piotrowski 等
在神经形态硬件上实现联邦少样本学习,使用FedUnion策略保持77.0%准确率。
Steven Motta, Gioele Nanni
OpenSWE通过多代理合成管道创建45,320个可执行Docker环境,提升SWE代理训练效率。
Dayuan Fu, Shenyu Wu, Yunze Wu 等
通过结构化蒸馏方法,将个性化代理记忆的代币数量减少11倍,同时保留检索能力。
Sydney Lewis
通过新颖的主动防御方法,显著降低操控器在网络攻击下的末端偏差。
Gabriele Gualandi, Alessandro V. Papadopoulos
通过资源优先的路径碎片化方法,提升农业环境中多机器人路径规划效率,达到95%的任务吞吐率。
James R. Heselden, Gautham P. Das
Long-form RewardBench评估长文本生成的奖励模型,揭示当前模型在长文本奖励建模方面的不足。
Hui Huang, Yancheng He, Wei Liu 等
HMS-BERT通过多任务自训练实现多语言多标签网络欺凌检测,宏F1达到0.9847。
Zixin Feng, Xinying Cui, Yifan Sun 等
通过混合累积量模型,研究扩散模型从简单到复杂学习数据统计的机制。
Lorenzo Bardone, Claudia Merger, Sebastian Goldt
引入Hessian相对均匀连续性条件,简化分布式镜像下降分析,覆盖更广泛的核函数。
Junwen Qiu, Ziyang Zeng, Leilei Mei 等
NanoVDR通过蒸馏2B视觉语言检索器为视觉文档检索提供了一个70M的文本编码器,保留了95.1%的教师质量。
Zhuchenyang Liu, Yao Zhang, Yu Xiao
提出EISAM优化框架,显著提升长尾项目推荐性能。
Jiaming Zhang, Yuyuan Li, Xiaohua Feng 等
提出一种基于SRAM的CIM加速器,优化线性衰减尖峰神经网络,能效提高15.9至69倍。
Hongyang Shang, Shuai Dong, Yahan Yang 等
VecMol通过向量场表示生成3D分子,避免显式图生成,提升几何化学一致性。
Yuchen Hua, Xingang Peng, Jianzhu Ma 等
AnchorRec通过锚点对齐防止多模态推荐系统中的位置崩溃,提升推荐准确率。
Yonghun Jeong, David Yoon Suk Kang, Yeon-Chang Lee
FGTR通过层次化LLM推理实现细粒度多表检索,在Spider和BIRD数据集上分别提升F_2指标18%和21%。
Chaojie Sun, Bin Cao, Tiantian Li 等