Scalable Hyperparameter-Divergent Ensemble Training with Automatic Learning Rate Exploration for Large Models
提出HDET方法,通过自动学习率探索提高大模型训练的优化质量和泛化能力。
Hailing Cheng, Tao Huang, Chen Zhu 等
提出HDET方法,通过自动学习率探索提高大模型训练的优化质量和泛化能力。
Hailing Cheng, Tao Huang, Chen Zhu 等
通过隐式探索在带有旁观反馈的赌博问题中实现高效学习,算法具有接近最优的遗憾保证。
Tomas Kocak, Gergely Neu, Michal Valko 等
Kolmogorov-Arnold网络的普适性只需一个非仿射函数。
Vugar Ismailov
提出了一种基于配点的稳健物理信息神经网络(CRVPINN),用于模拟斯瓦尔巴群岛斯匹次卑尔根岛上热逆温条件下的污染传播。
Leszek Siwik, Maciej Sikora, Natalia Leszczyńska 等
通过主动实验选择的预算高效缩放律拟合方法,仅用10%预算实现全数据集拟合效果。
Sijie Li, Shanda Li, Haowei Lin 等
使用BantuMorph v7模型从现代数据中恢复班图语言的历史词汇结构,验证了90.9%的名词候选与原始班图形式一致。
Hillary Mutisya, John Mugane
通过跨语言迁移学习和无监督聚类实现低资源班图语言零样本形态发现。
Hillary Mutisya, John Mugane
WG-SRC通过白盒信号子空间探测实现图数据集的操作特征指纹,提升节点分类准确率。
Yuchen Xiong, Swee Keong Yeap, Zhen Hong Ban
通过统一框架评估八种Shapley变体在高风险环境中的人类效用,揭示现有评估指标与人类感知的脱节。
Inês Oliveira e Silva, Sérgio Jesus, Iker Perez 等
使用Riemann特征和RNN解码高维手指运动,TRR模型在EMG-FK数据集上表现出色,平均绝对误差为9.79°。
Martin Colot, Cédric Simar, Guy Cheron 等
HubRouter通过O(nM)路由替换O(n^2)注意力层,提升效率。
Abhinaba Basu
SharpAP方法显著提高推荐系统注入攻击的可转移性,实验显示在多个数据集上性能提升。
Junsong Xie, Yonghui Yang, Pengyang Shao 等
ReCast框架在生成推荐中提升Pass@1达36.6%,优化稀疏命中信号。
Peiyan Zhang, Hanmo Liu, Chengxuan Tong 等
LTBs-KAN通过线性时间复杂度的B样条计算提升KAN的效率。
Eduardo Said Merin-Martinez, Andres Mendez-Vazquez, Eduardo Rodriguez-Tello
引入“锐度维度”来解释边缘稳定性下的泛化性能提升。
Mario Tuci, Caner Korkmaz, Umut Şimşekli 等
提出Safe EWC和CF-EWC算法,在非平稳环境中实现安全的持续强化学习。
Austin Coursey, Abel Diaz-Gonzalez, Marcos Quinones-Grueiro 等
FASTER方法通过在去噪过程中早期筛选动作样本,降低了计算成本,同时保持了强化学习的性能。
Perry Dong, Alexander Swerdlow, Dorsa Sadigh 等
对抗训练下的视觉Transformer在适度扰动预算下实现了近零鲁棒训练损失和鲁棒泛化误差。
Jiaming Zhang, Meng Ding, Shaopeng Fu 等
使用行列式点过程优化蒙特卡罗积分,提升估计器的方差收敛速度。
Guillaume Gautier, Rémi Bardenet, Michal Valko
提出异质性感知的个性化联邦学习模型,提升工业预测分析中的故障时间预测精度。
Yuhan Hu, Xiaolei Fang