Neuron-Aware Data Selection In Instruction Tuning For Large Language Models
NAIT框架通过神经元激活模式选择高效指令微调数据,提升LLM性能。
Xin Chen, Junchao Wu, Shu Yang 等
NAIT框架通过神经元激活模式选择高效指令微调数据,提升LLM性能。
Xin Chen, Junchao Wu, Shu Yang 等
ESG-Bench通过任务特定的思维链提示策略,显著减少大语言模型在长篇ESG报告分析中的幻觉现象。
Siqi Sun, Ben Peng Wu, Mali Jin 等
WALAR方法利用单语数据提升低资源语言翻译能力,超越LLaMAX模型。
Yifeng Liu, Siqi Ouyang, Yatish Hosmane Revanasiddappa 等
提出PCA扫掠方法,优化SSD中的维度选择,提升解释性和稳定性。
Hubert Plisiecki, Maria Leniarska, Jan Piotrowski 等
Long-form RewardBench评估长文本生成的奖励模型,揭示当前模型在长文本奖励建模方面的不足。
Hui Huang, Yancheng He, Wei Liu 等
HMS-BERT通过多任务自训练实现多语言多标签网络欺凌检测,宏F1达到0.9847。
Zixin Feng, Xinying Cui, Yifan Sun 等
Idea-Catalyst框架通过跨学科灵感提高科学创造力,平均新颖性提高21%,洞察力提高16%。
Priyanka Kargupta, Shuhaib Mehri, Dilek Hakkani-Tur 等
CLASP模型通过XGBoost分类器检测恶意令牌,达到95.9%令牌级F1分数。
Alexandre Le Mercier, Thomas Demeester, Chris Develder
IndexCache通过跨层索引重用加速稀疏注意力,减少75%计算量,提升1.82倍速度。
Yushi Bai, Qian Dong, Ting Jiang 等
提出一种能处理8192个token的波兰语长上下文编码器模型,显著提升长文档任务表现。
Sławomir Dadas, Rafał Poświata, Marek Kozłowski 等
LifeSim通过BDI模型模拟用户认知,提升个性化助手评估。
Feiyu Duan, Xuanjing Huang, Zhongyu Wei
MDER-DR框架通过实体中心的摘要提高多跳问答性能,提升66%。
Riccardo Campi, Nicolò Oreste Pinciroli Vago, Mathyas Giudici 等
IsalGraph方法将有限简单图表示为九字符指令字母表上的紧凑字符串,适用于图相似性搜索。
Ezequiel Lopez-Rubio, Mario Pascual-Gonzalez
GLM-OCR结合CogViT视觉编码器和GLM语言解码器,提升文档理解效率。
Shuaiqi Duan, Yadong Xue, Weihan Wang 等
我们发布了一个大型双语图书馆目录数据集,支持基于GND的多标签分类。
Jennifer D'Souza, Sameer Sadruddin, Maximilian Kähler 等
通过LLM辅助生成MIPVU规则脚本,实现可解释的中文隐喻识别,跨协议比较显示协议选择是主要变异来源。
Weihang Huang, Mengna Liu
引入DOWIS数据集,评估语音大语言模型在多语言环境下的指令跟随能力,发现文本提示优于语音提示。
Maike Züfle, Sara Papi, Fabian Retkowski 等
N-gram模型在预测阅读时间上表现最佳,因其对简单统计更敏感。
James A. Michaelov, Roger P. Levy