Importance-Aware Data Selection for Efficient LLM Instruction Tuning llm微调时的一种数据选择策略 2025-11-17 学习笔记 #LLM
Scaling Up Dataset Distillation to ImageNet-1K with Constant Memory 优化MTT,使其可以scale到更大规模的cv数据集上 2025-10-13 学习笔记 #KD #Dataset_Condensation
Squeeze, Recover and Relabel: Dataset Condensation at ImageNet Scale From A New Perspective 对传统数据集蒸馏的双层优化结构进行解耦,实现线性复杂度 2025-10-13 学习笔记 #KD #Dataset_Condensation
FROM CORRECTION TO MASTERY: REINFORCED DISTILLATION OF LARGE LANGUAGE MODEL AGENTS 学生生成SGO时,教师在必要时给予干预,压缩理论误差上界 2025-09-28 学习笔记 #LLM #KD
Delta Knowledge Distillation for Large Language Models 将KD的对齐目标变为模型更新的变化量,而不是固定的token概率分布 2025-09-28 学习笔记 #LLM #KD
Massive Activations in Large Language Models 关于LLM中的异常大激活值,以及其与attention sink的关系,将其解释为模型中统一且固定的bias,挺有意思的 2025-09-21 学习笔记 #LLM
TD3: Tucker Decomposition Based Dataset Distillation Method for Sequential Recommendation 序列推荐数据集的蒸馏,引入Tucker分解来缓解随数据集规模而增长的参数压力 2025-09-21 学习笔记 #Dataset_Condensation