Sophilex's Blog
  • Home
  • Archive
  • Category
  • Tags
  • About me
  • Friends
各类基于决策单调性的dp优化

各类基于决策单调性的dp优化

从入门到入土的知识点都在这里了:)
2023-12-19
动态规划
#学习笔记 #动态规划 #算法
Training-Inference Mismatch In LLM KD

Training-Inference Mismatch In LLM KD

一个有趣的现象
2025-06-24
slides
#LLM #KD
群作用

群作用

学校的抽代课不讲群作用是我没想到的,恕我直言这个东西真的有点神奇
2023-12-19
抽象代数
#学习笔记 #抽象代数
Burnside 引理

Burnside 引理

对Burnside引理的引入以及其在组合计数方面的应用,在竞赛界会用的比较多
2023-12-18
抽象代数
#学习笔记 #抽象代数
Scaling Up Dataset Distillation to ImageNet-1K with Constant Memory

Scaling Up Dataset Distillation to ImageNet-1K with Constant Memory

优化MTT,使其可以scale到更大规模的cv数据集上
2025-10-13
学习笔记
#KD #Dataset_Condensation
Squeeze, Recover and Relabel: Dataset Condensation at ImageNet Scale From A New Perspective

Squeeze, Recover and Relabel: Dataset Condensation at ImageNet Scale From A New Perspective

对传统数据集蒸馏的双层优化结构进行解耦,实现线性复杂度
2025-10-13
学习笔记
#KD #Dataset_Condensation
Training-Inference Mismatch In LLM KD(2)

Training-Inference Mismatch In LLM KD(2)

组会汇报
2025-10-11
slides
#LLM #KD
FROM CORRECTION TO MASTERY: REINFORCED DISTILLATION OF LARGE LANGUAGE MODEL AGENTS

FROM CORRECTION TO MASTERY: REINFORCED DISTILLATION OF LARGE LANGUAGE MODEL AGENTS

学生生成SGO时,教师在必要时给予干预,压缩理论误差上界
2025-09-28
学习笔记
#LLM #KD
Merge-of-Thought Distillation

Merge-of-Thought Distillation

KD时,对不同教师来源的信息做了一个巧妙的融合处理
2025-09-28
学习笔记
#LLM #KD
Delta Knowledge Distillation for Large Language Models

Delta Knowledge Distillation for Large Language Models

将KD的对齐目标变为模型更新的变化量,而不是固定的token概率分布
2025-09-28
学习笔记
#LLM #KD
123…6

搜索

Hexo Fluid
京ICP证123456号 | police-icon 京公网安备12345678号
载入天数... 载入时分秒...