Sophilex's Blog
  • Home
  • Archive
  • Category
  • Tags
  • About me
  • Friends
各类基于决策单调性的dp优化

各类基于决策单调性的dp优化

从入门到入土的知识点都在这里了:)
2023-12-19
动态规划
#学习笔记 #动态规划 #算法
Training-Inference Mismatch In LLM KD

Training-Inference Mismatch In LLM KD

一个有趣的现象
2025-06-24
slides
#LLM #KD
群作用

群作用

学校的抽代课不讲群作用是我没想到的,恕我直言这个东西真的有点神奇
2023-12-19
抽象代数
#学习笔记 #抽象代数
Burnside 引理

Burnside 引理

对Burnside引理的引入以及其在组合计数方面的应用,在竞赛界会用的比较多
2023-12-18
抽象代数
#学习笔记 #抽象代数
Different Designs For LLM KD Loss

Different Designs For LLM KD Loss

关于LLM KD的一些讨论:Divergence的选择与代理分布的设计
2025-11-17
slides
#LLM #KD
Importance-Aware Data Selection for Efficient LLM Instruction Tuning

Importance-Aware Data Selection for Efficient LLM Instruction Tuning

llm微调时的一种数据选择策略
2025-11-17
学习笔记
#LLM
Scaling Up Dataset Distillation to ImageNet-1K with Constant Memory

Scaling Up Dataset Distillation to ImageNet-1K with Constant Memory

优化MTT,使其可以scale到更大规模的cv数据集上
2025-10-13
学习笔记
#KD #Dataset_Condensation
Squeeze, Recover and Relabel: Dataset Condensation at ImageNet Scale From A New Perspective

Squeeze, Recover and Relabel: Dataset Condensation at ImageNet Scale From A New Perspective

对传统数据集蒸馏的双层优化结构进行解耦,实现线性复杂度
2025-10-13
学习笔记
#KD #Dataset_Condensation
Training-Inference Mismatch In LLM KD(II)

Training-Inference Mismatch In LLM KD(II)

组会汇报
2025-10-11
slides
#LLM #KD
FROM CORRECTION TO MASTERY: REINFORCED DISTILLATION OF LARGE LANGUAGE MODEL AGENTS

FROM CORRECTION TO MASTERY: REINFORCED DISTILLATION OF LARGE LANGUAGE MODEL AGENTS

学生生成SGO时,教师在必要时给予干预,压缩理论误差上界
2025-09-28
学习笔记
#LLM #KD
123…6

搜索

Hexo Fluid
京ICP证123456号 | police-icon 京公网安备12345678号
载入天数... 载入时分秒...