59 lines
1.5 KiB
Markdown
59 lines
1.5 KiB
Markdown
|
||
- [x] HybriMoE: Hybrid CPU-GPU Scheduling and Cache Management for Efficient MoE Inference
|
||
- [ ] MILLION: MasterIng Long-Context LLM Inference Via Outlier-Immunized KV Product QuaNtization
|
||
- [ ] Multiplexing Dynamic Deep Learning Workloads with SLO-awareness in GPU Clusters
|
||
- [x] SimAI: 面向 AI 大规模集群的高精度仿真器
|
||
scale up: the bigger, the better
|
||
- [ ] SoMa:深度神经网络加速器 DRAM 通信调度空间的识别、探索与理解
|
||
|
||
|
||
---
|
||
内存存储优化:SSD 结构优化与落地的问题
|
||
|
||
|
||
- 面向多核系统的高性能高可靠异步通信
|
||
![[250524-113000.jpeg]]
|
||
|
||
衡量 AI 赋能开发的角度:AI 生成代码的上库率
|
||
|
||
|
||
mini panel
|
||
- startup 短板要长,否则会被 judge,市面上的产品功能,你做的不好
|
||
- 形式化验证的速度慢,与开发速度之间的 gap
|
||
|
||
|
||
KTransformers
|
||
- AMX 指令加速 CPU 上的计算
|
||
|
||
---
|
||
吞吐 = 时延 * 处理速度
|
||
世界本质是稀疏的:MoE
|
||
![[250525-095739.jpeg]]
|
||
训练时 lookahead,使得支持 MTP
|
||
![[250525-100200.jpeg]]
|
||
|
||
逐请求分布式(DP) -> 逐阶段分离(PD 分离) -> 逐层分布式(DeepEP、注意力卸载)
|
||
|
||
![[250525-100839.jpeg]]
|
||
网络:全双工;内存读写:半双工
|
||
**当前网络带宽已经超过内存带宽**
|
||
|
||
目标:EP 通信量均衡和 DP 计算量均衡
|
||
![[250525-101147.jpeg]]
|
||
|
||
![[250525-101629.jpeg]]
|
||
|
||
2000+ H800,服务国内外全部 DeepSeek 流量,春节过后做了吞吐优化牺牲了延迟优化
|
||
|
||
|
||
EP 动态扩缩容,EP32 -> EP320,PD role 的动态转化
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|