1.5 KiB
1.5 KiB
- HybriMoE: Hybrid CPU-GPU Scheduling and Cache Management for Efficient MoE Inference
- MILLION: MasterIng Long-Context LLM Inference Via Outlier-Immunized KV Product QuaNtization
- Multiplexing Dynamic Deep Learning Workloads with SLO-awareness in GPU Clusters
- SimAI: 面向 AI 大规模集群的高精度仿真器 scale up: the bigger, the better
- SoMa:深度神经网络加速器 DRAM 通信调度空间的识别、探索与理解
内存存储优化:SSD 结构优化与落地的问题
衡量 AI 赋能开发的角度:AI 生成代码的上库率
mini panel
- startup 短板要长,否则会被 judge,市面上的产品功能,你做的不好
- 形式化验证的速度慢,与开发速度之间的 gap
KTransformers
- AMX 指令加速 CPU 上的计算
吞吐 = 时延 * 处理速度
世界本质是稀疏的:MoE
!
训练时 lookahead,使得支持 MTP
!
逐请求分布式(DP) -> 逐阶段分离(PD 分离) -> 逐层分布式(DeepEP、注意力卸载)
!
网络:全双工;内存读写:半双工
当前网络带宽已经超过内存带宽
2000+ H800,服务国内外全部 DeepSeek 流量,春节过后做了吞吐优化牺牲了延迟优化
EP 动态扩缩容,EP32 -> EP320,PD role 的动态转化


