Jinn's Hub
about / blog / projects / EN /

Jin Pan

ML Systems / LLM Inference / RL Infrastructure

威斯康星大学麦迪逊分校计算机科学二年级 MS/PhD 学生,研究方向为 ML Systems。SGLang 社区贡献者,目前在 AMD GenAI 团队实习,专注 RL 系统和 GPU 核函数优化。

更多关于我 →

最新文章

查看全部
  • 注意力机制详解 — Full, Sparse, Linear, NSA & GLA
    从 Full Attention 出发,拆解 Sparse 和 Linear 两条路线,直到 DeepSeek NSA 和 Gated Linear Attention
  • Benchmark: Qwen3-Coder-30B-A3B + EAGLE3 投机解码
    EAGLE3 投机解码在 Qwen3-Coder 上的性能评测,代码生成场景 1.87x 加速
  • NeMo-RL vs slime:RL 训练框架对比
    两个主流 RL 训练框架的深度对比:算法、工程质量、MoE 支持、ROCm 兼容性
  • TritonForge:面向多轮 Agent 任务的 Server-based RL 训练与评测闭环
    基于 slime + Megatron 的端到端 Server-based RL 框架,聚焦 Triton 内核生成,支持 NVIDIA 与 AMD 双生态
  • SFT 与 RL 训练指南
    SFT 和 RL 的核心区别、Loss 计算、数据构建到 RLHF 实战的完整指南

近期项目

查看全部项目
  • Miles
    Enterprise RL framework for LLM/VLM post-training. Integrates SGLang rollout + Megatron training with FP8 pipeline and MoE support.
  • SpecForge
    Train speculative decoding draft models and port them to SGLang serving. Part of the SGLang ecosystem.
  • TritonForge
    LLM-powered GPU kernel synthesis: Train models to convert PyTorch ops into optimized Triton kernels via SFT+RL.
  • APRIL
    Active Partial Rollouts in Reinforcement Learning to Tame Long-tail Generation. A system-level optimization for scalable LLM training.
  • SGLang
    High-performance serving framework for large language models and multimodal models. Contributor.

联系方式

通过社交媒体或邮件联系我。

  • GitHub /
  • LinkedIn /
  • jpan236@wisc.edu
© 2026 • Jinn's Hub 🔬
Press Esc or click anywhere to close