CS Memos

        • DeepSeek 架构
        • QWen2 架构 (SGLang 实现)
      • AI Misc
      • Diffusion
      • Grouped Query Attention
      • KV Cache
      • MoE
      • Multi-head Latent Attention
      • Prefill 分块
      • RoPE 旋转位置嵌入
      • Transformer
      • 位置信息
      • C/C++ 面经
      • ASC25
      • CS110 Project 3 调优日志
      • Global Array
      • HPC 杂谈
      • MPI
      • NVIDIA's Collective Communication Library
      • NWChem
      • 并行计算
      • 调优
      • 全栈/Web 面经整理
      • 操作系统面经
      • 锁和原子化
      • 数据库中的锁
      • 数据库面经
      • 杂项
          • 尽可能使字符串相等
          • 滑动窗口最大值
          • 重新安排会议得到最多空余时间 I
        • 滑动窗口算法
        • 跳表
        • 编译原理面经
        • 网络面经
        • 计算机体系结构面经
      • 格式说明
    Home

    ❯

    tags

    ❯

    标签: LLM

    标签: LLM

    此标签下有4条笔记。

    • 2025年8月20日

      Prefill 分块

      • AI
      • LLM
      • Prefill
      • Decode
      • AI/Infra
    • 2025年8月20日

      Multi-head Latent Attention

      • AI
      • LLM
      • Attention
      • MLA
    • 2025年8月20日

      RoPE 旋转位置嵌入

      • AI
      • LLM
      • RoPE
      • Transformer
    • 2025年8月20日

      Transformer

      • AI
      • LLM
      • Attention
      • Transformer

    最近的笔记

    • ASC25

      2025年8月20日

    • CS110 Project 3 调优日志

      2025年8月20日

    • Global Array

      2025年8月20日

    Created with Quartz v4.4.0 © 2025

    • GitHub
    • About ZAMBAR