More than code

未分类
未分类

MegatronLM SequenceParallel

MegatronLM的SequenceParalle主要是针对TP做的 DeepSpeed-Ulysses/RingAttention这种在MegatronLM中叫ContextParallel,会有单独的一篇文章介绍 论文主要是这一篇:Reducing Activation Recomputation in Large Transformer Models SequenceParallel的逻辑相对简单,之前TensorParallel的设计主要针对图中的MLP/Attention层,其他层的输入输出在所有的tp…

2026年1月10日 0条评论 108点热度 0人点赞 sheep 阅读全文
未分类

MegatronLM TensorParallel

这篇文章来介绍一下MegatronLM中,TensorParallel相关的实现,主要是面向源码。 相关论文:Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism,推荐先看一下 MegatronLM实现的TensorParallel需要对模型结构有改动,用支持并行计算的层来替换掉原始模型中的那些层,并不是类似Torch FSDP这种对模型结构无感知的实现方法。 所以在阅读代码的过程中,主要需要看两个…

2026年1月10日 0条评论 116点热度 0人点赞 sheep 阅读全文
未分类

cook notes 07

土豆豆角炖排骨 这次的做法: * 排骨焯水,小火煮一会 * 切豆角,土豆块 * 放油,放姜片,蒜片(拍一下简单切切就行),葱段,小火煸一下 * 放排骨,炒吧炒吧。放酱油,多放点放一个锅勺 * 炒一炒放豆角。简单炒一炒,放热水,漫过排骨 * 盖盖,中小火炖。等水炒开,放土豆 * 炖10分钟左右,开锅,尝尝汤,味道不够就再放点酱油。 * 收个汁,放点葱段,出国 改进点: * 排骨有点硬,要么是多煮一会,要么是用高压锅先压一下。这样排骨比较软,更好吃 * 后面炖土豆/豆角的时候有点烂了,我大概炖了15分钟。可以放少点时间…

2026年1月3日 0条评论 161点热度 0人点赞 sheep 阅读全文
未分类

Pytorch FSDP2 Introduction

之前有过FSDP1相关的介绍,这次来看一看FSDP2,也是偏源码分析级 不过有一个特殊的点是FSDP2在Github上的文档非常全面,把相关特性的支持,代码结构的设计讲的都很清楚,所以这篇文章主要是来做一个补全。推荐在阅读FSDP2的代码之前,先看看这个文档https://github.com/pytorch/pytorch/issues/114299 还有一个点是因为我个人对torch dynamo相关的不太熟悉,所以FSDP2和编译优化相关的事情就不提了 FSDP2和FSDP1个人认为最主要的区别点有几个: 不…

2026年1月1日 0条评论 212点热度 1人点赞 sheep 阅读全文
未分类

Pytorch FSDP1 Introduction

整理一下FSDP1相关的实现,偏源码级,适合想读代码的同学来看 Core 核心流程如图 图中可以看到,FSDP虽然shard了模型,但是在计算(forward)的过程中,还是需要收集所有的参数做计算。所以他还是被划分成DataParallel Init 主要分为两块: 把模型切分成fsdp unit 把每一个fsdp unit的参数展开成FlatParameter 以一个CausalTransformer为例,模型会被组织成一个树形的结构。每一个节点都会有自己的Parameter,定义自己的forward计算逻辑。…

2026年1月1日 0条评论 179点热度 0人点赞 sheep 阅读全文
未分类

TeenyGrad

https://github.com/tinygrad/teenygrad 简易的深度学习框架,基于CPU上的numpy。在上层封装了Tensor的各种操作,自动微分。是一个用来学习自动微分引擎的比较不错的小项目。代码量也非常小。 同时有一个扩展版本的项目tinygrad,在此之上支持了多种后端,可以看作是pytorch的缩小版 个人感觉需要关注的点主要是三个: 数据的表示(Tensor) Autograd 常见操作的实现 Tensor Tensor是一个N维的数组,在此之上,支持: 多种常见的计算函数 自动微分 …

2025年12月7日 0条评论 286点热度 1人点赞 sheep 阅读全文
未分类

cs336 assignment2

Profile and benchmark backward相比于forward慢了2倍。 (update:我这里好像backward也把forward算上了,所以可能算出来应该是1:1的,但是经验值看,应该两者是有2~3倍的差距的。所以不清楚这里具体是什么原因) 相比之下标准差并不大,说明benchmark脚本没什么问题 还对比了一下用perf counter和cuda.Event,区别也不大,因为也没有什么排队延迟。为了方便控制,就都用cuda Event了 关掉warmup之后,结果明显不同,同时标准差也升高…

2025年12月6日 0条评论 254点热度 0人点赞 sheep 阅读全文
未分类

GAM

General Agentic Memory Via Deep Research 核心点分为两块: The Memorizer receives the client’s streaming history as a sequence of sessions, where it takes two actions: 1) it dynamically compresses the key historical information with a lightweight memory, and 2) it merg…

2025年11月27日 0条评论 226点热度 0人点赞 sheep 阅读全文
未分类

BottomUpAgent

论文:Rethinking Agent Design: From Top-Down Workflows to Bottom-Up Skill Evolution 代码整体比较简单,很多细节并没有仔细的处理,不过思路值得学习一下,毕竟是一个training-free的方法,适合没有算力的小伙伴 当前大多数 LLM-based agents(基于大模型的****智能体****) 都采用 自上而下(Top-Down) 的设计方式: 人类先拆解任务 设计工作流 指定 agent 执行每一步 ➡️ 这种方式在基准任务上效果好…

2025年11月27日 0条评论 241点热度 0人点赞 sheep 阅读全文
未分类

cs336 lec10 inference

Inference workload 首先需要知道的是,inference和train的区别是train只需要执行一次,而模型部署之后,inference执行的次数会非常多。所以我们需要让inference变的高效,才能让模型更加“经济” 优化inference的一些应用点: 日常使用:chatbots, code completion 模型评估:llm as judge等 test-time compute,更多的thinking RL,做sample generation和打分 Metrics: TTFT,首t…

2025年11月9日 0条评论 283点热度 0人点赞 sheep 阅读全文
12345…13
分类
  • Agent/RAG
  • ARTS
  • C++
  • CSAPP
  • daily
  • database
  • leetcode
  • linux
  • ml
  • nlp
  • paper
  • RL
  • rocksdb
  • rust
  • ScummVM
  • tech
  • 其他
  • 周报
  • 未分类
  • 笔记
  • 算法
  • 计算机图形学
归档
  • 2026 年 3 月
  • 2026 年 2 月
  • 2026 年 1 月
  • 2025 年 12 月
  • 2025 年 11 月
  • 2025 年 10 月
  • 2025 年 9 月
  • 2025 年 8 月
  • 2025 年 7 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 10 月
  • 2024 年 9 月
  • 2024 年 8 月
  • 2024 年 7 月
  • 2024 年 6 月
  • 2024 年 5 月
  • 2024 年 4 月
  • 2024 年 3 月
  • 2024 年 2 月
  • 2023 年 12 月
  • 2023 年 11 月
  • 2023 年 9 月
  • 2023 年 7 月
  • 2023 年 6 月
  • 2023 年 5 月
  • 2023 年 4 月
  • 2023 年 2 月
  • 2023 年 1 月
  • 2022 年 9 月
  • 2022 年 7 月
  • 2022 年 6 月
  • 2022 年 5 月
  • 2022 年 4 月
  • 2022 年 3 月
  • 2022 年 2 月
  • 2022 年 1 月
  • 2021 年 12 月
  • 2021 年 11 月
  • 2021 年 10 月
  • 2021 年 9 月
  • 2021 年 8 月
  • 2021 年 7 月
  • 2021 年 6 月
  • 2021 年 5 月
  • 2021 年 4 月
  • 2021 年 3 月
  • 2021 年 1 月
  • 2020 年 12 月

COPYRIGHT © 2021 heavensheep.xyz. ALL RIGHTS RESERVED.

THEME KRATOS MADE BY VTROIS