___ __ ____ ___ ____ / _ \(_ ) (_ _)/ __)( _ \ ( (_) )/ /_ _)(_ \__ \ )___/ \___/(____)(____)(___/(__)
Steve Chan
Clojure / Emacs / Python — Lisp hacker
About
My name is Steve Chan and I'm a Clojure / Emacs / Python Lisp hacker. I currently focus on Machine Learning and Deep Learning, with special interest in Reinforcement Learning and Large Language Models.
I love small, expressive languages, hackable editors, and tools that let humans collaborate with machines fluidly.
Projects
-
hulunote/hulunoteA note-taking system for thinkers and hackers — capture, link, and grow your knowledge graph.
-
hackerlibs/code-hackerA toolbox of hacker-grade utilities and experiments for code wranglers.
-
xlisp/CodeChatChat with your codebase — pair-program with LLMs over real source trees.
Writing
- 2026-05-06 从代码语义搜索到 GPT 写代码:五代范式、三次质变与一条贯穿始终的"搜索维度提升"主线
- 2026-05-06 压缩即智能:从自编码器到 GPT 的认知哲学
- 2026-05-06 从 RNN 到 CodeGPT:序列建模的进化史
- 2026-05-06 深度学习是可微分编程:从 y = wx + b 讲到 CodeGPT
- 2026-05-06 GPT 是更高级的"万能谷歌搜索":从关键词到高维空间的搜索进化史
- 2026-05-06 物理学的影子:量子力学与统计力学如何塑造了深度学习
- 2026-05-06 概率就是面积,矩阵就是映射:大模型最底层的两块拼图
- 2026-05-06 RAG 还是 SFT:面对一堆私有数据,该怎么选?
- 2026-05-06 强化学习对齐与柏拉图表征:ChatGPT 成功的另外两块拼图
- 2026-05-06 多次 SFT 的灾难性遗忘:SFT 的本质、MoE 的本质、以及它们各自解决什么问题
- 2026-05-06 训练写权重,推理用权重 + 脚手架:SFT / RL 训完之后到底是怎么生效的
- 2026-05-06 符号主义、贝叶斯网络、深度学习:三种 AI 范式的对比学习
- 2026-05-06 合成数据:怎么把一堆垃圾代码变成高质量训练数据
- 2026-05-06 Transformer Debugger:把大模型从黑盒拆成白盒
- 2026-05-06 同一个 Transformer,吃掉一切:为什么语音、图像、自动驾驶、大模型都在用它
- 2026-05-06 从图像视角理解 Transformer
- 2026-05-06 EDA、符号主义与 LLM 的交汇
- 2026-05-06 混合 SFT vs MoE:同一思路吗?
- 2026-05-06 从单卡到多卡:分布式训练原理与 FSDP 实战
- 2026-05-06 CodeChat RL 算法选型
- 2026-05-06 GRPO on SWE-bench Train: Docker-in-the-Loop RL
- 2026-05-06 Why You Not Student?