Recent Posts
-
2025-03-23
But What Is MCP (Model Context Protocol)? (2025)
There are already some good documents for MCP, Model Context Protocol documentation Model Context Protocol specification Officially supported serversbut developers and architects may still feel confusing on how it works in theunderlying, and this post try to fill ...
-
2025-03-20
图解神经网络和强化学习:400 行 C 代码训练一个井字棋高手(2025)
本文解读 2025 年的一个练手项目Tic Tac Toe with Reinforcement Learning。这个项目实现了一个非常简单的神经网络(Neural Network),然后通过强化学习(Reinforcement Learning)训练它玩井字棋,训练好之后就可以人机对战,效果很不错。整个项目只用了400 行左右 C 代码,没有任何外部依赖。由于代码足够简单,非常适合用来理解神经网络和强化学习。Fig. A simple neural network for reinforcement learning in ...
-
2025-03-01
[译][论文] Attention paper | 神经机器翻译:联合学习对齐和翻译(2014)
译者序本文翻译自 2014 年提出 Attention 机制的论文Neural Machine Translation by Jointly Learning to Align and Translate。Attention 机制当时是针对机器翻译场景提出的。基于神经网络的机器翻译工作过程,举个具体例子:输入一个英文句子,要求将其翻译成德文, 首先,整个句子作为输入,因此在开始翻译之前,已经能知道这个句子的完整意思; 翻译时,每次翻译一个德文单词; 在翻译下一个德文单词时,除了源句子,还可以利用前面已经翻译的德文单词信息。...
-
2025-02-23
[译][论文] Transformer paper | Attention Is All You Need(Google,2017)
译者序本文翻译自 2017 年 Google 提出 Transformer 的论文:Attention Is All You Need。Figure 1: Transformer 架构:encoder/decoder 内部细节。摘录一段来自 Transformer 是如何工作的:600 行 Python 代码实现两个(文本分类+文本生成)Transformer(2019)的介绍,说明 Transformer 架构相比当时主流的 RNN/CNN 架构的创新之处: 在 transformer 之前,最先进的架构是 RNN(通常是 ...
-
2025-02-15
[译][论文] DeepSeek-R1:通过强化学习激励大模型的推理能力(DeepSeek,2024)
译者序本文翻译自 2024 年 DeepSeek AI 的 paper DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning。介绍了 DeepSeek 第一代推理模型(reasoning models)(所以缩写为 R1)的设计和训练过程:Fig. How DeepSeek-R1-series models were trained.要理解 DeepSeek-R1 的创新之处,可以先阅读 如何训练一个企业级 GPT 助...
-
2025-01-14
[译] AI Workflow & AI Agent:架构、模式与工程建议(Anthropic,2024)
译者序本文翻译自 2024 年 Anthropic(开发 Claude 大模型的公司)的一篇文章 Building Effective Agents。 Agents 只是一些“在一个循环中,基于环境反馈来选择合适的工具,最终完成其任务”的大模型。水平及维护精力所限,译文不免存在错误或过时之处,如有疑问,请查阅原文。传播知识,尊重劳动,年满十八周岁,转载请注明出处。以下是译文。 译者序 1 什么是 AI Agent/Workflow? 1.1 Workflow vs. Agent 1.2 何时使用...
-
2025-01-07
[译] AI Agent(智能体)技术白皮书(Google,2024)
译者序本文翻译自 2024 年 Google 团队的一份 Agents 白皮书,作者 Julia Wiesinger, Patrick Marlow, Vladimir Vuskovic。Agent 可以理解为是一个扩展了大模型出厂能力的应用程序。工具的使用,是人类区别于动物的标志 —— 也是 Agent 区别于大模型的标志。水平及维护精力所限,译文不免存在错误或过时之处,如有疑问,请查阅原文。传播知识,尊重劳动,年满十八周岁,转载请注明出处。以下是译文。 译者序 1 引言 1.1 人类的先验知识与工具的使...
-
2024-12-15
存储进阶笔记(二):Linux 存储栈:从 Device Mapper、LVM 到文件系统(2024)
记录一些平时接触到的存储知识。由于是笔记而非教程,因此内容不求连贯,有基础的同学可作查漏补缺之用。Fig. LVM concepts, and how userspace file operations traverse the Linux storage stack. 水平及维护精力所限,文中不免存在错误或过时之处,请酌情参考。传播知识,尊重劳动,年满十八周岁,转载请注明出处。 ...
-
2024-12-15
存储进阶笔记(一):硬件基础:HDD/SDD、JBOD、RAID 等(2024)
记录一些平时接触到的存储知识。由于是笔记而非教程,因此内容不求连贯,有基础的同学可作查漏补缺之用。Fig. 12 Left: HDDs as a JBOD, present to OS as 12 independent devices (sd*), running a Ceph OSD service on each device. Right: speedup performance with high-end RAID cards.水平及维护精力所限,文中不免存在错误或过时之处,请酌情参考。传播知识,尊重劳动,年满十八周岁...
-
2024-12-01
[译] SSD 是如何工作的:固态硬盘内部结构与工作原理的动画展示(2020)
译者序本文翻译自 2020 年 Branch Education 的一个科普视频How do SSDs Work? How does your Smartphone store data? Insanely Complex Nanoscopic Structures!,强烈推荐观看原视频。本文整理个图文版方便查阅与思考。 HDD 是如何工作的:旋转硬盘内部结构与工作原理的动画展示(2022) SSD 是如何工作的:固态硬盘内部结构与工作原理的动画展示(2020)水平及维护精力所限,译文不免存在错误或过时之处,如有疑问,请查阅...