diff --git a/docs/sop/maindocs/blockchain-web3-virtual-currency-stablecoin.md b/docs/sop/maindocs/blockchain-web3-virtual-currency-stablecoin.md
index 8e07ad3..132121b 100644
--- a/docs/sop/maindocs/blockchain-web3-virtual-currency-stablecoin.md
+++ b/docs/sop/maindocs/blockchain-web3-virtual-currency-stablecoin.md
@@ -83,13 +83,22 @@ publish: true
-我第一次接触到这类虚拟货币,不是搞投资,也不是炒币。因为有很多国外的服务要充值,比如ChatGPT,Claude。有些服务虽然是白嫖的,但是还是需要卡里有钱来验证。但是实体卡是开不了的,只能找虚拟卡。常见的虚拟卡都是和虚拟币挂钩的,不过现在想想确实虚拟币解决了跨境支付的问题。
+ 我第一次接触到这类虚拟货币,不是搞投资,也不是炒币。因为有很多国外的服务要充值,比如ChatGPT,Claude。有些服务虽然是白嫖的,但是还是需要卡里有钱来验证。但是实体卡是开不了的,只能找虚拟卡。常见的虚拟卡都是和虚拟币挂钩的,不过现在想想确实虚拟币解决了跨境支付的问题。
-我唯一受益的点在于能避开各类政策和法律的围堵,然后把钱给到中介,中介又帮我把钱给到商家。但是对于炒作虚拟币,似乎不太行,因为虚拟货币的价值似乎一直是个迷。
+ 我唯一受益的点在于能避开各类政策和法律的围堵,然后把钱给到中介,中介又帮我把钱给到商家。但是对于炒作虚拟币,似乎不太行,因为虚拟货币的价值似乎一直是个迷。
-基于我浅陋的认知,我来举个小小的例子:如果我来发行一个虚拟货币,就叫辛木币,如果做成和比特币一样的机制,那么就可以通过挖矿来计算出区块,然后基于辛木币的规则给这个人发币。但是最为重点的价格何来呢?这来自于**价值共识**。技术上的共识机制(如PoW)保证了辛木币无法被伪造和双花,但它的市场价格,则需要大家都认可它的价值才有用。比如此时我和我开的便利店店挂钩,你可以用一辛木币来换一瓶水(早期挖矿效率极高,工作量证明也越多)。后面慢慢的很多大老板都有了我的辛木币,他们也支持辛木币交易,那么辛木币的价值在这个圈子里面就慢慢升值了。只要这个圈子够大,辛木币的价值够大,就和今天的比特币一样。说到虚拟货币,几乎都知道比特币。
+ 基于我浅陋的认知,我来举个小小的例子:如果我来发行一个虚拟货币,就叫**辛木币**,如果做成和比特币一样的机制,那么就可以通过挖矿来计算出区块,然后基于**辛木币**的规则给这个人发币。但是最为重点的价格何来呢?这来自于**价值共识**。技术上的共识机制(如PoW)保证了**辛木币**无法被伪造和双花,但它的市场价格,则需要大家都认可它的价值才有用。比如此时我和我开的便利店店挂钩,你可以用一**辛木币**来换一瓶水(早期挖矿效率极高,工作量证明也越多)。后面慢慢的很多大老板都有了我的**辛木币**,他们也支持**辛木币**交易,那么**辛木币**的价值在这个圈子里面就慢慢升值了。只要这个圈子够大,**辛木币**的价值够大,就和今天的比特币一样。说到虚拟货币,几乎都知道比特币。
-那么在价值挂钩这一步,是不是可以是黄金,期权,股权,石油……现在的稳定币就是和美元挂钩,挖矿机制也和比特币的挖矿不一样了。比特币纯靠GPU计算哈希值,稳定币的挖矿就靠质押,靠股权(如USDT的PoS股权证明),也靠兑换(GUSD的美元兑换)
+ 那么在价值挂钩这一步,是不是可以是黄金,期权,股权,石油……现在的稳定币就是和美元挂钩,挖矿机制也和比特币的挖矿不一样了。比特币纯靠GPU计算哈希值,稳定币的挖矿就靠质押,靠股权(如USDT的PoS股权证明),也靠兑换(GUSD的美元兑换)
-(没写完,后面慢慢写)………………………………
\ No newline at end of file
+
+
+## 贰
+
+
+
+
+ 反正都是随便讲讲,再来说说交易所和web3钱包。其实我损失过一个web3钱包,因为我忘记助记词了。还好那个卡可以直接扣费,所以就挂支付宝刷了。交易所顾名思义,和股票、证券的交易所一样,不过这个炒的是虚拟货币。一般用到的就是C2C交易,给人发法币,获得虚拟币,或者给人发虚拟币,换法币。或者是闪兑,用一种虚拟币换另外一种虚拟币。
+
+ 然后就是这个神奇的Web3钱包,他居然只需要用助记词就可以绑定一个钱包了,但是失去助记词等于失去了这个钱包,连官方都无法恢复。所以助记词不能泄露也不能忘记,他是加密钱包的私钥。
\ No newline at end of file
diff --git a/docs/sop/notes/vllm-learning-notes-pre.md b/docs/sop/notes/vllm-learning-notes-pre.md
index 44d4d06..1914f19 100644
--- a/docs/sop/notes/vllm-learning-notes-pre.md
+++ b/docs/sop/notes/vllm-learning-notes-pre.md
@@ -32,7 +32,7 @@ recommend: true
---
-## 2. vLLM 的总体架构(抓主线)
+## 2. vLLM 的总体架构
* **LLMEngine**:一次迭代做三件事:`schedule()` → `execute_model()` → `process_outputs()`。
@@ -42,11 +42,11 @@ recommend: true
---
-## 3. 调度器原理(continuous batching)
+## 3. 调度器原理
### 3.1 核心策略
-* **Iteration-level(continuous batching)**:每生成一个 token 后**重新调度**,因此 batch 大小可变。
+* **Iteration-level**:每生成一个 token 后**重新调度**,因此 batch 大小可变。
* **阶段区分**:vLLM 将请求分为 **Prefill(填充)** 与 **Decode(生成)** 两类批次,**同一轮只处理同一阶段**。
### 3.2 三个队列
@@ -69,7 +69,7 @@ recommend: true
---
-## 4. Worker 原理(模型执行链路)
+## 4. Worker 原理
### 4.1 角色与初始化
@@ -95,7 +95,7 @@ recommend: true
---
-## 5. Prefill vs Decode(执行特点与调优,展开版)
+## 5. Prefill & Decode
### Prefill(填充阶段)
@@ -125,47 +125,11 @@ recommend: true
---
-## 6. TP 与 PP:概念、区别与 vLLM 现状
+## 6. TP & PP
* **TP(Tensor Parallelism)**:层内张量切分;通信频繁;适合实时推理。
* **PP(Pipeline Parallelism)**:层间切分;通信少但需流水线调度;更多见于训练。
-* **vLLM 支持**:TP 是主力;PP 支持有限。
----
-## 7. 关键流程串讲
-### Prefill 批
-1. waiting 进入 running;BlockSpaceManager 分配块;
-2. Worker `_prepare_prompt` → FlashAttn → 写入 KV;
-3. Sampler 采样首 token。
-
-### Decode 批
-
-1. Scheduler 选择 running 序列;
-2. `_append_slot` 写 KV;
-3. Worker 调 PagedAttention → 输出;
-4. 采样 → EOS/长度 → 释放序列。
-
----
-
-## 8. 参数与调优清单
-
-* **`block_size`**:16;权衡碎片与索引开销。
-* **`gpu_memory_utilization`**:估算可分配 KV;预留峰值空间。
-* **`max_num_seqs`**:提升解码并发。
-* **`max_num_batched_tokens`**:限制长 prompt。
-* **`swap_space_bytes`**:CPU 交换空间,优先考虑 Recompute。
-* **采样参数**:top-k/top-p/温度/惩罚影响解码步数。
-* **CUDA Graph**:捕获稳定批,降低开销。
-
----
-
-## 9. 可讲的亮点/考点总结
-
-1. **PagedAttention**:block 化 + 块表管理,解决碎片问题。
-2. **continuous batching**:每 token 重调度,提升吞吐。
-3. **Recompute vs Swap**:计算 vs 带宽权衡。
-4. **TP 优先,PP 备选**。
-5. **Prefill vs Decode**:不同执行路径与瓶颈决定不同调优抓手。