2024年8月

在自然语言处理(NLP)中,Transformer 模型是一个非常重要的里程碑,它通过自注意力(self-attention)机制极大地提高了处理序列数据的能力。在 Transformer 模型中,词嵌入(Word Embedding)是输入层的关键部分,负责将离散的单词转换成连续的向量表示,以便模型能够理解和处理。然而,您提到的“Postin Embedding”可能是一个笔误,通常我们讨论的是“Position Embedding”(位置嵌入),它用于给模型提供单词在句子中的位置信息,因为 Transformer 模型本身是位置无关的。

以下是一个基于 PyTorch 的简单 Transformer 模型实现,包括词嵌入和位置嵌入的详细代码示例。这个示例将展示如何构建 Transformer 的一个基本层(包括多头自注意力机制和前馈网络),并加入位置嵌入。

import torch  
import torch.nn as nn  
import torch.nn.functional as F  
  
class PositionalEncoding(nn.Module):  
    def __init__(self, d_model, max_len=5000):  
        super(PositionalEncoding, self).__init__()  
        # 创建位置编码矩阵  
        pe = torch.zeros(max_len, d_model)  
        position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)  
        div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))  
        pe[:, 0::2] = torch.sin(position * div_term)  
        pe[:, 1::2] = torch.cos(position * div_term)  
        pe = pe.unsqueeze(0).transpose(0, 1)  
        self.register_buffer('pe', pe)  
  
    def forward(self, x):  
        # 将位置编码加到词嵌入上  
        return x + self.pe[:x.size(0), :]  
  
class TransformerEncoderLayer(nn.Module):  
    def __init__(self, d_model, nhead, dim_feedforward=2048, dropout=0.1):  
        super(TransformerEncoderLayer, self).__init__()  
        self.self_attn = nn.MultiheadAttention(d_model, nhead, dropout=dropout)  
        self.linear1 = nn.Linear(d_model, dim_feedforward)  
        self.dropout = nn.Dropout(dropout)  
        self.linear2 = nn.Linear(dim_feedforward, d_model)  
  
        self.norm1 = nn.LayerNorm(d_model)  
        self.norm2 = nn.LayerNorm(d_model)  
        self.dropout1 = nn.Dropout(dropout)  
        self.dropout2 = nn.Dropout(dropout)  
  
        self.activation = nn.ReLU()  
  
    def forward(self, src, src_mask=None, src_key_padding_mask=None):  
        src2 = self.norm1(src)  
        src2 = self.dropout1(src2)  
        src_out, attn_output_weights, attn_output_mask = self.self_attn(src2, src2, src2, attn_mask=src_mask,  
                                                                      key_padding_mask=src_key_padding_mask)  
        src = src + self.dropout2(src_out)  
        src2 = self.norm2(src)  
        src2 = self.dropout(src2)  
        src = self.linear2(self.dropout(self.activation(self.linear1(src2))))  
        src = src + src2  
        return src, attn_output_weights  
  
class TransformerEncoder(nn.Module):  
    def __init__(self, encoder_layer, num_layers, d_model, vocab_size, max_len=5000):  
        super(TransformerEncoder, self).__init__()  
        self.layer = nn.ModuleList([encoder_layer for _ in range(num_layers)])  
        self.src_emb = nn.Embedding(vocab_size, d_model)  
        self.pos_encoder = PositionalEncoding(d_model, max_len)  
  
    def forward(self, src):  
        src = self.src_emb(src) * math.sqrt(self.d_model)  # scale embedding by sqrt(d_model)  
        src = self.pos_encoder(src)  
        output = src  
        attn = None  
  
        for encoder in self.layer:  
            output, attn = encoder(output)  
  
        return output, attn  
  
# 示例参数  
vocab_size = 10000  # 假设词汇表大小为 10000  
d_model = 512        # 嵌入维度  
nhead = 8            # 多头注意力机制中的头数  
num_layers = 6       # 编码器层数  
  
# 创建 TransformerEncoder  
encoder_layer = TransformerEncoderLayer(d_model=d_model, nhead=nhead)  
transformer_encoder = TransformerEncoder(encoder_layer, num_layers, d_model, vocab_size)  
  
# 示例输入(假设已经有一些经过编码的索引)  
src = torch.tensor([[1, 2, 3, 4, 5, 0, 0],  # 每个句子的索引,用 0 填充到相同长度  
                     [6, 7, 8, 9, 10, 0, 0]], dtype=torch.long)  
  
# 传递输入到 Transformer 编码器  
output, attn = transformer_encoder(src)  
  
print("Encoder output shape:", output.shape)  # 应该是 [batch_size, seq_len, d_model]  
print("Attention weights shape (if you need them):", attn.shape)  # 注意 attn 可能在第一层之后才是有效的  
  
# 注意:attn 的输出在这里可能不直接显示,因为它依赖于具体的层实现和是否传递了 mask。  
# 在实际应用中,你可能需要更复杂的逻辑来处理 mask 或直接忽略 attn 的输出。

以上代码实现了一个简单的 Transformer 编码器,包括词嵌入、位置嵌入、多头自注意力机制和前馈网络。在 TransformerEncoderLayer 类中,我们定义了一个编码器层,它包含了自注意力机制、层归一化、前馈网络以及相应的dropout层。TransformerEncoder 类则将这些层堆叠起来,并添加了词嵌入和位置嵌入。

请注意,在实际应用中,你可能需要添加一些额外的功能,比如掩码(mask)来处理填充的零或进行序列到序列的任务(例如翻译),以及添加解码器部分以构建完整的 Transformer 模型。此外,上述代码没有处理变长输入序列的掩码,这在实际应用中是很重要的,因为它可以防止模型关注到填充的零。


title: 使用 setResponseStatus 函数设置响应状态码
date: 2024/8/25
updated: 2024/8/25
author:
cmdragon

excerpt:
通过 setResponseStatus 函数,你可以轻松地在 Nuxt.js 中设置响应的状态码。这不仅能帮助用户更好地理解发生了什么,还能在需要时显示自定义的错误页面。在实际应用中,合理使用状态码对于提升用户体验至关重要。

categories:

  • 前端开发

tags:

  • Nuxt.js
  • 响应码
  • SSR
  • 404页面
  • Vue.js
  • 状态码
  • Web开发


image
image

扫描
二维码
关注或者微信搜一搜:
编程智域 前端至全栈交流与成长

在开发应用时,我们常常需要根据不同的情况返回不同的响应状态码。在 Nuxt.js 中,
setResponseStatus
函数让你能够方便地设置服务器端的响应状态码,特别是在进行服务器端渲染(SSR)时。

什么是响应状态码?

HTTP 响应状态码是服务器向客户端返回的数字代码,表明请求的处理结果。常见的状态码包括:

  1. 1xx(信息性状态码)


    • 这类状态码主要用于表示请求已被接收,服务器正在处理。其内容通常不会影响客户端的行为。

    • 例如:


      • 100 Continue
        :客户端应继续请求。
      • 101 Switching Protocols
        :服务器正在切换协议。
  2. 2xx(成功状态码)


    • 表示请求已成功被服务器接收、理解并处理。

    • 例如:


      • 200 OK
        :请求成功,通常返回所请求的资源。
      • 201 Created
        :请求成功并创建了新的资源。
      • 204 No Content
        :请求成功,但没有返回内容。
  3. 3xx(重定向状态码)


    • 表示请求的资源已被移动到其他位置,客户端需要进一步操作以完成请求。

    • 例如:


      • 301 Moved Permanently
        :请求的资源已被永久移动到新位置,返回的响应中会包含新位置的 URL。
      • 302 Found
        :请求的资源临时被移动。
  4. 4xx(客户端错误状态码)


    • 表示请求存在问题,导致服务器无法处理。大多数情况下是由于客户端的错误引起的。

    • 例如:


      • 400 Bad Request
        :请求格式不正确。
      • 401 Unauthorized
        :需要身份验证,用户未提供有效凭据。
      • 403 Forbidden
        :服务器拒绝请求,客户端没有权限访问此资源。
      • 404 Not Found
        :请求的资源未找到,通常是页面不存在。
  5. 5xx(服务器错误状态码)


    • 表示服务器在处理请求时发生了错误。通常是由于服务器内部的问题。

    • 例如:


      • 500 Internal Server Error
        :服务器发生了未知错误,无法完成请求。
      • 502 Bad Gateway
        :服务器作为网关或代理时,接收到无效响应。
      • 503 Service Unavailable
        :服务器当前无法处理请求,通常是因为过载或正在维护。

Nuxt.js 中的
setResponseStatus

Nuxt.js 提供了
setResponseStatus
函数,你可以在服务器端使用它来设置响应的状态码。有时,我们不仅希望设置状态码,还希望传递一条消息,以便给用户更好的反馈。

基本用法

以下是
setResponseStatus
函数的基本使用示例:

// 导入 Nuxt 中的组合式函数
const event = useRequestEvent()

// 设置状态码为 404
setResponseStatus(event, 404)

// 如果需要,也可以传递状态消息
setResponseStatus(event, 404, '页面未找到')

在这里,我们首先通过
useRequestEvent()
获取当前请求的事件对象,然后使用
setResponseStatus
来设置响应状态码。

创建自定义404页面的示例

下面我们将创建一个自定义 404 页面,当用户访问不存在的页面时,显示该页面及其状态信息。

步骤 1: 创建404页面


pages
目录下创建一个
404.vue
文件,内容如下:

<template>
  <div>
    <h1>404 - 页面未找到</h1>
    <p>抱歉,您访问的页面不存在。</p>
  </div>
</template>

<script setup>

const event = useRequestEvent()
setResponseStatus(event, 404, '页面未找到')
</script>

<style scoped>
h1 {
  color: red;
}
</style>

在这个
404.vue
页面中,我们使用
useRequestEvent()
获取请求事件,并调用
setResponseStatus
函数将状态码设置为 404 并附带状态消息。

步骤 2: 测试404页面

启动 Nuxt 应用:

npm run dev

然后尝试访问一个不存在的页面,例如
http://localhost:3000/不存在的页面
。你应该能够看到自定义的 404 页面以及相应的状态码。

总结

通过
setResponseStatus
函数,你可以轻松地在 Nuxt.js 中设置响应的状态码。这不仅能帮助用户更好地理解发生了什么,还能在需要时显示自定义的错误页面。在实际应用中,合理使用状态码对于提升用户体验至关重要。

余下文章内容请点击跳转至 个人博客页面 或者 扫码关注或者微信搜一搜:
编程智域 前端至全栈交流与成长
,阅读完整的文章:
使用 setResponseStatus 函数设置响应状态码 | cmdragon's Blog

往期文章归档:

Apache ShardingSphere 是一款分布式的数据库生态系统,它包含两大产品:

  • ShardingSphere-Proxy
  • ShardingSphere-JDBC

很多同学对于 ShardingSphere-JDBC 已经能非常熟悉的使用了,但关于网上关于 ShardingSphere-Proxy 5.5 的使用教程却非常少。

所以这篇文章,笔者尝试带大家快速入门 ShardingSphere-Proxy 5.5 ,理解它的基本原理以及实战流程。

1 理解 Proxy 模式

ShardingSphere-Proxy 定位为透明化的数据库代理端,通过实现数据库二进制协议,对异构语言提供支持。 目前提供 MySQL 和 PostgreSQL 协议,透明化数据库操作,对 DBA 更加友好。

  • 向应用程序完全透明,可直接当做 MySQL/PostgreSQL 使用;
  • 兼容 MariaDB 等基于 MySQL 协议的数据库,以及 openGauss 等基于 PostgreSQL 协议的数据库;
  • 适用于任何兼容 MySQL/PostgreSQL 协议的的客户端,如:MySQL Command Client, MySQL Workbench, Navicat 等。

代理层介于应用程序与数据库间,每次请求都需要做一次转发,请求会存在额外的时延。

这种方式对于应用非常友好,应用基本零改动,和语言无关,可以通过连接共享减少连接数消耗。

2 Proxy 模式 VS JDBC 模式

当我们在 Proxy 和 JDBC 两种模式选择时,可以参考下表对照:

JDBC Proxy
数据库 任意 MySQL/PostgreSQL
连接消耗数
异构语言 仅Java 任意
性能 损耗低 损耗略高
无中心化
静态入口

ShardingSphere-Proxy 提供静态入口以及异构语言的支持,独立于应用程序部署,适用于 OLAP 应用以及对分片数据库进行管理和运维的场景。

ShardingSphere-JDBC 采用无中心化架构,与应用程序共享资源,适用于 Java 开发的高性能的轻量级 OLTP 应用;

在业务相对复杂的场景里,可以采用混合部署的模式。

通过混合使用 ShardingSphere-JDBC 和 ShardingSphere-Proxy,并采用同一注册中心统一配置分片策略,能够灵活的搭建适用于各种场景的应用系统,使得架构师更加自由地调整适合于当前业务的最佳系统架构。

3 快速启动

ShardingSphere-Proxy 的启动方式有三种:二进制包、Docker 和 Helm,可以选择
单机部署

集群部署

本文将介绍如何通过单机二进制包方式启动 ShardingSphere-Proxy 版本号:v 5.5.0 。

1、下载

访问
下载页面
,获取 ShardingSphere-Proxy 二进制安装包, 解压缩的文件目录如下:

2、将 MySQL 的 JDBC 驱动复制到 ext-lib 目录

下载驱动
mysql-connector-java-5.1.49.jar
或者
mysql-connector-java-8.0.11.jar
放入 lib 包。

3、进入 conf 目录 , 内容如下图:

4、模式配置 global.yaml

因为默认文件内容被注释掉了,所以去掉注释,如下图:

5、验证启动 proxy 服务

在 Linux 操作系统上,运行
bin/start.sh
;在 Windows 操作系统上,运行
bin/start.bat
,以启动 ShardingSphere-Proxy。

然后使用 MySQL 终端命令连接 ShardingSphere-Proxy 服务端:

# 将 {xx} 替换为实际参数
mysql -h {ip} -u {username} -p{password} -P 3307
# 示例命令
mysql -h 127.0.0.1 -u root -proot -P 3307

4 配置订单分片策略

现在我们需要展示新的订单库(8个分片),需要修改分片策略 。

ShardingSphere-Proxy 支持配置多个逻辑数据源,每个以
database-
前缀命名的 YAML 配置文件,即为一个逻辑数据源。

因为我们是自定义分片算法,shardingsphere 内置算法并不满足,所以我们必须先编写自定义算法类。

1、 实现
ShardingAlgorithm
接口定义的算法实现类 HashSlotAlgorithm ;

2、在项目
resources
目录下创建
META-INF/services
目录 ;

3、在
META-INF/services
目录下新建文件
org.apache.shardingsphere.sharding.spi.ShardingAlgorithm

4、 将实现类的全限定类名写入至文件
org.apache.shardingsphere.sharding.spi.ShardingAlgorithm

5、将上述 Java 文件打包成 jar 包, 将上述 jar 包拷贝至
ext-lib
目录;

6、配置分片文件 database-myorder.yaml , 该文件用来定义订单的 4 个分片的路由策略;

最后,我们启动 Proxy 服务 , 我们发现通过 MySQL Client 查询数据库时,出现了我们配置的订单库 : myorder ,以及订单库里的三个逻辑表 。如下图:

4 Navicat 连接 shardingsphere proxy

通过 shardingjdbc5-spring 模块,插入多条记录到 4 个分片里,可以通过 navicat 连接 proxy 查看效果:

然后我们模拟在 myorder 逻辑数据库中新增一条订单记录,执行成功并且查询页正常的情况下,发现分片 ds0 中存储了刚插入的那条数据。


笔者将 proxy 算法模块也添加到了分库分表实战项目 shardingsphere-jdbc-demo 里,有兴趣的同学,可以看看这个项目。

Github 地址:
https://github.com/makemyownlife/shardingsphere-jdbc-demo


在自然语言处理(NLP)中,Transformer 模型是一个非常重要的里程碑,它通过自注意力(self-attention)机制极大地提高了处理序列数据的能力。在 Transformer 模型中,词嵌入(Word Embedding)是输入层的关键部分,负责将离散的单词转换成连续的向量表示,以便模型能够理解和处理。然而,您提到的“Postin Embedding”可能是一个笔误,通常我们讨论的是“Position Embedding”(位置嵌入),它用于给模型提供单词在句子中的位置信息,因为 Transformer 模型本身是位置无关的。

以下是一个基于 PyTorch 的简单 Transformer 模型实现,包括词嵌入和位置嵌入的详细代码示例。这个示例将展示如何构建 Transformer 的一个基本层(包括多头自注意力机制和前馈网络),并加入位置嵌入。

import torch  
import torch.nn as nn  
import torch.nn.functional as F  
  
class PositionalEncoding(nn.Module):  
    def __init__(self, d_model, max_len=5000):  
        super(PositionalEncoding, self).__init__()  
        # 创建位置编码矩阵  
        pe = torch.zeros(max_len, d_model)  
        position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)  
        div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))  
        pe[:, 0::2] = torch.sin(position * div_term)  
        pe[:, 1::2] = torch.cos(position * div_term)  
        pe = pe.unsqueeze(0).transpose(0, 1)  
        self.register_buffer('pe', pe)  
  
    def forward(self, x):  
        # 将位置编码加到词嵌入上  
        return x + self.pe[:x.size(0), :]  
  
class TransformerEncoderLayer(nn.Module):  
    def __init__(self, d_model, nhead, dim_feedforward=2048, dropout=0.1):  
        super(TransformerEncoderLayer, self).__init__()  
        self.self_attn = nn.MultiheadAttention(d_model, nhead, dropout=dropout)  
        self.linear1 = nn.Linear(d_model, dim_feedforward)  
        self.dropout = nn.Dropout(dropout)  
        self.linear2 = nn.Linear(dim_feedforward, d_model)  
  
        self.norm1 = nn.LayerNorm(d_model)  
        self.norm2 = nn.LayerNorm(d_model)  
        self.dropout1 = nn.Dropout(dropout)  
        self.dropout2 = nn.Dropout(dropout)  
  
        self.activation = nn.ReLU()  
  
    def forward(self, src, src_mask=None, src_key_padding_mask=None):  
        src2 = self.norm1(src)  
        src2 = self.dropout1(src2)  
        src_out, attn_output_weights, attn_output_mask = self.self_attn(src2, src2, src2, attn_mask=src_mask,  
                                                                      key_padding_mask=src_key_padding_mask)  
        src = src + self.dropout2(src_out)  
        src2 = self.norm2(src)  
        src2 = self.dropout(src2)  
        src = self.linear2(self.dropout(self.activation(self.linear1(src2))))  
        src = src + src2  
        return src, attn_output_weights  
  
class TransformerEncoder(nn.Module):  
    def __init__(self, encoder_layer, num_layers, d_model, vocab_size, max_len=5000):  
        super(TransformerEncoder, self).__init__()  
        self.layer = nn.ModuleList([encoder_layer for _ in range(num_layers)])  
        self.src_emb = nn.Embedding(vocab_size, d_model)  
        self.pos_encoder = PositionalEncoding(d_model, max_len)  
  
    def forward(self, src):  
        src = self.src_emb(src) * math.sqrt(self.d_model)  # scale embedding by sqrt(d_model)  
        src = self.pos_encoder(src)  
        output = src  
        attn = None  
  
        for encoder in self.layer:  
            output, attn = encoder(output)  
  
        return output, attn  
  
# 示例参数  
vocab_size = 10000  # 假设词汇表大小为 10000  
d_model = 512        # 嵌入维度  
nhead = 8            # 多头注意力机制中的头数  
num_layers = 6       # 编码器层数  
  
# 创建 TransformerEncoder  
encoder_layer = TransformerEncoderLayer(d_model=d_model, nhead=nhead)  
transformer_encoder = TransformerEncoder(encoder_layer, num_layers, d_model, vocab_size)  
  
# 示例输入(假设已经有一些经过编码的索引)  
src = torch.tensor([[1, 2, 3, 4, 5, 0, 0],  # 每个句子的索引,用 0 填充到相同长度  
                     [6, 7, 8, 9, 10, 0, 0]], dtype=torch.long)  
  
# 传递输入到 Transformer 编码器  
output, attn = transformer_encoder(src)  
  
print("Encoder output shape:", output.shape)  # 应该是 [batch_size, seq_len, d_model]  
print("Attention weights shape (if you need them):", attn.shape)  # 注意 attn 可能在第一层之后才是有效的  
  
# 注意:attn 的输出在这里可能不直接显示,因为它依赖于具体的层实现和是否传递了 mask。  
# 在实际应用中,你可能需要更复杂的逻辑来处理 mask 或直接忽略 attn 的输出。

以上代码实现了一个简单的 Transformer 编码器,包括词嵌入、位置嵌入、多头自注意力机制和前馈网络。在 TransformerEncoderLayer 类中,我们定义了一个编码器层,它包含了自注意力机制、层归一化、前馈网络以及相应的dropout层。TransformerEncoder 类则将这些层堆叠起来,并添加了词嵌入和位置嵌入。

请注意,在实际应用中,你可能需要添加一些额外的功能,比如掩码(mask)来处理填充的零或进行序列到序列的任务(例如翻译),以及添加解码器部分以构建完整的 Transformer 模型。此外,上述代码没有处理变长输入序列的掩码,这在实际应用中是很重要的,因为它可以防止模型关注到填充的零。

上周一个同事直接对我开喷,骂我无能,说:“你怎么一个人就搞不定所有系统呢?”,我半支烟纵横IT江湖14余年,还是第一次被人这么嫌弃。

事情缘由

某公司的业务线特别多,有个业务线前后端项目共计上百个,半支烟带着1个大前端、1个Android外包、1个iOS外包在支撑业务线的发展。

突然,有一天大前端同事有事不在,运营同事找到我开发功能,我说要等等,我现在一个人搞不懂所有的端口。此时,运营同事一着急就上头,直接质问我,为什么你不能一个人搞定所有端口?

我当时立马怒怼,我说我一个人确实无法同时搞定IT基建、搞定后端、搞定H5、搞定Android、搞定 iOS、搞定PC、搞定小程序、搞定自动化爬虫。如果觉得我无能,你可以找个全部能搞定的过来。

然后,就是各种撕逼......

这个事情对我还是很触动,倒不是说跟同时互撕了一顿。只是觉得,现在的IT环境真的是看的人后背发凉,不但机会少,对人的要求还特别的高。

在想想前些时间,某高校降低要求大量扩招计算机专业学生,简直是坑学生啦。

全栈的优势

半支烟2010年毕业于计算机专业,工作14余年,后端干过JAVA、Python、Golang,大前端干过React、Vue、Android、iOS,还搞过IT基建运维。

半支烟对全栈还算有些理解,下面说说全栈的优势吧。

个人觉得,最好的技能人才是
一专多能
,这个绝对毋庸置疑。就是要在某个领域精通之后,在别的领域持续开花结果。说到底还是要做一个全栈的技术人。

全栈的优势非常多,比如:

  • 在中小企业,一个人胜任多个岗位,可保饭碗无忧。
  • 全栈人解决问题更快,因为全栈人的视角更加全面。
  • 可以做一个独立开发者。
  • 可以从事各种副业。
  • 如果还会懂一些产品运营,那直接可以开个赚钱的小公司了。

全栈的痛

虽然全栈有一些优点,但是全栈的痛点也非常明显,比如:

  • 全栈人要学习的技能或者知识非常多,但人的精力是有限的,无法真正做到每个技能栈都非常熟悉。
  • 全栈人找工作会招人嫌弃,尤其是大厂会觉得你不是专业的螺丝钉,经常用某个领域的一些八股文去否定你。
  • 很对人虽说是全栈,但是没有站在解决问题的角度去思考,而只是作为一个会多个技术栈的工具人。这样的思想其实偏离了全栈的初衷。

个人建议

个人觉得,全栈对个人职业发展很有优势,我建议在精通一个领域后做一个全栈人。

我这里说的全栈,不只是IT技术栈,还有更多的是产品运营思维。任何时候全栈人都应该用
解决问题、推动事情往前发展的思维
去做事。

当前大环境不乐观,未来也未必乐观,中小企业都偏向找全栈人,大公司偏向找专业高级螺丝钉。虽说背点八股文对找工作有优势,但是将来将一文不值。

因为AI发展太迅速了,获取知识已经变更更加便捷。我更不建议做一个高级螺丝钉,那样只会成为工具人,最后失业时一无所有。

我建议,不管你在哪里企业,自己的成长要放在第一位。

尤其在当下这个AI时代,可以让IT人更轻松的成为全栈人,我们应该把握机会,让自己成为一个优秀的超级个体,努力搞出点自己的事业来。

本篇完结!欢迎 关注、加V(yclxiao)交流、全网可搜(程序员半支烟)

原文链接:
https://mp.weixin.qq.com/s/aY0AJk8gTQG8HeVEpsnBWA