node-local-dns-webhook.png

本文主要分享如何使用 基于 Admission Webhook 实现自动修改 Pod DNSConfig,使其优先使用 NodeLocalDNS 。

1.背景

上一篇部署好
NodeLocal DNSCache,
但是还差了很重要的一步,
配置
pod
使用 NodeLocal DNSCache 作为优先的
DNS
服务器。

有以下几种方式:

  • 方式一:修改 kubelet 中的 dns nameserver 参数,并重启节点 kubelet。
    存在业务中断风险,不推荐使用此方式

    • 测试时可以用这个方式,比较简单
  • 方式二:创建 Pod 时手动指定 DNSConfig,
    比较麻烦,不推荐。
  • 方式三:借助 DNSConfig 动态注入控制器在 Pod 创建时配置 DNSConfig 自动注入,
    推荐使用此方式。
    • 需要自己实现一个 webhook,相当于把方式二自动化了

第一种方式存在业务中断风险,而且后续新增节点时也需要修改 kubelet 配置,比较麻烦。

而第二种方式则每个创建的 Pod 都需要手动指定 DNSConfig 就更繁琐了。

因此一般是推荐使用第三种方式,实现一个 Webhook,由该 Webhook 来自动修改 Pod 的 DNSConfig。

2. 自动注入规则

Admission Webhook 用于自动注入 DNSConfig 到新建的 Pod 中,避免您手工配置 Pod YAML进行注入。

注入范围

为了使应用更灵活,我们指定,只对携带
node-local-dns-injection=enabled
label 的命名空间中新建 Pod 的进行注入。

可以通过以下命令给命名空间打上Label标签:

kubectl label namespace <namespace-name> node-local-dns-injection=enabled

注入规则

Webhook 则是在所有 Pod 创建、更新前都会进行检测,如果 Pod 所在 Namespace 满足条件,或者 Pod 也满足条件则自动注入 DNSConfig,将 NodeLocalDNS 作为 Pod 的优先 DNS 服务。

具体规则如下:

Pod 在同时满足以下条件时,才会自动注入 DNS 缓存。如果您的 Pod 容器未注入 DNS 缓存服务器的 IP 地址,请检查 Pod 是否未满足以下条件。

  • 1)新建 Pod 不位于 kube-system 和 kube-public 命名空间。
  • 2)新建 Pod 所在命名空间的 Labels 标签包含 node-local-dns-injection=enabled。
  • 3)新建 Pod 没有被打上禁用 DNS 注入 node-local-dns-injection=disabled 标签。
  • 4)新建 Pod 的网络为 hostNetwork 且 DNSPolicy 为 ClusterFirstWithHostNet,或 Pod 为非 hostNetwork 且 DNSPolicy 为 ClusterFirst。

3. Admission Webhook 实现

源码:
lixd/nodelocaldns-admission-webhook

配置文件

我们可以通过配置文件来执行 KubeDNS 地址和 NodeLocalDNS 地址,也提供了默认值。

const (
	DefaultKubeDNS  = "10.96.0.10"
	DefaultLocalDNS = "169.254.20.10"
)

func NewDNSConfig(kubedns, localdns string) Config {
	if kubedns == "" {
		kubedns = DefaultKubeDNS
	}
	if localdns == "" {
		localdns = DefaultLocalDNS
	}
	return Config{
		KubeDNS:  kubedns,
		LocalDNS: localdns,
	}
}

启动服务时可以指定

	flag.StringVar(&kubedns, "kube-dns", "10.96.0.10", "The service ip of kube dns.")
	flag.StringVar(&localdns, "local-dns", "169.254.20.10", "The virtual ip of node local dns.")

注入 DNSConfig

Webhook Handle 方法中就是核心逻辑。

func (a *PodAnnotator) Handle(ctx context.Context, req admission.Request) admission.Response {
	pod := &corev1.Pod{}
	err := a.Decoder.Decode(req, pod)
	if err != nil {
		return admission.Errored(http.StatusBadRequest, err)
	}
	klog.Infof("AdmissionReview for Kind=%v, Namespace=%v Name=%v (%v) UID=%v patchOperation=%v UserInfo=%v",
		req.Kind, req.Namespace, req.Name, pod.Name, req.UID, req.Operation, req.UserInfo)

	// determine whether to perform mutation
	if !a.NeedMutation(pod) {
		klog.Infof("Skipping mutation for %s/%s due to policy check", pod.Namespace, pod.Name)
		return admission.Allowed("not need mutation,skip")
	}

	// mutate the fields in pod
	mutation(pod, a.Config)

	marshaledPod, err := json.Marshal(pod)
	if err != nil {
		return admission.Errored(http.StatusInternalServerError, err)
	}
	return admission.PatchResponseFromRaw(req.Object.Raw, marshaledPod)
}

首先通过 NeedMutation 判断是否满足条件,如果不需要注入则跳过

如果需要则执行 mutation 方法修改 Pod 的 DNSConfig 字段。

NeedMutation

这里就是按照之前提到的注入规则进行判定

// NeedMutation Check whether the target resoured need to be mutated
func (a *PodAnnotator) NeedMutation(pod *corev1.Pod) bool {
	if pod.Namespace == "" {
		pod.Namespace = "default"
	}
	/*
	   Pod will automatically inject DNS cache when all of the following conditions are met:
	   1. The newly created Pod is not in the kube-system and kube-public namespaces.
	   2. The Labels of the namespace where the new Pod is located contain node-local-dns-injection=enabled.
	   3. The newly created Pod is not labeled with the disabled DNS injection node-local-dns-injection=disabled label.
	   4. The network of the newly created Pod is hostNetwork and DNSPolicy is ClusterFirstWithHostNet, or the Pod is non-hostNetwork and DNSPolicy is ClusterFirst.
	*/
	//1. The newly created Pod is not in the kube-system and kube-public namespaces.
	for _, namespace := range ignoredNamespaces {
		if pod.Namespace == namespace {
			klog.V(1).Infof("Skip mutation for %v for it's in special namespace: %v", pod.Name, pod.Namespace)
			return false
		}
	}

	// Fetch the namespace where the Pod is located.
	var ns corev1.Namespace
	err := a.Client.Get(context.Background(), client.ObjectKey{Name: pod.GetNamespace()}, &ns)
	if err != nil {
		klog.V(1).ErrorS(err, "Failed to fetch namespace: %v", pod.Namespace)
		return false
	}

	//2. The Labels of the namespace where the new Pod is located contain node-local-dns-injection=enabled.
	if v, ok := ns.Labels[NodeLocalDNSInjection]; !ok || v != "enabled" {
		return false
	}

	//3. The newly created Pod is not labeled with the disabled DNS injection node-local-dns-injection=disabled label.
	if v, ok := pod.Labels[NodeLocalDNSInjection]; ok && v == "disabled" {
		return false
	}

	//4. The network of the newly created Pod is hostNetwork and DNSPolicy is ClusterFirstWithHostNet, or the Pod is non-hostNetwork and DNSPolicy is ClusterFirst.
	// The network of the Pod is hostNetwork, so DNSPolicy should be ClusterFirstWithHostNet.
	if pod.Spec.HostNetwork && pod.Spec.DNSPolicy != corev1.DNSClusterFirstWithHostNet {
		return false
	}

	// The network of the Pod is not hostNetwork, so DNSPolicy should be ClusterFirst.
	if !pod.Spec.HostNetwork && pod.Spec.DNSPolicy != corev1.DNSClusterFirst {
		return false
	}

	// If all conditions are met, return true.
	return true
}

mutation

mutation 则是根据配置文件组装好 DNSConfig 并注入到 Pod。

func mutation(pod *corev1.Pod, conf Config) {
	ns := pod.Namespace
	if ns == "" {
		ns = "default"
	}
	pod.Spec.DNSPolicy, pod.Spec.DNSConfig = loadCustomDnsConfig(ns, conf)
}

func loadCustomDnsConfig(namespace string, config Config) (corev1.DNSPolicy, *corev1.PodDNSConfig) {
	nsSvc := fmt.Sprintf("%s.svc.cluster.local", namespace)
	return "None", &corev1.PodDNSConfig{
		Nameservers: []string{config.LocalDNS, config.KubeDNS},
		Searches:    []string{nsSvc, "svc.cluster.local", "cluster.local"},
		Options: []corev1.PodDNSConfigOption{
			{
				Name:  "ndots",
				Value: StringPtr("3"),
			},
			{
				Name:  "attempts",
				Value: StringPtr("2"),
			},
			{
				Name:  "timeout",
				Value: StringPtr("1"),
			},
		},
	}
}

至此,核心逻辑就结束了,还是比较简单的,对于每个 Pod 创建、更新请求,Webhook 中都判断该 Pod 是否需要注入,不满足条件则直接跳过,满足条件则根据配置生成 DNSConfig 并注入到 Pod 中。

4. 部署

包含两部分:

  • 1)Webhook 本身部署
  • 2)K8s 中增加 Webhook 配置

Webhook 部署

需要部署以下几部分内容:

  • Cert-manager : 由于 Webhook 需要配置证书,建议使用 cert-manager 来自动注入,减少手动操作。
  • RBAC:Webhook 需要查询 Pod、Namespace 等信息,因此需要授权
  • Deploy:Webhook 本身以 Deploy 方式部署。

具体文件都在 /deploy 目录下,直接使用即可。

在 deploy 目录提供了部署相关 yaml,apply 即可。

  • 1)部署 cert-manager 用于管理证书
  • 2)创建 Issuer、Certificate 对象,让 cert-manager 签发证书并存放到 Secret
  • 3)创建 rbac 并部署 Webhook, 挂载 2 中的 Secret 到容器中以开启 TLS
    • 可以修改启动命令中的 -kube-dns 和 -local-dns 参数来调整 KubeDNS 和 NodeLocalDNS 地址,默认为 10.96.0.10 和 169.254.20.10。

webhook-deploy.yaml 如下,就是一个普通的 Deployment:

镜像已经推送到了 Dockerhub,大家可以直接使用

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nodelocaldns-webhook
  namespace: kube-system
  labels:
    app: nodelocaldns
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nodelocaldns
  template:
    metadata:
      labels:
        app: nodelocaldns
    spec:
      serviceAccountName: nodelocaldns-webhook # 提供查询 namespace 信息的权限
      containers:
        - name: nodelocaldns-webhook
          image: lixd96/nodelocaldns-admission-webhook:v0.0.1
          imagePullPolicy: IfNotPresent
          command:
            - /manager
          args:
            - "-kube-dns=10.96.0.10"
            - "-local-dns=169.254.20.10"
          volumeMounts:
            - name: webhook-certs
              mountPath: /tmp/k8s-webhook-server/serving-certs # Webhook 证书默认路径
              readOnly: true
      volumes:
        - name: webhook-certs
          secret:
            secretName: nodelocaldns-webhook
---
apiVersion: v1
kind: Service
metadata:
  name: nodelocaldns-webhook
  namespace: kube-system
  labels:
    app: nodelocaldns
spec:
  ports:
    - port: 443
      targetPort: 9443
  selector:
    app: nodelocaldns

部署命令如下:

cd deploy
# 部署 CertManager 以及签发证书
kubectl apply -f cert-manager

# 部署 Webhook
kubectl apply -f webhook-deploy.yaml
kubectl apply -f webhook-rbac.yaml

MutatingWebhookConfiguration

yaml 大概是这样的:

---
apiVersion: admissionregistration.k8s.io/v1
kind: MutatingWebhookConfiguration
metadata:
  name: mutating-webhook-configuration
  annotations:
    cert-manager.io/inject-ca-from: kube-system/nodelocaldns-webhook
webhooks:
  - admissionReviewVersions:
      - v1
    clientConfig:
      #caBundle: ""
      service:
        name: nodelocaldns-webhook
        namespace: kube-system
        path: /mutate-v1-pod
    failurePolicy: Fail
    name: nodelocaldns-webhook.kube-system.svc
    namespaceSelector: # 限制生效范围
      matchLabels:
        node-local-dns-injection: enabled
    rules:
      - apiGroups:
          - ""
        apiVersions:
          - v1
        operations:
          - CREATE
          - UPDATE
        resources:
          - pods
    sideEffects: None

增加
cert-manager.io/inject-ca-from
annotation 让 CertManager 自动注入 CA 证书。

  annotations:
    cert-manager.io/inject-ca-from: kube-system/nodelocaldns-webhook

限制生效范围

    namespaceSelector: # 限制生效范围
      matchLabels:
        node-local-dns-injection: enabled

只关心 Pod 的 Create、Update 事件:

    rules:
      - apiGroups:
          - ""
        apiVersions:
          - v1
        operations:
          - CREATE
          - UPDATE
        resources:
          - pods

也是直接 apply 即可

cd deploy 
kubectl apply -f webhook-config.yaml

5. 测试

首先给 default namespace 打上
node-local-dns-injection=enabled
label。

kubectl label namespace default node-local-dns-injection=enabled

创建一个 Pod,然后查看 yaml 看看 dnsConfig 是否被修改了。

kubectl run busybox --image=busybox --restart=Never --namespace=default --command -- sleep infinity

查看一下完整 Yaml

[root@webhook ~]# k get po busybox -oyaml
apiVersion: v1
kind: Pod
metadata:
  annotations:
    cni.projectcalico.org/containerID: 2a4caca308b031f872c47ef334cf7e940d74646a2f0a8893c7786508d30ed488
    cni.projectcalico.org/podIP: 172.25.233.215/32
    cni.projectcalico.org/podIPs: 172.25.233.215/32
  creationTimestamp: "2024-02-05T10:43:16Z"
  labels:
    run: nginx-pod
  name: nginx-pod
  namespace: default
  resourceVersion: "19341"
  uid: 2b107b50-e85c-462f-8919-a0c01114bae6
spec:
  containers:
  - image: nginx
    imagePullPolicy: Always
    name: nginx-pod
    resources: {}
    terminationMessagePath: /dev/termination-log
    terminationMessagePolicy: File
    volumeMounts:
    - mountPath: /var/run/secrets/kubernetes.io/serviceaccount
      name: kube-api-access-4wf2n
      readOnly: true
  dnsConfig:
    nameservers:
    - 169.254.20.10
    options:
    - name: ndots
      value: "2"
    searches:
    - default.svc.cluster.local
    - svc.cluster.local
    - cluster.local
  dnsPolicy: None

Dns 部分如下:

  dnsConfig:
    nameservers:
    - 169.254.20.10
    options:
    - name: ndots
      value: "2"
    searches:
    - default.svc.cluster.local
    - svc.cluster.local
    - cluster.local
  dnsPolicy: None

可以看到,已经注入了我们的 NodeLocalDNS 了。

然后往没有打 Label 的命名空间创建 Pod

kubectl create namespace myns
kubectl run busybox --image=busybox --restart=Never --namespace=myns --command -- sleep infinity

查看 DNSConfig 是否被修改

[root@webhook ~]# kubectl -n myns get pod nginx-pod -oyaml
apiVersion: v1
kind: Pod
metadata:
  annotations:
    cni.projectcalico.org/containerID: 93a545988d7c7bbb88f0bc0e745226cd9e684bd63b78754dadd738861ed34512
    cni.projectcalico.org/podIP: 172.25.233.218/32
    cni.projectcalico.org/podIPs: 172.25.233.218/32
  creationTimestamp: "2024-02-06T01:22:36Z"
  labels:
    run: nginx-pod
  name: nginx-pod
  namespace: myns
  resourceVersion: "116195"
  uid: 1f64a831-7470-49d5-b28e-1cd231ef5d8f
spec:
  containers:
  - image: nginx
    imagePullPolicy: Always
    name: nginx-pod
    resources: {}
    terminationMessagePath: /dev/termination-log
    terminationMessagePolicy: File
    volumeMounts:
    - mountPath: /var/run/secrets/kubernetes.io/serviceaccount
      name: kube-api-access-shk68
      readOnly: true
  dnsPolicy: ClusterFirst
  enableServiceLinks: true

可以看到,并没有,说明我们的逻辑是没问题的,只会对打了 Label 的命名空间中的 Pod 进行注入。

最后测试能否正常解析

测试一下注入 DNSConfig 之后能否正常解析 DNS

kubectl run busybox-pod --image=busybox --restart=Never --namespace=default

进入 Pod 并测试解析 Service 记录

[root@webhook ~]# k exec -it busybox-pod -- nslookup nodelocaldns-webhook.kube-system.svc.cluster.local
Server:                169.254.20.10
Address:        169.254.20.10:53

Name:        nodelocaldns-webhook.kube-system.svc.cluster.local
Address: 10.105.137.213
[root@webhook ~]# kk get svc nodelocaldns-webhook
NAME                   TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE
nodelocaldns-webhook   ClusterIP   10.105.137.213   <none>        443/TCP   14h

可以看到,Nameserver 是 169.254.20.10,也就是我们的 NodeLocalDNS,然后能拿到正确的 IP,说明我们的 NodeLocalDNS 是没问题的。

6. 小结

本文主要分析了如何通过自定义一个 Admission Webhook 来自动化的修改 Pod 的 DNSConfig,使其优先使用 NodeLocalDNS。

.NET 响应式编程 System.Reactive 系列文章(三):Subscribe 和 IDisposable 的深入理解


引言:为什么理解 Subscribe 和 IDisposable 很重要?

在前两篇文章中,我们详细介绍了
IObservable<T>

IObserver<T>

的核心概念及交互流程。但在实际使用
System.Reactive
时,一个常见的误区是认为数据流一旦订阅,就不需要额外管理。这种认知是危险的,因为
Observable 的订阅可能是无限的
,如果不管理好订阅的生命周期,很容易导致
内存泄漏

资源浪费

在 Rx 中,
Subscribe()
方法返回一个
IDisposable
接口对象

,用于
手动取消订阅
和释放资源。另外,
System.Reactive
还提供了
不返回
IDisposable

Subscribe
重载

,这些重载方法通过
CancellationToken
管理订阅的生命周期。在本篇文章中,我们将深入探讨
Subscribe 和 IDisposable
的原理、这些特殊重载的设计原因,以及在实际使用中的应用场景。


1. Subscribe 的内部机制

1.1 Subscribe 的作用

Subscribe
是连接
IObservable<T>

IObserver<T>
的桥梁。当你调用
Subscribe()
方法时:

  • IObservable<T>
    开始向
    IObserver<T>
    推送数据

  • 订阅会保持活跃状态,直到:
    • 数据流结束(调用
      OnCompleted()
      )。
    • 发生错误(调用
      OnError()
      )。
    • 手动取消订阅(调用
      Dispose()
      )。
    • 超时取消订阅(向CancellationToken注册超时回调)。

1.2 为什么 Subscribe 返回 IDisposable?

普通的
Subscribe
重载

返回一个
IDisposable
对象,允许你通过调用
Dispose()
方法取消订阅。这是管理数据流生命周期的核心机制之一。


2. Subscribe 重载:不返回 IDisposable 的特殊情况

System.Reactive
提供了一些特殊的
Subscribe
重载方法

,它们不返回
IDisposable
,而是依赖于
CancellationToken
来控制订阅的生命周期。这些方法设计的目的是为了提供一种
外部取消订阅的机制
,让你无需手动管理
Dispose()
的调用。

2.1 方法签名

以下是其中一个不返回
IDisposable

Subscribe
重载:

public static void Subscribe<T>(
    this IObservable<T> source,
    Action<T> onNext,
    Action<Exception> onError,
    Action onCompleted,
    CancellationToken cancellationToken
);

这种重载方法的使用场景是:
你希望通过
CancellationToken
来控制订阅的生命周期

,而不是手动调用
Dispose()


2.2 示例代码:使用 CancellationToken 管理订阅

示例:超时取消订阅

using System;
using System.Reactive.Linq;
using System.Threading;
using System.Threading.Tasks;

class Program
{
	static void Main(string[] args)
	{
		IObservable<long> observable = Observable.Interval(TimeSpan.FromSeconds(1));

		CancellationTokenSource cts = new();

		// 使用 Subscribe 方法并传入 CancellationToken
		observable.Subscribe(
			onNext: static value => Console.WriteLine($"Received: {value}"),
			onError: static ex => Console.WriteLine($"Error: {ex.Message}"),
			onCompleted: static () => Console.WriteLine("Completed"),
			token: cts.Token
		);

		// 模拟运行 5 秒后取消订阅
		Console.WriteLine("Running for 5 seconds...");
		Thread.Sleep(5000);
		cts.Cancel();
		Console.WriteLine("Subscription cancelled.");
	}
}

输出结果:

Running for 5 seconds...
Received: 0
Received: 1
Received: 2
Received: 3
Subscription cancelled.


2.3 使用场景:什么时候使用 CancellationToken?

使用场景 推荐的 Subscribe 重载
需要手动取消订阅 返回
IDisposable
的重载
使用外部控制(如用户交互、超时)控制订阅
CancellationToken
的重载

典型场景:

  1. 异步任务取消
    在异步任务中使用
    CancellationToken
    取消订阅数据流,避免阻塞或内存泄漏。

  2. 超时控制
    使用
    CancellationTokenSource.CancelAfter()
    设置超时取消订阅。


2.4 示例:设置超时取消订阅

using System;
using System.Reactive.Linq;
using System.Threading;
using System.Threading.Tasks;

class Program
{
	static void Main(string[] args)
	{
		IObservable<long> observable = Observable.Interval(TimeSpan.FromSeconds(1));

		CancellationTokenSource cts = new();
		cts.CancelAfter(TimeSpan.FromSeconds(3)); // 设置 3 秒后自动取消订阅

		observable.Subscribe(
			onNext: static value => Console.WriteLine($"Received: {value}"),
			onError: static ex => Console.WriteLine($"Error: {ex.Message}"),
			onCompleted: static () => Console.WriteLine("Completed"),
			token: cts.Token
		);

		Console.WriteLine("Running...");
		Thread.Sleep(5000);
		Console.WriteLine("Program ended.");
	}
}

输出结果:

Running...
Received: 0
Received: 1
Received: 2
Program ended.


3. 使用场景总结

使用方式 特点 适用场景
Subscribe
返回
IDisposable
允许手动取消订阅 长时间订阅或频繁管理多个订阅
Subscribe
接受
CancellationToken
通过外部控制(如超时或用户交互)取消订阅 异步任务、超时控制、用户交互场景


4. 注意事项:CancellationToken 的局限性

虽然使用
CancellationToken
可以简化订阅管理,但也有一些需要注意的地方:

  1. 不支持手动取消
    如果你使用的是返回
    IDisposable

    Subscribe
    方法,你可以手动调用
    Dispose()
    取消订阅。但如果你使用带
    CancellationToken
    的重载,就无法通过
    Dispose()
    取消订阅。

  2. 更适合一次性订阅

    CancellationToken

    Subscribe
    重载更适合
    一次性订阅
    的场景。如果你需要频繁管理多个订阅,使用
    CompositeDisposable
    或手动管理
    IDisposable
    可能更合适。


5. 两种订阅方式的对比

特性 返回
IDisposable

Subscribe

CancellationToken

Subscribe
是否支持手动取消订阅 ✅ 支持 ❌ 不支持
是否支持外部控制订阅生命周期 ❌ 需要手动调用
Dispose()
✅ 通过
CancellationToken
控制
是否适合长期订阅 ✅ 适合 ❌ 更适合一次性订阅


6. Subscribe 和 IDisposable 的交互流程图

sequenceDiagram
participant Observer as IObserver<T>
participant Observable as IObservable<T>
participant IDisposable as IDisposable

Observer ->> Observable: Subscribe()
Observable ->> Observer: OnNext(T value)
Observable ->> Observer: OnNext(T value)
Observer ->> IDisposable: Dispose()
Observable -->> Observer: 停止推送数据


总结

在本篇文章中,我们详细探讨了
Subscribe 和 IDisposable
的内部机制,并重点介绍了

CancellationToken

Subscribe
重载

  1. Subscribe()
    方法返回
    IDisposable

    ,用于管理订阅的生命周期。
  2. 不返回
    IDisposable

    Subscribe
    重载

    ,通过
    CancellationToken
    控制订阅的终止。
  3. 使用场景不同

    IDisposable
    更适合长期订阅,
    CancellationToken
    更适合一次性或外部控制的订阅。


下一篇文章预告

《.NET 响应式编程 System.Reactive 系列文章(四):操作符基础》
下一篇文章将介绍
System.Reactive
的基础操作符,包括如何
创建

转换

过滤
数据流。我们将通过实战示例,帮助你快速掌握 Rx 的操作符使用方法。敬请期待!

MyBatis数据源DataSource分类

MyBatis把数据源DataSource分为三种:

  • UNPOOLED 不使用连接池的数据源
  • POOLED 使用连接池的数据源
  • JNDI 使用JNDI实现的数据源

相应地,MyBatis内部分别定义了实现了java.sql.DataSource接口的UnpooledDataSource,PooledDataSource类来表示UNPOOLED、POOLED类型的数据源。

对于JNDI类型的数据源DataSource,则是通过JNDI上下文中取值。

官网DataSource配置内容清单

dataSource 元素使用标准的 JDBC 数据源接口来配置 JDBC 连接对象的资源。

大多数 MyBatis 应用程序会按示例中的例子来配置数据源。虽然数据源配置是可选的,但如果要启用延迟加载特性,就必须配置数据源。 有三种内建的数据源类型(也就是
type="[UNPOOLED|POOLED|JNDI]"
):

UNPOOLED

这个数据源的实现会每次请求时打开和关闭连接。虽然有点慢,但对那些数据库连接可用性要求不高的简单应用程序来说,是一个很好的选择。 性能表现则依赖于使用的数据库,对某些数据库来说,使用连接池并不重要,这个配置就很适合这种情形。UNPOOLED 类型的数据源仅仅需要配置以下 5 种属性:

  • driver – 这是 JDBC 驱动的 Java 类全限定名(并不是 JDBC 驱动中可能包含的数据源类)。
  • url – 这是数据库的 JDBC URL 地址。
  • username – 登录数据库的用户名。
  • password – 登录数据库的密码。
  • defaultTransactionIsolationLevel – 默认的连接事务隔离级别。
  • defaultNetworkTimeout – 等待数据库操作完成的默认网络超时时间(单位:毫秒)。查看 java.sql.Connection#setNetworkTimeout() 的 API 文档以获取更多信息。

作为可选项,你也可以传递属性给数据库驱动。只需在属性名加上“driver.”前缀即可,例如:

  • driver.encoding=UTF8

这将通过 DriverManager.getConnection(url, driverProperties) 方法传递值为 UTF8 的 encoding 属性给数据库驱动。

POOLED

这种数据源的实现利用“池”的概念将 JDBC 连接对象组织起来,避免了创建新的连接实例时所必需的初始化和认证时间。 这种处理方式很流行,能使并发 Web 应用快速响应请求。

除了上述提到 UNPOOLED 下的属性外,还有更多属性用来配置 POOLED 的数据源:

  • poolMaximumActiveConnections – 在任意时间可存在的活动(正在使用)连接数量,默认值:10
  • poolMaximumIdleConnections – 任意时间可能存在的空闲连接数。
  • poolMaximumCheckoutTime – 在被强制返回之前,池中连接被检出(checked out)时间,默认值:20000 毫秒(即 20 秒)
  • poolTimeToWait – 这是一个底层设置,如果获取连接花费了相当长的时间,连接池会打印状态日志并重新尝试获取一个连接(避免在误配置的情况下一直失败且不打印日志),默认值:20000 毫秒(即 20 秒)。
  • poolMaximumLocalBadConnectionTolerance – 这是一个关于坏连接容忍度的底层设置, 作用于每一个尝试从缓存池获取连接的线程。 如果这个线程获取到的是一个坏的连接,那么这个数据源允许这个线程尝试重新获取一个新的连接,但是这个重新尝试的次数不应该超过 poolMaximumIdleConnections 与 poolMaximumLocalBadConnectionTolerance 之和。 默认值:3(新增于 3.4.5)
  • poolPingQuery – 发送到数据库的侦测查询,用来检验连接是否正常工作并准备接受请求。默认是“NO PING QUERY SET”,这会导致多数数据库驱动出错时返回恰当的错误消息。
  • poolPingEnabled – 是否启用侦测查询。若开启,需要设置 poolPingQuery 属性为一个可执行的 SQL 语句(最好是一个速度非常快的 SQL 语句),默认值:false。
  • poolPingConnectionsNotUsedFor – 配置 poolPingQuery 的频率。可以被设置为和数据库连接超时时间一样,来避免不必要的侦测,默认值:0(即所有连接每一时刻都被侦测 — 当然仅当 poolPingEnabled 为 true 时适用)。

JNDI

这个数据源实现是为了能在如 EJB 或应用服务器这类容器中使用,容器可以集中或在外部配置数据源,然后放置一个 JNDI 上下文的数据源引用。这种数据源配置只需要两个属性:

  • initial_context – 这个属性用来在 InitialContext 中寻找上下文(即,initialContext.lookup(initial_context))。这是个可选属性,如果忽略,那么将会直接从 InitialContext 中寻找 data_source 属性。
  • data_source – 这是引用数据源实例位置的上下文路径。提供了 initial_context 配置时会在其返回的上下文中进行查找,没有提供时则直接在 InitialContext 中查找。

和其他数据源配置类似,可以通过添加前缀“env.”直接把属性传递给 InitialContext。比如:

  • env.encoding=UTF8

这就会在 InitialContext 实例化时往它的构造方法传递值为 UTF8 的 encoding 属性。

你可以通过实现接口 org.apache.ibatis.datasource.DataSourceFactory 来使用第三方数据源实现:

public interface DataSourceFactory {
  void setProperties(Properties props);
  DataSource getDataSource();
}

org.apache.ibatis.datasource.unpooled.UnpooledDataSourceFactory 可被用作父类来构建新的数据源适配器,比如下面这段插入 C3P0 数据源所必需的代码:

import org.apache.ibatis.datasource.unpooled.UnpooledDataSourceFactory;
import com.mchange.v2.c3p0.ComboPooledDataSource;

public class C3P0DataSourceFactory extends UnpooledDataSourceFactory {

  public C3P0DataSourceFactory() {
    this.dataSource = new ComboPooledDataSource();
  }
}

为了令其工作,记得在配置文件中为每个希望 MyBatis 调用的 setter 方法增加对应的属性。 下面是一个可以连接至 PostgreSQL 数据库的例子:

<dataSource type="org.myproject.C3P0DataSourceFactory">
  <property name="driver" value="org.postgresql.Driver"/>
  <property name="url" value="jdbc:postgresql:mydb"/>
  <property name="username" value="postgres"/>
  <property name="password" value="root"/>
</dataSource>

DataSource的创建过程

MyBatis数据源DataSource对象的创建发生在MyBatis初始化的过程中。下面让我们一步步地了解MyBatis是如何创建数据源DataSource的。

在mybatis的XML配置文件中,使用
<dataSource>
元素来配置数据源:

<dataSource type="org.myproject.C3P0DataSourceFactory">
  <property name="driver" value="org.postgresql.Driver"/>
  <property name="url" value="jdbc:postgresql:mydb"/>
  <property name="username" value="postgres"/>
  <property name="password" value="root"/>
</dataSource>

MyBatis在初始化时,解析此文件,根据
<dataSource>
的type属性来创建相应类型的的数据源DataSource,即:

  • type=”POOLED” :MyBatis会创建PooledDataSource实例
  • type=”UNPOOLED” :MyBatis会创建UnpooledDataSource实例
  • type=”JNDI” :MyBatis会从JNDI服务上查找DataSource实例,然后返回使用

顺便说一下,MyBatis是通过工厂模式来创建数据源DataSource对象的,MyBatis定义了抽象的工厂接口:org.apache.ibatis.datasource.DataSourceFactory,通过其getDataSource()方法返回数据源DataSource:

public interface DataSourceFactory { 
    void setProperties(Properties props);  
    // 生产DataSource  
    DataSource getDataSource();  
}

上述三种不同类型的type,则有对应的以下dataSource工厂:

  • POOLED PooledDataSourceFactory
  • UNPOOLED UnpooledDataSourceFactory
  • JNDI JndiDataSourceFactory

其类图如下所示:

MyBatis创建了DataSource实例后,会将其放到Configuration对象内的Environment对象中,供以后使用。

DataSource什么时候创建Connection对象

当我们需要创建SqlSession对象并需要执行SQL语句时,这时候MyBatis才会去调用dataSource对象来创建java.sql.Connection对象。也就是说,java.sql.Connection对象的创建一直延迟到执行SQL语句的时候。

比如,我们有如下方法执行一个简单的SQL语句:

String resource = "mybatis-config.xml";  
InputStream inputStream = Resources.getResourceAsStream(resource);  
SqlSessionFactory sqlSessionFactory = new SqlSessionFactoryBuilder().build(inputStream);  
SqlSession sqlSession = sqlSessionFactory.openSession();  
sqlSession.selectList("SELECT * FROM STUDENTS");

前4句都不会导致java.sql.Connection对象的创建,只有当第5句sqlSession.selectList("SELECT * FROM STUDENTS"),才会触发MyBatis在底层执行下面这个方法来创建java.sql.Connection对象:

protected void openConnection() throws SQLException {  
    if (log.isDebugEnabled()) {  
        log.debug("Opening JDBC Connection");  
    }  
    connection = dataSource.getConnection();  
    if (level != null) {  
        connection.setTransactionIsolation(level.getLevel());  
    }  
    setDesiredAutoCommit(autoCommmit);  
}  

不使用连接池的UnpooledDataSource


<dataSource>
的type属性被配置成了”UNPOOLED”,MyBatis首先会实例化一个UnpooledDataSourceFactory工厂实例,然后通过.getDataSource()方法返回一个UnpooledDataSource实例对象引用,我们假定为dataSource。

使用UnpooledDataSource的getConnection(),每调用一次就会产生一个新的Connection实例对象。

UnPooledDataSource的getConnection()方法实现如下:

/* 
 * UnpooledDataSource的getConnection()实现 
 */  
public Connection getConnection() throws SQLException  
{  
    return doGetConnection(username, password);  
}  
  
private Connection doGetConnection(String username, String password) throws SQLException  
{  
    //封装username和password成properties  
    Properties props = new Properties();  
    if (driverProperties != null)  
    {  
        props.putAll(driverProperties);  
    }  
    if (username != null)  
    {  
        props.setProperty("user", username);  
    }  
    if (password != null)  
    {  
        props.setProperty("password", password);  
    }  
    return doGetConnection(props);  
}  
  
/* 
 *  获取数据连接 
 */  
private Connection doGetConnection(Properties properties) throws SQLException  
{  
    //1.初始化驱动  
    initializeDriver();  
    //2.从DriverManager中获取连接,获取新的Connection对象  
    Connection connection = DriverManager.getConnection(url, properties);  
    //3.配置connection属性  
    configureConnection(connection);  
    return connection;  
}

如上代码所示,UnpooledDataSource会做以下事情:

  • 初始化驱动
    :判断driver驱动是否已经加载到内存中,如果还没有加载,则会动态地加载driver类,并实例化一个Driver对象,使用DriverManager.registerDriver()方法将其注册到内存中,以供后续使用。
  • 创建Connection对象
    :使用DriverManager.getConnection()方法创建连接。
  • 配置Connection对象
    :设置是否自动提交autoCommit和隔离级别isolationLevel。
  • 返回Connection对象

上述的序列图如下所示:

总结:从上述的代码中可以看到,我们每调用一次getConnection()方法,都会通过DriverManager.getConnection()返回新的java.sql.Connection实例。

为什么要使用连接池

  • 创建一个java.sql.Connection实例对象的代价

首先让我们来看一下创建一个java.sql.Connection对象的资源消耗。我们通过连接Oracle数据库,创建创建Connection对象,来看创建一个Connection对象、执行SQL语句各消耗多长时间。代码如下:

public static void main(String[] args) throws Exception  {  
 
   String sql = "select * from hr.employees where employee_id < ? and employee_id >= ?";  
   PreparedStatement st = null;  
   ResultSet rs = null;  
 
   long beforeTimeOffset = -1L; //创建Connection对象前时间  
   long afterTimeOffset = -1L; //创建Connection对象后时间  
   long executeTimeOffset = -1L; //创建Connection对象后时间  
 
   Connection con = null;  
   Class.forName("oracle.jdbc.driver.OracleDriver");  
 
   beforeTimeOffset = new Date().getTime();  
   System.out.println("before:\t" + beforeTimeOffset);  
 
   con = DriverManager.getConnection("jdbc:oracle:thin:@127.0.0.1:1521:xe", "louluan", "123456");  
 
   afterTimeOffset = new Date().getTime();  
   System.out.println("after:\t\t" + afterTimeOffset);  
   System.out.println("Create Costs:\t\t" + (afterTimeOffset - beforeTimeOffset) + " ms");  
 
   st = con.prepareStatement(sql);  
   //设置参数  
   st.setInt(1, 101);  
   st.setInt(2, 0);  
   //查询,得出结果集  
   rs = st.executeQuery();  
   executeTimeOffset = new Date().getTime();  
   System.out.println("Exec Costs:\t\t" + (executeTimeOffset - afterTimeOffset) + " ms");  
 
}  

上述程序的执行结果为:

从此结果可以清楚地看出,创建一个Connection对象,用了250 毫秒;而执行SQL的时间用了170毫秒。

创建一个Connection对象用了250毫秒!这个时间对计算机来说可以说是一个非常奢侈的!

这仅仅是一个Connection对象就有这么大的代价,设想一下另外一种情况:如果我们在Web应用程序中,为用户的每一个请求就操作一次数据库,当有10000个在线用户并发操作的话,对计算机而言,仅仅创建Connection对象不包括做业务的时间就要损耗10000×250ms= 250 0000 ms = 2500 s = 41.6667 min,竟然要41分钟!!!如果对高用户群体使用这样的系统,简直就是开玩笑!

  • 问题分析

创建一个java.sql.Connection对象的代价是如此巨大,是因为创建一个Connection对象的过程,在底层就相当于和数据库建立的通信连接,在建立通信连接的过程,消耗了这么多的时间,而往往我们建立连接后(即创建Connection对象后),就执行一个简单的SQL语句,然后就要抛弃掉,这是一个非常大的资源浪费!

  • 解决方案

对于需要频繁地跟数据库交互的应用程序,可以在创建了Connection对象,并操作完数据库后,可以不释放掉资源,而是将它放到内存中,当下次需要操作数据库时,可以直接从内存中取出Connection对象,不需要再创建了,这样就极大地节省了创建Connection对象的资源消耗。由于内存也是有限和宝贵的,这又对我们对内存中的Connection对象怎么有效地维护提出了很高的要求。我们将在内存中存放Connection对象的容器称之为连接池(Connection Pool)。下面让我们来看一下MyBatis的线程池是怎样实现的。

使用了连接池的PooledDataSource

同样地,我们也是使用PooledDataSource的getConnection()方法来返回Connection对象。现在让我们看一下它的基本原理:

PooledDataSource将java.sql.Connection对象包裹成PooledConnection对象放到了PoolState类型的容器中维护。 MyBatis将连接池中的PooledConnection分为两种状态:空闲状态(idle)和活动状态(active),这两种状态的PooledConnection对象分别被存储到PoolState容器内的idleConnections和activeConnections两个List集合中:

  • idleConnections
    : 空闲(idle)状态PooledConnection对象被放置到此集合中,表示当前闲置的没有被使用的PooledConnection集合,调用PooledDataSource的getConnection()方法时,会优先从此集合中取PooledConnection对象。当用完一个java.sql.Connection对象时,MyBatis会将其包裹成PooledConnection对象放到此集合中。
  • activeConnections
    : 活动(active)状态的PooledConnection对象被放置到名为activeConnections的ArrayList中,表示当前正在被使用的PooledConnection集合,调用PooledDataSource的getConnection()方法时,会优先从idleConnections集合中取PooledConnection对象,如果没有,则看此集合是否已满,如果未满,PooledDataSource会创建出一个PooledConnection,添加到此集合中,并返回。

PoolState连接池的大致结构
如下所示:

  • 获取java.sql.Connection对象的过程

下面让我们看一下PooledDataSource 的getConnection()方法获取Connection对象的实现:

public Connection getConnection() throws SQLException {  
    return popConnection(dataSource.getUsername(), dataSource.getPassword()).getProxyConnection();  
}  
 
public Connection getConnection(String username, String password) throws SQLException {  
    return popConnection(username, password).getProxyConnection();  
}

上述的popConnection()方法,会从连接池中返回一个可用的PooledConnection对象,然后再调用getProxyConnection()方法最终返回Conection对象。(至于为什么会有getProxyConnection(),请关注下一节)。

现在让我们看一下popConnection()方法到底做了什么:

  • 先看是否有空闲(idle)状态下的PooledConnection对象,如果有,就直接返回一个可用的PooledConnection对象;否则进行第2步。
  • 查看活动状态的PooledConnection池activeConnections是否已满;如果没有满,则创建一个新的PooledConnection对象,然后放到activeConnections池中,然后返回此PooledConnection对象;否则进行第三步;
  • 看最先进入activeConnections池中的PooledConnection对象是否已经过期:如果已经过期,从activeConnections池中移除此对象,然后创建一个新的PooledConnection对象,添加到activeConnections中,然后将此对象返回;否则进行第4步。
  • 线程等待,循环2步
/* 
 * 传递一个用户名和密码,从连接池中返回可用的PooledConnection 
 */  
private PooledConnection popConnection(String username, String password) throws SQLException  
{  
   boolean countedWait = false;  
   PooledConnection conn = null;  
   long t = System.currentTimeMillis();  
   int localBadConnectionCount = 0;  
 
   while (conn == null)  
   {  
       synchronized (state)  
       {  
           if (state.idleConnections.size() > 0)  
           {  
               // 连接池中有空闲连接,取出第一个  
               conn = state.idleConnections.remove(0);  
               if (log.isDebugEnabled())  
               {  
                   log.debug("Checked out connection " + conn.getRealHashCode() + " from pool.");  
               }  
           }  
           else  
           {  
               // 连接池中没有空闲连接,则取当前正在使用的连接数小于最大限定值,  
               if (state.activeConnections.size() < poolMaximumActiveConnections)  
               {  
                   // 创建一个新的connection对象  
                   conn = new PooledConnection(dataSource.getConnection(), this);  
                   @SuppressWarnings("unused")  
                   //used in logging, if enabled  
                   Connection realConn = conn.getRealConnection();  
                   if (log.isDebugEnabled())  
                   {  
                       log.debug("Created connection " + conn.getRealHashCode() + ".");  
                   }  
               }  
               else  
               {  
                   // Cannot create new connection 当活动连接池已满,不能创建时,取出活动连接池的第一个,即最先进入连接池的PooledConnection对象  
                   // 计算它的校验时间,如果校验时间大于连接池规定的最大校验时间,则认为它已经过期了,利用这个PoolConnection内部的realConnection重新生成一个PooledConnection  
                   //  
                   PooledConnection oldestActiveConnection = state.activeConnections.get(0);  
                   long longestCheckoutTime = oldestActiveConnection.getCheckoutTime();  
                   if (longestCheckoutTime > poolMaximumCheckoutTime)  
                   {  
                       // Can claim overdue connection  
                       state.claimedOverdueConnectionCount++;  
                       state.accumulatedCheckoutTimeOfOverdueConnections += longestCheckoutTime;  
                       state.accumulatedCheckoutTime += longestCheckoutTime;  
                       state.activeConnections.remove(oldestActiveConnection);  
                       if (!oldestActiveConnection.getRealConnection().getAutoCommit())  
                       {  
                           oldestActiveConnection.getRealConnection().rollback();  
                       }  
                       conn = new PooledConnection(oldestActiveConnection.getRealConnection(), this);  
                       oldestActiveConnection.invalidate();  
                       if (log.isDebugEnabled())  
                       {  
                           log.debug("Claimed overdue connection " + conn.getRealHashCode() + ".");  
                       }  
                   }  
                   else  
                   {  
 
                       //如果不能释放,则必须等待有  
                       // Must wait  
                       try  
                       {  
                           if (!countedWait)  
                           {  
                               state.hadToWaitCount++;  
                               countedWait = true;  
                           }  
                           if (log.isDebugEnabled())  
                           {  
                               log.debug("Waiting as long as " + poolTimeToWait + " milliseconds for connection.");  
                           }  
                           long wt = System.currentTimeMillis();  
                           state.wait(poolTimeToWait);  
                           state.accumulatedWaitTime += System.currentTimeMillis() - wt;  
                       }  
                       catch (InterruptedException e)  
                       {  
                           break;  
                       }  
                   }  
               }  
           }  
 
           //如果获取PooledConnection成功,则更新其信息  
 
           if (conn != null)  
           {  
               if (conn.isValid())  
               {  
                   if (!conn.getRealConnection().getAutoCommit())  
                   {  
                       conn.getRealConnection().rollback();  
                   }  
                   conn.setConnectionTypeCode(assembleConnectionTypeCode(dataSource.getUrl(), username, password));  
                   conn.setCheckoutTimestamp(System.currentTimeMillis());  
                   conn.setLastUsedTimestamp(System.currentTimeMillis());  
                   state.activeConnections.add(conn);  
                   state.requestCount++;  
                   state.accumulatedRequestTime += System.currentTimeMillis() - t;  
               }  
               else  
               {  
                   if (log.isDebugEnabled())  
                   {  
                       log.debug("A bad connection (" + conn.getRealHashCode() + ") was returned from the pool, getting another connection.");  
                   }  
                   state.badConnectionCount++;  
                   localBadConnectionCount++;  
                   conn = null;  
                   if (localBadConnectionCount > (poolMaximumIdleConnections + 3))  
                   {  
                       if (log.isDebugEnabled())  
                       {  
                           log.debug("PooledDataSource: Could not get a good connection to the database.");  
                       }  
                       throw new SQLException("PooledDataSource: Could not get a good connection to the database.");  
                   }  
               }  
           }  
       }  
 
   }  
 
   if (conn == null)  
   {  
       if (log.isDebugEnabled())  
       {  
           log.debug("PooledDataSource: Unknown severe error condition.  The connection pool returned a null connection.");  
       }  
       throw new SQLException("PooledDataSource: Unknown severe error condition.  The connection pool returned a null connection.");  
   }  
 
   return conn;  
} 

对应的处理流程图如下所示:

如上所示,对于PooledDataSource的getConnection()方法内,先是调用类PooledDataSource的popConnection()方法返回了一个PooledConnection对象,然后调用了PooledConnection的getProxyConnection()来返回Connection对象。

  • java.sql.Connection对象的回收

当我们的程序中使用完Connection对象时,如果不使用数据库连接池,我们一般会调用 connection.close()方法,关闭connection连接,释放资源。如下所示:

private void test() throws ClassNotFoundException, SQLException  
{  
   String sql = "select * from hr.employees where employee_id < ? and employee_id >= ?";  
   PreparedStatement st = null;  
   ResultSet rs = null;  
 
   Connection con = null;  
   Class.forName("oracle.jdbc.driver.OracleDriver");  
   try  
   {  
       con = DriverManager.getConnection("jdbc:oracle:thin:@127.0.0.1:1521:xe", "louluan", "123456");  
       st = con.prepareStatement(sql);  
       //设置参数  
       st.setInt(1, 101);  
       st.setInt(2, 0);  
       //查询,得出结果集  
       rs = st.executeQuery();  
       //取数据,省略  
       //关闭,释放资源  
       con.close();  
   }  
   catch (SQLException e)  
   {  
       con.close();  
       e.printStackTrace();  
   }  
}  

调用过close()方法的Connection对象所持有的资源会被全部释放掉,Connection对象也就不能再使用。

那么,如果我们使用了连接池,我们在用完了Connection对象时,需要将它放在连接池中,该怎样做呢

为了和一般的使用Conneciton对象的方式保持一致,我们希望当Connection使用完后,调用.close()方法,而实际上Connection资源并没有被释放,而实际上被添加到了连接池中。这样可以做到吗?答案是可以。上述的要求从另外一个角度来描述就是:能否提供一种机制,让我们知道Connection对象调用了什么方法,从而根据不同的方法自定义相应的处理机制。恰好代理机制就可以完成上述要求.

怎样实现Connection对象调用了close()方法,而实际是将其添加到连接池中

这是要使用代理模式,为真正的Connection对象创建一个代理对象,代理对象所有的方法都是调用相应的真正Connection对象的方法实现。当代理对象执行close()方法时,要特殊处理,不调用真正Connection对象的close()方法,而是将Connection对象添加到连接池中。

MyBatis的PooledDataSource的PoolState内部维护的对象是PooledConnection类型的对象,而PooledConnection则是对真正的数据库连接java.sql.Connection实例对象的包裹器。

PooledConnection对象内持有一个真正的数据库连接java.sql.Connection实例对象和一个java.sql.Connection的代理,其部分定义如下:

class PooledConnection implements InvocationHandler {  
   
    //......  
    //所创建它的datasource引用  
    private PooledDataSource dataSource;  
    //真正的Connection对象  
    private Connection realConnection;  
    //代理自己的代理Connection  
    private Connection proxyConnection;  
   
    //......  
} 

PooledConenction实现了InvocationHandler接口,并且,proxyConnection对象也是根据这个它来生成的代理对象:

public PooledConnection(Connection connection, PooledDataSource dataSource) {  
   this.hashCode = connection.hashCode();  
   this.realConnection = connection;  
   this.dataSource = dataSource;  
   this.createdTimestamp = System.currentTimeMillis();  
   this.lastUsedTimestamp = System.currentTimeMillis();  
   this.valid = true;  
   this.proxyConnection = (Connection) Proxy.newProxyInstance(Connection.class.getClassLoader(), IFACES, this);  
} 

实际上,我们调用PooledDataSource的getConnection()方法返回的就是这个proxyConnection对象。当我们调用此proxyConnection对象上的任何方法时,都会调用PooledConnection对象内invoke()方法。

让我们看一下PooledConnection类中的invoke()方法定义:

public Object invoke(Object proxy, Method method, Object[] args) throws Throwable {  
    String methodName = method.getName();  
    //当调用关闭的时候,回收此Connection到PooledDataSource中  
    if (CLOSE.hashCode() == methodName.hashCode() && CLOSE.equals(methodName)) {  
        dataSource.pushConnection(this);  
        return null;  
    } else {  
        try {  
            if (!Object.class.equals(method.getDeclaringClass())) {  
                checkConnection();  
            }  
            return method.invoke(realConnection, args);  
        } catch (Throwable t) {  
            throw ExceptionUtil.unwrapThrowable(t);  
        }  
    }  
}  

从上述代码可以看到,当我们使用了pooledDataSource.getConnection()返回的Connection对象的close()方法时,不会调用真正Connection的close()方法,而是将此Connection对象放到连接池中。

JNDI类型的数据源DataSource

对于JNDI类型的数据源DataSource的获取就比较简单,MyBatis定义了一个JndiDataSourceFactory工厂来创建通过JNDI形式生成的DataSource。下面让我们看一下JndiDataSourceFactory的关键代码:

if (properties.containsKey(INITIAL_CONTEXT) && properties.containsKey(DATA_SOURCE))  
{  
    //从JNDI上下文中找到DataSource并返回  
    Context ctx = (Context) initCtx.lookup(properties.getProperty(INITIAL_CONTEXT));  
    dataSource = (DataSource) ctx.lookup(properties.getProperty(DATA_SOURCE));  
}  
else if (properties.containsKey(DATA_SOURCE))  
{  
    //从JNDI上下文中找到DataSource并返回  
    dataSource = (DataSource) initCtx.lookup(properties.getProperty(DATA_SOURCE));  
} 

外观模式

外观模式 (Facade Pattern)
,又称为门面模式,是一种结构型设计模式,它通过为一组复杂的子系统提供一个简化的接口,使得客户端可以更容易地访问和使用这些子系统的功能。外观模式隐藏了系统的复杂性,对外提供了一个简单的接口,从而减少了外部系统与子系统之间的依赖关系,提高了系统的可维护性和可扩展性。比如,一个操作系统中有多个复杂的子系统,操作系统的
应用
与操作系统的
底层
交互便是通过
操作系统接口
来实现,应用层的开发不可能直接操作各个子系统的实现,使用外观模式实现
分层结构
,这样
隐藏复杂
的底层逻辑的同时
简化
应用层开发,大大
降低耦合度

主要结构

  • 外观 (Facade)
    :为一组复杂的子系统提供简化的接口。
  • 子系统 (Subsystem)
    :实现具体功能的复杂系统,客户端不需要直接与这些子系统交互。
  • 客户端 (Client)
    :需要使用子系统功能的外部代码或模块。

案例实现

假设我们有一个子系统涉及多个模块,比如门禁控制、灯光控制和空调控制。使用外观模式,我们可以提供一个简化的接口来控制所有这些设备。

案例类图

image

子系统类

public class DoorSystem {
    public void openDoor() {
        System.out.println("--开门...");
    }

    public void closeDoor() {
        System.out.println("--关门...");
    }
}

class LightSystem {
    public void turnOnLights() {
        System.out.println("--开灯...");
    }

    public void turnOffLights() {
        System.out.println("--关灯...");
    }
}

class ACSystem {
    public void turnOnAC() {
        System.out.println("--打开空调...");
    }

    public void turnOffAC() {
        System.out.println("--关闭空调...");
    }
}

外观类

public class SmartHomeFacade {
    private DoorSystem doorSystem;
    private LightSystem lightSystem;
    private ACSystem acSystem;

    public SmartHomeFacade() {
        this.doorSystem = new DoorSystem();
        this.lightSystem = new LightSystem();
        this.acSystem = new ACSystem();
    }

    // 提供简化接口
    public void arriveHome() {
        doorSystem.openDoor();
        lightSystem.turnOnLights();
        acSystem.turnOnAC();
    }

    public void leaveHome() {
        lightSystem.turnOffLights();
        acSystem.turnOffAC();
        doorSystem.closeDoor();
    }
}

客户端测试

public class FacadeDemo {
    public static void main(String[] args) {
        SmartHomeFacade homeFacade = new SmartHomeFacade();

        // 当到家时,外观模式简化了操作
        System.out.println("当到家时:");
        homeFacade.arriveHome();

        // 当离家时,外观模式也简化了操作
        System.out.println("当离家时:");
        homeFacade.leaveHome();
    }
}

测试结果

当到家时:

--开门...

--开灯...

--打开空调...

当离家时:

--关灯...

--关闭空调...

--关门...

简单分析

子系统类

DoorSystem

LightSystem

ACSystem
是独立的模块,它们负责具体的功能。

外观类

SmartHomeFacade
提供了一个简化的接口 (
arriveHome

leaveHome
),通过它,客户端可以简化与各个子系统的交互。

客户端代码
:客户端通过
SmartHomeFacade
调用
arriveHome

leaveHome
方法来控制门、灯和空调。

通过这种方式,外观模式将复杂的操作封装在一个简单的接口后,客户端无需了解子系统的细节,只需调用外观类提供的简化方法即可。

优缺点和应用场景

优点

  1. 简化接口
    :客户端通过外观接口与复杂的子系统进行交互,避免了直接与多个子系统打交道。
  2. 减少依赖
    :客户端只依赖外观类,减少了与复杂子系统之间的耦合度。
  3. 提高系统的灵活性
    :外观模式为系统提供了一种更简洁的方式来调用子系统,修改子系统时只需要更改外观类,而客户端无需修改。
  4. 易于使用
    :通过提供简单的接口,使得系统的使用更加直观,便于理解。

缺点

  1. 引入额外的层次
    :虽然外观模式简化了接口,但它也引入了一个额外的层次。如果系统本身已经很简单,可能就没有必要使用外观模式。
  2. 限制灵活性
    :外观模式将系统的复杂性隐藏在外部接口后,可能会限制客户端对子系统的细粒度控制。

应用场景

  • 复杂子系统的简化
    :当系统复杂,且客户端需要通过多个复杂接口进行交互时,可以使用外观模式来简化接口。
  • 集成多个子系统
    :当多个子系统协同工作时,外观模式可以为这些子系统提供一个统一的接口。
  • 需要解耦的场景
    :外观模式适用于减少客户端与子系统之间耦合度的场景。

总结

外观模式通过将复杂系统的实现细节隐藏起来,提供一个简单的接口,使得客户端代码更加简洁,降低了系统间的耦合度。这种模式非常适用于需要简化复杂子系统交互的场景。

image

需要查看往期设计模式文章的,可以在个人主页中或者文章开头的集合中查看,可关注我,持续更新中。。。


超实用的SpringAOP实战之日志记录

2023年下半年软考考试重磅消息

通过软考后却领取不到实体证书?

计算机算法设计与分析(第5版)

Java全栈学习路线、学习资源和面试题一条龙

软考证书=职称证书?

软考中级--软件设计师毫无保留的备考分享

一、背景

最近为了做微服务高可用和优化上线流程,我参与了一个微服务的改造开发。
主要包括redis切换哨兵模式、接入高可用xxljob集群、配置和升级脚本优化。

二、问题描述

项目改造提测后,测试发现一个依赖远程http调用的功能不可用

三、问题分析

查看被调用方日志发现通用Token解析错误如下图
说明调用时传入了错误的Token,查看调用方代码:
# 使用hutool工具发起远程http请求
HashMap
<String, String> headers =getHeader(modelSyncGitDto);
HttpRequest request
=HttpUtil.createRequest(Method.POST, url);
HttpResponse execute
=request
.addHeaders(headers)
.timeout(
2000)
.body(JSONUtil.toJsonStr(modelSyncGitDto))
.execute();
# 通用工具生成jwt token放入header
private HashMap<String, String>getHeader(ModelSyncGitDto modelSyncGitDto){
String userJwtToken
= JwtUtils.getJwtToken(filterConfig.getAcSecret(),null,modelSyncGitDto.getComputerUserName(),modelSyncGitDto.getOsName());
HashMap
<String, String> headers = new HashMap<>(200);
headers.put(
"Token", userJwtToken);returnheaders;
}

以上调用代码无问题,继续排查被调用方解析token的代码
# 被调用方获取token
String token
=CookieUtils.resolveCookie(request, tokenKey);if (Objects.isNull(token) ||token.isBlank()){
token
=request.getHeader(tokenKey);
}
if (Objects.isNull(token) ||token.isBlank()){
token
=request.getParameter(tokenKey);
}
return token;

发现被调用方优先从cookie获取代码,未从header获取对应Token;
调用方未设置cookie,怀疑是请求后response缓存带的。增加调用方日志查看
log.info("http请求返回,cookie={}", execute.getCookies());
请求返回后在response设置了cookie,但每次请求都是

createRequest,理论不会携带cookie。添加disableCookie验证一下:
# 创建request增加禁用cookie
HttpRequest request
=HttpUtil.createRequest(Method.POST, url);
HttpResponse execute
=request
.disableCookie()
.addHeaders(headers)
.timeout(
2000)
.body(JSONUtil.toJsonStr(modelSyncGitDto))
.execute();

发布后恢复正常,说明请求携带了cookie信息。
后期查看文档hutool的HttpUtil的确有这么一个缓存cookie的问题,参考

四、梅开二度

提交代码并告诉测试妹纸“修复好了”。测试验证的确无问题,但遭到测试妹纸的灵魂拷问:
“线上为啥没问题,这次版本不允许夹杂额外代码上线”。
的确,还是要找到问题的原因。

4.1 配置对比

通过对比线上配置,发现被调用方的common依赖引入了
server:
servlet:
session:
# session超时时间,不能小于1分钟
timeout: 481m
# 浏览器 Cookie 中 SessionID 名称
cookie:
name: Token
path:
/tracking-modes: COOKIE

以上配置指定了cookie key为Token,且过期时间为8小时;去掉被调用方以上配置,调用方请求打印cookie如下;
无server.servlet.session配置:
说明被调用方spring security默认会将Cookie设置在当前应用所在的域下放置SESSION。

4.2 二次请求

无server.servlet.session配置:
cookie中返回了SEESION和Token,初步怀疑是缓存返回导致;

4.2 日志对比

相同代码,通过对比其他环境调用方打印的日志,方向无论有无

server.servlet.session

配置,返回的response都为空

说明还是代码配置问题。

4.3 终极原因

当调用方请求被调用方时,配置的ip不是localhost、127.0.0.1、节点IP时,请求调用返回的response都不会携带cookie。
HttpUtil通过配置请求ip,cookie跨域导致cookie无法保存,也无法携带。
线上httpUtl发起的请求ip为另一台服务器nginx地址,返回的response无cookie。

五、总结

以上问题原因为2个导致:
  1. 本版本hutool的HttpUtil请求缓存了上一次请求的cookie,并在下一次携带;
  2. Spring Security 默认会将Cookie设置在当前应用所在的域下,即localhost。请求方也为localhost所在节点,由于http同源策略,导致返回的response中存在cookie。