版本说明
| 组件 | 版本 | 说明 | 
|---|---|---|
| zipkin | 2.12.9 | |
| rabbitmq | 3.7.15 | |
| erl | 10.4 | rabbitmq依赖 | 
| elasticsearch | 6.5.3 | 使用7.x会与zipkin冲突 | 
| kibana | 6.5.3 | 使用7.x会与zipkin冲突 | 
| logstash | 6.5.3 | 使用7.x会与zipkin冲突 | 
简介
Spring Cloud Sleuth 为服务之间调用提供链路追踪。了解到一个服务请求经过了哪些服务,每个服务处理花费了多长。从而让我们理清各微服务间的调用关系。
功能:
- 耗时分析: 获得每个采样(链路追踪可以不展示全部)请求的耗时;
- 可视化错误: 对于程序未捕捉的异常,可以通过集成 Zipkin 服务界面上看到;
- 链路优化: 对于调用比较频繁的服务,可以针对这些服务实施一些优化措施。
术语
- Span:基本工作单元,发送一个远程调度任务就会产生一个Span,Span是用一个64位ID唯一标识的,Trace是用另一个64位ID唯一标识的。Span还包含了其他的信息,例如摘要、时间戳事件、Span的ID以及进程ID。
- Trace:由一系列Span组成的,呈树状结构。请求一个微服务系统的API接口,这个API接口需要调用多个微服务单元,调用每个微服务单元都会产生一个新的Span,所有由这个请求产生的Span组成了这个Trace。
- Annotation:用于记录一个事件,定义一个请求的开始和结束,如下:- cs (Client Sent):客户端发送一个请求,描述Span的开始。
- sr (Server Received):服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳,便可得到网络传输的时间。
- ss (Server Sent):服务端发送响应,该注解表明请求处理的完成(当请求返回客户端),用ss的时间戳减去sr时间戳,便可以得到服务器请求的时间。
- cr (Client Received):客户端接收响应,此时Span结束,如果cr的时间戳减去cs时间戳,便可以得到整个请求所消耗的时间。
 
Zipkin
Zipkin是一种分布式链路追踪系统。 收集链路中的数据,并且可以以界面的形式展现。
Zipkin UI还提供了一个依赖关系图,显示了每个应用程序通过的跟踪请求数。
zipkin已经不再支持开发者自己开发zipkin server,而是以一个jar包启动。
下载jar包
| 1 | curl -sSL https://zipkin.io/quickstart.sh | bash -s | 
或者https://search.maven.org/remote_content?g=io.zipkin.java&a=zipkin-server&v=LATEST&c=exec
或者pull docker镜像1
docker pull zipkin
示例
启动zipkin
| 1 | java -jar zipkin.jar | 
默认端口为9411
依赖
所有的服务相对于zipkin server 都是client,因此所有的服务都需要以下依赖
| 1 | <dependency> | 
配置文件
增加以下内容1
2
3
4
5
6
7
8
9
10
11
12spring:
  #链路追踪
  sleuth:
    web:
      client:
        enabled: true
    # 采样比例,默认是0.1,最大为1,表示采集数据的比例
    sampler:
      probability: 1.0
#zipkin的地址
  zipkin:
    base-url: http://localhost:9411/
验证
代码不需要任何改动。
确保启动了consul,zipkin
在浏览器中输入http://localhost:9411
调用服务,可以在浏览器中搜索服务,获得链路追踪后的详细信息;还可以观察每一个服务的依赖关系。

使用rabbitmq进行链路数据传输(可选)
1 . 下载,安装,启动rabbitmq;在浏览器中输入http://localhost:15672检查是否成功
2 . 启动zipkin
zipkin启动需要读取一些环境变量来配置自己。
| 属性 | 环境变量 | 描述 | 
|---|---|---|
| zipkin.collector.rabbitmq.addressed | RABBIT_ADDRESSES | 用逗号分隔的 RabbitMQ 地址列表,例如localhost:5672,localhost:5673 | 
| zipkin.collector.rabbitmq.password | RABBIT_PASSWORD | 连接到 RabbitMQ 时使用的密码,默认为 guest | 
| zipkin.collector.rabbitmq.username | RABBIT_USER | 连接到 RabbitMQ 时使用的用户名,默认为guest | 
| zipkin.collector.rabbitmq.virtual-host | RABBIT_VIRTUAL_HOST | 使用的 RabbitMQ virtual host,默认为 / | 
| zipkin.collector.rabbitmq.use-ssl | RABBIT_USE_SSL | 设置为true则用 SSL 的方式与 RabbitMQ 建立链接 | 
| zipkin.collector.rabbitmq.concurrency | RABBIT_CONCURRENCY | 并发消费者数量,默认为1 | 
| zipkin.collector.rabbitmq.connection-timeout | RABBIT_CONNECTION_TIMEOUT | 建立连接时的超时时间,默认为 60000毫秒,即 1 分钟 | 
| zipkin.collector.rabbitmq.queue | RABBIT_QUEUE | 从中获取 span 信息的队列,默认为 zipkin | 
最好使用环境变量,在java命令中直接设置属性值会失效
| 1 | set RABBIT_ADDRESSES=localhost | 
在浏览器中输入http://localhost:9411/zipkin/检查是否成功
3 . 引入依赖1
2
3
4<dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-stream-binder-rabbit</artifactId>
</dependency>
4 . 修改配置文件1
2
3
4
5
6
7
8
9
10
11
12spring:
# 使用rabbitmq后去掉
#  zipkin:
#    base-url: http://localhost:9411/
  zipkin:
    sender:
      type: rabbit
  rabbitmq:
    host: localhost
    username: guest
    password: guest
    port: 5672
注释 base-url,添加rabbitmq的配置
日志收集(可选)
Elasticsearch+Kibana+Logstash
Logstash(收集服务器上的日志文件) –>然后保存到 ElasticSearch(搜索引擎) –>Kibana提供友好的web界面(从ElasticSearch读取数据进行展示)
1 .下载Elasticsearch和Kibana,Logstash,解压
2 .启动elasticsearch.bat,kibana.bat
3 .配置Logstash并启动
在logstash安装目录/bin下新建文件logstash.conf,内容如下1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
input {
  beats {
    port => 5044
  }
}
filter {
       # pattern matching logback pattern
       grok {
              match => { "message" => "%{TIMESTAMP_ISO8601:timestamp}\s+%{LOGLEVEL:severity}\s+\[%{DATA:service},%{DATA:trace},%{DATA:span},%{DATA:exportable}\]\s+%{DATA:pid}\s+---\s+\[%{DATA:thread}\]\s+%{DATA:class}\s+:\s+%{GREEDYDATA:rest}" }
       }
}
output {
  elasticsearch {
    hosts => ["http://localhost:9200"]
    #index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    index => "zipkin-%{+YYYY.MM.dd}"
	#user => "elastic"
    #password => "changeme"
  }
}
启动logstash:logstash -f logstash.conf
4 .添加依赖1
2
3
4
5
6
7
8
9
10
11<!--日志-->
<dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-core</artifactId>
    <version>1.2.3</version>
</dependency>
<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>4.11</version>
</dependency>
5 .配置服务logback-spring.xml,以json格式将日志输出到文件,在项目目录/bulid下
| 1 | 
 | 
6 .启动consul,rabbitmq,Elasticsearch,Kibana,各个服务
7 .启动zipkin1
2
3
4
5
6set RABBIT_ADDRESSES=localhost
set STORAGE_TYPE=elasticsearch
set ES_HOSTS=http://localhost:9200
set ES_INDEX=zipkin
set path=%path%;RABBIT_ADDRESSES;STORAGE_TYPE;ES_HOSTS;ES_INDEX
java -jar zipkin.jar
8 .测试访问http://localhost:9411/zipkin/
9 .将数据通过kibana展示 
- kibana默认端口是5601,在浏览器中输入http://localhost:5601
- 单击“Management”按钮,然后单击“Add New”,添加一个index。ElasticSearch中写入链路数据的index配置为“zipkin”,那么在界面填写为“zipkin*”,单击“Create”按钮。

- 点击Discover按钮查看数据

