在大型系统的微服务化构建中,一个系统被拆分成了许多模块。这些模块负责不同的功能,组合成系统,最终可以提供丰富的功能。在这种架构中,一次请求往往要涉及到多个服务。
互联网应用构建在不同的软件模块集上,这些软件模块,有可能是有不同的团队开发,可能使用不同的编程语言来实现,有可能不在几千台服务器,横跨多个不同的数据中心,也就意味着
这架构形式胡存在如下一些问题
- 如何快速发现问题?
- 如何判断故障影响范围?
- 如何树立服务依赖以及依赖的合理性?
- 符合拆分链路性能问题以及实时容量规划?
6.2 常用的链路追踪技术 6.2.1 cat分布式链路追踪(Distributed Tracing)就是将一次分布式请求还原成调用链路,进行日志记录,性能监控并将一次分布式请求的调用情况集中展示。比如各个服务节点上的耗时、请求具体到达哪台机器上、
每个服务街店的请求状态等等
6.2.2 zipkin由大众点评开源,基于java开发的实时应用监控平台,包括实时应用监控、业务监控、集成方案是通过代码买点的方式来实现监控,比如:拦截器,过滤器等。对待吗的侵入性很大,集成成本较高。风险较大。
6.2.3 sleuth由Twitter公司开源,开发源代码分布式的跟踪系统,用于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。该产品结合spring-cloud-sleuth使用较为简单,
集成很方便,但是功能较简单。我们可以用它来手机各个服务器上请求链路的跟踪数据,并通过它提供的REST API接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题并
找出系统性能瓶颈的根源。处理面向开发的API接口外,也提供了方便的UI组件来帮助我们直观的搜索跟踪信息和分析请求链路明细。如查询某段时间内个用户请求的处理时间等。提供了可插拔数据存储方式:In-Memory、MySQL、Cassandra以及Elasticsearch
6.3 sleuth入门 6.3.1 sleuth介绍SpringCloud提供的分布式系统中链路追踪解决方案
SpringCloud sleuth主要功能就是在分布式系统中提供追踪解决方案。它大量借用了Google Dapper的设计,有如下相关术语:
- Trace
由一组TraceId相同的Span串联形成的一个树状结构为了实现请求跟踪,当请求到达分布式系统的入口端点时,只需要跟踪框架为该请求创建的一个唯一标识(TraceId).同时在分布式系统内部流转时,框架
始终保持传递该唯一值,知道整个请求的返回,那么我们就可以使用该唯一标识将所有请求串联起来,形成一条完整的请求链路
- Span
代表一组基本的工作单元。为了统计各处理单元的延迟,当请求到达各个微服务组件的时候,也通过一个唯一表示(SpanId)来标识它的开始、具体过程和结束。通过SpanId的开始和结束时间戳,酒桶统计该span的调用时间。
除此外还可以获取如事件的名称、请求信息等元数据
- Annotation
用它记录一段时间内的时间,内部使用的重要注释
- cs(Client Send): 客户端发出请求
- sr(Server Received): 服务端接收到请求开始进行处理,sr-cs=网络延迟(服务调用的时间)
- ss(Server Send): 服务端处理完毕准备发送到客户端,ss-sr=服务器上的请求处理时间
- cr(Client Received) 客户端接收到服务端的响应,请求结束。cr-sr=请求的总时间
- 父工程中添加依赖
org.springframework.cloud
spring-cloud-starter-sleuth
2.2.1.RELEASE
- 启动微服务,调用后再控制台查看sleuth的日志输出
上图展示了Zipkin的基础架构,主要由四个核心组件构成
- Collector: 收集器组件,主要用于处理从外部系统发送过来的跟踪信息,将这些信息转换为ZipKin内部处理的Span格式。以支持后续的存储、分析、展示等功能
- Storage: 存储组件,主要对处理收集器收到的跟踪信息,默认会将这些信息存储在内存中,我们也可以修改此存储策略,通过使用其他存储组件将跟踪信息存储到数据库中。
- RESTFul API: API组件,主要用来给外部提供访问接口。如给客户端展示跟踪信息,或是外界系统访问以实现监控等
- Web UI: 基于API组件实现的上层应用。通过UI组件用户可以方便而又直观地查询好分析跟踪信息
6.4.2 ZipKin服务端安装ZipKin分为两段,一个是ZipKin服务端,一个是客户端,客户端也就是微服务的应用。客户端会配置服务端的URL地址,一旦发生服务间的调用时,会被配置在微服务里的Sleuth的监听器监听,并生成相应的Trace和Span信息发给服务端
-
下载ZipKin的jar包
下载ZipKin.jar -
通过命令行,输入一下命令启动ZipKin Server
java -jar zipkin-server-2.23.16-exec.jar
- 打开浏览器,访问localhost:9411
ZipKin客户端和Sleuth的集成非常简单,只需要在微服务中添加其依赖和配置即可。
- 在父工程中添加依赖
org.springframework.cloud
spring-cloud-starter-zipkin
2.2.1.RELEASE
- 在每个微服务的
application.yml
中添加配置
spring:
zipkin:
base-url: http://localhost:9411/ # zipkin server的请求地址
discovery-client-enabled: false # 让nacos把他当成URL,而不是服务名
sleuth:
sampler:
probability: 1.0 # 采样百分比
- 访问微服务后再查看webUI
6.5.1 使用MySQL实现数据持久化Zipkin Server默认会将追踪数据信息保存到内存中,一旦服务重启后信息会丢失,因此并不适用于生产环境。ZipKin支持将追踪数据持久化到MySQL或elasticsearch中
- 创建MySQL表
CREATE TABLE IF NOT EXISTS zipkin_spans
(
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL,
`id` BIGINT NOT NULL,
`name` VARCHAR(255) NOT NULL,
`remote_service_name` VARCHAR(255),
`parent_id` BIGINT,
`debug` BIT(1),
`start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL',
`duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query',
PRIMARY KEY (`trace_id_high`, `trace_id`, `id`)
) ENGINE = InnoDB
ROW_FORMAT = COMPRESSED
CHARACTER SET = utf8
COLLATE utf8_general_ci;
ALTER TABLE zipkin_spans
ADD INDEX (`trace_id_high`, `trace_id`) COMMENT 'for getTracesByIds';
ALTER TABLE zipkin_spans
ADD INDEX (`name`) COMMENT 'for getTraces and getSpanNames';
ALTER TABLE zipkin_spans
ADD INDEX (`remote_service_name`) COMMENT 'for getTraces and getRemoteServiceNames';
ALTER TABLE zipkin_spans
ADD INDEX (`start_ts`) COMMENT 'for getTraces ordering and range';
CREATE TABLE IF NOT EXISTS zipkin_annotations
(
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id',
`span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id',
`a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or Annotation.value if type == -1',
`a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller than 64KB',
`a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if Annotation',
`a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp',
`endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is null',
`endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint is null, or no IPv6 address',
`endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null',
`endpoint_service_name` VARCHAR(255) COMMENT 'Null when Binary/Annotation.endpoint is null'
) ENGINE = InnoDB
ROW_FORMAT = COMPRESSED
CHARACTER SET = utf8
COLLATE utf8_general_ci;
ALTER TABLE zipkin_annotations
ADD UNIQUE KEY (`trace_id_high`, `trace_id`, `span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate';
ALTER TABLE zipkin_annotations
ADD INDEX (`trace_id_high`, `trace_id`, `span_id`) COMMENT 'for joining with zipkin_spans';
ALTER TABLE zipkin_annotations
ADD INDEX (`trace_id_high`, `trace_id`) COMMENT 'for getTraces/ByIds';
ALTER TABLE zipkin_annotations
ADD INDEX (`endpoint_service_name`) COMMENT 'for getTraces and getServiceNames';
ALTER TABLE zipkin_annotations
ADD INDEX (`a_type`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations
ADD INDEX (`a_key`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations
ADD INDEX (`trace_id`, `span_id`, `a_key`) COMMENT 'for dependencies job';
CREATE TABLE IF NOT EXISTS zipkin_dependencies
(
`day` DATE NOT NULL,
`parent` VARCHAR(255) NOT NULL,
`child` VARCHAR(255) NOT NULL,
`call_count` BIGINT,
`error_count` BIGINT,
PRIMARY KEY (`day`, `parent`, `child`)
) ENGINE = InnoDB
ROW_FORMAT = COMPRESSED
CHARACTER SET = utf8
COLLATE utf8_general_ci;
- 在启动ZipKin Server的时候,指定数据保存到MySQL的信息
6.5.2 使用elasticsearch实现数据持久化java -jar zipkin-server-2.23.16-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_DB=spring-cloud-alibaba --MYSQL_USER=root --MYSQL_PASS=123456
-
下载elasticsearch
下载地址 -
进入下载目录的bin,启动es
-
启动zipkin server是指定数据保存的elasticsearch信息
java -jar zipkin-server-2.23.16-exec.jar --STORAGE_TYPE=elasticsearch --ES_HOST=localhost:9200
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)