是一种分布式管理系统,定位服务的方法
在传统架构中,应用程序之间直连到已知的服务,设备提供的网络:ip地址,基于tcp/ip:端口
由于现代微服务部署,服务的动态性,数量增加了,传统的基于ip+端口的形式已经不太适用。
服务注册以及发现:微服务的位置信息(ip+端口+健康状态)统一注册到一个中心化的服务注册表。可以允许其他服务动态的查询和发现这些服务
当一个服务启动时,会把自己的元数据(ip+端口 +服务名称 健康状态)注册到服务注册表中。这个注册表的服务(comsul,zookeeper)也可以在云平台部署。
服务发现:其他服务需要和这个服务通信时,只需要向注册表查询服务位置信息(ip+端口),这样的话可以直接在服务注册表中直接获取我要的信息,不需要到静态配置查看了
1.动态性,可以在运行时动态添加和移除服务,不需要额外的人工操作和配置
2.弹性:一旦某个服务不可用,服务注册表可以及时更新,通知其他服务避免请求的失败
3.可扩展:适应不断变化的服务数量
4.服务方调用时,透明性,前端和后端实现解耦
1、服务发现与自动注册,位置信息(ip+端口+服务名称)
2、健康检查,服务注册到consul,一并加入系统的还有他的健康状态,定期发送一个心跳检查,如果服务挂了,consul会自动移除
3.分布式锁:consul提供分布式锁的功能,协调多个节点之间的操作,防止竞争条件和数据冲突
1、每一个服务的发现和注册都是一个会话 session
创建锁:微服务在注册到consul的时候,consul会和这个服务的会话创建一个锁,锁用来标识具体的服务器,会话和锁之间的关联
获取锁:微服务2,建立会话,获取锁,如果申请的锁没有被使用,客户端成功回去,如果已经存在,表示已有其他的服务在占用,会给你分配一个新的锁(kv存储)
释放锁:任务完成或者服务断开了连接,会把锁释放,删除会话和锁之间的关系,删除与锁关联的键,实现资源的释放。
4.kv存储:key-value分布式的键值对存储系统,存储配置信息,锁,特性。应用程序可以使用consul的键值对信息来动态的获取配置信息。
5.多数据中心支持,consul可以在多个地域部署,可以数据中心之间的发现和注册功能
6.DNS和HTTP API: consul支持DNS接口,通过域名解析定位服务的位置。http apl:通过API应用接口,可以调用consul的信息,服务信息,健康检查等等
7.事件通知,如有关键信息可以随时获取通知。
conusl部署和服务发现
consul服务器:docker1 192.168.233.40 consul docker-ce nginx二进制部署 consul-template(自动发现和自动配置)
registrator服务器:docker2 192.168.233.50 运行注册机和docker容器
consul服务器:多节点docker3 192.168.66.60(加入到consul的集群中)
所有
systemctl stop firewalld
setenforce 0
docker1
cd /opt
把consul拖进去
mkdir consul
cp consul_0.9.2_linux_amd64.zip consul
cd consul
unzip consul_0.9.2_linux_amd64.zip
mv consul /usr/local/bin
cd /opt/consul
consul agent \
-server \
-bootstrap \
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.66.14 \
-client=0.0.0.0 \
-node=consul-server01 &> /var/log/consul.log &
##
consul agent 开启监听服务
-server:指定集群当中的服务器节点,consul的RAFT算法实现分布式结构中节点的一致性,集群当中的成员,直接成为集群的leader,后续加入的服务器都是followe
-bootstrap:表示该节点是引导节点,引导选举过程,以及后续加入的server做引导,加入集群
-ui 启动图形化界面
-data-dir=/var/lib/consul-data 存储数据的路径
-bind=192.168.66.14 服务端绑定的ip地址,节点当中通信
-client=0.0.0.0 客户端的地址,所有的主机都可以与server建立通信
-node=consul-server01 指定consul节点的名称,在集群当中consul节点的名称都是唯一的,不可以重复
& 重定向混合输出到consul.log
###
netstat -antp | grep consul
##
8300:raft协议的端口,保持分布式集群的一致性,端口处理复制和领导者的选举
8301:LAN Gossip的端口,局域网内部进行节点的通信和信息传播的协议
8302:Wan Gossip的端口,广域网内节点的通信和信息传播协议
8500:web ui的端口 用来访问consul的图形化界面
8600:DNS解析的端口
##
consul members
consul operator raft list-peers #查看集群信息
curl 127.0.0.1:8500/v1/status/peers #查看集群的server成员
curl 127.0.0.1:8500/v1/status/leader #查看集群的领导者
curl 127.0.0.1:8500/v1/catalog/services #查看已经被集群发现和注册服务
curl 127.0.0.1:8500/v1/catalog/nodes #查看集群节点的详细信息
consul info | grep leader
docker2?
docker run -d \
--name=registrator \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=192.168.66.20 \
consul://192.168.66.14:8500
##
-v /var/run/docker.sock:/tmp/docker.sock \
docker.sock是docker守护进程的UNIX的套接字文件,把它映射到容器当中。registrator容器可以监听dockr的所事件,并且完成自动注册服务
--ip=192.168.66.20 注册在consul的ip地址
consul://192.168.66.14:8500:所有发现的服务都会注册到指定server节点
##
docker images
docker ps
docker run -itd -p 81:80 --name test-1 -h test1 nginx
docker run -itd -p 82:80 --name test-2 -h test2 httpd
直接访问192.168.233.40:8500(如何访问时看不到nginx和http,把docker2重启几次)
curl 192.168.233.50:81
curl 192.168.233.50:82
docker1
curl 127.0.0.1:8500/v1/catalog/services
docker1:
ls
cd /opt/consul
vim nginx.ctmpl
upstream test1 {
{{ range service "nginx"}}
server {{.Address}}:{{.Port}};
{{end}}
}
server {
listen 8000;
server_name localhost 192.168.66.14;
access_log /var/log/nginx/test1-access.log;
index index.html index.php;
location / {
proxy_set_header HOST $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header Client-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://test1;
}
}
##
在这个配置当中,{{ range service "nginx"}}:test1的反向代理的方法会遍历由consul注册的所有服务名称为nginx的服务
server {{.Address}}:{{.Port}}; 将发现和注册nginx服务的ip地址和端口,添加到test1的upstream的方法当中
##
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
useradd -M -s /sbin/nologin nginx
tar zxvf nginx-1.12.0.tar.gz
cd /opt/nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make && make install
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
vim /usr/local/nginx/conf/nginx.conf
include vhost/*.conf;
mkdir /usr/local/nginx/conf/vhost
mkdir /var/log/nginx
nginx -s stop
nginx
cd /opt
把temple拖进去
unzip consul-template_0.19.3_linux_amd64.zip
mv consul-template /usr/local/bin/
consul-template --consul-addr 192.168.66.14:8500 \
--template "/opt/consul/nginx.ctmpl:/usr/local/nginx/conf/vhost/test.conf:/usr/local/nginx/sbin/nginx -s reload" \
--log-level=info
###
第一个部分
/opt/consul/nginx.ctmpl 配置文件大小的模版
第二部分
/usr/local/nginx/conf/vhost/test.conf
给模版生产的配置文件的位置
第三个部分
usr/local/nginx/sbin/nginx -s reload
只要集群中服务发送变化,可以随时更新到配置文件当中
--log-level=info 设置consul-template的日志级别为info
###
docker1
cat /usr/local/nginx/conf/vhost/test.conf
docker2
docker run -itd -p 83:80 --name test-3 -h test3 nginx
docker exec -it test-1bash
echo "this is test1 web" > /usr/share/nginx/html/index.html
docker exec -it test-3 bash
echo "this is test3 web" > /usr/share/nginx/html/index.html
http://192.168.66.14:8000/
如果访问不了人品问题,请重启docker2的服务
consul的多节点
docker3:
cd /opt
把consul
unzip consul_0.9.2_linux_amd64.zip
mv consul /usr/local/bin
consul agent \
-server \
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.66.21 \
-client=0.0.0.0 \
-node=consul-server02 \
-enable-script-checks=true \
-datacenter=dc1 \
-join 192.168.66.14 &> /var/log/consul.log &
##
-enable-script-checks=true :设置检查服务为可用
-datacenter : 数据中心名称
-join :加入到已有的集群中
##
docker2:
docker run -d \
--name=registrator1 \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=192.168.66.20 \
consul://192.168.66.21:8500
docker1
consul members
consul operator raft list-peers
docker
consul leave ##脱离进群