对于运维小伙伴来讲,Ansible并不陌生,配置简单,上手容易,只要掌握几个基本的模块就可以解决好多运维中重复的事,但是对于处理更为高级的功能和更大、更复杂的项目时,管理和维护Ansible Playbook
或高效使用将变得更加困难。
下面的的playbook
是一个k8s安装环境
初始化的剧本,其实现方式简单,是在k8s集群中所有节点都需要做的一些处理,实现如下功能
firewall
,selinux
,配置hosts
swap
yum
源docker-ce
,导入缺少的镜像,配置docker
加速kubelet、kubeadm、kubectl
kubelet服务
- name: init k8s
hosts: all
tasks:
# 关闭防火墙
- shell: firewall-cmd --set-default-zone=trusted
# 关闭selinux
- shell: getenforce
register: out
- debug: msg="{{out}}"
- shell: setenforce 0
when: out.stdout != "Disabled"
- replace:
path: /etc/selinux/config
regexp: "SELINUX=enforcing"
replace: "SELINUX=disabled"
- shell: cat /etc/selinux/config
register: out
- debug: msg="{{out}}"
- copy:
src: ./hosts
dest: /etc/hosts
force: yes
# 关闭交换分区
- shell: swapoff -a
- shell: sed -i '/swap/d' /etc/fstab
- shell: cat /etc/fstab
register: out
- debug: msg="{{out}}"
# 配置yum源
- shell: tar -cvf /etc/yum.tar /etc/yum.repos.d/
- shell: rm -rf /etc/yum.repos.d/*
- shell: wget ftp://ftp.rhce.cc/k8s/* -P /etc/yum.repos.d/
# 安装docker-ce
- yum:
name: docker-ce
state: present
# 配置docker加速
- shell: mkdir /etc/docker
- copy:
src: ./daemon.json
dest: /etc/docker/daemon.json
- shell: systemctl daemon-reload
- shell: systemctl restart docker
# 配置属性,安装k8s相关包
- copy:
src: ./k8s.conf
dest: /etc/sysctl.d/k8s.conf
- shell: yum install -y kubelet-1.21.1-0 kubeadm-1.21.1-0 kubectl-1.21.1-0 --disableexcludes=kubernetes
# 缺少镜像导入
- copy:
src: ./coredns-1.21.tar
dest: /root/coredns-1.21.tar
- shell: docker load -i /root/coredns-1.21.tar
# 启动服务
- shell: systemctl restart kubelet
- shell: systemctl enable kubelet
如果搭建的集群节点很多,那么使用ansible
要方便很多,但是上面的剧本没有使用角色,所有的操作都耦合在一起,所以看起来不是特别清晰,可读性差,而且一些可变的变量也没有抽离出来。复用性差,也没有考虑失败回滚的问题,大部分的操作是通过shell模块来完成的,尤其是对一些文件的操作,shell模块不满足幂等性。
高效的使用Ansible
不仅仅在于功能或工具的使用,对于实践方法和项目组织
更重要,对于剧本的编写规范,有以下三点:
保持简单
井然有序
经常测试
Ansible?
的一大优势是简洁性。使用playbook
保持简单,我们就能更加轻松地使用、修改和理解它们。
playbook
有恰当注释且易于阅读。合理地使用垂直空白和注释。play
和任务提供有意义的名称,明确play
或任务的用途。YAML?
它非常适合表述?系列的字典和数组。Ansible Playbook?
中表述?些复杂的控制结构或条件
,可以通过模板
和Jinja2
过滤器巧妙地处理变量中的数据。?YAML
?语法,而不是“折叠”的语法,以下示例不是推荐
的格式:- hosts: node1,node2
tasks:
- yum: name=httpd state=present
- copy: content="RHCE Test" dest=/var/www/html/index.html force=yes
- service: name=httpd state=restarted enabled=yes
- service: name=firewalld state=restarted enabled=yes
- firewalld: service=http state=enabled permanent=yes immediate=yes
playbook
时,从基础playbook
开始,并尽可能使用静态清单
。debug?
模块用作测试或存根。playbook
按预期工作后,使用import
或include
将playbook
分成较小的逻辑组件。Ansible
中包含的特殊用途模块,而不是command、shell、raw
这样的通用模块。使用为特定任务设计的模块
可以轻松地使?Playbook 具有幂等性
,且易于维护。编写Ansible
项目时,应考虑和同时遵循标准的样式:遵循统一的标准有助于提高可维护性和可读性。
垂直空白
Ansible
项目的组织和Playbook
的运行方式有助于维护、故障排除和审计
。
因为 Ansible 具有相对扁平的命令空间
,所以变量名非常重要。应使用描述性变量且应阐明内容,如?apache_tls_port
?,在角色中给最好能给角色变量添加前缀,如myapp_apache_tls_port
?。
在文件系统上构建 Ansible 项目时,请使用统一的模式,推荐的示例:在这里插入图片描述
Playbook
?结构的一大优势在于,可以将较?的playbook
分成较小的?件,使其更易阅读,而较小的子playbook?
可能会包含可以独立运行的、适合特定用途的?play
。
?
动态清单支持从?个真实的中央来源集中管理主机和组
,并确保清单自动更新。动态清单一般与云提供商、容器和虚拟机管理系统结合使用。
如果无法使用动态清单
,则其它工具可以动态构建组或其他信息。group_by?
模块根据事实动态生成组成员资格,该组成员资格对?playbook?
的其余部分有效。
# Create nested groups
- group_by:
key: el{{ ansible_distribution_major_version }}-{{ ansible_architecture }}
parents:
- el{{ ansible_distribution_major_version }}
TASK [group_by] ****************************************************************************************************
task path: /root/ansible/group_by.yaml:5
[WARNING]: Invalid characters were found in group names but not replaced, use -vvvv to see details
changed: [192.168.26.82] => {
"add_group": "el7-x86_64",
"changed": true,
"parent_groups": [
"el7"
]
}
changed: [192.168.26.81] => {
"add_group": "el7-x86_64",
"changed": true,
"parent_groups": [
"el7"
]
}
主机可以是多个组的成员,可以按以下特征将主机划分不同的种类:
playbook
?保持简单,能够通过重复利用项目间的通用代码来减少工作量。变量
使角色成为可配置的通同角色
,以便在将它们用于?组不同的playbook
时无需对其进行编辑。ansible-galaxy init
命令来初始化角色的目录结构。redhat-system-roles?
软件提供的角色受到官方支持。Ansible Galaxy?
提供的角色,但是注意其质量和安全。roles
子目录中。使用一个专用的控制节点
来控制对系统的访问和审计 Ansible 活动,让所有的 Ansible Playbook 都从上面运行。
系统管理员仍应在系统上拥有自己的账户,以及用于连接受管主机的凭据,并在需要时可以进行权限提升。当系统管理员离职时,因从受管主机的authorized_keys
文件中删除其 SSH 密钥,同时撤销其 sudo 权限。也可以考虑使用红帽 Ansible Tower 作为中央控制节点。
在开发过程中、任务运行时以及Playbook
投入使用后,应经常测试?Playbook 和 task
如果需要确认任务是否成功,请验证任务的结果,而不要信任模块的返回代码
- start web server
service:
name: httpd
status: started
- name: Check web site from web server
uri:
ur1: http://{{ ansible_fqdn}}
return_content: yes
register: example_webpage
failed_when: example_webpage. status !=200
block 指令
可用于对任务进行分组,与?rescue 指令
结合使用时,可帮助从错误和故障中恢复。
---
- name: block test
hosts: node1
tasks:
- block:
- debug: msg="vg myvg not found" #提示卷组没找到
- debug: msg="create vg myvg .. .." #做其他操作(比如创建这个卷组...)
when: ('myvg' not in ansible_lvm.vgs) #当卷组myvg不存在时
rescue:
- debug: msg="creating failed .. .." #block失败时提示创建卷组失败
always:
- shell: vgscan #列出卷组信息
register: list #保存到名为list的变量
- debug: msg={{list.stdout_lines}} #提示卷组扫描结果
即使不在?产中使用最新版本的?Ansible
,也应该定期针对 Ansible 的最新版本测试 playbook。这将避免在Ansible 模块和功能不断演变时出现的问题。
如果 playbook 在运行时显示警告或弃用消息,应注意它们并做出相应的调整。通常,Ansible 中的某?功能已弃用或有变化,则该项目会在删除或更改功能之前提早四个小版本提供弃用通知。
使用?ansible-playbook --syntax-check
?命令进行语法检测
。
┌──[root@vms81.liruilongs.github.io]-[~/ansible]
└─$ansible-playbook group_by.yaml --syntax-check
playbook: group_by.yaml
┌──[root@vms81.liruilongs.github.io]-[~/ansible]
└─$echo 22 >> group_by.yaml
┌──[root@vms81.liruilongs.github.io]-[~/ansible]
└─$ansible-playbook group_by.yaml --syntax-check
ERROR! We were unable to read either as JSON nor YAML, these are the errors we got from each:
JSON: No JSON object could be decoded
Syntax Error while loading YAML.
could not find expected ':'
The error appears to be in '/root/ansible/group_by.yaml': line 11, column 1, but may
be elsewhere in the file depending on the exact syntax problem.
The offending line appears to be:
22
^ here
使用?ansible-playbook --check
?命令,检查模式,针对check_mode
中的实际受管主机运行 Playbook(不会改变主机状态)
,以查看Playbook
执行的更改。此项检查不能保证完全准确性
,因为 playbook 可能需要实际运行?些任务,playbook 中的后续任务才能正常运行。可能有?些标记有check_mode: no
指令的任务。这些任务即使在检查模式中也会运行。
tasks:
- name: This task will always make changes to the system
ansible.builtin.command: /something/to/run --even-in-check-mode
check_mode: no
- name: This task will never make changes to the system
ansible.builtin.lineinfile:
line: "important config"
dest: /path/to/myconfig.conf
state: present
check_mode: yes
register: changes_to_important_config
下面我们来看一个完整的Demo,这个Demo做的事很简单,但是剧本编写清晰,在三台机器部署一个web服务,其中一台机器用haproxy作为负载,剩下的两台机器提供web能力(安装http服务并部署APP),剧本中创建了四个角色,用于描述四种行为:
编写一个ansible.cfg?
配置文件,这个不多讲,指定主机清单文件位置和ssh用户,配置sudo 提权方式。
[defaults]
inventory=inventory
remote_user=devops
[privilege_escalation]
become=True
become_method=sudo
become_user=root
become_ask_pass=False
inventory?
主机清单文件,定义两个分组,
servera
serverb和serverc
[lb_servers]
servera.lab.example.com
[web_servers]
server[b:c].lab.example.com
site.yml
为定义的实际执行的主剧本,这里通过,这里通过import_playbook
模块来引入一个外部的调用角色的模块。一般情况下,当一个playbook
很长很复杂,可以通过对剧本进行拆分。通过模块化的方式将多个playbook组合为一个完整的playbook
,或者把文件中的任务列表插入到play
中.
嗯,简单介绍下,ansible 可以使用两种方式实现剧本的模块化:
包含内容
:动态操作(include_task
),在playbook运行期间,Ansible会在内容到达时处理包含的内容导入内容
: 静态包含(import_task
,import_playbook
),在playbook运行之前,Ansible在最初解析的时候预处理导入的内容和Java web体系中的Jsp脚本有些类似,通过include指令和include动作引入文件
我们可以看到,site.yml
执行的三个剧本都是通过导入的方式。
- name: Deploy HAProxy
import_playbook: deploy_haproxy.yml
- name: Deploy Web Server
import_playbook: deploy_apache.yml
- name: Deploy Web App
import_playbook: deploy_webapp.yml
执行顺序为,创建LB、创建web Serve,部署 web app,这里把剧本行为抽象为角色,然后在deploy_*里面调用角色,实现了行为和剧本的解耦。
看一下导入的执行角色的剧本deploy_haproxy.yml
- name: Ensure HAProxy is deployed
hosts: lb_servers
force_handlers: True
roles:
# The "haproxy" role has a dependency
# on the "firewall" role. The
# "firewall" role requires a
# "firewall_rules" variable be defined.
- role: haproxy
firewall_rules:
# Allow 80/tcp connections
- port: 80/tcp
通过剧本执行LB角色,并且定义·变量firewall_rules
,声明开放的端口协议,这里有一个force_handlers
,我们看一下,剧本中handlers用于任务处理(布雷),可以设置一个或一块任务,但是他不会主动执行,需要通过notify通知触发
(引爆),还有一些需要注意的点:
handlers
任务只会执行一次,即使收到多个任务的触发通知handlers
组的每一个任务都要设置名称(name)handlers
的层次与tasks平级notify语句
通知handlers任务名
notify
的任务的执行状态为changed
时,handlers
任务才会被执行看一个Demo
---
- name: handlers test
hosts: node5
tasks:
- lvol: lv=vo001 size=100M vg=search #创建逻辑卷vo001
notify: mkfs #如果changed则通知格式化(否则无需格式化)
handlers:
- name: mkfs #定义格式化操作处理
filesystem: dev=/dev/search/vo001 fstype=xfs force=yes
...
那么这里的force_handlers
即强制执行的意思,当触发他的通知对应的任务执行失败,但是handlers
任然会执行,
deploy_apache.yml
- name: Ensure Apache is deployed
hosts: web_servers
force_handlers: True
roles:
# The "apache" role has a dependency
# on the "firewall" role. The
# "firewall" role requires a
# "firewall_rules" variable be defined.
- role: apache
firewall_rules:
# Allow http requests from any
# internal zone source.
- zone: internal
service: http
# Add servera, the load balancer,
# to the internal zone.
- zone: internal
source: "172.25.250.10"
deploy_webapp.yml
- name: Ensure Web App is deployed
hosts: web_servers
vars:
- webapp_version: v1.0
roles:
- role: webapp
这里需要说明下,vars
定义的变量属于剧本变量,而在roles
下面的变量为角色变量
我们来看一下角色,一共有四个角色,其中三个在上面的deplay_*.yaml?
文件中被调用,firewall角色
被apache和haproxy
依赖调用
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles]
└─$ls
apache firewall haproxy webapp
关于角色这里我们简单的回顾下
ansible?
中的role
指的是,为了方便复杂任务(包含大批量任务操作、模板、变量等资源)的重复使用,降低playbook剧本编写难度,而预先定义好的一套目录结构。
针对每一个角色,ansible
会到固定的目录去调取特定的数据,关于角色在剧本中的使用,可以看看上面?deplay_*.yaml
角色内一般不指定hosts: 清单主机列表
,而是交给调用此角色的剧本来指定,当然测试除外,具体看下
haproxy 角色 在剧本中负责LB 相关行为,简单看一下目录结构
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles]
└─$cd haproxy/ #角色根目录
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$tree
.
├── defaults #定义变量的缺省值,优先级较低
│ └── main.yml
├── handlers #定义handlers处理任务
│ └── main.yml
├── meta #定义作者、版本、兼容性、依赖项等描述信息
│ └── main.yml
├── tasks #任务入口,最主要的文件
│ └── main.yml
├── templates #存放模板文件
│ └── haproxy.cfg.j2
└── tests # 用于角色测试
├── inventory
└── test.yml
6 directories, 7 files
当然,这里的角色目录并不是最全的,正常的角色中还会有vars
目录用于定义变量,相对于defaults
优先级更高,files
目录存放一些静态文件,README.md
文件用于描述自述信息,我们通过init命令
生成一个角色看一下目录
┌──[root@vms81.liruilongs.github.io]-[~/ansible/roles]
└─$ansible-galaxy init demo
- Role demo was created successfully
┌──[root@vms81.liruilongs.github.io]-[~/ansible/roles]
└─$ls
demo
┌──[root@vms81.liruilongs.github.io]-[~/ansible/roles]
└─$tree
.
└── demo
├── defaults
│ └── main.yml
├── files
├── handlers
│ └── main.yml
├── meta
│ └── main.yml
├── README.md
├── tasks
│ └── main.yml
├── templates
├── tests
│ ├── inventory
│ └── test.yml
└── vars
└── main.yml
9 directories, 8 files
┌──[root@vms81.liruilongs.github.io]-[~/ansible/roles]
└─$
嗯,回到我们的haproxy
来看一下?defaults
目录下的yaml文件
用于定义一些缺省的变量。
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat defaults/main.yml
# Log-level for HAProxy logs
log_level: info
# Port exposed to clients
port: 80
# Name for the default backend
backend_name: app
# Port backend is exposed to
backend_port: 80
# The appservers variable is a list
# of backend servers that provide
# the web service that is proxied
# haproxy. Each server must define:
# name, address, port. Below is
# and example structure:
# appservers:
# - name: serverb.lab.example.com
# ip_address: 1.2.3.4
# port: 5000
# - name: serverc.lab.example.com
# ip_address: 1.2.3.5
# port: 5000
# The default is no defined backend servers.
appservers: []
# Socket used to communicate with haproxy service. DO NOT CHANGE
socket: /var/run/haproxy.sock
handlers这个目录用于定义需要处理被激活的任务。这里定义了两个任务,都用到了Service模块
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat handlers/main.yml
---
# handlers file for haproxy
- name: restart haproxy
service:
name: haproxy
state: restarted
- name: reload haproxy
service:
name: haproxy
state: reloaded
看下meth元数据,作者信息,版本,以及通过dependencies
我们可以看到该角色依赖角色firewall
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat meta/main.yml
galaxy_info:
author: Ophelia Dunham
description: A role to ensure deployment of HAProxy
company: Example, Inc.
。。。。
license: license (GPLv2, CC-BY, etc)
min_ansible_version: 2.4
。。。。
galaxy_tags: []
。。
dependencies:
- name: firewall
这里我们简单聊聊角色依赖,角色依赖可以在使用角色时自动拉入其他角色。Ansible 执行角色依赖项,则必须使用关键字dependencies
在mate
文件夹下的main.yaml
中声明在指定角色之前插入的角色和参数列表
,我们这里的参数是定义在deploy_*.yaml
「主任务剧本」
haproxy
和反向代理工具socat
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat tasks/main.yml
---
# tasks file for haproxy
- name: Ensure haproxy packages are present
yum:
name:
- haproxy
- socat
state: present
- name: Ensure haproxy is started and enabled
service:
name: haproxy
state: started
enabled: yes
- name: Ensure haproxy configuration is set
template:
src: haproxy.cfg.j2
dest: /etc/haproxy/haproxy.cfg
#validate: haproxy -f %s -c -q
notify: reload haproxy
模板文件编写,这里用到了jieja2模板引擎
,在一般的python web
项目中用的比较多一点,这里简单的理解为变量替换。
haproxy.cfg.j2
模板里用到了我们之前定义的大量变量,包括default目录的下main.yaml中定义的变量,以及appservers.yaml
中的变量。
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat templates/haproxy.cfg.j2
#---------------------------------------------------------------------
# Global settings
#---------------------------------------------------------------------
global
#Send events/messages to rsyslog server.
log 127.0.0.1:514 local0 {{ log_level }}
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon
#state changes due to API calls are stored in this file.
server-state-file /usr/local/haproxy/haproxy.state
# turn on stats unix socket
# required for the ansible haproxy module.
stats socket {{ socket }} level admin
# utilize system-wide crypto-policies
ssl-default-bind-ciphers PROFILE=SYSTEM
ssl-default-server-ciphers PROFILE=SYSTEM
#---------------------------------------------------------------------
# common defaults that all the 'listen' and 'backend' sections will
# use if not designated in their block
#---------------------------------------------------------------------
defaults
mode http
log global
option httplog
option dontlognull
option http-server-close
option forwardfor except 127.0.0.0/8
option redispatch
retries 3
timeout http-request 10s
timeout queue 1m
timeout connect 10s
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 3000
#Loads state changes from the state file.
load-server-state-from-file global
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend main
mode http
bind *:{{ port }}
default_backend {{ backend_name }}
#---------------------------------------------------------------------
# round robin balancing between the various backends
#---------------------------------------------------------------------
backend {{ backend_name }}
balance roundrobin
{% for server in appservers %}
server {{ server.name }} {{ server.ip }}:{{ backend_port }}
{% endfor %}
appservers?
清单变量用于定义需要负载的机器域名和ip。这里为了角色的复用性,单独分离出来。
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices]
└─$cat appservers.yml
appservers:
- name: serverb.lab.example.com
ip: "172.25.250.11"
- name: serverc.lab.example.com
ip: "172.25.250.12"
剩下的就是测试相关的yaml文件,不多介绍,remote_user
指定连接受管机的远程用户名
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat tests/inventory
localhost
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/haproxy]
└─$cat tests/test.yml
---
- hosts: localhost
remote_user: root
roles:
- haproxy
apache 角色用于提供http 服务,目录结构相对简单
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles]
└─$cd apache/
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/apache]
└─$tree
.
├── meta
│ └── main.yml
├── tasks
│ └── main.yml
└── tests
├── inventory
└── test.yml
3 directories, 4 files
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/apache]
└─$
meta
?文件夹我们这里不多介绍了,涉及防火墙操作,所以依赖firewall角色,看一下主任务剧本
httpd_can_network_connect?
访问网络┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/apache]
└─$cat tasks/main.yml
---
# tasks file for apache
- name: Install http
yum:
name:
- httpd
- php
- git
- php-mysqlnd
state: present
- name: Configure SELinux to allow httpd to connect to remote database
seboolean:
name: httpd_can_network_connect_db
state: true
persistent: yes
- name: http service state
service:
name: httpd
state: started
enabled: yes
webapp角色用于部署web 项目到httpd服务,主要涉及缺省变量编写和主任务剧本。
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles]
└─$cd webapp/
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/webapp]
└─$tree
.
├── defaults
│ └── main.yml
├── meta
│ └── main.yml
├── tasks
│ └── main.yml
└── tests
├── inventory
└── test.yml
4 directories, 5 files
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/webapp]
└─$
defaults目录下的清单变量只有一个webapp_message
,meta目录下的元数据不多介绍
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/webapp]
└─$cat defaults/main.yml
webapp_message: "This is"
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/webapp]
└─$cat meta/main.yml
主任务剧本中,用了一个dufault目录下的缺省变量和一个ansible的魔法变量,一个使用角色时定义的剧本变量。通过copy模块向http服务的引导页写入一句话。
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/webapp]
└─$cat tasks/main.yml
---
# tasks file for webapp
#- name: Copy the code from the repository
# git:
# repo: "{{ webapp_repo }}"
# version: "{{ webapp_version }}"
# dest: /var/www/html/
# accept_hostkey: yes
## key_file: deployment key??
- name: Copy a stub file.
copy:
content: "{{ webapp_message }} {{ ansible_hostname }}. (version {{ webapp_version}})\n"
dest: /var/www/html/index.html
最后来看一下firewall角色
firewall 角色并没有被显示的调用,那么它是如何被调用的?
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles]
└─$cd firewall/
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/firewall]
└─$tree
.
├── defaults
│ └── main.yml
├── handlers
│ └── main.yml
├── meta
│ └── main.yml
├── tasks
│ └── main.yml
└── tests
├── inventory
└── test.yml
5 directories, 6 files
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/firewall]
└─$
这里就要讲到角色依赖
,我们上面的haproxy角色
和apache角色
都在meta/main.yaml?
文件中依赖了firewall角色
,所以haproxy角色
和apache角色
在执行的时候要先执行firewall
角色.
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/firewall]
└─$cat defaults/main.yml
---
# defaults file for firewall
# This role requires that firewall_rules variable
# be defined. The variable is a list of rules, and
# each rule defines:
#
# service: (optional)
# port: (optional)
# zone: (optional)
# source: (optional)
#
# A rule should only define a service or a port.
# And example definition is:
#
# firewall_rules:
# - service: http
# zone: internal
# - port: 8443
# source: 192.168.0.2
# By default, no rules are implemented.
firewall_rules: []
一个重载firewall 配置文件的任务
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/firewall]
└─$cat handlers/main.yml
---
# handlers file for firewall
- name: reload firewalld
service:
name: firewalld
state: reloaded
主任务文件,编写防火墙配置,在配置完通知上面的handlers
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices/roles/firewall]
└─$cat tasks/main.yml
---
# tasks file for firewall
- name: Ensure Firewall Sources Configuration
firewalld:
source: "{{ item.source if item.source is defined else omit }}"
zone: "{{ item.zone if item.zone is defined else omit }}"
permanent: yes
state: "{{ item.state | default('enabled') }}"
service: "{{ item.service if item.service is defined else omit }}"
immediate: true
port: "{{ item.port if item.port is defined else omit }}"
loop: "{{ firewall_rules }}"
notify: reload firewalld
当我们不需要这套环境了需要编写一个卸载当前环境的剧本clean.yml
- name: Clean Load Balancers
hosts: lb_servers
gather_facts: no
tasks:
- name: Remove packages
yum:
name: haproxy
state: absent
- set_fact:
firewall_rules:
- port: 80/tcp
- name: Clean Web Servers
hosts: web_servers
gather_facts: no
tasks:
- name: Remove packages
yum:
name: httpd
state: absent
- set_fact:
firewall_rules:
- zone: internal
service: http
- zone: internal
source: 172.25.250.10
- name: Clean Firewall rules
hosts: lb_servers, web_servers
tasks:
- name: Ensure Firewall Sources Configuration
firewalld:
source: "{{ item.source if item.source is defined else omit }}"
zone: "{{ item.zone if item.zone is defined else omit }}"
permanent: yes
state: 'disabled'
service: "{{ item.service if item.service is defined else omit }}"
port: "{{ item.port if item.port is defined else omit }}"
loop: "{{ firewall_rules }}"
- name: reload firewalld
service:
name: firewalld
state: reloaded
- name: Remove web application
hosts: web_servers
tasks:
- name: Remove stub file
file:
state: absent
path: "/var/www/html/index.html"
下面是Demo完整的结构
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices]
└─$ls
ansible.cfg clean.yml deploy_haproxy.yml inventory site.yml
appservers.yml deploy_apache.yml deploy_webapp.yml roles
┌──[root@workstation.lab.example.com]-[/home/student/DO447/labs/development-practices]
└─$