定义解释:正向代理就是代理服务器替客户端去访问目标服务器。
实现效果:在浏览器输入 http://www.google.com , 浏览器跳转到http://www.google.com
具体配置:
server{
resolver 8.8.8.8;
listen 80;
location / {
proxy_pass http://$http_host$request_url;
}
}
在需要访问外网的客户端上执行以下一种操作即可:
方法1(推荐)
export http_proxy=http://你的正向代理服务器地址 : 代理端口
方法2
vim ~/.bashrc
export http_proxy=http://你的正向代理服务器地址 : 代理端口
定义解释:反向代理指代理后端服务器响应客户端请求的一个中介服务器,代理的对象是服务端
具体配置:
#实现效果:在浏览器输入 http://www.abc.com , 从 nginx 服务器跳转到 linux 系统 tomcat 主页面
server {
listen 80;
server_name 192.168.4.32; #监听地址
location / {
root html; #/html目录
proxy_pass http://127.0.0.1:8080; #请求转向
index index.html index.htm; #设置默认页
}
}
实现效果:根据在浏览器输入的路径不同,跳转到不同端口的服务中。
server {
listen 9000;
server_name 192.168.4.32; #监听地址
location ~ /example1/ {
proxy_pass http://127.0.0.1:5000;
# 对发送给客户端的URL进行修改的操作
# proxy_redirect off;
# proxy_set_header Host $host;
# proxy_set_header X-Real-IP $remote_addr;
# proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
# proxy_next_upstream error timeout invalid_header http_500 http_502 http_503 http_504;
#proxy_max_temp_file_size 0;
}
location ~ /example2/ {
proxy_pass http://127.0.0.1:8080;
}
}
location 指令说明:
实现效果:在浏览器地址栏输入http://192.168.4.32/example/a.html ,平均到 5000 和 8080 端口中,实现负载均衡效果。
具体配置:
upstream myserver {
server 192.167.4.32:5000;
server 192.168.4.32:8080;
}
server {
listen 80; #监听端口
server_name 192.168.4.32; #监听地址
location / {
root html; # html目录
index index.html index.htm; # 设置默认页
proxy_pass http://myserver; # 请求转向 myserver 定义的服务器列表
}
}
nginx 分配服务器策略
- 轮询(默认)
按请求的时间顺序依次逐一分配,如果服务器down掉,能自动剔除。
- 权重
weight 越高,被分配的客户端越多,默认为 1。比如: upstream myserver { server 192.167.4.32:5000 weight=10; server 192.168.4.32:8080 weight=5; } 复制代码
- ip
按请求 ip 的 hash 值分配,每个访客固定访问一个后端服务器。比如: upstream myserver { ip_hash; server 192.167.4.32:5000; server 192.168.4.32:8080; } 复制代码
- fair
按后端服务器的响应时间来分配,响应时间短的优先分配到请求。比如: upstream myserver { fair; server 192.168.4.32:5000; server 192.168.4.32:8080; }
- least_conn;
#把请求转发给连接数较少的后端服务器、upstream myserver {least_conn; server 192.168.4.32:5000; server 192.168.4.32:8080; }
**- 一次性hash (需要安装插件) **
应用场景:一致性hash : nginx / redis集群 / es内部节点
在每一种模式下,每一台服务器可以携带参数如下:
1.down: 当前服务器暂不参与负载
2.weight: 权重,值越大,服务器的负载量(能够处理的请求量)越大。
3.max_fails:允许请求失败的次数,默认为1。
4.fail_timeout:max_fails次失败后暂停的时间。
5.backup:备份机, 只有其它所有的非backup机器down或者忙时才会请求backup机器。
实现效果:在3天内,通过浏览器地址栏访问 http://192.168.4.32/a.jpg ,不会从服务器抓取资源,3天后(过期)则从服务器重新下载。
具体配置:
http 区域下添加缓存区配置
proxy_cache_path /tmp/nginx_proxy_cache levels=1 keys_zone=cache_one:512m inactive=60s max_size=1000m;
#server 区域下添加缓存配置
location ~ \.(gif|jpg|png|htm|html|css|js)(.*) {
proxy_pass http://192.168.4.32:5000;# 如果没有缓存则转向请求
proxy_redirect off;
proxy_cache cache_one;
proxy_cache_valid 200 1h; #对不同的 HTTP 状态码设置不同的缓存时间
proxy_cache_valid 500 1d;
proxy_cache_valid any 1m;
expires 3d;
}
expires 是给一个资源设定一个过期时间,通过 expires 参数设置,可以使浏览器缓存过期时间之前的内容,减少与服务器之间的请求和流量。也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。
实现效果:通过浏览器地址栏访问 http://www.abc.com/a.html ,访问静态资源服务器的静态资源内容。通过浏览器地址栏访问 http://www.abc.com/a.jsp ,访问动态资源服务器的动态资源内容。
具体配置:
upstream static {
server 192.167.4.31:80;
}
upstream dynamic {
server 192.167.4.32:8080;
}
server {
listen 80; # 监听端口
server_name www.abc.com; # 监听地址
# 拦截动态资源
location ~ .*\.(php|jsp)$ {
proxy_pass http://dynamic;
}
# 拦截静态资源
location ~ .*\.(jpg|png|htm|html|css|js)$ {
root /data/; # html目录
proxy_pass http://static;
autoindex on;; # 自动打开文件列表
}
}
一般情况下,通过 nginx 主服务器访问后台目标服务集群,当主服务器挂掉后,自动切换至备份服务器,此时由备份服务器充当主服务器的角色,访问后端目标服务器。
6.1 实战一
实现效果:
准备两台 nginx 服务器,通过浏览器地址栏访问虚拟 ip 地址,把主服务器的 nginx 停止,再次访问虚拟 ip 地址仍旧有效。
具体配置:
(1)在两台 nginx 服务器上安 keepalived。
keepalived 相当于一个路由,它通过一个脚本来检测当前服务器是否还活着,如果还活着则继续访问,否则就切换到另一台备份服务器。
# 安装 keepalived
yum install keepalived -y
# 检查版本
rpm -q -a keepalived
keepalived-1.3.5-16.el7.x86_64
(2)修改主备服务器
/etc/keepalived/keepalivec.conf 配置文件(可直接替换),完成高可用主从配置。
keepalived 将 nginx 服务器绑定到一个虚拟 ip , nginx 高可用集群对外统一暴露这个虚拟 ip,客户端都是通过访问这个虚拟 ip 来访问 nginx 服务器 。
global_defs {
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from_Alexandre.Cassen@firewall.loc
smtp_server 192.168.4.32
smtp_connect_timeout 30
router_id LVS_DEVEL # 在 /etc/hosts 文件中配置,通过它能访问到我们的主机
}
vrrp_script_chk_http_port {
script "/usr/local/src/nginx_check.sh"
interval 2 # 检测脚本执行的时间间隔
weight 2 # 权重每次加2
}
vrrp_instance VI_1 {
interface ens7f0 # 网卡,需根据情况修改
state MASTER # 备份服务器上将 MASTER 改为 BACKUP
virtual_router_id 51 # 主备机的 virtual_router_id 必须相同
priority 100 # 主备机取不同的优先级,主机值较大,备份机值较小
advert_int 1 # 每隔多长时间(默认1s)发送一次心跳,检测服务器是否还活着
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.100 # VRRP H 虚拟地址,可以绑定多个
}
}
字段说明
(3)配置sh脚本
在 /usr/local/src 目录下添加检测脚本 nginx_check.sh。
#!/bin/bash
A=`ps -C nginx -no-header |wc -l`
if [ $A -eq 0 ];then
/usr/local/nginx/sbin/nginx
sleep 2
if [ ps -C nginx -no-header |wc -l` -eq 0 ];then
killall keepalived
fi
fi
(4)启动两台服务器的 nginx 和 keepalived。
# 启动 nginx
./nginx
# 启动 keepalived
systemctl start keepalived.service
(5)检查验证
查看虚拟 ip 地址 ip a 。把主服务器 192.168.4.32 nginx 和 keepalived停止,再访问虚拟 ip 查看高可用效果。