精品推荐:nginx常用配置总结(实战版)

我是小探花 2018-07-23 14:07:50 ⋅ 945 阅读

Nginx (engine x) 是一个高性能的HTTP和反向代理服务器,也是一个IMAP/POP3/SMTP服务器。

公共配置

1、并发连接配置

1.1 worker_processes

nginx运行工作进程个数,一般设置cpu的核心或者核心数x2。

nginx.conf配置文件中,设置:worker_processes 4。

worker_processes最多开启8个,8个以上性能提升不会再提升了,而且稳定性变得更低,所以8个进程够用了。

1.2 worker_cpu_affinity

nginx默认是没有开启利用多核cpu的配置的。需要通过增加worker_cpu_affinity配置参数来充分利用多核cpu,cpu是任务处理,当计算最费时的资源的时候,cpu核使用上的越多,性能就越好。

使用方法和范例:

2核cpu,开启2个进程

worker_processes 2;

worker_cpu_affinity 01 10;

4cpu,开启4个进程 worker_processes 4; worker_cpu_affinity 0001 0010 0100 1000;

1.3 worker_rlimit_nofile

这个指令是指当一个nginx 进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx 进程数相除,但是nginx 分配请求并不是那么均匀,所以最好与ulimit -n (ulimit -n 65535可设置最大打开文件数为65535)的值保持一致。

现在在Linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。实际我们填入一个65535,足够了,一个网站的并发达到这么大的数量,也算一个大站了!

1.4 work_connections

work_connections是单个worker进程允许客户端最大连接数,这个数值一般根据服务器性能和内存来制定.

nginx作为http服务器的时候:max_clients = worker_processes * worker_connections

Web服务器

相比 Apache,Nginx 使用更少的资源,支持更多的并发连接,体现更高的效率,这点使 Nginx 尤其受到虚拟主机提供商的欢迎。能够支持高达 50,000 个并发连接数的响应,感谢 Nginx 为我们选择了 epoll and kqueue 作为开发模型.


listen:表示当前的代理服务器监听的端口,默认的是监听80端口。注意,如果我们配置了多个server,这个listen要配置不一样,不然就不能确定转到哪里去了。

server_name:表示监听到之后需要转到哪里去,这时我们直接转到本地,这时是直接到nginx文件夹内。

location:表示匹配的路径,这时配置了/表示所有请求都被匹配到这里

root:里面配置了root这时表示当匹配这个请求的路径时,将会在这个文件夹内寻找相应的文件,这里对我们之后的静态文件伺服很有用。

index:当没有指定主页时,默认会选择这个指定的文件,它可以有多个,并按顺序来加载,如果第一个不存在,则找第二个,依此类推。

location:分为普通匹配以及正则匹配。

普通匹配,包括:^~(把这个前缀用于一个常规字符串,如果路径匹配那么不测试正则表达式)、 = (精确匹配)、无前缀。

普通匹配,遵循最长匹配规则,假设一个请求匹配到了两个普通规则,则选择匹配长度大的那个,一般情况下普通匹配成功后,还是会继续正则匹配,一旦正则匹配也匹配成功后,以正则匹配为准。但是^~和=除外,即^~和=匹配成功后,不再继续正则匹配。

正则 location:~ (区分大小写)、~*(不区分大小写) 。

location = / {

[ configuration A ]

}

location / {

[ configuration B ]

}

location /documents/ {

[ configuration C ]

}

location ^~ /images/ {

[ configuration D ]

}

location ~* .(gif|jpg|jpeg)$ {

[ configuration E ]

}

“/”请求会匹配到A,精确匹配。

“/index.html”会匹配到B,

“/documents/document.html”请求会匹配到C,

“/images/1.gif”会匹配到D,

“/documents/1.jpg”会匹配到E。

location里还可添加try_files: $uri $uri/ /index.html。依次按照顺序检查文件是否存在.

反向代理和域名转发

反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。

user www www;

worker_processes 1;

error_log logs/error.log;

pid logs/nginx.pid;

worker_rlimit_nofile 65535;

#Nginx事件处理模型

events {

use epoll; #nginx采用epoll事件模型,处理效率高

worker_connections 65535;

multi_accept on;#默认是on,设置为on后,多个worker按串行方式来处理连接,也就是一个连接只有一个worker被唤醒,其他的处于休眠状态,设置为off后,多个worker按并行方式来处理连接,也就是一个连接会唤醒所有的worker,直到连接分配完毕,没有取得连接的继续休眠。当你的服务器连接数不多时,开启这个参数会让负载有一定的降低,但是当服务器的吞吐量很大时,为了效率,可以关闭这个参数。

}

http {

include mime.types;

default_type application/octet-stream;

include /usr/local/nginx/conf/reverse-proxy.conf;

sendfile on;#//开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。

keepalive_timeout 65;#客户端连接保持会话超时时间,超过这个时间,服务器断开这个链接

gzip on;

client_max_body_size 50m; #缓冲区代理缓冲用户端请求的最大字节数,可以理解为保存到本地再传给用户

client_body_buffer_size 256k;

client_header_timeout 3m;

client_body_timeout 3m;

send_timeout 3m;

proxy_connect_timeout 300s; #nginx跟后端服务器连接超时时间(代理连接超时)

proxy_read_timeout 300s; #连接成功后,后端服务器响应时间(代理接收超时)

proxy_send_timeout 300s;

proxy_buffer_size 64k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小

proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置

proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)

proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传递请求,而不缓冲到磁盘

proxy_ignore_client_abort on; #不允许代理端主动关闭连接

server {

listen 80;

server_name localhost;

location / {

root html;

index index.html index.htm;

}

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

}

}


内利用反向代理做负载均衡

upstream www.lcapi.com{

server localhost:8080;

server localhost:9080;

}

server{

listen 80;

autoindex on;

server_name www.lcapi.com;

access_log /usr/local/nginx/logs/access.log combined;

index index.html index.htm index.jsp index.php;

#error_page 404 /404.html;

if ( $query_string ~* ".*[;'<>].*" ){

return 404;

}

location / {

proxy_pass http://www.lcapi.com;

add_header Access-Control-Allow-Origin *;

}

}

我们在server外添加了一个upstream,而直接在proxy_pass里面直接用http://+upstream的名称来使用。upstream中的server元素必须要注意,不能加http://,但proxy_pass中必须加。

1)轮询(默认)

默认选项,当weight不指定时,各服务器weight相同, 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

upstream www.lcapi.com{

server localhost:8080;

server localhost:9080;

}

2)weight

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。如果后端服务器down掉,能自动剔除。 比如下面配置,则1.11服务器的访问量为1.10服务器的两倍(后端节点中配置高的服务器可以适当将weight设置大点)。

upstream www.lcapi.com{

server 192.168.1.10 weight=1;

server 192.168.1.11 weight=2;

}

3)ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session不能跨服务器的问题,实现session共享。如果后端服务器down掉,要手工处理。

upstream resinserver {

ip_hash;

server 192.168.1.10:8080;

server 192.168.1.11:8080;

}

4)url_hash


5)fair(第三方)



---------------END----------------

后续的内容同样精彩

长按关注“IT实战联盟”哦




全部评论: 0

    我有话说:

    「开源推荐Nginx可视化配置工具—NginxWebUI,小白也可以玩转

    包括http协议转发, tcp协议转发, 反向代理, 负载均衡, ssl证书自动申请、续签、配置

    精品推荐:Tomcat优化总结实战

    Tomcat是我们经常使用的 servlet容器之一,甚至很多线上产品都使用 Tomcat充当服务器。

    Nginx服务器高性能优化--轻松实现10万并发访问量

    作者:章为忠学架构https://www.toutiao.com/i6804346550882402828 前面讲了如何配置Nginx虚拟主机,如何配置服务日志等很多基础的内容,大家可以去这里看看

    Nginx架构详解(二):nginx反向代理配置

    上次文章中我们已经安装了Nginx,这次就写一下如何配置反向代理。

    精品推荐:大神总结的十大 JavaScript 错误及如何规避

    通过统计数据库中的1000多个项目,我们发现在 JavaScript 中最出现的错误有10个。下面会向大家介绍这些错误发生的原因以及如何防止。

    Nginx灰度升级实现说明

    基础介绍 下文分别从名词解释、灰度升级的作用、灰度升级方案3个方面展开介绍: 1.名词解释 灰度升级:灰度升级是一种升级时候的平滑切换,当有些服务器的客户端要进行升级,可以只对其中一个客户端升级并测试,确保程序无误后再全局升级。也就是说所有服务器...

    Nginx架构详解:nginx 的安装和配置

    Nginx (engine x) 是一个高性能的HTTP和反向代理服务器,也是一个IMAP/POP3/SMTP服务器。

    nginx 1.19.7 主线发布

    nginx 1.19.7 主线已发布,此版本带来了部分变更和新特性,以及 bugfix,具体如下: 变更:HTTP/2 中对连接的处理经过修改可更好地匹配 HTTP/1.x;"http2

    SpringCloud见面试题(2020最新

    用户应用,在业务初期都很简单,我们通常会把它实现为...

    精品推荐:Java核心数据结构(List,Map,Set)使用技巧与优化

    JDK提供了一组主要的数据结构实现,如List、Map、Set等数据结构。这些数据都继承自 java.util.Collection 接口,并位于 java.util 包内。

    【开源推荐】基于 Go 语言的轻量级高性能日志库 logit使用及测评

    logit 是一个简单易并且是基于级别控制的日志库,可以应用于所有的 GoLang 应用程序中。

    微服务架构下的若干设计模式

    在我们选择了微服务架构来设计、交付数字化应用后,因微服务架构本身所带来的一些共性问题。

    精品推荐:如何实现一个TCC分布式事务框架的一点思考

    本文将以Spring容器为例,试图分析一下,实现一个通用的TCC分布式事务框架需要注意的一些问题。

    Flink + 强化学习搭建实时推荐系统

    如今的推荐系统,对于实时性的要求越来越高,实时推荐的流程大致可以概括为:推荐系统对于用户的请求产生推荐,用户对推荐结果作出反馈 (购买/点击/离开等等),推荐系统再根据用户反馈作出新的推荐。这个过程

    精品推荐:微服务架构下静态数据通用缓存机制

    在分布式系统中,特别是最近很火的微服务架构下,有没有或者能不能总结出一个业务静态数据的通用缓存处理机制或方案,这篇文章将结合一些实际的研发经验,尝试理清其中存在的关键问题以及探寻通用的解决之道。

    Spring Cloud(Greenwich)-03-编写高可Eureka Server(集群)

    前言 上一章Spring Cloud(Greenwich)-02-服务注册与服务发现-Eureka入门,我们实现了将User和Goods微服务都注册到了Eureka上,那么在生产环境中为了达到高