Nginx报错: "Too many open files accept" 和 "could not build the server_names_hash"
一、访问Nginx时,报错:"accept() failed (24: Too many open files)"
原因时:nginx的连接数超过了系统设定的最大值造成的.
处理办法如下:
[root@kvm-server nginx]# ulimit -n
1024
[root@kvm-server nginx]# ulimit -n 655360 #把打开文件数设置足够大,这是临时修改方案
[root@kvm-server nginx]# ulimit -n
655360 同时修改nginx.conf文件,添加下面内容,然后重启nginx
worker_rlimit_nofile 655350; 这样就可以解决Nginx连接过多的问题,Nginx就可以支持高并发。
另外, ulimit -n 还会影响到mysql 的并发连接数。提高文件连接数设置,也能提高mysql并发。 注意: 用ulimit -n 655360 修改只对当前的shell有效,退出后失效。所以,需要永久性修改
永久生效方法:
修改/etc/security/limits.conf,在文件底部添加:
* soft nofile 655360
* hard nofile 655360
星号代表全局, soft为软件,hard为硬件,nofile为这里指可打开文件数。 另外,要使limits.conf文件配置生效,必须要确保 pam_limits.so 文件被加入到启动文件中。
查看 /etc/pam.d/login 文件中有:
session required /lib/security/pam_limits.so 这样,问题就迎刃而解了!
ulimit : 设置最大进程数和最大文件打开数, 这个一般是系统优化的必要手段.
1) 临时修改
为了优化linux性能,可能需要修改这个最大值。临时修改的话ulimit -n 655360就可以了,重启后失效。
[root@localhost ~]# ulimit -n
1024
[root@localhost ~]# ulimit -n 655360
[root@localhost ~]# ulimit -n
655360 2) 永久修改
修改/etc/security/limits.conf文件, 在文件末尾添加
[root@localhost ~]# vim /etc/security/limits.conf * soft nofile 655360
* hard nofile 655360
* soft nproc 655360
* hard nproc 655360 =============================
上面配置内容中:
* 代表针对所有用户
noproc 是代表最大进程数
nofile 是代表最大文件打开数 如上修改后重启服务或服务器,如果发现没更改过来, 还需要修改下面梁文文件 在/etc/security/limits.d/90-nproc.conf文件末尾添加
[root@localhost ~]# vim /etc/security/limits.d/90-nproc.conf
* soft nproc 655360
* hard nproc 655360 在/etc/security/limits.d/def.conf文件末尾添加
[root@localhost ~]# vim /etc/security/limits.d/def.conf
* soft nofile 655360
* hard nofile 655360 然后重启后生效
二、普通用户登录系统,报错:"-bash: ulimit: open files: cannot modify limit: Operation not permitted"
[root@locahost ~]# ssh -p22 work@172.16.60.20
Authorized only. All activity will be monitored and reported
Last login: Wed Dec 18 19:19:59 2019 from 172.16.60.11
-bash: ulimit: open files: cannot modify limit: Operation not permitted
-bash: ulimit: data seg size: cannot modify limit: Operation not permitted
-bash: ulimit: max memory size: cannot modify limit: Operation not permitted
-bash-4.1$ -bash-4.1$ ulimit -n
1024 登录172.16.60.20机器的root用户查看
[root@server-20 ~]# ulimit -n
32726
[root@server-20 ~]# cat /etc/security/limits.conf
........
# End of file
work soft nproc 8192
work hard nproc 8192
work soft nofile 16384
work hard nofile 32768 以上work普通用户登录系统后,出现"-bash: ulimit: open files: cannot modify limit: Operation not permitted."报错,
并且work普通用户下查看ulimit数值是默认的1024,设置的ulimit值(32678)并没有生效! 解决办法:
修改sshd_config文件,将UseLogin默认的no改为yes
[root@server-20 ~]# /etc/ssh/sshd_config
.......
UseLogin yes 然后重启sshd服务
[root@server-20 ~]# service sshd restart 再次登录172.16.60.20的work用户,就不会出现上面的报错信息了
[root@locahost ~]# ssh -p22 work@172.16.60.20
Authorized only. All activity will be monitored and reported
Last login: Wed Dec 18 19:54:47 2019 from 172.20.20.161
-bash-4.1$ -bash-4.1$ ulimit -n
32768 =============================================================================================
UseLogin 指令
表示是否在交互式会话的登录过程中使用 login(1) 。默认值是"no"。 如果开启此UseLogin指令,那么 X11Forwarding 将会被禁止,因为 login(1) 不知道如何处理 xauth(1) cookies 。
需要注意的是,login(1) 是禁止用于远程执行命令的。如果指定了 UsePrivilegeSeparation ,那么它将在认证完成后被禁用。
三、重启Nginx时, 出现报错提示: "could not build the server_names_hash, you should increase server_names_hash_bucket_size: 64"
解释说明: 保存服务器名字的hash表是由指令 server_names_hash_max_size 和 server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。如果 hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键值。因此,如果Nginx给出需要增大 hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小.
解决办法:在nginx配置文件nginx.conf里的http{}段增加一行配置"server_names_hash_bucket_size 64;" ,如果64还不够,那么就按32的倍数往上加,比如128或256或512。
四、Nginx出现500 Internal Server Error 错误的解决方案
500(服务器内部错误) 服务器遇到错误,无法完成请求。
501(尚未实施) 服务器不具备完成请求的功能。例如,当服务器无法识别请求方法时,服务器可能会返回此代码。
502(错误网关) 服务器作为网关或代理,从上游服务器收到了无效的响应。
503(服务不可用) 目前无法使用服务器(由于超载或进行停机维护)。通常,这只是一种暂时的状态。
504(网关超时) 服务器作为网关或代理,未及时从上游服务器接收请求。
505(HTTP 版本不受支持) 服务器不支持请求中所使用的 HTTP 协议版本。 Nginx 500错误(Internal Server Error 内部服务器错误):500错误指的是服务器内部错误,也就是服务器遇到意外情况,而无法履行请求。遇到这种nginx出现500错误,大致原因如下: 1)磁盘空间是否不足?
----------------------------------------
使用"df -h" 查看硬盘空间是否满了。清理硬盘空间就可以解决500错误。nginx如果开启了access log,在不需要的情况下,最好关闭access log。access log会占用大量硬盘空间。 2) nginx配置文件错误?
----------------------------------------
这里不是指语法错误,nginx如果配置文件有语法错误,启动的时候就会提示。当配置rewrite的时候,有些规则处理不当会出现500错误,请仔细检查自己的rewrite规则。
如果配置文件里有些变量设置不当,也会出现500错误,比如引用了一个没有值的变量。 3) 如果上面的问题都不存在,那么可能是模拟的并发数太多了(too many open files)?
----------------------------------------
需要调整一下nginx.conf的并发设置数 打开/etc/security/limits.conf文件,加上两句:
* soft nofile 65535
* hard nofile 65535 打开nginx.conf,修改
worker_rlimit_nofile 65535; 重新启动nginx,重新载入设置 4)索引节点(inode)用满导致?
----------------------------------------
使用"df -i"命令查看系统的inode是否爆满,如果使用达到100%,就释放inode空间。 5)数据库问题导致?
----------------------------------------
如果上面情况都不存在,可以查看是否是因为数据库问题,比如数据库访问不到。 6)如果按上述方法仍然解决不了问题,就可能是配置或是程序有错误了。
----------------------------------------
查看nginx的错误日志,找到可能的原因。
比如提示某些儿PHP扩展没有安装,则去php.ini中打开对应该的扩展或是安装对应该的扩展,重启nginx和php-fpm,再次刷新页面。 如果数据库连接有问题,也可能会出现500错误,不过日志中一定会体现的
在日志中提示相应的数据库连接有问题了,就要去查看数据库连接是否正确。根据日志,修改对应该的文件,数据库问题解决后,页面即恢复正常。
Nginx报错: "Too many open files accept" 和 "could not build the server_names_hash"的更多相关文章
- nginx报错 too many open files in system
系统进不去了,用ssh连接服务器也非常慢,负载均衡显示后端连接异常,重启mysql数据库,发现经常重启,或者直接关机,访问页面也访问不到. http://www.51testing.com/html/ ...
- nginx 报错 upstream timed out (110: Connection timed out)解决方案【转】
转自 nginx 报错 upstream timed out (110: Connection timed out)解决方案 - 为程序员服务http://outofmemory.cn/code-sn ...
- nginx报错:./configure: error: C compiler cc is not found, gcc 是已经安装了的
源码安装nginx报错,找不到gcc,但是实际上gcc是存在的,如下: # ./configure checking for OS + Linux -.el7.x86_64 x86_64 checki ...
- nginx报错zero size shared memory zone one
为了限速,在虚拟主机中加上了一个参数:limit_conn one 1:结果导致重启nginx报错: zero size shared memory zone "one"解决办法是 ...
- nginx报错:403 Forbidden 并且访问首页index.php是下载文件的状态
nginx报错:403 Forbidden 并且访问首页index.php是下载文件的状态,不能正常解析php 系统有其他两个站访问是正常的 看日志没有看到明显的错误 搜索了下: 答案如下: php的 ...
- Centos下yum安装Nginx报错 No package nginx available.
在Centos6下使用yum安装Nginx报错 解决方案: yum install epel-release
- 遇到问题----mongodb-----mongorestore报错too many open files甚至mongo服务崩溃
之前运行mongorestore还原mongodb数据库一直都没问题,今天还原的时候 报错too many open files.而且mongo服务经常崩溃需要重启. 问题有两方面: 原因一 一个原因 ...
- 安装Nginx报错“Cannot retrieve metalink for repository: epel. Please verify its path and try again”
CentOS 6.5中通过yum安装nginx报错. 搜了一下,很多都是修改某个配置文件的.但是在StackOverFlow的某个问题下,有人回答说修改配置文件并不是一个好的方法,虽然我采用了这个人的 ...
- nginx报错:nginx: [emerg] unknown directive in /etc/nginx/conf.d/test.conf:4
nginx报错:nginx: [emerg] unknown directive in /etc/nginx/conf.d/test.conf:4 解决: 第四行出现了 tab 空格 , 换成正常的 ...
随机推荐
- Cache 和 Buffer 都是缓存,主要区别是什么?【转】
作者:Towser 链接:https://www.zhihu.com/question/26190832/answer/32387918 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商 ...
- Linux 查看对外开放端口
备忘命令: netstat -anpt | grep 514 # 查看 rsyslog tcp 端口是否开放 保持更新,转载请注明出处.
- popen()/pclose()阻塞性问题验证
背景: popen()函数通过创建一个管道,调用fork()产生一个子进程,执行一个shell以运行命令来开启一个进程.这个管道必须由pclose()函数关闭,而不是fclose()函数. pclos ...
- 寒假训练——搜索 G - Xor-Paths
There is a rectangular grid of size n×mn×m . Each cell has a number written on it; the number on the ...
- mvc、mvp和mvvm理解
MVC.MVP.MVVM这些模式是为了解决开发过程中的实际问题而提出来的,目前作为主流的几种架构模式而被广泛使用. 一.MVC(Model-View-Controller) MVC是比较直观的架构模式 ...
- Hunter -- 批量文件管理工具
一个简单工具, 用来进行批量文件的重命名, 更改后缀, 搜索特定后缀, 等 下载地址:http://download.csdn.net/download/kuangsun/7545179
- redis php扩展及基本命令
linux 安装php mysql redis memchache 等工具 用 OneinStack 安装步骤 注意 如果有单独数据盘,建议您先挂载数据盘,建议将网站内容.数据库放在数据盘中.如何挂载 ...
- Qt 编程指南 1 从Hello World开始
1 简单的hello QT 注意项目和路径不要包含任何中文字符,特殊字符,空格. 只能有英文,数字,下划线,且不能数字开头. //helloqt.cpp #include <QtWidgets/ ...
- 1.4 Genymotion模拟器安装
如果你符合下述三种情况的话,你可以考虑安装一个Genymotion Android模拟器: 没有真机调试,只能用模拟器 嫌SDK内置的AVD启动速度,运行速度慢 电脑配置还可以,最好4G内存以上 如果 ...
- .NET Core、Xamarin、.NET Standard和.NET Framework四者之间的区别
前段时日微软(Microsoft)正式发布了.NET Core 2.0,在很多开发社区中反响不错.但还是有一些开发者发出了疑问,.NET Core.Xamarin..NET Standard和.NET ...