百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Linux打开的文件过多Too many open file

nanshan 2024-11-17 00:16 38 浏览 0 评论

1 问题场景与现象

最近线上微服务出现问题,后台日志报错:打开的文件过多(Too many open files)

 2021-02-26 22:25:27.811 [http-nio-8841-Acceptor] ERROR org.apache.tomcat.util.net.Acceptor - Socket accept failedbrjava.io.IOException: 打开的文件过多
 at sun.nio.ch.ServerSocketChannelImpl.accept0(Native Method)  
 at sun.nio.ch.ServerSocketChannelImpl.accept(ServerSocketChannelImpl.java:422)   
 at sun.nio.ch.ServerSocketChannelImpl.accept(ServerSocketChannelImpl.java:250)   
 at org.apache.tomcat.util.net.NioEndpoint.serverSocketAccept(NioEndpoint.java:463)   
 at org.apache.tomcat.util.net.NioEndpoint.serverSocketAccept(NioEndpoint.java:73)   
 at org.apache.tomcat.util.net.Acceptor.run(Acceptor.java:95)   
 at java.lang.Thread.run(Thread.java:748)

表象就是服务建立不了新的socket连接,服务无法正常使用。

2 产生原因(参考网络)

这个问题经常在Linux上出现,而且常见于高并发访问文件系统、多线程网络连接等场景。之所以出现这个问题,大多数情况是你的程序没有正常关闭一些资源引起的。

在Linux系统中,目录、字符设备、块设备、套接字、打印机等都被抽象成了文件,即通常所说的“一切皆文件”。程序操作这些文件时,系统就需要记录每个当前访问file的name、location、access authority等相关信息,这样一个实体被称为file entry。这些实体被记录在open files table中,Linux系统配置了open files table中能容纳多少file entry。如果超过这个配置值,则Linux就会拒绝其他文件操作的请求,并抛出Too many open files。

那么由上可知,产生Too many open files一般有四种可能:

  • 单个进程打开文件句柄数过多

1 通过 ulimit -a 查看单进程可以打开的最大文件句柄数。




可以看到open files默认值是1024。

2 通过 lsof -p ${pid} | wc -l 查看单个进程实际打开的文件句柄数。(需要安装yum -y install lsof



3 如果单个进程实际打开文件句柄数超过最大句柄数,则会出现Too many open files。

4 一般产生原因为:socket创建过多,IO流操作、数据库连接未关闭等等。

5 子进程默认继承父进程的限制(即进程和父进程打开的文件句柄数单独计算)

6 临时修改用户可打开的文件句柄数(这里主要是因为控制设置是通过用户来设置,实际上控制的是进程的文件句柄数)
使用命令 ulimit -n 2048 修改允许打开的文件数,这种设置方法在重启后会还原为默认值
ulimit -n命令非root用户只能设置到4096。

7 通过修改系统配置文件,永久生效。

#打开文件
vi /etc/security/limits.conf
#在最后加入
* soft nofile 65535
* hard nofile 65535

也可以加入* - nofile 65535生效
最前的 * 表示所有用户,可根据需要设置某一用户
注意"nofile"项有两个可能的限制措施。就是项下的hard和soft。必须对这两种限制进行设定,方可失效。 如果使用"-"字符设定, 则hard和soft设定会同时被设定。

8 动态修改进程的限制
通过prlimit --pid ${pid} --nofile=2048:2048

  • 操作系统打开的文件句柄数过多
    整个操作系统可以打开的文件句柄数是有限的,受内核参数"fs.file-max"确定。如果所有进程加起来超过了
    1 通过命令cat /proc/sys/fs/file-max或者sysctl -a来查看fs.file-max的配置数量
    2 临时改动:sysctl -w [变量名]=[值]
    3 永久改动:修改配置文件/etc/sysctl.conf,如果文件中没有"fs.file-max"属性,则添加。设置完成后,使用sysctl -p来加载系统参数,在不指定文件位置的情况下,默认会从/etc/sysctl.conf文件中加载。
  • systemd对该进程进行了限制
    该场景仅针对被systemd管理的进程(也就是可以通过systemctl来控制的进程)生效,可以通过修改该进程的service文件(通常在 /etc/systemd/system/ 目录下),在[Service]下面添加"LimitNOFILE=20480000"来实现,修改完成之后需要执行"systemctl daemon-reload"来使该配置生效。
  • inotify达到上限
    inotify是linux提供的一种监控机制,可以监控文件系统的变化。该机制受到2个内核参数的影响:"fs.inotify.max_user_instances"和"fs.inotify.max_user_watches",其中"fs.inotify.max_user_instances"表示每个用户最多可以创建的inotify instances数量上限,"fs.inotify.max_user_watches"表示么个用户同时可以添加的watch数目,当出现too many open files问题而上面三种方法都无法解决时,可以尝试通过修改这2个内核参数来生效。修改方法是修改/etc/sysctl.conf文件,修改这2个内核参数,并执行sysctl -p

3 解决方案

由以上产生原因可分析得知,一是可以修改系统的配置信息;另外一个是从程序层面解决。

3.1 修改配置文件

3.1.1 单个进程打开文件句柄数过多

通常情况下,我们遇到的问题都是"单个进程打开文件句柄数过多"
1 通过ulimit -a查看当前设置的单进程最大打开句柄数

2 通过lsof -p ${pid} | wc -l查看单个进程实际打开的文件句柄数。(需要安装yum -y install lsof),判断是不是已经接近允许的最大句柄数。

3 如果已经接近等于允许的最大句柄数,则通过临时修改与永久改动扩大单进程最大打开句柄数

 #临时修改
 ulimit -n 65535

通过修改系统配置文件,永久生效。

#打开文件
vi /etc/security/limits.conf
#在最后加入
* soft nofile 65535
* hard nofile 65535

3.1.1 操作系统打开的文件句柄数过多

基本上这个很少遇到。
1 通过命令cat /proc/sys/fs/file-max或者sysctl -a来查看fs.file-max的配置数量
2 临时改动:sysctl -w [变量名]=[值]
3 永久改动:修改配置文件/etc/sysctl.conf,如果文件中没有"fs.file-max"属性,则添加。设置完成后,使用sysctl -p来加载系统参数,在不指定文件位置的情况下,默认会从/etc/sysctl.conf文件中加载。

3.1.3 systemd对该进程进行了限制与inotify达到上限

在以上2种方法都无效后,考虑这2种情况的解决方案
1 可以通过修改该进程的service文件(通常在/etc/systemd/system/目录下),在[Service]下面添加"LimitNOFILE=20480000"来实现,修改完成之后需要执行"systemctl daemon-reload"来使该配置生效
2 可以尝试通过修改这"fs.inotify.max_user_instances"和"fs.inotify.max_user_watches"这2个内核参数来生效。修改方法是修改/etc/sysctl.conf文件,修改这2个内核参数,并执行sysctl -p

3.2 排查程序

一般情况下,1024个句柄数应该够程序使用(如果不是socket服务),如果出现Too many open files错误,首先考虑是不是程序出了问题,比如IO流,数据库连接池及各种其它的连接池等。若是socket服务,建议修改配置文件扩大打开文件句柄数。

总结

  • Too many open files是liunx常见问题之一
  • 有四种原因会产生这个问题(单个进程打开文件句柄数过多、操作系统打开的文件句柄数过多、systemd对该进程进行了限制、inotify达到上限)
  • 一般扩大单个进程打开文件句柄数即可解决问题
  • 如果你的程序不是socket服务,请排查程序,否则只是治标不治本

相关推荐

0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)

文档编写目的在前面的文档中,介绍了在有CM和无CM两种情况下使用rpm方式安装CDH5.10.0,本文档将介绍如何在无CM的情况下使用rpm方式安装CDH6.2.0,与之前安装C5进行对比。环境介绍:...

ARM64 平台基于 openEuler + iSula 环境部署 Kubernetes

为什么要在arm64平台上部署Kubernetes,而且还是鲲鹏920的架构。说来话长。。。此处省略5000字。介绍下系统信息;o架构:鲲鹏920(Kunpeng920)oOS:ope...

生产环境starrocks 3.1存算一体集群部署

集群规划FE:节点主要负责元数据管理、客户端连接管理、查询计划和查询调度。>3节点。BE:节点负责数据存储和SQL执行。>3节点。CN:无存储功能能的BE。环境准备CPU检查JDK...

在CentOS上添加swap虚拟内存并设置优先级

现如今很多云服务器都会自己配置好虚拟内存,当然也有很多没有配置虚拟内存的,虚拟内存可以让我们的低配服务器使用更多的内存,可以减少很多硬件成本,比如我们运行很多服务的时候,内存常常会满,当配置了虚拟内存...

国产深度(deepin)操作系统优化指南

1.升级内核随着deepin版本的更新,会自动升级系统内核,但是我们依旧可以通过命令行手动升级内核,以获取更好的性能和更多的硬件支持。具体操作:-添加PPAs使用以下命令添加PPAs:```...

postgresql-15.4 多节点主从(读写分离)

1、下载软件[root@TX-CN-PostgreSQL01-252software]#wgethttps://ftp.postgresql.org/pub/source/v15.4/postg...

Docker 容器 Java 服务内存与 GC 优化实施方案

一、设置Docker容器内存限制(生产环境建议)1.查看宿主机可用内存bashfree-h#示例输出(假设宿主机剩余16GB可用内存)#Mem:64G...

虚拟内存设置、解决linux内存不够问题

虚拟内存设置(解决linux内存不够情况)背景介绍  Memory指机器物理内存,读写速度低于CPU一个量级,但是高于磁盘不止一个量级。所以,程序和数据如果在内存的话,会有非常快的读写速度。但是,内存...

Elasticsearch性能调优(5):服务器配置选择

在选择elasticsearch服务器时,要尽可能地选择与当前业务量相匹配的服务器。如果服务器配置太低,则意味着需要更多的节点来满足需求,一个集群的节点太多时会增加集群管理的成本。如果服务器配置太高,...

Es如何落地

一、配置准备节点类型CPU内存硬盘网络机器数操作系统data节点16C64G2000G本地SSD所有es同一可用区3(ecs)Centos7master节点2C8G200G云SSD所有es同一可用区...

针对Linux内存管理知识学习总结

现在的服务器大部分都是运行在Linux上面的,所以,作为一个程序员有必要简单地了解一下系统是如何运行的。对于内存部分需要知道:地址映射内存管理的方式缺页异常先来看一些基本的知识,在进程看来,内存分为内...

MySQL进阶之性能优化

概述MySQL的性能优化,包括了服务器硬件优化、操作系统的优化、MySQL数据库配置优化、数据库表设计的优化、SQL语句优化等5个方面的优化。在进行优化之前,需要先掌握性能分析的思路和方法,找出问题,...

Linux Cgroups(Control Groups)原理

LinuxCgroups(ControlGroups)是内核提供的资源分配、限制和监控机制,通过层级化进程分组实现资源的精细化控制。以下从核心原理、操作示例和版本演进三方面详细分析:一、核心原理与...

linux 常用性能优化参数及理解

1.优化内核相关参数配置文件/etc/sysctl.conf配置方法直接将参数添加进文件每条一行.sysctl-a可以查看默认配置sysctl-p执行并检测是否有错误例如设置错了参数:[roo...

如何在 Linux 中使用 Sysctl 命令?

sysctl是一个用于配置和查询Linux内核参数的命令行工具。它通过与/proc/sys虚拟文件系统交互,允许用户在运行时动态修改内核参数。这些参数控制着系统的各种行为,包括网络设置、文件...

取消回复欢迎 发表评论: