百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

安装PostgreSQL你不可不知道的系统内核参数

nanshan 2024-10-20 07:35 10 浏览 0 评论

配置Linux内核参数

1. sysctl.conf

注意某些参数,根据内存实际大小进行配置

# vi /etc/sysctl.conf 
 
fs.aio-max-nr = 1048576 
fs.file-max = 76724600 
 
# 可选:kernel.core_pattern = /data01/corefiles/core_%e_%u_%t_%s.%p 
# /data01/corefiles 事先建好,权限777,如果是软链接,对应的目录修改为777 
 
kernel.sem = 4096 2147483647 2147483646 512000 
# 信号量, ipcs -l 或 -u 查看,每16个进程一组,每组信号量需要17个信号量。 
 
kernel.shmall = 107374182 
# 所有共享内存段相加大小限制 (建议内存的80%),单位为页。 
kernel.shmmax = 274877906944 
# 最大单个共享内存段大小 (建议为内存一半), >9.2的版本已大幅降低共享内存的使用,单位为字节。 
kernel.shmmni = 819200 
# 一共能生成多少共享内存段,每个PG数据库集群至少2个共享内存段 
 
net.core.netdev_max_backlog = 10000 
net.core.rmem_default = 262144 
# The default setting of the socket receive buffer in bytes. 
net.core.rmem_max = 4194304 
# The maximum receive socket buffer size in bytes 
net.core.wmem_default = 262144 
# The default setting (in bytes) of the socket send buffer. 
net.core.wmem_max = 4194304 
# The maximum send socket buffer size in bytes. 
net.core.somaxconn = 4096 
net.ipv4.tcp_max_syn_backlog = 4096 
net.ipv4.tcp_keepalive_intvl = 20 
net.ipv4.tcp_keepalive_probes = 3 
net.ipv4.tcp_keepalive_time = 60 
net.ipv4.tcp_mem = 8388608 12582912 16777216 
net.ipv4.tcp_fin_timeout = 5 
net.ipv4.tcp_synack_retries = 2 
net.ipv4.tcp_syncookies = 1 
# 开启SYN Cookies。当出现SYN等待队列溢出时,启用cookie来处理,可防范少量的SYN攻击 
net.ipv4.tcp_timestamps = 1 
# 减少time_wait 
net.ipv4.tcp_tw_recycle = 0 
# 如果=1则开启TCP连接中TIME-WAIT套接字的快速回收,但是NAT环境可能导致连接失败,建议服务端关闭它 
net.ipv4.tcp_tw_reuse = 1 
# 开启重用。允许将TIME-WAIT套接字重新用于新的TCP连接 
net.ipv4.tcp_max_tw_buckets = 262144 
net.ipv4.tcp_rmem = 8192 87380 16777216 
net.ipv4.tcp_wmem = 8192 65536 16777216 
 
net.nf_conntrack_max = 1200000 
net.netfilter.nf_conntrack_max = 1200000 
 
vm.dirty_background_bytes = 409600000 
# 系统脏页到达这个值,系统后台刷脏页调度进程 pdflush(或其他) 自动将(dirty_expire_centisecs/100)秒前的脏页刷到磁盘 
# 默认为10%,大内存机器建议调整为直接指定多少字节 
 
vm.dirty_expire_centisecs = 3000 
# 比这个值老的脏页,将被刷到磁盘。3000表示30秒。 
vm.dirty_ratio = 95 
# 如果系统进程刷脏页太慢,使得系统脏页超过内存 95 % 时,则用户进程如果有写磁盘的操作(如fsync, fdatasync等调用),则需要主动把系统脏页刷出。 
# 有效防止用户进程刷脏页,在单机多实例,并且使用CGROUP限制单实例IOPS的情况下非常有效。 
 
vm.dirty_writeback_centisecs = 100 
# pdflush(或其他)后台刷脏页进程的唤醒间隔, 100表示1秒。 
 
vm.swappiness = 0 
# 不使用交换分区 
 
vm.mmap_min_addr = 65536 
vm.overcommit_memory = 0 
# 在分配内存时,允许少量over malloc, 如果设置为 1, 则认为总是有足够的内存,内存较少的测试环境可以使用 1 . 
 
vm.overcommit_ratio = 90 
# 当overcommit_memory = 2 时,用于参与计算允许指派的内存大小。 
vm.swappiness = 0 
# 关闭交换分区 
vm.zone_reclaim_mode = 0 
# 禁用 numa, 或者在vmlinux中禁止. 
net.ipv4.ip_local_port_range = 40000 65535 
# 本地自动分配的TCP, UDP端口号范围 
fs.nr_open=20480000 
# 单个进程允许打开的文件句柄上限
 
net.ipv4.tcp_max_syn_backlog = 16384
net.core.somaxconn = 16384
 
# 以下参数请注意 
# vm.extra_free_kbytes = 4096000 
# vm.min_free_kbytes = 2097152 # vm.min_free_kbytes 建议每32G内存分配1G vm.min_free_kbytes
# 如果是小内存机器,以上两个值不建议设置 
# vm.nr_hugepages = 66536 
# 建议shared buffer设置超过64GB时 使用大页,页大小 /proc/meminfo Hugepagesize 
# vm.lowmem_reserve_ratio = 1 1 1 
# 对于内存大于64G时,建议设置,否则建议默认值 256 256 32 

2. 使配置生效

sysctl -p 

配置Linux资源限制

# vi /etc/security/limits.conf 
 
# nofile超过1048576的话,一定要先将sysctl的fs.nr_open设置为更大的值,并生效后才能继续设置nofile. 
 
* soft nofile 1024000 
* hard nofile 1024000 
* soft nproc unlimited 
* hard nproc unlimited 
* soft core unlimited 
* hard core unlimited 
* soft memlock unlimited 
* hard memlock unlimited 

最好再关注一下/etc/security/limits.d目录中的文件内容,会覆盖/etc/security/limits.conf的配置。

已有进程的ulimit请查看/proc/pid/limits,例如

Limit Soft Limit Hard Limit Units 
Max cpu time unlimited unlimited seconds 
Max file size unlimited unlimited bytes 
Max data size unlimited unlimited bytes 
Max stack size 10485760 unlimited bytes 
Max core file size 0 unlimited bytes 
Max resident set unlimited unlimited bytes 
Max processes 11286 11286 processes 
Max open files 1024 4096 files 
Max locked memory 65536 65536 bytes 
Max address space unlimited unlimited bytes 
Max file locks unlimited unlimited locks 
Max pending signals 11286 11286 signals 
Max msgqueue size 819200 819200 bytes 
Max nice priority 0 0 
Max realtime priority 0 0 
Max realtime timeout unlimited unlimited us 

如果你要启动其他进程,建议退出SHELL再进一遍,确认ulimit环境配置已生效,再启动。

配置Linux防火墙

(建议按业务场景设置,这里先清除全部规则)

iptables -F 
iptables -X

配置范例:

# 私有网段 
-A INPUT -s 192.168.0.0/16 -j ACCEPT 
-A INPUT -s 10.0.0.0/8 -j ACCEPT 
-A INPUT -s 172.16.0.0/16 -j ACCEPT 

SElinux

如果没有这方面的需求,建议禁用

## 临时生效
setenforce 0
## 永久生效方法,修改配置SElinux文件
# vi /etc/sysconfig/selinux 
 
SELINUX=disabled 
SELINUXTYPE=targeted 

关闭不必要的系统服务

chkconfig --list|grep on 

关闭不必要的, 例如

chkconfig iscsi off 

配置SSD盘的IO调度策略(注意区分grub1和grub2)

1、grub1代采用这种方法:加上前面的默认IO调度,如下:

如果所有盘都是SSD,可以这样。

vi /boot/grub.conf 
 
elevator=deadline numa=off transparent_hugepage=never 

2、如果只是某些盘是SSD,那么只对这些盘设置为deadline。或者如果用的是grub2:

chmod +x /etc/rc.d/rc.local 
vi /etc/rc.local 
 
# 追加 
 
echo deadline > /sys/block/vda/queue/scheduler 
echo deadline > /sys/block/vdb/queue/scheduler 
# 其他盘, ...... 

关闭透明大页

1、grub1代采用这种方法:加上前面的默认IO调度,如下:

vi /boot/grub.conf 
 
elevator=deadline numa=off transparent_hugepage=never 

2、grub2代,可以使用rc.local。

chmod +x /etc/rc.d/rc.local 
vi /etc/rc.local 
 
# 追加 
 
if test -f /sys/kernel/mm/transparent_hugepage/enabled; then 
echo never > /sys/kernel/mm/transparent_hugepage/enabled 
fi 

立即生效:

echo never > /sys/kernel/mm/transparent_hugepage/enabled 
 
cat /sys/kernel/mm/transparent_hugepage/enabled 
always madvise [never] 

相关推荐

服务器数据恢复—Raid5数据灾难不用愁,Raid5数据恢复原理了解下

Raid5数据恢复算法原理:分布式奇偶校验的独立磁盘结构(被称之为raid5)的数据恢复有一个“奇偶校验”的概念。可以简单的理解为二进制运算中的“异或运算”,通常使用的标识是xor。运算规则:若二者值...

服务器数据恢复—多次异常断电导致服务器raid不可用的数据恢复

服务器数据恢复环境&故障:由于机房多次断电导致一台服务器中raid阵列信息丢失。该阵列中存放的是文档,上层安装的是Windowsserver操作系统,没有配置ups。因为服务器异常断电重启后,rai...

服务器数据恢复-V7000存储更换磁盘数据同步失败的数据恢复案例

服务器数据恢复环境:P740+AIX+Sybase+V7000存储,存储阵列柜上共12块SAS机械硬盘(其中一块为热备盘)。服务器故障:存储阵列柜中有磁盘出现故障,工作人员发现后更换磁盘,新更换的磁盘...

「服务器数据恢复」重装系统导致XFS文件系统分区丢失的数据恢复

服务器数据恢复环境:DellPowerVault系列磁盘柜;用RAID卡创建的一组RAID5;分配一个LUN。服务器故障:在Linux系统层面对LUN进行分区,划分sdc1和sdc2两个分区。将sd...

服务器数据恢复-ESXi虚拟机被误删的数据恢复案例

服务器数据恢复环境:一台服务器安装的ESXi虚拟化系统,该虚拟化系统连接了多个LUN,其中一个LUN上运行了数台虚拟机,虚拟机安装WindowsServer操作系统。服务器故障&分析:管理员因误操作...

「服务器数据恢复」Raid5阵列两块硬盘亮黄灯掉线的数据恢复案例

服务器数据恢复环境:HPStorageWorks某型号存储;虚拟化平台为vmwareexsi;10块磁盘组成raid5(有1块热备盘)。服务器故障:raid5阵列中两块硬盘指示灯变黄掉线,无法读取...

服务器数据恢复—基于oracle数据库的SAP数据恢复案例

服务器存储数据恢复环境:某品牌服务器存储中有一组由6块SAS硬盘组建的RAID5阵列,其中有1块硬盘作为热备盘使用。上层划分若干lun,存放Oracle数据库数据。服务器存储故障&分析:该RAID5阵...

「服务器虚拟化数据恢复」Xen Server环境下数据库数据恢复案例

服务器虚拟化数据恢复环境:Dell某型号服务器;数块STAT硬盘通过raid卡组建的RAID10;XenServer服务器虚拟化系统;故障虚拟机操作系统:WindowsServer,部署Web服务...

服务器数据恢复—RAID故障导致oracle无法启动的数据恢复案例

服务器数据恢复环境:某品牌服务器中有一组由4块SAS磁盘做的RAID5磁盘阵列。该服务器操作系统为windowsserver,运行了一个单节点Oracle,数据存储为文件系统,无归档。该oracle...

服务器数据恢复—服务器磁盘阵列常见故障表现&解决方案

RAID(磁盘阵列)是一种将多块物理硬盘整合成一个虚拟存储的技术,raid模块相当于一个存储管理的中间层,上层接收并执行操作系统及文件系统的数据读写指令,下层管理数据在各个物理硬盘上的存储及读写。相对...

「服务器数据恢复」IBM某型号服务器RAID5磁盘阵列数据恢复案例

服务器数据恢复环境:IBM某型号服务器;5块SAS硬盘组成RAID5磁盘阵列;存储划分为1个LUN和3个分区:第一个分区存放windowsserver系统,第二个分区存放SQLServer数据库,...

服务器数据恢复—Zfs文件系统下误删除文件如何恢复数据?

服务器故障:一台zfs文件系统服务器,管理员误操作删除服务器上的数据。服务器数据恢复过程:1、将故障服务器所有磁盘编号后取出,硬件工程师检测所有硬盘后没有发现有磁盘存在硬件故障。以只读方式将全部磁盘做...

服务器数据恢复—Linux+raid5服务器数据恢复案例

服务器数据恢复环境:某品牌linux操作系统服务器,服务器中有4块SAS接口硬盘组建一组raid5阵列。服务器中存放的数据有数据库、办公文档、代码文件等。服务器故障&检测:服务器在运行过程中突然瘫痪,...

服务器数据恢复—Sql Server数据库数据恢复案例

服务器数据恢复环境:一台安装windowsserver操作系统的服务器。一组由8块硬盘组建的RAID5,划分LUN供这台服务器使用。在windows服务器内装有SqlServer数据库。存储空间LU...

服务器数据恢复—阿里云ECS网站服务器数据恢复案例

云服务器数据恢复环境:阿里云ECS网站服务器,linux操作系统+mysql数据库。云服务器故障:在执行数据库版本更新测试时,在生产库误执行了本来应该在测试库执行的sql脚本,导致生产库部分表被tru...

取消回复欢迎 发表评论: