Ubuntu20.04下的HPL集群3节点搭建
nanshan 2025-01-06 14:38 14 浏览 0 评论
1.首先安装Ubuntu20.04 amd64,安装过程比较简单,在此不做叙述了。下面出场的就是硬件们了~~~龙芯3C5000来了我也搭!目前只能用下E5 2682 V4了,主频也是2.5G,不过集成了16个核心,支持HT~
2.链接网络,更新系统:
①执行更新
# apt-get update
②安装ssh工具和net工具,方便远程操作及熟悉的ifconfig指令
#apt-get install ssh
# apt-get install net-tools
③安装samba,建立同Windows之间的文件传递
#apt-get install samba samba-common
安装完成后配置samba,步骤如下:
a.新建Ubuntu端共享文件夹
# mkdir –p /home/share
b.修改samba配置文件
# vi /etc/samba/smb.conf
c.在配置文件最后添加:
[node01]
comment = node01 share
path = /home/share #此处为Ubuntu端需要共享的文件夹绝对路径
browseable = yes
writable = yes
available = yes
valid users = node01 #此处为登陆samba的用户,必须在Ubuntu中存在
d.修改共享文件夹权限使得Windows访问后可以读写,#chmod 777 /home/share
e.设置samba访问用户密码,为了方便可以直接设置用户登陆密码:
# smbpasswd -a node01
需要输入2次,输完按一次回车。
root@node01:/home/node01# smbpasswd -a node01
New SMB password:
Retype new SMB password:
Added user node01.
f.重新启动samba服务,# service smbd restart
g.回到Windows端,运行输入:\\192.168.199.200,可以看到文件夹node01,双击输入用户名密码(即之前e步骤所指)
h.然后就可以方便的交互文件了,这是笔者最喜欢的方式,当然是同一网络网段内方便,比ftp好玩。
接下来就是给系统减负,不启动桌面直接进命令行模式。
a.# vi /etc/default/grub
将:GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"
改为:GRUB_CMDLINE_LINUX_DEFAULT="text"
b.# update-grub
c.# systemctl set-default multi-user.target
d.# reboot
至此可以安心开始HPL测试环境的搭建了:
Ⅰ.安装gcc、gfortran、make等必要工具
# apt-get install gcc
# apt-get install g++
# apt-get install gfortran
# apt-get install make
Ⅱ.将hpl-2.3.tar.gz、mpich-3.3.2.tar.gz和OpenBLAS-0.3.17.tar.gz拷贝到samba共享文件夹(本文为/home/share/HPL文件夹下):
a.解压mpich-3.3.2.tar.gz并进入源码文件夹
# tar zxvf mpich-3.3.2.tar.gz
# cd mpich-3.3.2
配置mpich和安装:
# ./configure --prefix=/usr/local/mpich3.3.2
# make
# make install
设置环境变量脚本
# cd /home/share/HPL
# touch env.sh
# vi env.sh
添加如下内容:
export PATH=$PATH:/usr/local/mpich3.3.2/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/mpich3.3.2/lib
# chmod 777 env.sh
b.解压OpenBLAS-0.3.17.tar.gz并进入源码文件夹
# tar zxvf OpenBLAS-0.3.17.tar.gz
# cd OpenBLAS-0.3.17
# make
# make PREFIX=/usr/local/openblas install
c. 解压hpl-2.3.tar.gz并进入源码文件夹
# tar zxvf hpl-2.3.tar.gz
# cd hpl-2.3
接下来配置Makefile文件,在setup文件夹下有很多模板,此处使用Make.Linux_PII_FBLAS
# cp setup/Make.Linux_PII_FBLAS .
# mv Make.Linux_PII_FBLAS Make.E5x2
上门的E5x2就是这个Make的体系结构名称,后续需要用到,因为我的主板是双路E5,名称随意取即可
修改:
ARCH = E5x2
TOPdir = /home/share/HPL/hpl-2.3
MPdir = /usr/local/mpich3.3.2
MPlib = $(MPdir)/lib/libmpi.so
LAlib = $(LAdir)/lib/libopenblas.a
CC = /usr/local/mpich3.3.2/bin/mpicc
CCFLAGS = $(HPL_DEFS) -pthread -fomit-frame-pointer -fomit-frame-pointer -O3 -funroll-loops -W -Wall
LINKER = /usr/local/mpich3.3.2/bin/mpif77
保存后关闭,开始编译
# make arch=E5x2
完成后会在顶层目录下生成bin文件夹
# cd /home/share/HPL/hpl-2.3/bin/E5x2
里面有2个文件,分别是:HPL.dat和xhpl,前一个是配置测试用的参数,通常调参数就是指的改它内容。接下来测试运行:
# mpirun -np 4 ./xhpl
其中4表示使用4个进程运行,建议和cpu的物理核心数量一致(注意区分是否开启了HT,满载测试HT会减低效率)
另外推荐一个HPL建议网站:http://hpl-calculator.sourceforge.net/
多节点MPICH-HPL测试
上面讲述了单节点的配置和运行测试,一般使用环境都是多节点并行集群计算形式,因此多节点测试十分必要,也很有意思。
a.首先需要配置ssh无密码互访,建立节点间的网络传递
# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): Created directory '/root/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa
Your public key has been saved in /root/.ssh/id_rsa.pub
The key fingerprint is:
SHA256:nszzwk6rQGp6How2xkbK8mYwZUpoM6eYqNVNg8tWA9w root@node01
The key's randomart image is:
+---[RSA 3072]----+
| . . |
| o E |
|. o |
|.=o.. = |
|=*=o.= oS |
|%+.o= .+ . |
|=@=.. .B |
|*+=. . .o+ |
|.=o .oo.. |
+----[SHA256]-----+
然后分别在3台机器上运行该命令生产公钥
# cd ~/.ssh
# touch authorized_keys
在三台机器上分别添加另外2台机器信息
# vi /etc/hosts
笔者设置的内容如下:
root@node01:~/.ssh# cat /etc/hosts
127.0.0.1 localhost
#127.0.1.1 node01 #需要注释掉
192.168.199.204 node03
192.168.199.203 node02
192.168.199.205 node01
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
测试node01同node02、node03连通性(其余同理),正常机器会把名称替换为IP,ping通即可
# ping node02
# ping node03
在node01-node03上运行
# cat id_rsa.pub >> authorized_keys
最偷懒的方法就是通过putty复制各自的公钥到所有节点:
node02→node01
node03→node01
最后将node01的公钥(包含node01 node02 node03的公钥)完整复制到其他2台节点上。
然后第一次ssh nodeXX需要输入yes,往后就不用密码直接、互相ssh登录任意node了。
b.然后开始通过ssh复制需要运行的hpl测试程序到所有node
首先在node02和node03上面建立相同的文件夹(本文是在node01上面编译安装mpich、openblas和hpl的)
# mkdir -p /home/share/HPL
# chmod 777 /home/share/HPL (权限设置,否则scp拷贝容易失败)
拷贝hpl到node02(node03同理,IP、文件夹路径根据实际情况修改)
# scp -r hpl-2.3 node02:/home/share/HPL
同理,mpich和openblas编译好的拷贝至/usr/local
# scp -r /usr/local/openblas node02:/usr/local
# scp -r /usr/local/mpich3.3.2 node02:/usr/local
c.建立mpich环境脚本
export PATH=$PATH:/usr/local/mpich3.3.2/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/mpich3.3.2/lib
保存为:env.sh,同样拷贝到每个节点,然后在个节点# source env.sh一下即可,各节点就可以使用mpirun、mpicc等工具了。
d.建立并行主机核心分配文件
node01:32
node02:32
node03:32
保存为:servers,下一步给mpirun –f使用,表示每个节点node提供32个计算核心,当然可以每个4核心,看实际情况,本文用了2路E5 2682 V4因此每个节点共计32个核心,每个节点共计32GB DDR4 ECC内存,3节点一共96核心。共计128GB内存!够用了够用了。[憨笑]
接下来就可以正式运行测试!
# mpirun -np 96 -f /home/share/HPL/servers ./xhpl
然后就进入漫长的计算了~~~通过修改HPL.dat文件参数提升成绩。3个节点96个核心都在100%负荷运行了~~~
相关推荐
- 0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)
-
文档编写目的在前面的文档中,介绍了在有CM和无CM两种情况下使用rpm方式安装CDH5.10.0,本文档将介绍如何在无CM的情况下使用rpm方式安装CDH6.2.0,与之前安装C5进行对比。环境介绍:...
- ARM64 平台基于 openEuler + iSula 环境部署 Kubernetes
-
为什么要在arm64平台上部署Kubernetes,而且还是鲲鹏920的架构。说来话长。。。此处省略5000字。介绍下系统信息;o架构:鲲鹏920(Kunpeng920)oOS:ope...
- 生产环境starrocks 3.1存算一体集群部署
-
集群规划FE:节点主要负责元数据管理、客户端连接管理、查询计划和查询调度。>3节点。BE:节点负责数据存储和SQL执行。>3节点。CN:无存储功能能的BE。环境准备CPU检查JDK...
- 在CentOS上添加swap虚拟内存并设置优先级
-
现如今很多云服务器都会自己配置好虚拟内存,当然也有很多没有配置虚拟内存的,虚拟内存可以让我们的低配服务器使用更多的内存,可以减少很多硬件成本,比如我们运行很多服务的时候,内存常常会满,当配置了虚拟内存...
- 国产深度(deepin)操作系统优化指南
-
1.升级内核随着deepin版本的更新,会自动升级系统内核,但是我们依旧可以通过命令行手动升级内核,以获取更好的性能和更多的硬件支持。具体操作:-添加PPAs使用以下命令添加PPAs:```...
- postgresql-15.4 多节点主从(读写分离)
-
1、下载软件[root@TX-CN-PostgreSQL01-252software]#wgethttps://ftp.postgresql.org/pub/source/v15.4/postg...
- Docker 容器 Java 服务内存与 GC 优化实施方案
-
一、设置Docker容器内存限制(生产环境建议)1.查看宿主机可用内存bashfree-h#示例输出(假设宿主机剩余16GB可用内存)#Mem:64G...
- 虚拟内存设置、解决linux内存不够问题
-
虚拟内存设置(解决linux内存不够情况)背景介绍 Memory指机器物理内存,读写速度低于CPU一个量级,但是高于磁盘不止一个量级。所以,程序和数据如果在内存的话,会有非常快的读写速度。但是,内存...
- Elasticsearch性能调优(5):服务器配置选择
-
在选择elasticsearch服务器时,要尽可能地选择与当前业务量相匹配的服务器。如果服务器配置太低,则意味着需要更多的节点来满足需求,一个集群的节点太多时会增加集群管理的成本。如果服务器配置太高,...
- Es如何落地
-
一、配置准备节点类型CPU内存硬盘网络机器数操作系统data节点16C64G2000G本地SSD所有es同一可用区3(ecs)Centos7master节点2C8G200G云SSD所有es同一可用区...
- 针对Linux内存管理知识学习总结
-
现在的服务器大部分都是运行在Linux上面的,所以,作为一个程序员有必要简单地了解一下系统是如何运行的。对于内存部分需要知道:地址映射内存管理的方式缺页异常先来看一些基本的知识,在进程看来,内存分为内...
- MySQL进阶之性能优化
-
概述MySQL的性能优化,包括了服务器硬件优化、操作系统的优化、MySQL数据库配置优化、数据库表设计的优化、SQL语句优化等5个方面的优化。在进行优化之前,需要先掌握性能分析的思路和方法,找出问题,...
- Linux Cgroups(Control Groups)原理
-
LinuxCgroups(ControlGroups)是内核提供的资源分配、限制和监控机制,通过层级化进程分组实现资源的精细化控制。以下从核心原理、操作示例和版本演进三方面详细分析:一、核心原理与...
- linux 常用性能优化参数及理解
-
1.优化内核相关参数配置文件/etc/sysctl.conf配置方法直接将参数添加进文件每条一行.sysctl-a可以查看默认配置sysctl-p执行并检测是否有错误例如设置错了参数:[roo...
- 如何在 Linux 中使用 Sysctl 命令?
-
sysctl是一个用于配置和查询Linux内核参数的命令行工具。它通过与/proc/sys虚拟文件系统交互,允许用户在运行时动态修改内核参数。这些参数控制着系统的各种行为,包括网络设置、文件...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- linux 查询端口号 (58)
- docker映射容器目录到宿主机 (66)
- 杀端口 (60)
- yum更换阿里源 (62)
- internet explorer 增强的安全配置已启用 (65)
- linux自动挂载 (56)
- 禁用selinux (55)
- sysv-rc-conf (69)
- ubuntu防火墙状态查看 (64)
- windows server 2022激活密钥 (56)
- 无法与服务器建立安全连接是什么意思 (74)
- 443/80端口被占用怎么解决 (56)
- ping无法访问目标主机怎么解决 (58)
- fdatasync (59)
- 405 not allowed (56)
- 免备案虚拟主机zxhost (55)
- linux根据pid查看进程 (60)
- dhcp工具 (62)
- mysql 1045 (57)
- 宝塔远程工具 (56)
- ssh服务器拒绝了密码 请再试一次 (56)
- ubuntu卸载docker (56)
- linux查看nginx状态 (63)
- tomcat 乱码 (76)
- 2008r2激活序列号 (65)