百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Ubuntu20.04下的HPL集群3节点搭建

nanshan 2025-01-06 14:38 14 浏览 0 评论

1.首先安装Ubuntu20.04 amd64,安装过程比较简单,在此不做叙述了。下面出场的就是硬件们了~~~龙芯3C5000来了我也搭!目前只能用下E5 2682 V4了,主频也是2.5G,不过集成了16个核心,支持HT~

2.链接网络,更新系统:

①执行更新

# apt-get update

②安装ssh工具和net工具,方便远程操作及熟悉的ifconfig指令

#apt-get install ssh

# apt-get install net-tools

③安装samba,建立同Windows之间的文件传递

#apt-get install samba samba-common

安装完成后配置samba,步骤如下:

a.新建Ubuntu端共享文件夹

# mkdir –p /home/share

b.修改samba配置文件

# vi /etc/samba/smb.conf

c.在配置文件最后添加:

[node01]

comment = node01 share

path = /home/share #此处为Ubuntu端需要共享的文件夹绝对路径

browseable = yes

writable = yes

available = yes

valid users = node01 #此处为登陆samba的用户,必须在Ubuntu中存在

d.修改共享文件夹权限使得Windows访问后可以读写,#chmod 777 /home/share

e.设置samba访问用户密码,为了方便可以直接设置用户登陆密码:

# smbpasswd -a node01

需要输入2次,输完按一次回车。

root@node01:/home/node01# smbpasswd -a node01

New SMB password:

Retype new SMB password:

Added user node01.

f.重新启动samba服务,# service smbd restart

g.回到Windows端,运行输入:\\192.168.199.200,可以看到文件夹node01,双击输入用户名密码(即之前e步骤所指)

h.然后就可以方便的交互文件了,这是笔者最喜欢的方式,当然是同一网络网段内方便,比ftp好玩。

接下来就是给系统减负,不启动桌面直接进命令行模式。

a.# vi /etc/default/grub

将:GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"

改为:GRUB_CMDLINE_LINUX_DEFAULT="text"

b.# update-grub

c.# systemctl set-default multi-user.target

d.# reboot

至此可以安心开始HPL测试环境的搭建了:

Ⅰ.安装gcc、gfortran、make等必要工具

# apt-get install gcc

# apt-get install g++

# apt-get install gfortran

# apt-get install make

Ⅱ.将hpl-2.3.tar.gz、mpich-3.3.2.tar.gz和OpenBLAS-0.3.17.tar.gz拷贝到samba共享文件夹(本文为/home/share/HPL文件夹下):

a.解压mpich-3.3.2.tar.gz并进入源码文件夹

# tar zxvf mpich-3.3.2.tar.gz

# cd mpich-3.3.2

配置mpich和安装:

# ./configure --prefix=/usr/local/mpich3.3.2

# make

# make install

设置环境变量脚本

# cd /home/share/HPL

# touch env.sh

# vi env.sh

添加如下内容:

export PATH=$PATH:/usr/local/mpich3.3.2/bin

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/mpich3.3.2/lib

# chmod 777 env.sh

b.解压OpenBLAS-0.3.17.tar.gz并进入源码文件夹

# tar zxvf OpenBLAS-0.3.17.tar.gz

# cd OpenBLAS-0.3.17

# make

# make PREFIX=/usr/local/openblas install

c. 解压hpl-2.3.tar.gz并进入源码文件夹

# tar zxvf hpl-2.3.tar.gz

# cd hpl-2.3

接下来配置Makefile文件,在setup文件夹下有很多模板,此处使用Make.Linux_PII_FBLAS

# cp setup/Make.Linux_PII_FBLAS .

# mv Make.Linux_PII_FBLAS Make.E5x2

上门的E5x2就是这个Make的体系结构名称,后续需要用到,因为我的主板是双路E5,名称随意取即可

修改:

ARCH = E5x2

TOPdir = /home/share/HPL/hpl-2.3

MPdir = /usr/local/mpich3.3.2

MPlib = $(MPdir)/lib/libmpi.so

LAlib = $(LAdir)/lib/libopenblas.a

CC = /usr/local/mpich3.3.2/bin/mpicc

CCFLAGS = $(HPL_DEFS) -pthread -fomit-frame-pointer -fomit-frame-pointer -O3 -funroll-loops -W -Wall

LINKER = /usr/local/mpich3.3.2/bin/mpif77

保存后关闭,开始编译

# make arch=E5x2

完成后会在顶层目录下生成bin文件夹

# cd /home/share/HPL/hpl-2.3/bin/E5x2

里面有2个文件,分别是:HPL.dat和xhpl,前一个是配置测试用的参数,通常调参数就是指的改它内容。接下来测试运行:

# mpirun -np 4 ./xhpl

其中4表示使用4个进程运行,建议和cpu的物理核心数量一致(注意区分是否开启了HT,满载测试HT会减低效率)

另外推荐一个HPL建议网站:http://hpl-calculator.sourceforge.net/

多节点MPICH-HPL测试

上面讲述了单节点的配置和运行测试,一般使用环境都是多节点并行集群计算形式,因此多节点测试十分必要,也很有意思。

a.首先需要配置ssh无密码互访,建立节点间的网络传递

# ssh-keygen -t rsa

Generating public/private rsa key pair.

Enter file in which to save the key (/root/.ssh/id_rsa): Created directory '/root/.ssh'.

Enter passphrase (empty for no passphrase):

Enter same passphrase again:

Your identification has been saved in /root/.ssh/id_rsa

Your public key has been saved in /root/.ssh/id_rsa.pub

The key fingerprint is:

SHA256:nszzwk6rQGp6How2xkbK8mYwZUpoM6eYqNVNg8tWA9w root@node01

The key's randomart image is:

+---[RSA 3072]----+

| . . |

| o E |

|. o |

|.=o.. = |

|=*=o.= oS |

|%+.o= .+ . |

|=@=.. .B |

|*+=. . .o+ |

|.=o .oo.. |

+----[SHA256]-----+

然后分别在3台机器上运行该命令生产公钥

# cd ~/.ssh

# touch authorized_keys

在三台机器上分别添加另外2台机器信息

# vi /etc/hosts

笔者设置的内容如下:

root@node01:~/.ssh# cat /etc/hosts

127.0.0.1 localhost

#127.0.1.1 node01 #需要注释掉

192.168.199.204 node03

192.168.199.203 node02

192.168.199.205 node01

# The following lines are desirable for IPv6 capable hosts

::1 ip6-localhost ip6-loopback

fe00::0 ip6-localnet

ff00::0 ip6-mcastprefix

ff02::1 ip6-allnodes

ff02::2 ip6-allrouters

测试node01同node02、node03连通性(其余同理),正常机器会把名称替换为IP,ping通即可

# ping node02

# ping node03

在node01-node03上运行

# cat id_rsa.pub >> authorized_keys

最偷懒的方法就是通过putty复制各自的公钥到所有节点:

node02→node01

node03→node01

最后将node01的公钥(包含node01 node02 node03的公钥)完整复制到其他2台节点上。

然后第一次ssh nodeXX需要输入yes,往后就不用密码直接、互相ssh登录任意node了。

b.然后开始通过ssh复制需要运行的hpl测试程序到所有node

首先在node02和node03上面建立相同的文件夹(本文是在node01上面编译安装mpich、openblas和hpl的)

# mkdir -p /home/share/HPL

# chmod 777 /home/share/HPL (权限设置,否则scp拷贝容易失败)

拷贝hpl到node02(node03同理,IP、文件夹路径根据实际情况修改)

# scp -r hpl-2.3 node02:/home/share/HPL

同理,mpich和openblas编译好的拷贝至/usr/local

# scp -r /usr/local/openblas node02:/usr/local

# scp -r /usr/local/mpich3.3.2 node02:/usr/local

c.建立mpich环境脚本

export PATH=$PATH:/usr/local/mpich3.3.2/bin

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/mpich3.3.2/lib

保存为:env.sh,同样拷贝到每个节点,然后在个节点# source env.sh一下即可,各节点就可以使用mpirun、mpicc等工具了。

d.建立并行主机核心分配文件

node01:32

node02:32

node03:32

保存为:servers,下一步给mpirun –f使用,表示每个节点node提供32个计算核心,当然可以每个4核心,看实际情况,本文用了2路E5 2682 V4因此每个节点共计32个核心,每个节点共计32GB DDR4 ECC内存,3节点一共96核心。共计128GB内存!够用了够用了。[憨笑]

接下来就可以正式运行测试!

# mpirun -np 96 -f /home/share/HPL/servers ./xhpl

然后就进入漫长的计算了~~~通过修改HPL.dat文件参数提升成绩。3个节点96个核心都在100%负荷运行了~~~

相关推荐

0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)

文档编写目的在前面的文档中,介绍了在有CM和无CM两种情况下使用rpm方式安装CDH5.10.0,本文档将介绍如何在无CM的情况下使用rpm方式安装CDH6.2.0,与之前安装C5进行对比。环境介绍:...

ARM64 平台基于 openEuler + iSula 环境部署 Kubernetes

为什么要在arm64平台上部署Kubernetes,而且还是鲲鹏920的架构。说来话长。。。此处省略5000字。介绍下系统信息;o架构:鲲鹏920(Kunpeng920)oOS:ope...

生产环境starrocks 3.1存算一体集群部署

集群规划FE:节点主要负责元数据管理、客户端连接管理、查询计划和查询调度。>3节点。BE:节点负责数据存储和SQL执行。>3节点。CN:无存储功能能的BE。环境准备CPU检查JDK...

在CentOS上添加swap虚拟内存并设置优先级

现如今很多云服务器都会自己配置好虚拟内存,当然也有很多没有配置虚拟内存的,虚拟内存可以让我们的低配服务器使用更多的内存,可以减少很多硬件成本,比如我们运行很多服务的时候,内存常常会满,当配置了虚拟内存...

国产深度(deepin)操作系统优化指南

1.升级内核随着deepin版本的更新,会自动升级系统内核,但是我们依旧可以通过命令行手动升级内核,以获取更好的性能和更多的硬件支持。具体操作:-添加PPAs使用以下命令添加PPAs:```...

postgresql-15.4 多节点主从(读写分离)

1、下载软件[root@TX-CN-PostgreSQL01-252software]#wgethttps://ftp.postgresql.org/pub/source/v15.4/postg...

Docker 容器 Java 服务内存与 GC 优化实施方案

一、设置Docker容器内存限制(生产环境建议)1.查看宿主机可用内存bashfree-h#示例输出(假设宿主机剩余16GB可用内存)#Mem:64G...

虚拟内存设置、解决linux内存不够问题

虚拟内存设置(解决linux内存不够情况)背景介绍  Memory指机器物理内存,读写速度低于CPU一个量级,但是高于磁盘不止一个量级。所以,程序和数据如果在内存的话,会有非常快的读写速度。但是,内存...

Elasticsearch性能调优(5):服务器配置选择

在选择elasticsearch服务器时,要尽可能地选择与当前业务量相匹配的服务器。如果服务器配置太低,则意味着需要更多的节点来满足需求,一个集群的节点太多时会增加集群管理的成本。如果服务器配置太高,...

Es如何落地

一、配置准备节点类型CPU内存硬盘网络机器数操作系统data节点16C64G2000G本地SSD所有es同一可用区3(ecs)Centos7master节点2C8G200G云SSD所有es同一可用区...

针对Linux内存管理知识学习总结

现在的服务器大部分都是运行在Linux上面的,所以,作为一个程序员有必要简单地了解一下系统是如何运行的。对于内存部分需要知道:地址映射内存管理的方式缺页异常先来看一些基本的知识,在进程看来,内存分为内...

MySQL进阶之性能优化

概述MySQL的性能优化,包括了服务器硬件优化、操作系统的优化、MySQL数据库配置优化、数据库表设计的优化、SQL语句优化等5个方面的优化。在进行优化之前,需要先掌握性能分析的思路和方法,找出问题,...

Linux Cgroups(Control Groups)原理

LinuxCgroups(ControlGroups)是内核提供的资源分配、限制和监控机制,通过层级化进程分组实现资源的精细化控制。以下从核心原理、操作示例和版本演进三方面详细分析:一、核心原理与...

linux 常用性能优化参数及理解

1.优化内核相关参数配置文件/etc/sysctl.conf配置方法直接将参数添加进文件每条一行.sysctl-a可以查看默认配置sysctl-p执行并检测是否有错误例如设置错了参数:[roo...

如何在 Linux 中使用 Sysctl 命令?

sysctl是一个用于配置和查询Linux内核参数的命令行工具。它通过与/proc/sys虚拟文件系统交互,允许用户在运行时动态修改内核参数。这些参数控制着系统的各种行为,包括网络设置、文件...

取消回复欢迎 发表评论: