百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Docker部署各种服务(服务器docker部署)

nanshan 2024-10-10 07:16 9 浏览 0 评论

Docker搭建MySQL5.7

# 拉取 mysql 5.7
docker pull mysql:5.7   

检查是否拉取成功

docker images 

创建MySql容器

docker run -p 3306:3306 --name mysql -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7
# 或者   -v:配置数据卷

docker run -p 3306:3306 --name=mysql --privileged=true -v /mysql/data:/var/lib/mysql -v /mysql/log:/var/log/mysql -v /mysql/conf:/etc/mysql/conf.d -e MYSQL_ROOT_PASSWORD=123456  -d mysql:5.7
  • –name:容器名,这里命名为mysql
  • -e:配置信息,此处配置mysql的root用户的登陆密码
  • -p:端口映射,此处映射 主机3306端口 到 容器的3306端口
  • -d:后台运行容器,保证在退出终端后容器继续运行
  • -v:宿主机与docker容器目录做挂载

如果报错invalid reference format,可能是因为复制后格式不对导致的,需要手动敲一下命令,尤其是里边的横杠;

检查容器是否正确运行

docker ps
# 或者
docker container ls

可以看到容器ID,容器的源镜像,启动命令,创建时间,状态,端口映射信息,容器名字


本地使用Navicat链接MySql


配置用户名是root,密码是root的用户可以远程连接可(不配置的话,项目启动报错,但是navicat可以连接)

GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;

FLUSH   PRIVILEGES;


下边的内容可以不做

进入运行MySQL的docker容器命令

docker exec ‐it mysql /bin/bash;


开机自动运行mysql容器

docker update --restart=always 容器id

关闭开机自动运行mysql容器

docker update --restart=no 容器id

使用select now();命令,发现日期不对,那是因为容器与宿主机时间没做同步。下一篇解决该问题;

Docker搭建Redis

docker pull redis:5;

docker run -p 6379:6379 --name redis -v /mydata/redis/data:/data -d redis:5  --appendonly yes

# 或者启动时设置密码为123456
docker run -p 6379:6379 --name redis -v /mydata/redis/data:/data -d redis:5 --requirepass 123456 --appendonly yes

进入Redis容器使用redis-cli命令进行连接

docker exec -it redis redis-cli

Docker搭建RabbitMq

# 下载镜像
docker pull rabbitmq:3.7.15;
# 创建容器
docker run -p 5672:5672 -p 15672:15672 --name rabbitmq -d rabbitmq:3.7.15

进入容器并开启管理功能:

# 进入容器
docker exec -it rabbitmq /bin/bash 
# 开启管理功能
rabbitmq-plugins enable rabbitmq_management

关闭防火墙

firewall-cmd --zone=public --add-port=15672/tcp --permanent

浏览器即可访问
http://192.168.199.128:15672/


账号密码:guest 、guest

Docker安装ElasticSearch、IK分词器、kibana、logstash

Docker安装单机版ElasticSearch

因为我们后边还需要部署kibana、logstash容器,因此需要让es和kibana、logstash容器互联,这里首先创建一个网络

创建挂在目录

mkdir -p /home/docker/elasticsearch/
mkdir -p /home/docker/elasticsearch/logs

# 赋权限
chmod -R 777 /home/docker/elasticsearch/

下载elasticsearch镜像

docker pull elasticsearch:7.6.2;

修改虚拟内存区域大小,否则会因为过小而无法启动:

sysctl -w vm.max_map_count=262144

初次启动镜像

docker run --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx128m" \
--network es-net \
-d elasticsearch:7.6.2

参数解释:

-e “cluster.name=es-docker-cluster”:设置集群名称

-e “http.host=0.0.0.0”:监听的地址,可以外网访问

-e “ES_JAVA_OPTS=-Xms512m -Xmx512m”:内存大小

-e “discovery.type=single-node”:非集群模式

-v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录(前边是宿主机目录,后边是容器目录)

-v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录(前边是宿主机目录,后边是容器目录)

-v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录

–privileged:授予逻辑卷访问权

–network es-net :加入一个名为es-net的网络中

-p 9200:9200:端口映射配置

在浏览器中输入:http://192.168.52.128:9200, 即可看到elasticsearch的响应结果:


复制配置文件到指定目录

docker cp elasticsearch:/usr/share/elasticsearch/config/ /home/docker/elasticsearch/
docker cp elasticsearch:/usr/share/elasticsearch/data/ /home/docker/elasticsearch/
docker cp elasticsearch:/usr/share/elasticsearch/plugins/ /home/docker/elasticsearch/

编辑jvm.options:根据实际情况修改JVM内存大小

cd /home/docker/elasticsearch//config/ vim jvm.options

默认jvm配置

-Xms1g
-Xmx1g

编辑elasticsearch.yml:追加如下内容

# 追加内容
http.cors.enabled: true
http.cors.allow-origin: "*"
node.name: node-1
discovery.seed_hosts: ["127.0.0.1"]

删除原有容器:

docker stop elasticsearch
docker rm elasticsearch

挂载启动新容器

docker run --name elasticsearch --restart=always \
-p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" \
-v /home/docker/elasticsearch/config:/usr/share/elasticsearch/config \
-v /home/docker/elasticsearch/data:/usr/share/elasticsearch/data \
-v /home/docker/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-v /home/docker/elasticsearch/logs:/usr/share/elasticsearch/logs \
--network=es-net \
-d elasticsearch:7.6.2

再次在浏览器中输入:http://192.168.119.128:9200


Docker安装IK分词器

下面我们需要去GitHub下载ik分词器(注意版本,要与elasticsearch版本一致,都是7.6.2),https://github.com/,搜索:elasticsearch-analysis-ik


找到发行版


选择与ES一致的版本



下载后将压缩包上传到/home/docker/elasticsearch/plugins目录,解压

# 如果unzip命令不存在,则安装:yum install unzip
unzip elasticsearch-analysis-ik-7.6.2.zip -d ik-analyzer

# 解压完成后,删除`elasticsearch-analysis-ik-7.6.2.zip`压缩包
rm elasticsearch-analysis-ik-7.6.2.zip -rf

重启

docker restart elasticsearch

验证

使用docker exec -it elasticsearch /bin/bash 命令 进入容器内部

进入容器的 cd /usr/share/elasticsearch/bin 目录

执行 elasticsearch-plugin list 命令(列出es安装的所有插件)

如果列出了 ik-analyzer 就说明es的ik中文分词器安装成功了


测试:使用postman进行测试,发现分词成功


Docker安装kibana

docker pull kibana:7.6.2
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://elasticsearch:9200 \
--network=es-net \
-p 5601:5601  \
kibana:7.6.2

参数解释:

–network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中

-e ELASTICSEARCH_HOSTS=http://elasticsearch:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch

-p 5601:5601:端口映射配置

kibana启动一般比较慢,需要多等待一会,可以通过命令查看启动日志:

docker logs -f kibana


访问:http://192.168.52.128:5601

Docker安装logstash

docker pull logstash:7.6.2

修改Logstash的配置文件logstash.conf中output节点下的Elasticsearch连接地址为es:9200,配置文件地址:

input {
 tcp {
 mode => "server"
 host => "0.0.0.0"
 port => 4560
 codec => json_lines
type => "debug"
 }
 tcp {
 mode => "server"
 host => "0.0.0.0"
 port => 4561
 codec => json_lines
 type => "error"
 }
 tcp {
 mode => "server"
 host => "0.0.0.0"
 port => 4562
 codec => json_lines
 type => "business"
}
 tcp {
 mode => "server"
 host => "0.0.0.0
 
 port => 4563
codec => json_lines
type => "record"
 }
}
filter{
	 if [type] == "record" {
		 mutate {
		 remove_field => "port"
		 remove_field => "host"
		remove_field => "@version"
	}
	 json {
		 source => "message"
		 remove_field => ["message"]
		 }
	 }
}
 output {
	 elasticsearch {
		 hosts => "192.168.50.66:9200"
		 index => "mall‐%{type}‐%{+YYYY.MM.dd}"
	 }
 }

创建/mydata/logstash目录,并将Logstash的配置文件logstash.conf拷贝到该目录;

mkdir /mydata/logstash;
docker run --name logstash -p 4560:4560 -p 4561:4561 -p 4562:4562 -p 4563:4563 --link elasticsearch:es -v /mydata/logstash/logstash.conf:/usr/share/logstash/pipeline/logstash.conf -d logstash:7.6.2

进入容器内部安装插件

docker exec -it logstash/bin/bash;
logstash-plugin install logstash-codec-json_lines

Docker安装mongoDB

docker pull mongo:4.2.5;
docker run -p 27017:27017 --name mongo -v /mydata/mongo/db:/data/db -d mongo:4.2.5

Docker安装oracle11g

# 拉取镜像
docker pull registry.cn-hangzhou.aliyuncs.com/helowin/oracle_11g;
# 启动容器
docker run -d -p 1521:1521 --name oracle11g registry.cn-hangzhou.aliyuncs.com/helowin/oracle_11g;
# 进入oracle11g容器进行配置
docker exec -it oracle11g bash;
# 切换到root用户下进行配置
su root
密码为:helowin
# 编辑profile文件配置ORACLE环境变量
vi /etc/profile

在最下边添加如下内容:

export ORACLE_HOME=/home/oracle/app/oracle/product/11.2.0/dbhome_2
export ORACLE_SID=helowin
export PATH=$ORACLE_HOME/bin:$PATH

让配置立刻生效

source /etc/profile

创建软连接

ln -s $ORACLE_HOME/bin/sqlplus /usr/bin

切换到oracle 用户

su - oracle

登录sqlplus并修改sys、system用户密码

sqlplus /nolog
conn /as sysdba

修改sys、system用户密码并刷新权限

alter user system identified by oracle;
alter user sys identified by oracle;
ALTER PROFILE DEFAULT LIMIT PASSWORD_LIFE_TIME UNLIMITED;

退出:

exit

查看一下oracle实例状态

lsnrctl status

使用plsql连接oracle服务端
服务名:helowin(一定要填写helowin)
密码:oracle(上边设置的密码)

Docker安装postgreSql

拉取镜像

docker pull postgres:14.8

启动容器

docker run --name postgres -e POSTGRES_PASSWORD=ts123456 -p 5432:5432 -v /home/zx/postgres/data:/var/lib/postgresql/data --privileged -d postgres:14.8

–name postgres:指定容器的名称;

-e POSTGRES_PASSWORD=ts123456:设置环境变量,这里为设定PostgreSQL数据库的密码;

-p 5432:5432:指定端口映射,前者为宿主机访问端口,后者为容器内端口。如果不指定端口映射,只有在容器内可以访问数据库,外部是无法访问的;

-v /home/zx/postgres/data:/var/lib/postgresql/data:v是volume的简写,即绑定一个卷,冒号前的路径为宿主机的路径(如果指定路径不存在会自动创建目录),冒号后为容器内路径。容器会把宿主机的目录映射到容器内的路径,这样容器运行中生成的数据实际上就是写到了宿主机的指定路径上,即使容器删除了,此路径的文件也不会删除,这样就做到了数据库的持久化存储。还可以通过docker volume提供的相关命令显式地创建volume,然后再挂载到容器上,这里不做介绍,请自行查询相关内容; -d:表示后台运行容器;

postgres:表示镜像的名称,docker基于上步拉取的镜像创建出容器

在navicat里,使用如下用户名密码即可登录:postgres/ts123456

相关推荐

服务器数据恢复—Raid5数据灾难不用愁,Raid5数据恢复原理了解下

Raid5数据恢复算法原理:分布式奇偶校验的独立磁盘结构(被称之为raid5)的数据恢复有一个“奇偶校验”的概念。可以简单的理解为二进制运算中的“异或运算”,通常使用的标识是xor。运算规则:若二者值...

服务器数据恢复—多次异常断电导致服务器raid不可用的数据恢复

服务器数据恢复环境&故障:由于机房多次断电导致一台服务器中raid阵列信息丢失。该阵列中存放的是文档,上层安装的是Windowsserver操作系统,没有配置ups。因为服务器异常断电重启后,rai...

服务器数据恢复-V7000存储更换磁盘数据同步失败的数据恢复案例

服务器数据恢复环境:P740+AIX+Sybase+V7000存储,存储阵列柜上共12块SAS机械硬盘(其中一块为热备盘)。服务器故障:存储阵列柜中有磁盘出现故障,工作人员发现后更换磁盘,新更换的磁盘...

「服务器数据恢复」重装系统导致XFS文件系统分区丢失的数据恢复

服务器数据恢复环境:DellPowerVault系列磁盘柜;用RAID卡创建的一组RAID5;分配一个LUN。服务器故障:在Linux系统层面对LUN进行分区,划分sdc1和sdc2两个分区。将sd...

服务器数据恢复-ESXi虚拟机被误删的数据恢复案例

服务器数据恢复环境:一台服务器安装的ESXi虚拟化系统,该虚拟化系统连接了多个LUN,其中一个LUN上运行了数台虚拟机,虚拟机安装WindowsServer操作系统。服务器故障&分析:管理员因误操作...

「服务器数据恢复」Raid5阵列两块硬盘亮黄灯掉线的数据恢复案例

服务器数据恢复环境:HPStorageWorks某型号存储;虚拟化平台为vmwareexsi;10块磁盘组成raid5(有1块热备盘)。服务器故障:raid5阵列中两块硬盘指示灯变黄掉线,无法读取...

服务器数据恢复—基于oracle数据库的SAP数据恢复案例

服务器存储数据恢复环境:某品牌服务器存储中有一组由6块SAS硬盘组建的RAID5阵列,其中有1块硬盘作为热备盘使用。上层划分若干lun,存放Oracle数据库数据。服务器存储故障&分析:该RAID5阵...

「服务器虚拟化数据恢复」Xen Server环境下数据库数据恢复案例

服务器虚拟化数据恢复环境:Dell某型号服务器;数块STAT硬盘通过raid卡组建的RAID10;XenServer服务器虚拟化系统;故障虚拟机操作系统:WindowsServer,部署Web服务...

服务器数据恢复—RAID故障导致oracle无法启动的数据恢复案例

服务器数据恢复环境:某品牌服务器中有一组由4块SAS磁盘做的RAID5磁盘阵列。该服务器操作系统为windowsserver,运行了一个单节点Oracle,数据存储为文件系统,无归档。该oracle...

服务器数据恢复—服务器磁盘阵列常见故障表现&解决方案

RAID(磁盘阵列)是一种将多块物理硬盘整合成一个虚拟存储的技术,raid模块相当于一个存储管理的中间层,上层接收并执行操作系统及文件系统的数据读写指令,下层管理数据在各个物理硬盘上的存储及读写。相对...

「服务器数据恢复」IBM某型号服务器RAID5磁盘阵列数据恢复案例

服务器数据恢复环境:IBM某型号服务器;5块SAS硬盘组成RAID5磁盘阵列;存储划分为1个LUN和3个分区:第一个分区存放windowsserver系统,第二个分区存放SQLServer数据库,...

服务器数据恢复—Zfs文件系统下误删除文件如何恢复数据?

服务器故障:一台zfs文件系统服务器,管理员误操作删除服务器上的数据。服务器数据恢复过程:1、将故障服务器所有磁盘编号后取出,硬件工程师检测所有硬盘后没有发现有磁盘存在硬件故障。以只读方式将全部磁盘做...

服务器数据恢复—Linux+raid5服务器数据恢复案例

服务器数据恢复环境:某品牌linux操作系统服务器,服务器中有4块SAS接口硬盘组建一组raid5阵列。服务器中存放的数据有数据库、办公文档、代码文件等。服务器故障&检测:服务器在运行过程中突然瘫痪,...

服务器数据恢复—Sql Server数据库数据恢复案例

服务器数据恢复环境:一台安装windowsserver操作系统的服务器。一组由8块硬盘组建的RAID5,划分LUN供这台服务器使用。在windows服务器内装有SqlServer数据库。存储空间LU...

服务器数据恢复—阿里云ECS网站服务器数据恢复案例

云服务器数据恢复环境:阿里云ECS网站服务器,linux操作系统+mysql数据库。云服务器故障:在执行数据库版本更新测试时,在生产库误执行了本来应该在测试库执行的sql脚本,导致生产库部分表被tru...

取消回复欢迎 发表评论: