1 Star 0 Fork 3

ZYX/projects1

forked from panglijing/NSD2105 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
project2_day03 6.66 KB
一键复制 编辑 原始数据 按行查看 历史
panglijing 提交于 2021-08-30 07:58 . update project2_day03.
project1_day03 需要用到的虚拟机
案例1:Keepalived高可用
克隆1台新虚拟机 ip地址有2个
分别 192.168.2.6 和 192.168.4.6
具体配置如下:
1 配置第二台代理服务器(在IP地址是6的主机配置)
安装haproxy软件。
把第1台代理服务器的haproxy服务的配置文件拷贝到本机
启动haproxy服务
测试配置的第2台代理服务器(客户端访问网站服务的时候把
连接第2台备用的调度也可以访问到网站服务 就配对了)
2 分别在 第1台和第2台代理服务器安装keepalived软件
3 修改配置:
先修改第1台调度器的配置文件(把文件里36行开始的所有全删除)
让把配置文件拷贝给第2台调度器
在第2台调度器修改角色的优先级
4 分别在 第1台和第2台代理服务器 启动keepalived服务
注意:先启动优先级高的主机的keepalived服务 再启动优先级低
5 在优先级高的代理服务器主机上 查看vip地址 查看到是对的
ip a s | grep 192.168.4.80
6 客户端连接vip地址访问网站服务
curl http://192.168.4.80/test2.html
7 验证高可用
7.1 停止高优先级主机的keepalived服务
7.2 在低优先级的主机上可以查看都vip地址
7.3 启动高优先级主机的keepalived服务 ,会吧vip地址抢回来
7.4 无论vip地址在那台调度器上,客户端 始终都连接vip可以访问到网站服务
8 修改DNS
8.1 修改 dns服务的区域文件 lab.com.zone
把 www 主机名 解析到 vip 192.168.4.80
并重启named服务
8.2 客户端指定dns服务器的ip
并解析主机
host www.lab.com (对应的IP 是 192.168.4.80)
通过主机访问网站服务
curl http://www.lab.com/test2.html
2 案例2:部署Ceph分布式存储
准备配置ceph机器的虚拟机
再克隆3台新虚拟机 ip地址
分别 192.168.2.41 192.168.2.43 192.168.2.42
给3台虚拟机分别添加2块(20G) 的硬盘 (6*20G)
分别 192.168.2.41 192.168.2.43 192.168.2.42
添加光驱硬件 并把 ceph10.iso 放到光驱里
ceph集群环境准备。
1 分别 192.168.2.41 192.168.2.43 192.168.2.42
创建ceph10.iso 的挂载目录 /ceph
mkdir /ceph
2 分别 192.168.2.41 192.168.2.43 192.168.2.42
挂在ceph10.iso 到 /ceph目录
mount /dev/cdrom /ceph
ls /ceph
echo "mount /dev/cdrom /ceph" >> /etc/rc.local
chmod +x /etc/rc.local
3 分别 192.168.2.41 192.168.2.43 192.168.2.42
编写 yum源配置文件
4 做主机名映射(映射的主机名一定要好hostname命令查看的相同)
主机192.168.2.41 192.168.2.43 192.168.2.42 都配置
5 配置管理主机免密ssh连接node1 node2 node3
注意统一使用node1主机同时充当管理主机
测试配置 node1 主机可以实现如下连接
]#ssh node1
]#ssh node2
]#ssh node3
6 配置NTP服务器同步时间。
注意统一使用node1主机做NTP服务器
6.1 在node1主机运行ntp服务
6.2 配置客户端使用ntp服务器
步骤二:部署ceph集群 练习时间到17:05
2.1 给node1主机安装ceph-deploy,创建工作目录,初始化配置文件。
2.2 在管理主机node1给所有ceph节点安装ceph相关软件包
2.3 在管理主机node1初始化mon服务
2.4 在管理主机node1上查看集群状态
2.5 在管理主机node1 使用ceph-deploy工具初始化数据磁盘
2.6 在管理主机node1 初始化OSD集群,磁盘名称根据实际情况填写。
2.7 查看集群状态
[root@node1 ceph-cluster]# ceph -s
cluster 12f1d6ab-ace2-4fc0-8a78-693d9b9b24fb
health HEALTH_OK 状态是OK
monmap e1: 3 mons at {node1=192.168.2.41:6789/0,node2=192.168.2.42:6789/0,node3=192.168.2.43:6789/0}
election epoch 8, quorum 0,1,2 node1,node2,node3
osdmap e35: 6 osds: 6 up, 6 in
flags sortbitwise
pgmap v97: 64 pgs, 1 pools, 0 bytes data, 0 objects
203 MB used, 91890 MB / 92093 MB avail
64 active+clean
[root@node1 ceph-cluster]#
部署ceph集群出错的解决办法:
一 检查环境准备 是否配置对了
1 yum源 ( 有ceph10.iso 的源 CentOS7-1804.iso的源)
2主机名和ip地址绑定
192.168.2.41 node1
192.168.2.42 node2
192.168.2.43 node3
3 管理主机 能无密码连接 node1 node2 node3
4 node1 node2 node3 能够连接ntp服务器 做时间同步
二、在管理主机删除当前所有的错误配置
1 删除所有的数据
]# ceph-deploy purgedata node1 node2 node3
2 删除所有安装的软件
]# ceph-deploy purge node1 node2 node3
三 再次执行部署集群的命令
2.1 给node1主机安装ceph-deploy,创建工作目录,初始化配置文件。
2.2 在管理主机node1给所有ceph节点安装ceph相关软件包
2.3 在管理主机node1初始化mon服务
2.4 在管理主机node1上查看集群状态
2.5 在管理主机node1 使用ceph-deploy工具初始化数据磁盘
2.6 在管理主机node1 初始化OSD集群,磁盘名称根据实际情况填写。
2.7 查看集群状态
步骤三:部署ceph文件系统
1 启动mds服务
2 创建存储池
3 创建文件系统
4 查看创建的文件系统
[root@node1 ceph-cluster]# ceph fs ls
name: myfs1, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
[root@node1 ceph-cluster]#
##################################################
步骤四:迁移网站数据到ceph集群
1 把3台网站服务器的nginx服务都停止
2 卸载3台网站服务器当前对NFS的挂载 并禁止开机挂载
3 web1、web2、web3 挂在ceph集群文件系统myfs1 到本机网站目录下
3.1 在 node1 node2 node3 任意1台查看挂载使用的用户和密码
[root@node1 ~]# cat /etc/ceph/ceph.client.admin.keyring
[client.admin]
key = AQDAoyhhH3QrHBAAXVZfX/IQ0qmiRbVKdeXm6w==
[root@node1 ~]#
3.2 安装连接ceph集群的软件包
3.3 挂载ceph共享 到本机网页目录下
3.4 拷贝nfs 共享目录下的文件到 到网站的网页目录下(在1台web1执行拷贝即可)
3.5 启动nginx服务
3.6 网站服务自己访问本机网页文件
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/zhaoyuexing/projects1.git
git@gitee.com:zhaoyuexing/projects1.git
zhaoyuexing
projects1
projects1
master

搜索帮助