1 Star 0 Fork 7

a_TLo/Python

forked from panglijing/Python 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
project1 9.05 KB
一键复制 编辑 原始数据 按行查看 历史
panglijing 提交于 2021-05-28 18:04 . update project1.
项目project1 前3门课学完后要做的项目 (牛犇 王凯 丁明一 庞丽静)
牛犇: Linux系统的基本使用
王凯: 网络相关知识 shell脚本 各种服务的搭建(Nginx apache tomcat memcached)
丁明一: 自动化运维(ansible) 集群(LVS Keepalived Haproxy Nginx) 存储Ceph
监控Zabbix 安全(系统安全 服务安全 网络安全)
庞丽静: Python 重复做的事情 使用脚本来实现(shell脚本 python脚本 ansible)
项目project1 : 目标搭建网站服务器 共4天
项目完成思路:
设置公司的网络架构(项目的拓扑)
项目拓扑设计好后 ,确定了 服务器的台数 和 应用到技术
服务器的台数的确定了 确定了项目的启动资金
应用到的技术确定了 就确定要用到什么软件?(开源软件)
开始部署网站服务 , 要考虑如下问题:
网站服务器 存储服务(负责提供存储空间的) 数据库服务 缓存服务
以上服务 在提供服务时,都解决单点故障问题 和服务性能问题
最后项目答辩PPT (下载PPT模版 少文字 多图片 有文字的话也应该是标题)
project1_day01 需要完成的工作任务
任务一
查服务的品牌 品牌里 服务器的型号 对应的价格和硬件配置
云服务商有哪些 云主机的价格
服务器上架流程 (贴视频的网址)
以组为单位 发送 给老师 1647786724@qq.com
邮件的标题格式 中心名_班级名_组长名
如:天坛中心_nsd2102_段强
文档 以附件方式发送
邮件正文 写组成员的名字
任务二:
搭建1台 LNMP环境的网站服务器 并上线wordpress
服务器地址 192.168.2.11
软件 lnmp_soft.tar.gz
任务三:
tmooc网站 案例里有企业面试题
########################project1_day02###########################################
任务一 : 数据迁移
克隆1台新的虚拟机 ip 是 192.168.2.21(eth1)专门提供数据库服务,用来存储所有网站的数据
任务二:配置网站负载均衡集群
克隆2台新的虚拟机ip 是 192.168.2.12 和 192.168.2.13
2台新的虚拟机 和 192.168.2.11 一样提供nginx网站服务(nginx php php-fpm)
克隆第4台虚拟机 做 网站负载均衡集群的 调度 ip 192.168.2.5
任务三: 配置NFS共享服务:用来存储web集群中所有主机的网页文件
克隆第6台虚拟机 做NFS服务器 ip 是 192.168.2.31
任务四: 看案例最后的面试题
project1_day02 具体配置过程 如下:
数据迁移: 把11主机的wordpress 网站的数据 移动 新搭建的数据库服务器21主机上
准备 1台新的虚拟机 ip 是 192.168.2.21(eth1)专门提供数据库服务 ,用来存储所有网站的数据
配置如下:
1 在192.168.2.21主机 安装mysql服务软件并启动服务
2 在192.168.2.11主机备份数据 并把备份文件拷贝给 192.168.2.21 然后停止本机的数据库服务
3 在192.168.2.21主机 使用备份wordpress.bak 恢复数据
4 在192.168.2.21主机添加用户给 192.168.2.11 存储数据是连接使用
5 在192.168.2.11主机修改配置文件指定使用192.168.2.21主机存储数据
6 测试:在客户端连接网站11 依然可以访问到wordpress数据 就对了
休息到 10:05 练习到 10:26
休息到 11:20
配置网站负载均衡集群
2.1 准备2台新的虚拟机ip 是 192.168.2.12 和 192.168.2.13
在12 和 13 主机做如下配置:
1 安装源码的nginx软件并启动服务
2 安装PHP代码解释器php-fpm服务 并启动服务
2.2 配置NFS共享服务:用来存储web集群中所有主机的网页文件
准备1台新虚拟机 做NFS服务器 ip 是 192.168.2.31
NFS服务器具体配置如下:
1安装提供NFS服务的软件包
2共享目录
3启动服务
4 查看共享信息 showmount -e localhost
2.3 迁移旧的网站数据到NFS共享服务器
在 192.168.2.11主机做如下配置:
1 备份当前的网页文件 并拷贝给NFS服务器
2 清空本机的网页目录
在 192.168.2.31主机做如下配置:
1 把网页的压缩文件解压到共享目录/web_share
2 查看/web_share 目录文件
在所有web服务器访问挂载NFS共享数据。在 11 /12/13主机做如下配置
1 清空本机的网页目录
2 设置开机挂载nfs共享目录 并挂载共享
3 安装提供访问共享服务的程序软件
4 查看共享 showmount -e 192.168.2.31
5 测试 :每台网站服务器,查看本机的网页目录可以看见网页文件里
2.4 配置web集群
在192.168.2.5主机做如下配置:
1 安装软件
2 修改服务的主配置文件
3 启动服务
4 测试: 客户端连接调度器的ip地址访问网站服务
测试 Hproxy的配置
web11 /web12 web13 :
/usr/local/nginx/sbin/nginx -s stop
umount /usr/local/nginx/html
web11 ]# echo web11 > /usr/local/nginx/html/a.html
web12 ]# echo web12 > /usr/local/nginx/html/a.html
web13 ]# echo web13 > /usr/local/nginx/html/a.html
web11 /web12 web13 :
]# /usr/local/nginx/sbin/nginx
在任意1台服务器上连接调度器访问网站服务
]# curl http://192.168.2.5/a.html (执行多次会出现不同的页面内容 就对了 )
测试负载均衡后 还原wordpress
web11 /web12 web13 :
/usr/local/nginx/sbin/nginx -s stop
rm -rf /usr/local/nginx/html/*
mount -a
/usr/local/nginx/sbin/nginx
#########################
project1_day03
准备1台新虚拟机 做备用的调度器,IP 地址 192.168.2.6(eth1)
1 配置2.6 主机 要能够和 2.5 一样 提供haproxy服务,把接收到的
访问网站的请求平均的分配给3台网站服务器 11 12 13
具体配置如下:
1. 安装 haproxy 软件
2 修改配置文件(直接拷贝2.5主配置文件)
3 qid
4 测试 : 客户端访问网站服务时 连接的ip地址 指向192.168.2.6
也能够访问到网站服务
练习到 9:50 休息到 10:05
2 配置 调度器的高可集群 :把2.6主机配置为备用的调度器
具体配置如下:
1 在2台主机上都要安装Keepalived软件
2 修改2台主机配置文件
修改2.5 主机的 文件 把修改后的文件拷贝给备用的2.6
在2.6 主机 修改配置文件里的优先级和角色
3 分别启动2台主机keepalived 服务
先启动优先级高的主机的keepalived服务
再启用备用主机的keepalived服务
]# systemctl start keepalived
]# systemctl enable keepalived
4 测试高可用
1 在优先级高的主机上查看vip地址 192.168.2.80
]# ip a s | grep 192.168.2.80
2 停止优先级高的主机上的keepalived服务
3 在优先级低的主机上可以查看vip地址 192.168.2.80
4 在优先级高的主机上 再启动keepalived服务,vip地址会被抢回来
在本机又可以查看到vip 了
5 客户端连接vip地址 访问网站服务
]# curl http://192.168.2.80/test2.php
配置 ceph yum源
[root@node1 yum.repos.d]# cat ceph.repo
[mon]
name=mon
baseurl=file:///mnt/MON
gpgcheck=0
[osd]
name=osd
baseurl=file:///mnt/OSD
gpgcheck=0
[tools]
name=tools
baseurl=file:///mnt/Tools
gpgcheck=0
[root@node1
ceph集群创建失败的统一解决办法
清除当前错误的创建
]# cd ceph-cluster
]#ceph-deploy purge node1 node2 node3
]#ceph-deploy purgedata node1 node2 node3
]# rm -rf *
检查准备的环境:
主机名要和/etc/hosts文件绑定的一致
yum源要对
ssh 免密登录 要对
三服务器的时间要一致 NTP服务器
重新在管理主机 执行创建集群的操作
查看状态 ceph -s
[root@node1 ceph-cluster]# ceph -s
cluster 9f957834-1d10-457f-b231-caf1ae85c45b
health HEALTH_ERR
64 pgs are stuck inactive for more than 300 seconds
64 pgs stuck inactive
no osds
monmap e1: 3 mons at {node1=192.168.2.41:6789/0,node2=192.168.2.42:6789/0,node3=192.168.2.43:6789/0}
election epoch 4, quorum 0,1,2 node1,node2,node3
osdmap e1: 0 osds: 0 up, 0 in
flags sortbitwise
pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects
0 kB used, 0 kB / 0 kB avail
64 creating
[root@node1 ceph-cluster]#
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/a_TLo/python.git
git@gitee.com:a_TLo/python.git
a_TLo
python
Python
master

搜索帮助