个人私有云搭建方案(私有云建设方案)


sf2gis@163.com

1 compute01

1.1 基础环境:使用rancher生成容器

(也可使用docker直接创建,命令如下:

创建容器:# docker run -d –name controller –privileged=true docker.io/sf2gis/openstack:ntp /usr/sbin/init

进入容器:# docker exec -it controller /bin/bash)

使用rancher时需要在网络中设置IP(10.42.0.11)和主机名(compute01),在命令中设置入口为/usr/sbin/init,在安全中选择全部权限。

进入容器,设置IP和域名:/etc/hosts

10.42.0.10 controller

10.42.0.11 compute01

1.2 设置时间同步:ntp

配置为同步controller时间。

1.3 安装nova服务(需要修改yum源)

yum install openstack-nova-compute -y

1.3.1 修改yum源:增加openstack源

1.3.1.1 备份源:cp /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak_tmp/

1.3.1.2 修改Base:CentOS-Base.repo

#

# The mirror system uses the connecting IP address of the client and the

# update status of each mirror to pick mirrors that are updated to and

# geographically close to the client. You should use this for CentOS updates

# unless you are manually picking other mirrors.

#

# If the mirrorlist= does not work for you, as a fall back you can try the

# remarked out baseurl= line instead.

#

#

[base]

name=CentOS-centos/7 – Base

#mirrorlist=

baseurl=

gpgcheck=1

gpgkey=

#released updates

[updates]

name=CentOS-centos/7 – Updates

#mirrorlist=

baseurl=

gpgcheck=1

gpgkey=

#additional packages that may be useful

[extras]

name=CentOS-centos/7 – Extras

#mirrorlist=

baseurl=

gpgcheck=1

gpgkey=

#additional packages that extend functionality of existing packages

[centosplus]

name=CentOS-centos/7 – Plus

#mirrorlist=

baseurl=

gpgcheck=1

enabled=0

gpgkey=

#contrib – packages by Centos Users

[contrib]

name=CentOS-centos/7 – Contrib

#mirrorlist=

baseurl=

gpgcheck=1

enabled=0

gpgkey=

1.3.1.3 修改CentOS-OpenStack-liberty.repo

# CentOS-OpenStack-liberty.repo

#

# Please see for more

# information

[centos-openstack-liberty]

name=CentOS-$releasever – OpenStack liberty

baseurl=

gpgcheck=1

enabled=0

gpgkey=

[centos-openstack-liberty-test]

name=CentOS-$releasever – OpenStack liberty Testing

baseurl=

gpgcheck=0

enabled=1

1.3.1.4 修改rdo-release.repo

[openstack-liberty]

name=OpenStack Liberty Repository

baseurl=

gpgcheck=1

enabled=1

gpgkey=

1.3.1.5 修改rdo-testing.repo

[openstack-liberty-testing]

name=OpenStack Liberty Testing

baseurl=

gpgcheck=0

enabled=0

[rdo-trunk-liberty-tested]

name=OpenStack Liberty Trunk Tested

baseurl=

gpgcheck=0

enabled=0

1.3.2 配置nova

egrep -c '(vmx|svm)' /proc/cpuinfo #确定计算节点是否支持虚拟机的硬件加速 。如果这个命令返回 1或者更大的值,说明计算节点支持硬件加速,一般不需要进行额外的配置。如果这个命令返回“0“,则计算节点不支持硬件加速,必须配置 libvirt使用QEMU而不是使用KVM。

如果不支持更改

[compute01@ ~]# vi /etc/nova/nova.conf

[libvirt]

virt_type = qemu

:wq

配置nova

cd /etc/nova/

cp nova.conf nova.conf.bak

egrep -v "^#|^$" nova.conf.bak > nova.conf

vi nova.conf

[DEFAULT]

enabled_apis = osapi_compute,metadata

transport_url = rabbit://openstack:abc123@controller

auth_strategy = keystone

my_ip = 10.42.0.11 #计算节点(本机)上的IP 地址

use_neutron = True

firewall_driver = nova.virt.firewall.NoopFirewallDriver #网络包括防火墙服务,你必须使用nova.virt.firewall.NoopFirewallDriver驱动程序禁用计算机防火墙服务

[keystone_authtoken] #配置认证服务访问

auth_uri =

auth_url =

memcached_servers = controller:11211

auth_type = password

project_domain_name = Default

user_domain_name = Default

project_name = service

username = nova

password = nova

[vnc] #启用并配置远程控制台访问

enabled = True

vncserver_listen = 0.0.0.0

vncserver_proxyclient_address = $my_ip

novncproxy_base_url = #如果主机无法解析controller主机名,你可以将 controller替换为你控制节点管理网络的IP地址。

[glance]

api_servers = #配置镜像服务的位置

[oslo_concurrency]

lock_path = /var/lib/nova/tmp #配置锁路径

1.3.3 启动计算服务及其依赖,并将其配置为随系统自动启动

systemctl enable libvirtd.service openstack-nova-compute.service

systemctl start libvirtd.service openstack-nova-compute.service

注意:polkit服务可能启动失败,重新安装后重启可以解决。

注意:重启后修改/etc/hosts保证controller可用(compute服务会连接controller的mq服务)。

1.3.4 controller控制端验证操作

. admin-openrc #获得 admin 凭证来获取只有管理员能执行命令的访问权限

openstack compute service list #在控制节点上执行新节点的检查

nova service-list #列出服务组件,以验证是否成功启动并注册了每个进程 该输出应该显示四个服务组件在控制节点上启用,一个服务组件在计算节点上启用

nova endpoints #列出身份认证服务中的 API 端点来验证身份认证服务的连通性

1.4 安装neutron网络服务

1.4.1 安装服务

[compute01@ ~]# yum install openstack-neutron-Linuxbridge ebtables ipset -y

1.4.2 配置Networking通用组件,Networking 通用组件的配置包括认证机制、消息队列和插件

cd /etc/neutron/

cp neutron.conf neutron.conf.bak

egrep -v "^$|^#" neutron.conf.bak > neutron.conf

vi neutron.conf

[DEFAULT]

transport_url = rabbit://openstack:abc123@controller #配置RabbitMQ消息队列访问

auth_strategy = keystone #配置认证服务访问,在[keystone_authtoken]中注释或者删除其他选项

[keystone_authtoken] #配置认证服务访问

auth_uri =

auth_url =

memcached_servers = controller:11211

auth_type = password

project_domain_name = default

user_domain_name = default

project_name = service

username = neutron

password = neutron

[oslo_concurrency]

lock_path = /var/lib/neutron/tmp #配置锁路径

1.4.3 配置Linux 桥接代理

cd /etc/neutron/plugins/ml2/

cp linuxbridge_agent.ini linuxbridge_agent.ini.bak

egrep -v "^$|^#" linuxbridge_agent.ini.bak >linuxbridge_agent.ini

vi linuxbridge_agent.ini

[linux_bridge]

physical_interface_mappings = provider:PROVIDER_INTERFACE_NAME #映射公共虚拟网络到公共物理网络接口

[vxlan] #禁用VXLAN覆盖网络

enable_vxlan = False

[securitygroup] #启用安全组并配置 Linux 桥接 iptables 防火墙驱动

enable_security_group = True

firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver

1.4.4 配置Linux 桥接代理

cd /etc/nova/

cp nova.conf nova.conf.nova

vi nova.conf

[neutron]

url =

auth_url =

auth_type = password

project_domain_name = Default

user_domain_name = Default

region_name = RegionOne

project_name = service

username = neutron

password = neutron

1.4.5 重启服务

[compute01@ nova]# systemctl restart openstack-nova-compute.service # 重启计算服务

#启动Linux桥接代理并配置它开机自启动

[compute01@ nova]# systemctl enable neutron-linuxbridge-agent.service

[compute01@ nova]# systemctl start neutron-linuxbridge-agent.service

1.4.6 验证安装结果-控制端Controller

[controller@ ~]# . admin-openrc #获得 admin 凭证来获取只有管理员能执行命令的访问权限

[controller@ ~]# neutron ext-list #列出加载的扩展,对neutron-server进程是否启动正常进行验证

[controller@ ~]# openstack network agent list

[controller@ ~]# neutron agent-list #列出代理以验证启动 neutron 代理是否成功 ,该输出应该显示在控制节点上有四个代理,在每个计算节点上有一个代理

2 PackStack快速安装

Packstack主要是由Redhat推出的用于概念验证(PoC)环境快速部署的工具。Packstack是一个命令行工具,它使用Python封装了Puppet模块,通过SSH在服务器上部署OpenStack。

Packstack支持三种运行模式:

快速运行

交互式运行

非交互式运行

Packstack支持两种部署架构:

All-in-One,即所有的服务部署到一台服务器上

Multi-Node,即控制节点和计算机分离

2.1 环境准备

yum -y erase openstack-{packstack*,puppet-modules}#清除冲突包

sudo yum install -y centos-release-openstack-stein

sudo yum -y install yum-utils

sudo yum-config-manager –enable openstack-stein

sudo yum update –y

2.2 安装packstack

sudo yum install -y openstack-packstack

sudo packstack –allinone

#输入ssh公钥地址:/root/.ssh/id_rsa.pub

#管理员密码:root

#如果出现rpo安装错误,请删除rpo后重置。

#rpm -qa | grep rdo然后yum remove rdo-release- *。然后再次尝试packstack –allinone。

#安装完成后所有配置信息可以通过根目录查看:packstack-answers-20191014-180333.txt

2.3 安装完成后创建cell

su -s /bin/sh -c "nova-manage cell_v2 discover_hosts –verbose" nova

2.4 查看用户

source keystonerc_admin

可以看到用户名和密码

2.5 页面登录

IP/dashboard

2.6 日志查看

cat /var/log/nova/nova-compute.log

3 OpenStack管理

3.1 实例管理

3.1.1 环境准备

准备镜像,创建外部网络(上网)、内部网络(局域网)和路由器、创建安全组(防火墙)和密钥对(可以使用密钥对免密码登录)。

3.1.2 创建实例

项目-》计算-》实例-》创建实例(配置镜像、硬件配置、网络、安全组、密钥对其他默认)-》创建实例。

3.2 VNC:实例创建完成后,点击实例名称-》控制台或VNC进入系统界面。

3.3 SSH:绑定浮动IP,可以使用SSH进行远程管理。

ssh -i testkey.pem cirros@172.24.4.219

3.3.1 实例控制:实例的启动、停止、删除、编辑

在实例列表的操作栏,下拉列表可以操作实例。

3.4 计算节点扩展

3.4.1 环境准备

3.4.1.1 安装epel仓库

rpm -ivh

3.4.1.2 安装openstack仓库(注意与controller的openstack版本保持一致)

yum install -y centos-release-openstack-stein

3.4.1.3 安装Openstack客户端

yum install -y python-openstackclient

3.4.1.4 安装openstack SELinux管理包

yum install -y openstack-selinux

3.4.2 安装计算节点

yum install -y openstack-nova-compute

3.4.3 配置hostname:修改/etc/hosts

添加

192.168.71.2 controller

10.42.0.11 compute01

3.4.4 配置nova:具体参数参考controller上的配置

参考:配置nova

[DEFAULT]

enabled_apis = osapi_compute,metadata

#transport_url = rabbit://openstack:abc123@controller

transport_url = rabbit://guest:guest@192.168.71.2:5672/

auth_strategy = keystone

my_ip = 10.42.0.11

use_neutron = True

firewall_driver = nova.virt.firewall.NoopFirewallDriver

[api_database]

[barbican]

[cells]

[cinder]

[conductor]

[cors]

[cors.subdomain]

[database]

[ephemeral_storage_encryption]

[glance]

api_servers =

[oslo_concurrency]

lock_path = /var/lib/nova/tmp

[guestfs]

[hyperv]

[image_file_url]

[ironic]

[keymgr]

[keystone_authtoken]

auth_uri =

#auth_url =

#memcached_servers = controller:11211

auth_type = password

#project_domain_name = Default

#user_domain_name = Default

#project_name = service

#username = nova

#password = nova

auth_url=

username=nova

password=9924ae10975c43df

user_domain_name=Default

project_name=services

project_domain_name=Default

[libvirt]

virt_type=qemu

[matchmaker_redis]

[matchmaker_ring]

[metrics]

[neutron]

[osapi_v21]

[oslo_concurrency]

[oslo_messaging_amqp]

[oslo_messaging_qpid]

[oslo_messaging_rabbit]

[oslo_middleware]

[rdp]

[serial_console]

[spice]

[ssl]

[trusted_computing]

[upgrade_levels]

[vmware]

[vnc]

enabled = True

vncserver_listen = 0.0.0.0

vncserver_proxyclient_address = $my_ip

novncproxy_base_url =

[workarounds]

[xenserver]

[zookeeper]

3.4.5 启动服务

systemctl enable libvirtd.service openstack-nova-compute.service

systemctl start libvirtd.service openstack-nova-compute.service

3.4.6 验证安装结果-控制端Controller

[controller@ ~]# . keystonerc-admin #获得 admin 凭证来获取只有管理员能执行命令的访问权限

openstack compute service list #在控制节点上执行新节点的检查

nova service-list #列出服务组件,以验证是否成功启动并注册了每个进程 该输出应该显示四个服务组件在控制节点上启用,一个服务组件在计算节点上启用

nova endpoints #列出身份认证服务中的 API 端点来验证身份认证服务的连通性

在dashboard中查看

管理员-计算-虚拟机管理器,可以看到新的主机,以及新主机的cpu和内存、硬盘已经合并到资源中。

3.5 镜像管理

下载镜像:下载qcow2格式的文件。支持多种格式。

上传镜像:上传文件,并选择相应的类型。默认操作。

3.6 数据管理

3.6.1 swift:对象存储,web服务的网盘。

项目-对象存储-容器-》创建容器。

3.6.2 cinder:块存储,硬盘及网络存储。

项目-卷-卷

3.7 网络管理

3.7.1 创建外部网络(管理中创建):模拟物理网卡(物理网卡的代理)。

管理员-网络=》创建网络(输入名称,选择项目admin,类型为flat,物理网络选择)

创建完成后查看端口,确认是否绑定成功。

3.7.2 创建内部网络(项目中创建):模拟内部局域网。

项目-网络=》创建网络(输入名称)-》创建子网(名称、地址、网关)-》配置子网详情(地址段,DNS)

3.7.3 创建路由器:外部网络和内部网络的连接器。

项目-网络=》创建路由(输入名称,选择外部网络,这里选择net)-》点击创建的路由名称-》增加接口=》选择内部网络(这里选择int)

3.7.4 内网访问外网:路由器

路由器连接内外网后,内网就可以访问外网了。

3.7.5 外网访问内网:绑定浮动IP

外网访问内网需要绑定浮动IP。

3.8 系统管理

3.8.1 项目管理

身份管理-项目管理

3.8.2 用户管理

身份管理-用户管理

3.8.3 角色管理

身份管理-角色管理

3.9 安全管理

3.9.1 创建安全组

项目-网络-安全组=》创建安全组(输入名称,这里用ingress)=》添加规则:打开所有tcp、udp、icmp和任何协议的出口和入口(端口选择所有端口或范围,远程选择0.0.0.0/0)。

3.9.2 ssh登录(密钥对:客户端可以使用密钥对的私钥。公钥可在openstack中查看)。

1) 创建密钥对:项目-计算-密钥对-》创建密钥对-》创建完成后自动下载到本地。copy到controller可以在controller使用ssh直接登录。可以复用,不需要每次都创建。

2) 修改私钥权限(权限太开发无法使用,使用600):chmod 600 miyue.pem

3) 使用私钥免密码登录:在controller以指定的私钥进行登录

ssh -i testkey.pem cirros@172.24.4.219

4) 查看公钥:项目-计算-密钥对点击密钥对名称即可查看

4 聚合多物理节点创建云主机

4.1 整体规划

4.2 添加计算节点

使用测试服务器,增加一个Docker的虚拟CentOS环境,根据控制节点的环境,安装配置计算组件Nova。

4.3 安装操作系统镜像

下载CentOS系统的qcow2格式云镜像,并在Glance中上传,配置。

4.4 创建安全组

在web管理端,创建入站出站规则,开放或关闭协议和端口。

4.5 创建密钥对或使用已有的密钥对。

密钥对用于从远程登录虚拟机。

4.6 创建网络拓扑

根据物理网络环境,创建外部网络、内部网络、路由器。使用路由器连接内外部网络。

4.7 创建实例:分配资源、系统、网络。

根据引导,选择之前创建的系统、网络,指定资源。

4.8 控制台查看

点击实例,查看控制台

4.9 绑定浮动IP

4.10 使用SSH进行远程管理。

ssh -i testkey.pem cirros@172.24.4.219

4.11 整体概况

资源使用情况

本文地址:[https://chuanchengzhongyi.com/kepu/71af37ba450d1e12.html]
金木水火土五行命格(五行命运表)
上一篇 2024-05-05
电信测速网站(网测速)
下一篇
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件举报,一经查实,本站将立刻删除。

相关推荐