首页 > 代码库 > openstack HAVANA部署controller控制端

openstack HAVANA部署controller控制端

openstack install

system version:centos6.5_64

openstack controller:192.168.1.123 openstack centos6.5_64(具体实施环境中要修改为openstackcontroller端的IP地址)

openstack controller:192.168.1.124 node centos6.5_64(具体实施环境中要修改为openstackcomputing node端的IP地址)

ntp server:210.72.145.44

Vmware Workstation 10.0.2 build-1744117 CPU引擎开启VT支持(虚拟化引擎首选模式:自动,虚拟化Intel VT-x/EPT或者AMD-V/RVI(V)打开)

双网卡选择桥接,VMnet0为桥接默认网络

CentOs6.5_64+Openstack+Kvm云平台部署 Havana(Nova-Network版)

controller install:

1.基础配置

(1).导入第三方安装源:

1.rpm -Uvhhttp://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

2.rpm -Uvh http://pkgs.repoforge.org/rpmforge-release/rpmforge-release-0.5.3-1.el6.rf.x86_64.rpm

3.yum installhttps://repos.fedorapeople.org/repos/openstack/openstack-havana/rdo-release-havana-7.noarch.rpm

(2).配置/etc/hosts主机名:

添加controller openstack和compute node节点主机名:

192.168.1.123 openstack

192.168.1.124 node

(3).配置网络eth0和eth1:

vi /etc/sysconfig/network-scripts/ifcfg-eth0:

DEVICE=eth0

HWADDR=00:0C:29:FD:0B:DE

TYPE=Ethernet

ONBOOT=yes

BOOTPROTO=none

IPADDR=192.168.1.123

NETMASK=255.255.255.0

GATEWAY=192.168.1.1

DNS1=202.106.46.151

DNS2=202.106.195.68

vi /etc/sysconfig/network-scripts/ifcfg-eth1

DEVICE=eth1

TYPE=Ethernet

ONBOOT=yes

BOOTPROTO=none

重启网络服务:service network restart

(4).关闭selinux:

vi /etc/sysconfig/selinux:

SELINUX=disabled

setenforce 0临时关闭selinux

使用getenforce查看:

Disabled

(5).修改/etc/sysctl.conf参数:

net.ipv4.ip_forward=1

sysctl -p使配置参数生效。

2.安装配置NTP服务:

(1).安装NTP服务:

yum install ntp

(2).配置NTP服务:

[root@openstack network-scripts]# more /etc/ntp.conf

driftfile /var/lib/ntp/drift

restrict default kod nomodify notrap nopeer noquery

restrict 127.0.0.1

restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap

server 210.72.145.44

keys /etc/ntp/keys

(3).启动NTP服务,设置开机自启动:

service ntpd start

chkconfig ntpd on

3.配置安装MYSQL:

(1).安装MySQL服务:yum -y install mysqlmysql-server MySQL-python

(2).修改MySQL配置文件:

vi /etc/my.cnf

bind-address=0.0.0.0

(3).启动MySQL服务,设置开机自启动:

service mysqld start

chkconfig mysqld on

(4).修改MySQL密码为passwd:

mysqladmin -uroot password ‘passwd‘

4.安装配置qpid服务:

(1).安装qpid服务:

yum install qpid-cpp-server memcached

(2).修改/etc/qpidd.conf配置文件,将auth设置为no:

auth=no

(3)启动qpid服务,设置开机启动:

service qpidd start

chkconfig  qpidd on

(4).安装openstack工具包:

yum install openstack-utils

5.安装配置keystone

5.1.初始化keystone

(1).安装keystone服务:

yum -y install openstack-keystone 

(2).创建keystone数据库,修改配置文件中的数据库链接:

openstack-db --init --service keystone

(3).修改配置文件中的数据库链接:

openstack-config --set /etc/keystone/keystone.conf  sql connectionmysql://keystone:keystone@localhost/keystone

(4).使用OpenSSL随机生成一个令牌,将其存储在配置文件中:

export SERVICE_TOKEN=$(openssl rand -hex 10)   //随机生成SERVICE_TOKEN值,请牢记 

export SERVICE_ENDPOINT=http://127.0.0.1:35357/v2.0

mkdir /root/config

echo $SERVICE_TOKEN > /root/config/admin.txt

cat /root/config/admin.txt

openstack-config --set /etc/keystone/keystone.conf  DEFAULT admin_token $SERVICE_TOKEN

*注:将生成的SERVICE_TOKEN值写入文件中保存,以备后续使用,后面涉及到的SERVICE_TOKEN值都是在admin.txt文件中获取的。所以一旦写入文件,不要再次运行命令生成SERVICE_TOKEN,否则前后不一致会为调试带来麻烦。

(5).keystone-manage pki_setup --keystone-user keystone--keystone-group keystone

chown -R keystone:keystone /etc/keystone/*

(6).启动keystone服务,设置开机自启动: 

service openstack-keystone start

chkconfig openstack-keystone on

5.2.定义Users、Tenants and Roles

(1).修改.bash_profile文件,添加以下参数:

vi .bash_profile:

export OS_USERNAME=admin

export OS_TENANT_NAME=admin 

export OS_PASSWORD=password 

export OS_AUTH_URL=http://127.0.0.1:5000/v2.0

export SERVICE_ENDPOINT=http://127.0.0.1:35357/v2.0 

export SERVICE_TOKEN=e447701f67f53ead9bbe

source .bash_profile

(2).为管理员用户创建一个tenant,为openstack其他服务的用户创建一个tenant:

keystone tenant-create --name=admin --description=‘AdminTenant‘

keystone tenant-create --name=service --description=‘ServiceTenant‘

(3).创建一个管理员用户admin:

keystone user-create --name=admin  --pass=password --email=keystone@zcs.com

(4).创建一个管理员角色admin:

keystone role-create --name=admin

(5).将角色添加到用户:

keystone user-role-add --user=admin --tenant=admin --role=admin

5.3.定义Services 和API Endpoints

(1).为Keystone创建一个服务:

keystone service-create --name=keystone --type=identity--description="KeystoneIdentity Service"

(2).使用服务ID创建一个endpoint:

vim /root/config/keystone.sh

#! /bin/bash

my_ip=192.168.1.123

service=$(keystone service-list |awk ‘/keystone/ {print $2}‘)

keystone endpoint-create --service-id=$service--publicurl=http://$my_ip:5000/v2

.0 --internalurl=http://$my_ip:5000/v2.0 --adminurl=http://$my_ip:35357/v2.0

sh /root/config/keystone.sh

6.安装配置Glance

6.1初始化Glance

(1).安装Glance服务:

yum install openstack-glance

(2).创建Glance数据库:

openstack-db --init --service glance

(3).修改配置文件中的数据库链接:

openstack-config --set /etc/glance/glance-api.conf DEFAULTsql_connection mysql://glance:glance@localhost/glance

openstack-config --set /etc/glance/glance-registry.conf DEFAULTsql_connection mysql://glance:glance@localhost/glance

6.2创建User,定义Service和API Endpoints

(1).为Glance服务创建一个glance用户:

keystone user-create --name=glance --pass=service--email=glance@zcs.com

keystone user-role-add --user=glance --tenant=service--role=admin

(2).为Glance创建一个服务:

keystone service-create --name=glance --type=image--description="Glance ImageService"

(3).使用服务ID创建一个endpoint:

vi /root/config/glance.sh

#! /bin/bash

my_ip=192.168.1.123

service=$(keystone service-list |awk ‘/glance/ {print $2}‘)

keystone endpoint-create --service-id=$service--publicurl=http://$my_ip:9292 --internalurl=http://$my_ip:9292--adminurl=http://$my_ip:9292

sh /root/config/glance.sh

6.3配置Glance服务

(1).将keystone认证信息添加到glance配置文件中:

openstack-config --set /etc/glance/glance-api.confkeystone_authtoken auth_host 127.0.0.1

openstack-config --set /etc/glance/glance-api.confkeystone_authtoken auth_port 35357

openstack-config --set /etc/glance/glance-api.confkeystone_authtoken auth_protocol http

openstack-config --set /etc/glance/glance-api.confkeystone_authtoken admin_tenant_name service

openstack-config --set /etc/glance/glance-api.confkeystone_authtoken admin_user glance

openstack-config --set /etc/glance/glance-api.confkeystone_authtoken admin_password service

openstack-config --set /etc/glance/glance-registry.confkeystone_authtoken auth_host 127.0.0.1

openstack-config --set /etc/glance/glance-registry.confkeystone_authtoken auth_port 35357

openstack-config --set /etc/glance/glance-registry.confkeystone_authtoken auth_protocol http

openstack-config --set /etc/glance/glance-registry.confkeystone_authtoken admin_tenant_name service

openstack-config --set /etc/glance/glance-registry.confkeystone_authtoken admin_user glance

openstack-config --set /etc/glance/glance-registry.confkeystone_authtoken admin_password service

(2).修改ini文件路径,将keystone认证信息添加到ini文件中:

openstack-config --set /etc/glance/glance-api.conf paste_deployconfi_file /etc/glance/glance-api-paste.ini

openstack-config --set /etc/glance/glance-api.conf paste_deployflavor keystone

openstack-config --set /etc/glance/glance-registry.confpaste_deploy config_file /etc/glance/glance-registry-paste.ini

openstack-config --set /etc/glance/glance-registry.confpaste_deploy flavor keystone

 

cp /usr/share/glance/glance-api-dist-paste.ini/etc/glance/glance-api-paste.ini

cp /usr/share/glance/glance-registry-dist-paste.ini/etc/glance/glance-registry-paste.ini

 

chown -R root:glance /etc/glance/glance-api-paste.ini

chown -R root:glance /etc/glance/glance-registry-paste.ini

 

openstack-config --set /etc/glance/glance-api-paste.inifilter:authtoken auth_host 127.0.0.1

openstack-config --set /etc/glance/glance-api-paste.inifilter:authtoken admin_tenant_name service

openstack-config --set /etc/glance/glance-api-paste.inifilter:authtoken admin_user glance

openstack-config --set /etc/glance/glance-api-paste.inifilter:authtoken admin_password service

 

openstack-config --set /etc/glance/glance-registry-paste.inifilter:authtoken auth_host 127.0.0.1

openstack-config --set /etc/glance/glance-registry-paste.inifilter:authtoken admin_tenant_name service

openstack-config --set /etc/glance/glance-registry-paste.inifilter:authtoken admin_user glance

openstack-config --set /etc/glance/glance-registry-paste.inifilter:authtoken admin_password service

(3).修改镜像文件的存放路径(默认存放在/var/lib/glance目录下,如果不需要修改,此步骤可省略)

openstack-config --set /etc/glance/glance-api.conf DEFAULTfilesystem_store_datadir /openstack/lib/glance/images/

openstack-config --set /etc/glance/glance-api.conf DEFAULTscrubber_datadir

/openstack/lib/glance/scrubber

openstack-config --set /etc/glance/glance-api.conf DEFAULTimage_cache_dir /openstack/lib/glance/image-cache/

mkdir -p /openstack/lib

cp -r /var/lib/glance/ /openstack/lib/

chown -R glance:glance /openstack/lib/glance/

(4).启动glance服务,设置开机自启动

service openstack-glance-api start

service openstack-glance-registry start

chkconfig openstack-glance-api on

chkconfig openstack-glance-registry on

6.4Glance测试

(1).为了测试镜像服务的安装,至少下载一个虚拟机镜像,这个镜像一定要能够与OpenStack一起工作。例如,CirrOS是一个很小的测试镜像,它经常用于测试OpenStack部署。这个过程,使用了64-bit的CirrOS QCOW2镜像。

cd /openstack/lib/glance/images/

wget http://download.cirros-cloud.net/0.3.1/cirros-0.3.1-x86_64-disk.img

上传该镜像到该镜像服务中 

glance image-create --name=imageLabel --disk-format=fileFormat \

--container-format=containerFormat --is-public=accessValue < imageFile

参数说明:

imageLabel      任意的标志,该名称由用户指向镜像。

fileFormat      说明镜像文件格式,有效的文件格式包括:

qcow2,raw,vhd,vmdk,vdi,iso,aki,ari,and ami等等。

containerFormat  指定的容器格式,有效的格式包括:bare,ovf,aki,ari and ami。

                指定bare格式表明镜像文件不在文件格式里,也就是说包含有关虚拟机的元数据。虽然目前这个字段是必须的,但实际上任何其它的OpenStack服务不使用它,而且在系统运行时也没有效果。因为该值在任何地方都没有用到,为了安全,一直指定bare作为容器的格式。

accessValue      指定镜像是否能访问。

true --所有的用户都能够查看和使用该镜像。

false --只有管理员才能够查看和使用该镜像

imageFile      指定你下载的镜像文件名称

glance image-create --name="CirrOS 0.3.1"--disk-format=qcow2 --container-format=bare --is-public=true <cirros-0.3.1-x86_64-disk.img

glance image-create --name="cirros"--disk-format=qcow2 --container-format=ovf --is-public=true <cirros-0.3.1-x86_64-disk.img

查看glance数据库中的表images,就可以看到添加的镜像文件。 

再查看/openstack/lib/glance/目录下,就有一个与images表中ID号相同的文件。

(2).查看镜像:

glance image-list

7.安装配置Nova

7.1初始化Nova

(1).安装nova:

yum install openstack-nova

(2).创建nova数据库:

Openstack-db –init –service nova

7.2创建User,定义Services和API Endpoints

(1).编写脚本:

vi /root/config/nova-user.sh:

#! /bin/bash

my_ip=192.168.1.123

keystone user-create --name=nova --pass=service--email=nova@example.com

keystone user-role-add --user=nova --tenant=service--role=admin

keystone service-create --name=nova --type=compute--description="Nova Compute S

ervice"

service=$(keystone service-list |awk ‘/nova/ {print $2}‘)

keystone endpoint-create --service-id=$service--publicurl=http://$my_ip:8774/v2

/%\(tenant_id\)s--internalurl=http://$my_ip:8774/v2/%\(tenant_id\)s --adminurl=

http://$my_ip:8774/v2/%\(tenant_id\)s

(2).运行脚本,创建用户、服务及api endpoint:

sh /root/config/nova-user.sh

7.3配置nova服务:

(1).修改/etc/nova.conf配置文件:

vi /etc/nova/nova.conf:

more /etc/nova/nova.conf |grep -v "#"|grep -v"^$"

[DEFAULT]

my_ip=192.168.1.123

notify_on_state_change=vm_and_task_state

state_path=/openstack/lib/nova

network_manager=nova.network.manager.FlatDHCPManager

instance_usage_audit_period=hour

auth_strategy=keystone

allow_resize_to_same_host=true

instance_usage_audit=True

glance_api_servers=192.168.1.123:9292

public_interface=eth0

flat_network_bridge=br1

flat_interface=eth1

multi_host=True

verbose=True

notification_driver=nova.openstack.common.notifier.rpc_notifier

rpc_backend=nova.openstack.common.rpc.impl_qpid

qpid_hostname=192.168.1.123

firewall_driver=nova.virt.libvirt.firewall.IptablesFirewallDriver

libvirt_type=kvm

novncproxy_base_url=http://192.168.1.123:6080/vnc_auto.html

vncserver_listen= $my_ip

vncserver_proxyclient_address= $my_ip

vnc_enabled=true

vnc_keymap=en-us

[hyperv]

[zookeeper]

[osapi_v3]

[conductor]

[keymgr]

[cells]

[database]

[image_file_url]

[baremetal]

[rpc_notifier2]

[matchmaker_redis]

[ssl]

[trusted_computing]

[upgrade_levels]

[matchmaker_ring]

[vmware]

[spice]

[keystone_authtoken]

admin_tenant_name=service

admin_user=nova

admin_password=service

auth_host=127.0.0.1

auth_port=35357

auth_protocol=http

因上述配置文件中修改了instances实例存放的位置,还需要作一下操作:

 修改instances路径,设置目录权限:

cp -r /var/lib/nova/ /openstack/lib/

chown -R nova:nova /openstack/lib/nova/

(2).配置libvirtd服务,删除virbr0

启动libvirtd服务:

service libvirtd start

查看net-list,发现default:

virsh net-list

删除default,即virbr0:

virsh net-destroy default

virsh net-undefine default

重启libvirtd服务,设置开机自启动:

service libvirtd restart

chkconfig libvirtd on

(3).启动nova相关服务,设置开机自启动:

service messagebus start

chkconfig messagebus on

启动nova服务,采用network网络服务:

service openstack-nova-api start

service openstack-nova-cert start

service openstack-nova-consoleauth  start

service openstack-nova-scheduler  start

service openstack-nova-conductor start

service openstack-nova-novncproxy   start

service openstack-nova-compute start

service openstack-nova-network start

chkconfig openstack-nova-api on

chkconfig openstack-nova-cert on

chkconfig openstack-nova-consoleauth on

chkconfig openstack-nova-scheduler on

chkconfig openstack-nova-conductor on

chkconfig openstack-nova-novncproxy  on

chkconfig openstack-nova-compute  on

chkconfig openstack-nova-network on

7.4Nova测试:

(1).创建网络:

nova network-create VMnet0 --fixed-range-v4=192.168.1.0/24--bridge-interface=br1 --multi-host=T --dns1=202.106.46.151 --dns2=202.106.195.68

nova-manage floating create --ip_range=192.168.1.0/24

VMnet0为本地网卡桥接的网络,fixed-range为fixed_IP地址的范围,用在VM间通信,floating_IP用在对外业务上,进行NAT转换后进行业务使用。桥接接口为br1.

查看网络:

nova network-list

查看nova管理网络的信息:

nova-manage network list

(2).设置安全组:

nova secgroup-add-rule default tcp 22 22 0.0.0.0/0

nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0

openstack里的浮动ip知识点:

缺省情况下实例会被赋予固定ip,这时并不能保证实例会马上可以从外面访问到,一般来说需要配置防火墙来允许公共ip,然后建立一条NAT规则从公共ip到私有ip的映射。 

Ag引入了一个叫浮动ip的概念,浮动ip是一些可以从外部访问的ip列表,通常从isp哪里买来的。 

浮动ip缺省不会自动赋给实例,用户需要手动从地址池里抓取然后赋给实例。一旦用户抓去后,他就变成这个ip的所有者,可以随意赋给自己拥有的其他实例。如果实例死掉了的话,用户也不会失去这个浮动ip,可以随时赋给其他实例。暂时不支持为了负载均衡多实例共享一个浮动ip。 

而对于固定ip来说,实例启动后获得的ip也是自动的,不能指定某一个。所以当一个VM歇菜了,再启动也许固定ip就换了一个。 

系统管理员可以配置多个浮动ip池,这个ip池不能指定租户,每个用户都可以去抓取。多浮动ip池是为了考虑不同的isp服务提供商,免得某一个isp出故障带来麻烦。 

如果运行的是企业云,浮动ip池就是那些ag外的数据中心都能访问到的ip。 

浮动ip机制给云用户提供了很多灵活性,也给系统管理员减少了安全风险,尽量只让Ag软件去改防火墙会安全些。

浮动 IP :

要了解浮动 IP 是如何实现的,首先将一个浮动 IP 关联到此实例的固定 IP。之前所创建的这个实例的固定 IP 是 10.10.10.2。 在默认池内创建一个浮动 IP 

要在默认池内创建一个浮动 IP,请运行一下代码: 

# nova-manage floating create --ip_range=192.168.1.232/30

要从这个池分派一个浮动 IP,请运行一下代码:

 # nova floating-ip-create 

这样,就拥有一个 IP 192.168.1.233。

现在将它分配给 ID 为 8f773639-c04f-4885-9349-ac7d6a799843 的实例: 

# nova add-floating-ip 8f773639-c04f-4885-9349-ac7d6a799843 192.168.1.233 将浮动 IP 绑定到公共接口 

FLAGS.public_interface 被用来绑定浮动 IP。

在运行了 nova add-floating-ip 命令后,可以看到 public_interface 下就具有了如下的浮动 IP: # ip addr list dev wlan0 

3: wlan0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 08:11:96:75:91:54 brd ff:ff:ff:ff:ff:ff 

inet 192.168.1.90/16 brd 192.168.255.255 scope global wlan0 inet 192.168.1.233/32 scope global wlan0 

    inet6 fe80::a11:96ff:fe75:9154/64 scope link  valid_lft forever preferred_lft forever NAT 表内针对浮动 IP 的规则 

在此实例获得了 nova-network 主机上的一个浮动 IP 后,这些规则适用: 

-A nova-network-OUTPUT -d 192.168.1.233/32 -j DNAT --to-destination 10.10.10.2

-A nova-network-PREROUTING -d 192.168.1.233/32 -j DNAT --to-destination 10.10.10.2

-A nova-network-float-snat -s 10.10.10.2/32 -j SNAT --to-source 192.168.1.233 

您会看到该 dNAT 规则被用来将此浮动 IP 转换成此实例的固定 IP。如果一个包到达 nova-network 主机并以浮动 IP 为目标 IP,则此目标 IP 就会被转换。然后,就会有另一项 sNAT 规则会将来自此实例的固定 IP 的流量转换到此浮动 IP。由于所有从 VM 到固定网络之外的流量均被指向网关(是由 nova-network 的 dnsmasq 进行设置),有了 sNAT 规则,出 VM 的流量就可以成功标志成来自此浮动 IP。此外,已包装的 OUTPUT 链内还有一个 dNAT 规则,允许 nova-network 上的本地过程访问具有浮动 IP 的 VM。 

使用浮动 IP 的 Ping VM:

要将 VM 与浮动 IP Ping 在一起,也需要一些规则。请记住,在此 nova-compute 主机上,针对每个实例必须有一个特定链;其内的规则只允许来自固定子集内的 IP 的流量。如果想要 ping 一个浮动 IP,流量就会被这些规则丢弃,因为 ping 包的源 IP 并不在此固定子集内。显然,需要一个规则以允许 icmp 流量。 为了添加一个允许 ping 的规则,可以使用Ag的安全组规则的概念:

# nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0 之后,就可以看到在此实例的特定链下多创建了一个规则:

-A nova-compute-inst-1 -p icmp -j ACCEPT 

同样的方式,可以对具有浮动 IP 的 VM 启用 SSH。 

(3).创建虚拟机实例:

查看可用实例:

nova image-list

创建虚拟机实例:

nova flavor-list可以看到镜像的模板

nova boot --flavor 1 --image "CirrOS 0.3.1" vm01

查看虚拟机实例运行状态:

nova list

nova flavor-list可以看到镜像的模板

nova-manager service list查看所有的服务状况

8.安装配置Horizon

(1).安装Horizon

yum install openstack-dashboard

(2).修改local_settings文件,将DEBUG=Flase修改为DEBUG=True:

vi /etc/openstack-dashboard/local_settings:

DEBUG=True

(3).修改httpd.conf文件,将#ServerName www.example.com:80修改为ServerName 192.168.1.123:80

vi /etc/httpd/conf/httpd.conf:

#ServerName www.example.com:80

ServerName 192.168.1.123:80

(4).修改local_settings.py文件,将Member修改为”admin”:

vi/usr/share/openstack-dashboard/openstack_dashboard/local/local_settings.py:

OPENSTACK_KEYSTONE_DEFAULT_ROLE = "admin"

(5).启动http服务,设置开机自启动:

service httpd start

chkconfig httpd on

(6).重启nova-api服务:

service openstack-nova-api restart

(7).添加防火墙策略:

iptables -I INPUT -p tcp --dport 80 -j ACCEPT

iptables -I INPUT -p tcp -m multiport --dports 5900:6000 -jACCEPT

iptables -I INPUT -p tcp --dport 6080 -j ACCEPT

service iptables save

(8).Horizon安装完成,使用http://192.168.1.123/dashboard访问openstack web界面。

用户名:admin

密码:password

9.添加新项目

(1).为操作员用户创建一个tenant:

keystone tenant-create --name=manager --description=‘ManagerTenant‘

(2).创建操作员:

keystone user-create --name=manager --pass=password--email=manager@zcs.com

(3).创建一个管理员角色manager:

keystone role-create --name=manager

(4).将manager角色添加到用户:

keystone user-role-add --user=manager --tenant=manager--role=manager

(5).将nova角色添加到用户:

keystone user-role-add --user=nova --tenant=service--role=manager

 


本文出自 “林夕” 博客,请务必保留此出处http://lutaoxu.blog.51cto.com/4224602/1569089

openstack HAVANA部署controller控制端