OpenStack Kolla AIO Install

Kolla 依赖于以下几个主要组件

  • Ansible > 1.9.4, < 2.0
  • Docker > 1.10.0
  • docker-py > 1.7.0
  • python jinja2 > 2.6.0

几点说明 :

  • 机器使用的是 kvm 虚拟机进行的测试 。 配置上使用 4G RAM, 2 CPU, 2 网卡的配置
  • 由于使用了 Docker, 所以对于底层系统并还没什么要求 , 本文使用 CentOS 7 系统 。
  • Kolla master 分支上使用的是 RDO master 上的源 , 打包极不稳定 , 时常会有 Bug 出现 。 所以本文使用的是 CentOS + 源码的安装方式
  • 由于国内网络原因 , 一些国外的源 ( 这些源还没有国内镜像 ) 会相当慢 , 所以 build docker image 时会很慢 , 推荐使用 VPN

安装

安装好操作系统后 , 依次进行如下配置

加入 Docker 的源

sudo tee /etc/yum.repos.d/docker.repo << 'EOF'
[dockerrepo]
name=Docker Repository
baseurl=https://yum.dockerproject.org/repo/main/centos/$releasever/
enabled=1
gpgcheck=1
gpgkey=https://yum.dockerproject.org/gpg
EOF

加入 EPEL 源

yum install -y epel-release

安装 Kolla 所需依赖

yum install -y ansible docker-engine git gcc python-setuptools
easy_install -U pip

Docker 现在使用了 shared mount 功能 , 默认没有打开 , 需要手动修改 Docker 启动文件 /usr/lib/systemd/system/docker.service 的 MountFlags

sed -i 's/MountFlags.*/MountFlags=shared/' /usr/lib/systemd/system/docker.service

启动 Docker 服务

systemctl daemon-reload
systemctl enable docker
systemctl start docker

下载 Kolla 代码并安装依赖

git clone https://github.com/openstack/kolla.git
cd kolla
pip install -r requirements.txt -r test-requirements.txt tox

Build Docker Image

以下如果没有特别说明 , 所有的操作都是在 Kolla 项目的目录里进行

首先要先生成并修改配置文件

tox -e genconfig
cp -rv etc/kolla /etc/

然后修改 /etc/kolla/kolla-build.conf 文件 , 它是用来控制 kolla build 过程的 。 修改后 , 其主要内容如下 :

[DEFAULT]
base = centos
install_type = soruce
namespace = lokolla
push = false

接下来就是进行漫长的 build, 这个过程主要依赖机器性能和网速 。 如果快的话 ,20 多分钟就完成 。 如果有问题的话 , 会很久 。 不过依赖于 Docker Build 的 Cache 功能 , 就算重跑的话 , 之前已经 Build 好的也会很快完成 。

./tool/build.py -p default

参数中的 -p default 是指定了只 build 主要的 image, 包括 : mariadb, rabbitmq, cinder, ceilometer, glance, heat, horizon, keystone, neutron, nova, swift 等 . 这些可以只生成的 kolla-build.conf 里找到 。

如果 Build 完成之后 , 使用 docker images 能看到所有已经 build 好的镜像 。

Deploy

依然是先修改配置文件 , 与 Deploy 相关的主要是两个配置文件 /etc/kolla/passwords.yml/etc/kolla/globals.yml。 他们为 ansible 提供一些变量的设定 。 主要需要修改的是 globals.yml 文件 。 修改后 , 其主要内容为 :

config_strategy: "COPY_ALWAYS"

kolla_base_distro: "centos"
kolla_install_type: "source"
kolla_internal_address: "10.2.0.254"

network_interface: "eth0"
neutron_external_interface: "eth1"
openstack_logging_debug: "true"

enable_cinder: "no"
enable_heat: "no"

kolla 使用一个名为 kolla-ansible 的封装脚本 , 并提供以下几个命令

./tools/kolla-ansible -h
Usage: ./tools/kolla-ansible COMMAND [options]

Options:
    --inventory, -i <inventory_path> Specify path to ansible inventory file
    --playbook, -p <playbook_path>   Specify path to ansible playbook file
    --keyfile, -k <key_file>         Specify path to ansible vault keyfile
    --help, -h                       Show this usage information
    --tags, -t <tags>                Only run plays and tasks tagged with these values

Commands:
    prechecks    Do pre-deployment checks for hosts
    deploy       Deploy and start all kolla containers
    post-deploy  Do post deploy on deploy node
    pull         Pull all images for containers (only pulls, no runnnig container changes)

可以使用 ./tools/kolla-ansible prechecks 来检查一个机器是否满足安装条件 。

使用 ./tools/kolla-ansible deploy 来开始正式安装 。 安装会很快 , 我机器上 , 几分钟就安装完成了 。

最后 , 使用 ./tools/kolla-ansible post-deploy 来生成 /etc/kolla/admin-openrc.sh 文件用来加载认证变量 。

查看安装后的状态

IMAGE                                                  COMMAND                 NAMES
lokolla/centos-source-keystone:2.0.0                   "kolla_start"           keystone
lokolla/centos-source-horizon:2.0.0                    "kolla_start"           horizon
lokolla/centos-source-neutron-metadata-agent:2.0.0     "kolla_start"           neutron_metadata_agent
lokolla/centos-source-neutron-l3-agent:2.0.0           "kolla_start"           neutron_l3_agent
lokolla/centos-source-neutron-dhcp-agent:2.0.0         "kolla_start"           neutron_dhcp_agent
lokolla/centos-source-neutron-openvswitch-agent:2.0.0  "kolla_start"           neutron_openvswitch_agent
lokolla/centos-source-neutron-server:2.0.0             "kolla_start"           neutron_server
lokolla/centos-source-openvswitch-vswitchd:2.0.0       "kolla_start"           openvswitch_vswitchd
lokolla/centos-source-openvswitch-db-server:2.0.0      "kolla_start"           openvswitch_db
lokolla/centos-source-nova-compute:2.0.0               "kolla_start"           nova_compute
lokolla/centos-source-nova-libvirt:2.0.0               "kolla_start"           nova_libvirt
lokolla/centos-source-nova-conductor:2.0.0             "kolla_start"           nova_conductor
lokolla/centos-source-nova-scheduler:2.0.0             "kolla_start"           nova_scheduler
lokolla/centos-source-nova-novncproxy:2.0.0            "kolla_start"           nova_novncproxy
lokolla/centos-source-nova-consoleauth:2.0.0           "kolla_start"           nova_consoleauth
lokolla/centos-source-nova-api:2.0.0                   "kolla_start"           nova_api
lokolla/centos-source-glance-api:2.0.0                 "kolla_start"           glance_api
lokolla/centos-source-glance-registry:2.0.0            "kolla_start"           glance_registry
lokolla/centos-source-rabbitmq:2.0.0                   "kolla_start"           rabbitmq
lokolla/centos-source-mariadb:2.0.0                    "kolla_start"           mariadb
lokolla/centos-source-memcached:2.0.0                  "kolla_start"           memcached
lokolla/centos-source-keepalived:2.0.0                 "kolla_start"           keepalived
lokolla/centos-source-haproxy:2.0.0                    "kolla_start"           haproxy
lokolla/centos-source-kolla-toolbox:2.0.0              "/bin/sleep infinity"   kolla_toolbox
lokolla/centos-source-heka:2.0.0                       "kolla_start"           heka
lokolla/centos-source-rsyslog:2.0.0                    "kolla_start"           rsyslog

为了显示好看 , 我去掉了一些无关的列 。 通过上面 , 可以看出

  • 多数 container 里是由 kolla_start 这个脚本启动起来的
  • 由于 kolla 使用的是 --net=host 网络 , 所以没有必要做端口映射
  • 每个模块拆分成了多个 container, 如 nova 被拆分成了 nova_api, nova_libvirt, nova_conductor, nova_novncproxy, nova_compute 等多个 container。 很好的遵守了一个容器一个进程的原则 。

Comments