企业级的私有云部署是选择 OpenStack 还是 国内的 ZStack 好呢? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Recommended Services
Amazon Web Services
LeanCloud
New Relic
ClearDB
kenshin912
V2EX    云计算

企业级的私有云部署是选择 OpenStack 还是 国内的 ZStack 好呢?

  •  
  •   kenshin912 2018-05-16 15:26:37 +08:00 10020 次点击
    这是一个创建于 2764 天前的主题,其中的信息可能已经有所发展或是发生改变。
    以前在互联网公司直接用阿里云 ... 从来没考虑过这些...
    现在跳槽到一个传统行业的公司 , 领导对于把数据放在阿里云感到不放心 , 打算自己上私有云...
    于是 , 让我一个运维拿方案了...
    我 Google 了下 , 似乎解决方案是 OpenStack , 不过这个好复杂啊...
    也有说 ZStack 的...
    其实就目前的业务规模来看 , 就是负载均衡 , 应用服务器 , MySQL 主从灾备 , MongoDB 主从 , Redis 这些.
    对象存储这些都可以放在阿里云....
    可能也就需要个不到 10 台的宿主机 , 有没有大佬能指条路 ? 跪谢...
    25 条回复    2018-05-19 20:14:13 +08:00
    moack
        1
    moack  
       2018-05-16 16:13:49 +08:00   1
    vmware
    xiz
        2
    xiz  
       2018-05-16 16:14:22 +08:00
    Proxmox 也行吧,做下 HA Ceph 基本差不多了
    pekingzcc
        3
    pekingzcc  
       2018-05-16 16:37:35 +08:00   1
    我们就是上的 openstack,规模也是 10 台左右,小微云,前前后后折腾了一年多,策略就是跟着 mirantis 走,走过来会发现前期的学习成本不是最恐怖的,后期的运维才是最要命的。
    对于私有云,如果没有一个专门的云团队,最好还是再好好考虑一下。
    kenshin912
        4
    kenshin912  
    OP
       2018-05-16 16:57:42 +08:00
    @pekingzcc
    后期运维看来很麻烦?
    主要是公司就我一个运维 , 直接维护一个私有云我可能力不从心了...
    ywgx
        5
    ywgx  
       2018-05-16 17:00:32 +08:00
    我们的运维平台就是解决楼主的管理痛点问题的 xabcloud.com
    chinvo
        6
    chinvo  
       2018-05-16 17:04:09 +08:00
    VMware ESXi + vSphere
    vast0906
        7
    vast0906  
       2018-05-16 17:04:29 +08:00   1
    zstack 做下 kvm 管理还是挺好的,但是 DB 估计只能你自己部署了,负载均衡貌似有,但是我没用过
    vibbow
        8
    vibbow  
       2018-05-16 17:06:03 +08:00
    esxi / hyper-v
    kenshin912
        9
    kenshin912  
    OP
       2018-05-16 17:07:21 +08:00
    @vast0906
    部署个 DB , 做个主从灾备问题不大.
    但是让我做性能调优我就只能照着 Google 出来的改 my.cnf 了. 毕竟我也不是专业的 DBA .
    我也担心这个...

    另外 , 请教下您 , zstack 好用吗?
    vast0906
        10
    vast0906  
       2018-05-16 19:40:44 +08:00
    @kenshin912 还可以,部署简单(直接装 os),基本上你装上后配置好网段之类的后期除了断电之类的要维护下,基本上就不用管了,社区氛围还可以
    py2ex
        11
    py2ex  
       2018-05-17 09:16:23 +08:00
    @pekingzcc # 说说有哪些麻烦
    xiaoheshang
        12
    xiaoheshang  
       2018-05-17 09:33:49 +08:00
    10 台机器还要什么 OpenStack ,vmware 或者单纯的 KVM 足矣。vmware 是最省心的
    SunnyFeng
        13
    SunnyFeng  
       2018-05-17 10:22:33 +08:00
    1 个运维想玩转 openstack 可能有点难,zstack 没有用过不了解。要不劝劝老板还是用公有云吧,阿里云估值 670 亿美金为了信用也不会贪图你们的数据的
    HangoX
        14
    HangoX  
       2018-05-17 11:08:18 +08:00
    我记得有些云服务商是支持私有部署的
    lolizeppelin
        15
    lolizeppelin  
       2018-05-17 13:29:30 +08:00 via Android
    动不动就 openstack 找死么 233
    chris89
        16
    chris89  
       2018-05-17 15:22:18 +08:00
    不到 10 台 直接上 kvm 算了 然后找个开源的 web 控制台
    theqwang
        17
    theqwang  
       2018-05-17 15:29:22 +08:00
    和楼主差不多的情况,就我一个人刚搭完我们公司的 openstack,前期就 10 台机器,3 台机器做控制节点的高可用,3 台拿来做 ceph,就剩 4 台做计算节点。如果计算节点的配置不高、虚拟机又多的话 4 台计算节点很快就不够用了。
    Hasal
        18
    Hasal  
       2018-05-17 15:59:04 +08:00
    10 台宿主机考虑企业级私有云是把简单问题复杂化。最好的解决办法就是直接上 KVM,连 WEB 页面都不用,写脚本或手动敲命令就可以管理的过来。
    pekingzcc
        19
    pekingzcc  
       2018-05-17 16:23:01 +08:00   3
    @py2ex

    1,现在的 openstack 俨然是一个庞然大物,学习曲线比较陡,而且涉及的面也很广,计算,存储,网络,这三块哪一块拿出来画画技术栈不得吓一跳,比较适合有专门云团队的公司去搞。
    2,线上一旦出现问题,因为系统的复杂性而导致问题追踪解决的复杂性。特别是出现网络问题,neutron 的调试是真麻烦,相信很多搞 openstack 的都被 neutron 的网络恶心过。
    3,openstack 的升级,每一次升级都要扒一层皮(不知道现在升级体验怎么样了,我只是参考 Liberty 版本之前)。
    4,节点的扩缩容。特别是存储节点,ceph 俨然成了标配,每次扩容的时候,ceph 的自平衡会导致虚拟机特别卡,只能采取一些折中策略去慢慢平衡。
    5,前期一定要好好规划。大的方向比如这个云的用途,生产环境还是测试环境,生产环境要做好权限划分,测试环境要做好资源很快耗光的窘境(上云之后小伙伴会疯狂创建虚机把玩),生产测试最好不要共用计算资源。细的方向比如网络规划,物理机的规划,业务规划等等。
    啊,不说了,说的我都怨念了
    kenshin912
        20
    kenshin912  
    OP
       2018-05-17 16:58:50 +08:00
    @pekingzcc 感谢分享 , 说的我都没有勇气去部署 OpenStack 了.
    kenshin912
        21
    kenshin912  
    OP
       2018-05-17 17:01:40 +08:00
    @theqwang 不太明白控制节点的 HA 为啥用了三台机器 .
    也没明白 , ceph 做存储用了三台服务器.
    可否指点一二 , 感谢~
    pekingzcc
        22
    pekingzcc  
       2018-05-17 17:08:34 +08:00
    @kenshin912

    我就随便写写别当真啊,openstack 还是值得搞的,先从简单的部署着手,再一个模块一个模块了解,加油。
    theqwang
        23
    theqwang  
       2018-05-17 18:23:40 +08:00
    @kenshin912 我是参考了官方的 HA 手册搭的 openstack,数据库在控制节点上,数据库做的 MariaDB Galera Cluster 集群,为了避免节点出现脑裂,手册建议 Galera 集群最低 3 个节点,所以控制节点搞了 3 台....
    ceph 的话,我们没有做所谓的超融合,存储用的机器做了 raid5,ceph 默认副本是 3,所以我们就搞了 3 台存储机器...2 台机器做 ceph 也可以。
    像 pekingzcc 说的那样,一个人弄 openstack 的话真的是怨念.
    xiaoji24
        24
    xiaoji24  
       2018-05-18 16:24:32 +08:00
    讲道理 应该是 openstack~ 这个还得自己试 ,主要看人品~
    aboutim
        25
    aboutim  
       2018-05-19 20:14:13 +08:00
    除了 vmware、openstack 还有青云可以选择
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5637 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 26ms UTC 06:20 PVG 14:20 LAX 22:20 JFK 01:20
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86