国内企业私有云解决方案部署解决方案有哪些?

企业级的私有云部署是选择 OpenStack 还是 国内的 ZStack 好呢? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
已注册用户请 &
Recommended Services
企业级的私有云部署是选择 OpenStack 还是 国内的 ZStack 好呢?
· 98 天前 · 2511 次点击
以前在互联网公司直接用阿里云 ... 从来没考虑过这些...
现在跳槽到一个传统行业的公司 , 领导对于把数据放在阿里云感到不放心 , 打算自己上私有云...
于是 , 让我一个运维拿方案了...
我 Google 了下 , 似乎解决方案是 OpenStack , 不过这个好复杂啊...
也有说 ZStack 的...
其实就目前的业务规模来看 , 就是负载均衡 , 应用服务器 , MySQL 主从灾备 , MongoDB 主从 , Redis 这些.
对象存储这些都可以放在阿里云....
可能也就需要个不到 10 台的宿主机 , 有没有大佬能指条路 ? 跪谢...
25 回复 &| &直到
20:14:13 +08:00
& &98 天前
& &98 天前
Proxmox 也行吧,做下 HA Ceph 基本差不多了
& &98 天前
我们就是上的 openstack,规模也是 10 台左右,小微云,前前后后折腾了一年多,策略就是跟着 mirantis 走,走过来会发现前期的学习成本不是最恐怖的,后期的运维才是最要命的。对于私有云,如果没有一个专门的云团队,最好还是再好好考虑一下。
& &98 天前
@ 后期运维看来很麻烦?主要是公司就我一个运维 , 直接维护一个私有云我可能力不从心了...
& &98 天前
我们的运维平台就是解决楼主的管理痛点问题的
& &98 天前
VMware ESXi + vSphere
& &98 天前
zstack 做下 kvm 管理还是挺好的,但是 DB 估计只能你自己部署了,负载均衡貌似有,但是我没用过
& &98 天前
esxi / hyper-v
& &98 天前
@ 部署个 DB , 做个主从灾备问题不大.但是让我做性能调优我就只能照着 Google 出来的改 my.cnf 了. 毕竟我也不是专业的 DBA .我也担心这个...另外 , 请教下您 , zstack 好用吗?
& &98 天前
@ 还可以,部署简单(直接装 os),基本上你装上后配置好网段之类的后期除了断电之类的要维护下,基本上就不用管了,社区氛围还可以
& &98 天前
@ # 说说有哪些麻烦
& &98 天前
10 台机器还要什么 OpenStack ,vmware 或者单纯的 KVM 足矣。vmware 是最省心的
& &98 天前
1 个运维想玩转 openstack 可能有点难,zstack 没有用过不了解。要不劝劝老板还是用公有云吧,阿里云估值 670 亿美金为了信用也不会贪图你们的数据的
& &98 天前
我记得有些云服务商是支持私有部署的
& &97 天前 via Android
动不动就 openstack 找死么 233
& &97 天前
不到 10 台
直接上 kvm 算了
然后找个开源的 web 控制台
& &97 天前
和楼主差不多的情况,就我一个人刚搭完我们公司的 openstack,前期就 10 台机器,3 台机器做控制节点的高可用,3 台拿来做 ceph,就剩 4 台做计算节点。如果计算节点的配置不高、虚拟机又多的话 4 台计算节点很快就不够用了。
& &97 天前
10 台宿主机考虑企业级私有云是把简单问题复杂化。最好的解决办法就是直接上 KVM,连 WEB 页面都不用,写脚本或手动敲命令就可以管理的过来。
& &97 天前
@ 1,现在的 openstack 俨然是一个庞然大物,学习曲线比较陡,而且涉及的面也很广,计算,存储,网络,这三块哪一块拿出来画画技术栈不得吓一跳,比较适合有专门云团队的公司去搞。2,线上一旦出现问题,因为系统的复杂性而导致问题追踪解决的复杂性。特别是出现网络问题,neutron 的调试是真麻烦,相信很多搞 openstack 的都被 neutron 的网络恶心过。3,openstack 的升级,每一次升级都要扒一层皮(不知道现在升级体验怎么样了,我只是参考 Liberty 版本之前)。4,节点的扩缩容。特别是存储节点,ceph 俨然成了标配,每次扩容的时候,ceph 的自平衡会导致虚拟机特别卡,只能采取一些折中策略去慢慢平衡。5,前期一定要好好规划。大的方向比如这个云的用途,生产环境还是测试环境,生产环境要做好权限划分,测试环境要做好资源很快耗光的窘境(上云之后小伙伴会疯狂创建虚机把玩),生产测试最好不要共用计算资源。细的方向比如网络规划,物理机的规划,业务规划等等。啊,不说了,说的我都怨念了
& &97 天前
@ 感谢分享 , 说的我都没有勇气去部署 OpenStack 了.
& &97 天前
@ 不太明白控制节点的 HA 为啥用了三台机器 .也没明白 , ceph 做存储用了三台服务器.可否指点一二 , 感谢~
& &97 天前
@ 我就随便写写别当真啊,openstack 还是值得搞的,先从简单的部署着手,再一个模块一个模块了解,加油。
& &97 天前
@ 我是参考了官方的 HA 手册搭的 openstack,数据库在控制节点上,数据库做的 MariaDB Galera Cluster 集群,为了避免节点出现脑裂,手册建议 Galera 集群最低 3 个节点,所以控制节点搞了 3 台....ceph 的话,我们没有做所谓的超融合,存储用的机器做了 raid5,ceph 默认副本是 3,所以我们就搞了 3 台存储机器...2 台机器做 ceph 也可以。像 pekingzcc 说的那样,一个人弄 openstack 的话真的是怨念.
& &96 天前
讲道理 应该是 openstack~
这个还得自己试 ,主要看人品~
& &95 天前
除了 vmware、openstack 还有青云可以选择
& · & 3008 人在线 & 最高记录 3762 & · &
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.1 · 18ms · UTC 03:55 · PVG 11:55 · LAX 20:55 · JFK 23:55? Do have faith in what you're doing.私有云解决方案_百度文库
您的浏览器Javascript被禁用,需开启后体验完整功能,
享专业文档下载特权
&赠共享文档下载特权
&100W篇文档免费专享
&每天抽奖多种福利
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
私有云解决方案
IBM-成长型企业专区|
总评分0.0|
阅读已结束,下载本文需要
定制HR最喜欢的简历
你可能喜欢基于 OpenStack 的私有云开发部署实践
开发测试云平台介绍随着互联网技术的飞速发展和广泛应用,互联网公司对于产品迭代和技术升级的要求都更为迫切。相应地,研发测试人员对于机器的使用需求量也上了一个台阶。传统的虚拟化解决方案存在大量的问题和弊端,已经无法满足企业内部用户按需取用虚拟机资源的需求,运维人员和开发测试人员在虚拟机的使用管理上存在着很大的耦合性和关联性。探索更为自动化、快捷的虚拟资源使用分配方式已经成为无法回避的问题。经过充分调研需求,我们在企业内部实现了一套基于 OpenStack 的虚拟机资源管理平台(VMMS),能够动态、实时地响应全公司开发测试人员申请、续借和其他日常使用虚拟机的请求。系统的架构设计如下所示:图 1.系统架构图用户通过客户端请求虚拟机时,VMMS 虚拟机资源管理系统会立即响应用户的请求,按照用户的具体需求分配一台配置合理的虚拟机。通过维护一个动态变化的虚拟机资源池空间,对于虚拟机资源的各种请求做到了秒级响应。而且,为了保证虚拟机资源的动态伸缩,系统中还加入了时间管理模块;另外,虚拟机的正常运行工作通过状态管理模块来负责。全部的虚拟机资源都是通过底层的 OpenStack 云平台提供,VMMS Server 以一定频率和 OpenStack 云平台进行通信,保证资源的可用性和请求的及时响应。VMMS 的设计哲学是在平台硬件资源有限的前提下,优先满足用户对虚拟机的各种操作需求,保证虚拟机资源平台的可用性和稳定性,对用户的申请操作和虚拟机资源配额、资源池大小都做了强限制。具体来说,VMMS 的开发管理策略主要体现在以下几方面:虚拟机配置策略
58 同城是为用户提供本地生活信息的平台,主要提供覆盖广泛、定位精准的各类 Web 服务。使用虚拟资源的用户因为业务和具体场景的不同,对虚拟机的需求也不尽相同。应对普通的
Web 服务开发测试,例如快速接口调整、嵌入新的管理推广模块、页面样式变更等灵动项目的调整与测试,使用接近 PC
机配置的虚拟机就可以达到较好的响应效果,必要时可以通过横向增加机器数量的方法应对业务大规模推广测试和版本迭代;应对核心业务线的优化和部分基础服务就需要使用高配置的机器,这类业务大都具有
CPU 密集型和内存密集型的特点。典型的场景有信息管理中心索引重建、Redis 集群测试等,都需要分配多核 CPU 高内存配置的虚拟机。我们将虚拟机用户的潜在需求大致分为几类,并为之相应准备了配置适宜的虚拟机镜像和云主机类型。用户在申请时,只需要在用途和欲申请虚拟机配置标注,提单后系统就会匹配相应的虚拟机给用户使用。另外,还在部分镜像加入了集中配置和测试部署环境打通的相关配置,有利于减少用户重复配置安装的工作量。请求响应策略
为了从根本上改善过去虚拟化服务资源分配效率低下的问题,VMMS 系统会在用户操作请求提交后瞬间响应用户的申请。这是基于一个自适应变化的虚拟机资源池实现的。系统初始化时会创建 n 台虚拟机作为原始虚拟机资源池,用户申请后资源分配模块会从已有资源中匹配然后响应用户,系统在后台会根据虚拟机申请周期和频率从全局上调整补全虚拟机资源的速度。VMMS 系统在平台总虚拟机数量 m 和当前维持可用的虚拟机数量 n 都做了一定的限制,为的是保证对虚拟机资源分配平台负载的有效控制。在局部时间内如果用户申请虚拟机操作的并发量超过了设定的阈值,系统会根据并发量调整 m 至 1.5 倍或 2 倍不等。相应地,资源池虚拟机数量 n 也得到了提升,优先保证用户正常进行各种虚拟机请求操作。在用户申请虚拟机操作请求频率回落后,VMMS 会再次将 m 和 n 的值收敛到正常范围。资源控制策略
私有云平台受限于规模,所能够使用的硬件资源比较有限。为了及时有效地回收不在使用状态的虚拟机,VMMS
系统的时间管理模块会根据每台虚拟机的初始申请周期对在用虚拟机列表中机器进行定时扫描。查找到虚拟机使用周期已到而用户并没有后续的续借行为,系统会自动回收该虚拟机,释放物理资源。用户在申请虚拟机时有虚拟机重要性的可选字段,可根据业务和场景的具体情况给出重要性数值。针对工作数据和日志信息比较关键的虚拟机实例,如果到达指定时间还未收到续借请求,VMMS
会首先对虚拟机做停机处理,告知用户需要续借,没有后续操作的话虚拟机会在三天内回收。虚拟机稳定性策略
状态管理模块会定时扫描每台在用虚拟机的状态,对不处于可工作状态的虚拟机首先尝试恢复,不成功则启用虚拟机重建和迁移策略来保证虚拟机的可用性。虚拟机生成策略
为了减少人为干预,虚拟机的生成采用了完全自动化的策略。虚拟机从启动到划分所属网络、绑定浮动 IP、修改初始密码到进行业务上的初始化部署做到了完全借助系统本身流程进行。借助 VMMS 虚拟机资源管理平台,开发测试人员能够自由便捷地按需取用虚拟机,在业务开发与测试环境的准备工作上提高了效率。VMMS
响应用户的各类虚拟机请求操作达到了每天上百次,简化了传统虚拟化解决方案下用户提单、运维审批,创建虚拟机再交付用户使用的流程,在无需人干预的情况下取得了较过去投入大量运维人力更好的体验;虚拟机的使用迭代周期相比过去大大缩短,每隔
10-15 天虚拟机资源池中的机器就会完整更新一遍,用户随用随取、不用归还,避免了资源的长期占有和浪费;在相同的硬件资源条件下能够管理和提供的虚拟机数量也较过去有了大幅提升。OpenStack 云平台部署方案介绍在实现了公司内部供开发测试人员使用的私有云平台后,需要将目光转向公司 Web 服务的虚拟化实现上来。与之对应,就需要部署一套企业级的 OpenStack 云平台环境。网络方面根据平台需要,分别采用了 vlan 和 flatDHCP 模式,以项目为单位作为租户,进行网络的规划和设计;实现了多网络节点的 OpenStack 环境,保证了网络服务的高可用性。存储上针对业务的访问特点,实现了基于本地存储、NFS 共享存储和 glusterfs 分布式文件系统共享存储的混合存储方案。将虚拟机的 disk 文件存储在宿主机本地硬盘上,数据盘即工作区间挂载分布式共享存储的卷。方案上针对企业级生产环境可能遇到的问题实现了虚拟机在线迁移和物理机宕机迁移等功能。虚拟机在线迁移做到对用户基本透明,迁移过程不影响业务运行;物理机宕机迁移做到了虚拟机所在宿主机宕机后(硬盘损毁,网络不通,电源中断)能够在分钟级内迅速恢复虚拟机的正常使用,将由环境问题导致的事故风险降到最低。经过实践和线上环境的使用统计,基于 OpenStack 的虚拟化解决方案相对于传统的虚拟化解决方案在主要性能上有了明显提升,下图是性能对比:图 2.性能对比高可用配置与平台性能优化OpenStack 云管理平台部署后,在存储和扩展性上还存在诸多问题。例如,虚拟机的操作系统永久损毁或者宕机后,如何快速恢复虚拟机运行对外提供服务,业务负载高了以后如何在很短的时间内添加物理节点均衡线上压力,如何保证存储的 I/O 性能,避免操作系统 I/O 和数据业务 I/O 争夺资源。针对以上问题,做了以下几方面的高可用配置和优化工作:虚拟机在线迁移和物理机宕机迁移实现;glusterfs 支持的分布式块存储功能实现;OpenStack 本地仓库的搭建。虚拟机在线迁移和物理机宕机迁移基于 NFS 共享存储的配置部署在存储集群上安装 NFS 服务;计算节点挂载 NFS 服务器的目录;配置计算节点使其能够免密码 ssh 登录;修改 nova.conf 文件;配置 libvirt 的相关文件;添加 iptables 的相关规则。部署过程中需要注意一些细节:1、挂载点是有要求的,一定要挂载在 nova.conf 配置文件中指向的 instances 创建目录下。各计算节点上,这个路径要完全一样,通常情况下可以使用默认路径/var/lib/nova/instances。如果 NFS 的客户端即计算节点没有选择这个挂载点,也可以顺利创建虚拟机,但是迁移时会发生错误。2、确保计算节点有挂载目录的执行和查找权限。chmod o+x /var/lib/nova/instances3、修改 nova 和 libvirt 的配置,使 vncserver 监听 0.0.0.0 而不是计算节点的 IP;同时设置 libvirt 监听 tcp。更改以下配置项的值:listen_tls=0
listen_tcp=1
auth_tcp="none"4、在计算节点添加 iptables 规则,确保试图途径 16509 端口的 TCP 连接可以顺利通过。16509 端口是 libvirt 专门用于虚拟机迁移的端口,在线迁移依赖于共享存储和 libvirt 工具在线迁移的配置。在各宿主机上添加如下的 iptables 规则:iptables -I INPUT 3 -p tcp --dport 16509 -j ACCEPT
iptables -I OUTPUT 3 -p tcp --dport 16509 -j ACCEPT在线迁移和宕机迁移在线迁移OpenStack 云平台环境上线运行后,考虑数据中心服务器的负载均衡和容灾的需要,经常需要在不停机的状态下完成虚拟机跨物理机和跨数据中心的迁移。实现了共享存储后,可以利用下面的方法进行虚拟机的在线迁移。nova live-migration vmId computeNode其中 vmId 为待迁移的虚拟机 Id,computeNode 为目的宿主机。整个迁移过程很快,用户几乎感知不到迁移过程的影响。宕机迁移在虚拟机所在的宿主机因为各种原因宕机后,即便虚拟化服务和虚拟机本身没有出问题,也不能对外正常提供服务,可以借助物理机宕机迁移的策略恢复虚拟机的工作。迁移操作如下所示:nova evacuate --on-shared-storage vmId computeNode物理机宕机迁移操作需要在共享存储的支持下进行,迁移过程需要指定 on-shared-storage 共享存储参数,vmId 是待迁移的虚拟机 Id,computeNode 是目的宿主机。通过物理机宕机迁移,可以在新的宿主机上迅速恢复受影响虚拟机的工作状态。迁移后,有时会出现虚拟机访问不到的情况,这是迁移过程丢失网络信息造成的,解除该虚拟机浮动 Ip 的绑定,然后重新绑定原 Ip 即可。需要指出的是,基于 NFS 实现的共享存储适合于物理节点规模较小的环境,可以考虑将并发量不高、网络压力较小的业务部署在这样的环境中。当生产环境要求较好的横向扩展性和高负载性支撑时,可以考虑基于 glusterfs 文件系统提供共享存储功能。glusterfs 分布式块存储功能实现配置 glusterfs 集群在两台以上物理机安装 glusterfs 服务端,进一步提高稳定性,可以多部署几台 glusterfs 服务端,通过增加数据冗余率来保证安全性。安装 glusterfs-fuse 模块。利用 FUSE(File system in User Space)模块将 glusterfs 挂载到本地文件系统之上,实现 POSIX 兼容的方式来访问系统数据。在服务端上添加物理节点,查看节点状态。服务端上添加 glusterfs 的 volume,并启动。配置 glusterfs 客户端安装客户端 glusterfs-client。创建挂载点。挂载 glusterfs 服务端的卷到本地挂载点。配置 glusterfs 作为 cinder 的后端存储安装 glusterfs-fuse 模块。配置 cinder 服务,使用 glusterfs 支撑后端存储。修改/etc/cinder/cinder.conf,进行下面的相关配置:glusterfs_mount_point_base = /var/lib/cinder/volumes
glusterfs_shares_config = /etc/cinder/shares.conf
volume_driver=cinder.volume.drivers.glusterfs.GlusterfsDrivershares.conf 文件需要新创建。创建客户端 volume 使用列表。编辑 shares.conf 文件,将需要使用的 glusterfs volume 加入其中。重启 cinder 服务,完成部署。glusterfs 使用调整glusterfs 作为 PB 级的分布式文件系统优势在于有良好的横向扩展性,存储节点可以达到数百个,支撑的客户端能够达到上万的数量。扩展增加存储节点的数量,不需要中断系统服务即可进行。另外,通过条带卷 stripe 和镜像卷 replica,可以实现类似于 RAID0 和 RAID1 的功能。配置条带卷,可以将文件以数据块为单位分散到不同的 brick storage 节点上;配置镜像卷,可以将相同的数据冗余存储到不同的 brick storage 节点上。两者结合,综合提高文件系统的并发性能和可用性。在创建存储集群时,可以通过如下的配置创建分布式的 RAID10 卷,通过实现软 RAID 提高文件系统性能。gluster volume create ecloud stripe 2 replica 2 server01:/var/block_space01 \
server02:/var/block_space01 server01:/var/block_space02 server02:/var/block_space02 force.采取这样的配置,虚拟机数据被分放在 4 个位置,2 个位置组成一份完整的数据,另外冗余一份数据。修改条带卷和镜像卷的配置值,可以灵活改变数据冗余的份数和 glusterfs 的并发读写能力。具体取用什么值,可以根据业务场景和性能要求来实践决定。另一方面,glusterfs 和文件系统的默认配置在 I/O 性能和小文件读写上存在一定问题,可以尝试从以下方面来提高性能:调整读写的块大小,得到选定文件系统下最适宜的数值,提升底层文件系统的 I/O 效率;本地文件系统的性能优化;根据具体业务调整每文件的读写 cache 达到最优效果,配合 glusterfs 固有的 cache 机制;在保证数据安全性和系统稳定的前提下,尽量减少数据冗余的份数,这样可以极大缓解 glusterfs 在查询多个节点时的时间损耗。基于 glusterfs 实现的共享存储与前面介绍过的基于 NFS 实现大致相似,这里不再赘述。OpenStack 本地仓库的搭建:采用离线部署主要是规避安装过程中国外源的超时问题,从而较大地提升安装部署效率。借助自动化的安装脚本 RDO 或者 devStack 安装也很便捷,但是如果网络不稳定或者国外的源出了问题,安装会很麻烦。下载各安装源到本地下载 CentOS 源安装是在 CentOS 发行版下进行,所以首先将 CentOS 最新版 6.5 版本的源拿到本地。定位到放置源的本地路径,使用如下命令进行操作:wget -S -c -r -np -L http://mirrors.sohu.com/centos/6.5/CentOS 官方会定期进行版本升级和部分安装依赖包的更新,我们还需要定期检查相关依赖包的变化,及时将升级的包同步到本地仓库中,与现有环境进行合并。这个工作建议每半个月进行一次,大版本发布时再集中完整更新一次。接下来,依次下载用于搭建 OpenStack 环境的各种依赖包:下载 OpenStack-Icehouse 版本的包wget -c -r -np http://repos.fedorapeople.org/repos/openstack/openstack-icehouse/下载 foreman 插件包wget -S -c -r -np -L http://yum.theforeman.org/plugins/1.3/el6/ .下载 epel 包wget -S -c -r -np -L http://dl.fedoraproject.org/pub/epel/6/ .下载 puppet 包wget -S -c -r -np -L https://yum.puppetlabs.com/el/6/ .下载 epel test 相关包wget -S -c -r -np -L http://dl.fedoraproject.org/pub/epel/testing/6/ .以上介绍的本地仓库搭建是通过完整地下载各依赖包集合实现,我们也可以通过分析 OpenStack 安装日志和官方的项目依赖说明获得更加准确的依赖关系,得到最精简的本地仓库依赖包集合。这样有利于本地仓库迁移和多节点系统的快速恢复。建立本地源以 CentOS 源为例,介绍本地源的建立定位到/var/ftp/centos-sohu 目录下,执行 createrepo .完成本地源的建立。接下来创建 repo 文件,设置本地源。同样以 CentOS 源为例,repo 文件的设置如下所示:[local]
name=local_yum
baseurl=file:/var/ftp/centos-sohu
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6
enabled=1其他挂载本地源的宿主机源配置如下:[local]
name=CentOS-$releasever - Base
baseurl=ftp://$ftpServerIp/centos-sohu
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6
enable=1物理节点共享使用本地源和本地仓库时,可以使用 ftp 访问的方式,也可以使用 nginx 来发布本地源供其他机器下载使用。这个可以根据节点规模和安装环境具体情况进行灵活调整。一般规模的多节点环境,使用 ftp 来发布本地源完全可以满足需求,而且搭建也更容易。经过测试,使用本地源部署规模为 4 个物理节点的多节点环境只需要 6-8 分钟,而使用外网的源至少需要 30-40 分钟,在超时和反复安装的情况下时间成本会更大。随着节点规模增大安装效率的优势会愈发明显,本地仓库的搭建在很大程度上有利于多节点、大规模环境的安装。结语本文简要介绍了 OpenStack 在私有云平台中的一个应用,基于 OpenStack 实现了企业内部的虚拟机资源分配管理平台。同时给出了一个 OpenStack 企业级的云平台部署方案,在存储和网络上的探索和性能优化使得 OpenStack 较好地满足了企业对外提供 Web 服务的需要。本文只是对 OpenStack 企业级使用的一些初步探索,进一步深入研究使用请参考 OpenStack 存储和网络原理获取更多信息。
相关主题 提供了有关云计算的更新资源,包括
云计算 。更新的 ,让您的开发变得轻松, 帮助您成为高效的云开发人员。连接转为云计算设计的 。关于
的活动聚合。
添加或订阅评论,请先或。
有新评论时提醒我
static.content.url=http://www.ibm.com/developerworks/js/artrating/SITE_ID=10Zone=Cloud computingArticleID=979701ArticleTitle=基于 OpenStack 的私有云开发部署实践publish-date=超融合私有云包含硬件虚拟化,网络虚拟化,软件定义存储这几块,安装部署实验我们可以从网上下载免费版本进行测试试用。我们通过下载相应的超融合软件后按照下面步骤安装。
通过 ISO 镜像,U 盘或光盘安装 VisionStack 云平台
安装前准备
VisionStack
安装前需要准备一系列物理计算机,物理计算机的 CPU、内存和存储等
性能高低决定了云主机使用体验的好坏。安装 VisionStack 的服务器性能越优良,云主机使
用体验越佳。服务器硬件要求以及交换机配置如下:
服务器硬件(最低配置):8G,4 个 CPU,硬盘 50G,两块及以上网卡。
交换机配置模板如下:
此配置只针对在物理服务器上安装时才需要配置,如果安装环境为虚拟机,保证有两块
或两块以上网卡即可(此情况下云主机只能内部之间互相通信,与外部网络是无法通信
vlan 400 为管理
vlan,网段为
192.168.56.0/24;vlan 510
为业务 vlan,网段为
10.0.10.0/24。
#####管理口配置#####
interface GigabitEthernet0/0/7
description server-manage-eth0
port link-type access
port default vlan 400
interface Vlanif400
alias Vlanif400
ip address 192.168.56.1 255.255.255.0
#####业务口配置#####
interface GigabitEthernet0/0/8
description server-yewu-eth1
port link-type trunk
port trunk allow-pass vlan 2 to 4094
interface Vlanif510
alias Vlanif510
ip address 10.0.10.1 255.255.255.0
安装介质:ISO 文件,U 盘或光盘(U 盘或光盘镜像制作方法见附录 1)
注意事项:为了保证 VisionStack 云平台安装完成后,能成功创建云主机,需要开启嵌套
虚拟化功能。
1). 若 使用 物 理 机安 装 ,需 要 在 bios 开 启 Virtualization 功 能。 使 用 命令 grep
‘svm|vmx’ /proc/cpuinfo
,若有输出,则开启了虚拟化功能。
2).若在 windows 机器上通过虚拟化软件(比如 Vmware WorkStation)来安装,则需要在虚
拟机设置菜单中处理器处开启虚拟化功能。
U 盘或光盘,在
Boot Manager
进行安装,
2).提示输入此节点的 IP 地址,并进行确认,之后就开始进行分区、安装操作系统自带的软
产品安装系统过程中,默认时间为中国上海时间,全程自动安装,安装系统过程大约在 8-15
分钟左右。
3).操作系统安装完成之后,系统会自行重启,在如下图 4 界面进行产品部署过程。
在此处的产品部署过程耗时大约 10-20分钟,时间主要取决于所部署的物理机/虚拟机配置。
4).安装完成后系统会自动重启并进入如下图 5 界面(系统登录:root/yunrong)。
打开浏览器,在浏览器导航栏内输入服务器 IP 地址回车,就会跳转到【用户登录】页
面,如下图。输入用户名,密码(默认用户名 admin,密码 visionstack),点击登录即可
登录到 VisionStack 平台。
附录 1. 光盘或 U 盘镜像制作
所需使用的软件:UltraISO
制作过程:
PC 首先插入 U 盘或光盘,打开软件 UltraISO。
选择『打开』,加载待刻录的 VisionStack.iso 文件。
若使用 U 盘,点击『启动』下的[写入硬盘映像],点击写入,其他默认。
若使用光盘,点击『工具』下的[刻录光盘映像],点击写入,其他默认。
完成后关闭刻录软件,拔出 U 盘或光盘。
欢迎加微信号:wangbozhang1985
一起交流学习
采用超融合搭建企业私有云的虚拟化技术知识储备
回老家,转行到企业IT运维。第一个任务便是非常重大的活儿——企业信息化系统建设。由于公司是大型集团企业,公司架构庞大复杂,从事传统行业,信息化程度相对落后。所以使得任务非常重要、又异常艰巨,我们领导压...
超融合架构与容器超融合
最早大概是由NUTANIX知道“超融合”概念,原本以为这又是厂商的噱头和炒作,谁知不然,超融合这两年发展如火如荼。2015年被公认为超融合元年,在软件定义存储SDS的推动下,超...
SmartX联手沃云打造全新超融合公有云背后技术解析
在巨头林立的存储领域创业,不仅需要勇气,还需要技术,SmartX就是将目光瞄准对技术要求极高的超融合存储领域,三位有着清华背景的海归派创始人凭借在超融合领域的深厚技术研究打造起来的SmartX,去年开...
一小时部署Server SAN,还有超融合!
上篇:乐高小电影之多节点服务器
中篇:快搭Server SAN前奏:融合架构三要素
“Server SAN和超融合系统,在部署上有什么区别?”龙哥问道。
看我不知从何说起,龙哥自答:Server...
深度剖析——超融合架构应用与实践分享
大家好,我是青云的 lester ,目前负责青云QingCloud 的超融合产品系列。今天由我向大家分享 QingCloud 对超融合架构的理解,以及在超融合架构方面的实践经验。今天分享的话题主要分三...
基于超融合架构(HCI)的容器云管理部署实践
大家好,我是DaoCloud售前工程师张扬,平时工作主要为企业IT客户提供容器化、超融合和云计算方面的技术支持。没事儿喜欢去Nutanix超融合社区转转,也运营者一个微信订阅号写些上不了台面的技术贴。...
基于openstack安装部署私有云详细图文教程
本文主要分享的是云计算、openstack的使用、私有云平台建设、云服务器云硬盘的构建和使用。从基本概念入手到私有云建设,信息量非常大。对于openstack的安装部署都是从官方文档中一步步的介绍,内...
浅谈超融合一体机-即买即用的企业级私有云
什么是超融合服务器
超融合是通过软件定义基础架构整合计算、存储、网络和虚拟化资源。这和传统的融合架构相反,传统的融合架构中,计算、存储、网络和虚拟化资源通常被分别控制,各个模块完成单一功能。
没有更多推荐了,
(window.slotbydup=window.slotbydup || []).push({
id: "5865577",
container: s,
size: "300,250",
display: "inlay-fix"}

我要回帖

更多关于 企业私有云解决方案 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信