仔细研究并测试了VMl连接Celerra的官方文档,把有关设置的重要部分总结如下。其实其他厂商的步骤也可以此类推。抛砖引玉,希望有更多高手测试其他厂商。
>全文来自存储人生博客:《[url]http://www.storageonline.com.cn/storage/nas/solution-guide-for-vmware-esx-server-using-emc-celerra/[/url]》
>本文基于《集成WMware ESX server与EMC存储 》并对其中“集成ESX server与Celerra”部分进行进一步的描述。因此看本文前请先了解以下三点:
>1. ESX server架构图
>2. VMware数据中心架构
>3. VMware环境中的存储
>废话少说,正式进入正题:
>1. 集成ESX server与Celerra的路线图
>下面这张图非常清楚的描述了集成ESX server与Celerra的2条路线-NFS/iSCSI:
>ESX server上NIC和iSCSI HBA卡的配置
>ESX server上VMkernel端口的配置
>Celerra上创建文件系统并共享给ESX server
>ESX server上创建NFS datastores
>Celerra上创建iSCSI LUN给ESX server
>ESX server上创建VMFS datastores
>ESX server上多路径与高可用性的配置
>2. ESX server上NIC和iSCSI HBA卡的配置
>这里要确保NIC及iSCSI HBA能够兼容Celerra当前版本,参考 EMC Celerra 兼容列表:[url]https://elabnavigator.emc.com/emcpubs/elab/esm/pdf/EMC_Celerra.pdf[/url]
>3. ESX server上VMkernel端口的配置
>关于VMkernel的介绍及配置,这里不再详述,参考《VMware ESX Server网络设置》。
>4. ESX server使用Celerra NFS
>4.1. Celerra上创建文件系统并共享给ESX server
>先建好文件系统给ESX server。当使用NFS,我们需要考虑2个方面:
>4.1.1 给ESX server合适的访问权限:
>4.1.2 NFS的性能:
>VMware建议在mount Celerra文件系统时使用uncached选项,能够将NFS的大文件访问性能提高近30%。其原理就是当多个连接同时访问一个大文件时(NFS datastore),将多个写操作重新组织,在一定程度上实现了并行写,而且不在ESX server上缓冲,直接写入后端,从而提高了NFS性能。
>这里要特别注意的是:
>如果使用ESX server上的虚拟机来直接mount NFS时,uncached是没有用的。
>Celerra在6.0之后对于VMware NFS访问的性能做了很大的优化,如果觉得5.6性能不如意,建议升级到6.0或以上版本。
>如果有Celerra Rep,源端文件系统和目标端文件系统需要相同的设置。
>4.2. ESX server上创建NFS datastores
>4.2.1 当前的datastore:
>4.2.2 增加NAS/NFS datastore:
>5. ESX server使用Celerra iSCSI
>这个基本和使用Celerra NFS类似,这里不再详述。
>6. ESX server上多路径与高可用性的配置
>参考《WMware ESX Server网络负载均衡配置 》
>6.1. NFS的高可用性
>6.1.1 ESX server端:
>配置2块物理NIC给VMkernel端口,2块NIC连到不同的交换机。且NIC Teaming Load Balancing配置为基于端口的负载均衡。
>6.1.2 Celerra端:
>配置Celerra的网络端口为FSN:
>6.2. iSCSI的高可用性
>6.2.1 ESX server端:
>配置2个不同的VMkernel端口,并各自使用不同的物理NIC和交换机,因此有2个完全不同的网络连接到Celerra的iSCSI:
>6.2.2 ESX server端:
>配置2个不同的网络端口给iSCSI Target: