Unified Wire 是什么 为何要关注它
发布时间:2008/5/29 0:00:00 访问次数:297
现状
根据要求的存储类型,联网存储可能包含几种技术。最常见的是光纤通道存储局域网络 (san),大多数大型企业都部署了这种经过良好验证的、可靠的高性能数据块级存储网络。多年以来,光纤通道技术经历了几次演变,链路速度从 1 gbps 提高到了 2g;现在,有些首次推出的测试版产品可以支持 4g 链路。除了用做存储设备、交换机和服务器间的连接之外,光纤通道链路还可用来将刀片服务器系统中的刀片服务器连在一起并连接到存储设备。在这些刀片服务器系统中,有第二套链路,它们使用以太网,承载非数据块级的传输量,如文件级传输量和系统管理传输量。采用两种连接技术以及系统冗余要求意味着刀片系统内有两个冗余交换结构。在 1g 到 4g 的链路速度范围内,从经济的角度出发,hba 或控制器芯片以及光纤交换机端口的成本可以支持这种体系结构。当然,与采用一种连接技术相比,这种体系结构并不能简化多结构系统的管理工作。
另一种采用多种技术的存储方案使用了网络附加存储 (nas) 设备,亦称 外存贮器;这些设备(更适合)处理文件级存储传输量,而非数据块级。直到一年前,所有外存贮器还只是在前端配置了以太网连接。外存贮器的内部磁盘存储可通过后端的光纤通道端口进行扩展。与外存贮器的所有内部存储一样,所有扩展都是数据块级的(外存贮器展现出来的存储数据是文件级视图),所以外存贮器厂商通过前端光纤通道端口增加了前端数据块级接入功能,或通过外存贮器前端以太网端口支持的 iscsi 目标模式软件增加了 iscsi 接入功能。如同刀片服务器一样,当链路速度在 1g 到 4g 的范围内时,外存贮器能够通过多个 hba 支持集成的数据块/文件存储。
下一代链路速度会有多高?10g?还是8g?
光纤通道10g 端口首次出现在 2002 年的主机总线适配器原型演示中;2003 年 9 月,演示了第一个光纤通道 10g 交换机端口。在演示中,交换机端口可在两种模式下运行 - 充当大型光纤通道交换机之间的 isl (交换机间链路),或者与 fc hba 一起在主机连接模式下实现交换互操作性。当时的设想是,2g fc 之后的下一次迁移将达到 10g。但发现了几个问题,使这种假设降到了两倍,即 4g。首先是 fc 驱动器侧发生了变化,驱动器接口迁移到了 4g。开发出了 4g serdes 芯片内核,使交换机和 hba 的其他 4g 基础设施的功能组件达到了 4g。第二个问题是,10g 无法向后兼容 1g 和 2g。在从 1g 到 2g 和 4g 的迁移过程中,光基础设施保持不变,利用现已安装的 50/125 和 62.5/125 微米多模光缆实施短距离应用(最长 550 米)。但是,当速度达到 10g 时,这种光缆的距离不能超过 100 米,最短只有 33 米。为了达到最佳的 10g 多模性能,人们制定了新的光缆规范, 850 nm、激光优化、50/125 微米光纤,有效模式带宽为 2000 mhz*km。这种光纤可使用 10gbase-s 接口达到 300 米的距离。更加详细的讨论,请参见 10g 以太网联盟网站 (www.10gea.org)。这个网站上讨论了用传统 1g 和 100m 链路部署 10g 时的一些非常重要的光缆基础设施注意事项。
因此,尽管 10g 光线通道技术可成功运行,但是 10g 链路的高成本(10g 光收发器目前的价格在 1000 美元左右)加之现在很少有人需要这种带宽,使得 fc san 10g 应用近期只能限制在 isl 中;这种情况甚至可能持续很多年。
10g 以太网的情况如何?在以太网方面,10gbe 端口已经上市两年了,大多用作 isl。如果 fc san 近期不需要 10g 带宽,以太网/ ip 存储领域的发展趋势会推动 10g 主机连接的应用吗?是的,肯定会。如我们讨论过的,在过去的几年中,“融合存储”得到了初步部署 - 主要包括结合数据块级和文件级存储的设备。考虑到 10g 光口的成本,很难为一种流量类型(数据块或文件)采用一条 10g 链路。但是,如果可以在单一 hba 上支持多种流量类型,允许使用单一 10g 链路连接融合存储设备,则可以解决 10g 的成本问题。我们可以把这种单一流量管道称为“unified wire”。第一个可能使用这种管道的设备可能就是拥有额外的数据块存储支持功能的 nas filer。这种方法的一个明显优势就是,它消除了独立的文件和数据块存储网络。如果采用了 iscsi 数据块连接,则它可消除独立的光纤通道和以太网基础设施。为什么融合存储采用以太网,而不使用光纤通道?因为光纤通道只能支持数据块流量。光纤通道可以支持 tcp/ip 流量的隧道技术,但是不能加速 hab 中的 ip 堆栈。
为什么必须以 10g 的链路速度、在硬件中处理 tcp/ip 流量?如果我们注意目前实施的 iscsi,其中的软件 iscsi 堆栈可用于大多数操作系统以及在卡中实施了所有 iscsi 功能的硬件 hba。如果链路速度为 1g,则软件和硬件实施的性能会很接近 - 区别在于运行堆栈消耗的主机 cpu。如果使用硬件,运行堆栈只需 5% 的 cpu,而软件则可能消耗 40% 左右,甚至会更高 - 取决于数据块大小。大多数情况下,采用软件就已经足
现状
根据要求的存储类型,联网存储可能包含几种技术。最常见的是光纤通道存储局域网络 (san),大多数大型企业都部署了这种经过良好验证的、可靠的高性能数据块级存储网络。多年以来,光纤通道技术经历了几次演变,链路速度从 1 gbps 提高到了 2g;现在,有些首次推出的测试版产品可以支持 4g 链路。除了用做存储设备、交换机和服务器间的连接之外,光纤通道链路还可用来将刀片服务器系统中的刀片服务器连在一起并连接到存储设备。在这些刀片服务器系统中,有第二套链路,它们使用以太网,承载非数据块级的传输量,如文件级传输量和系统管理传输量。采用两种连接技术以及系统冗余要求意味着刀片系统内有两个冗余交换结构。在 1g 到 4g 的链路速度范围内,从经济的角度出发,hba 或控制器芯片以及光纤交换机端口的成本可以支持这种体系结构。当然,与采用一种连接技术相比,这种体系结构并不能简化多结构系统的管理工作。
另一种采用多种技术的存储方案使用了网络附加存储 (nas) 设备,亦称 外存贮器;这些设备(更适合)处理文件级存储传输量,而非数据块级。直到一年前,所有外存贮器还只是在前端配置了以太网连接。外存贮器的内部磁盘存储可通过后端的光纤通道端口进行扩展。与外存贮器的所有内部存储一样,所有扩展都是数据块级的(外存贮器展现出来的存储数据是文件级视图),所以外存贮器厂商通过前端光纤通道端口增加了前端数据块级接入功能,或通过外存贮器前端以太网端口支持的 iscsi 目标模式软件增加了 iscsi 接入功能。如同刀片服务器一样,当链路速度在 1g 到 4g 的范围内时,外存贮器能够通过多个 hba 支持集成的数据块/文件存储。
下一代链路速度会有多高?10g?还是8g?
光纤通道10g 端口首次出现在 2002 年的主机总线适配器原型演示中;2003 年 9 月,演示了第一个光纤通道 10g 交换机端口。在演示中,交换机端口可在两种模式下运行 - 充当大型光纤通道交换机之间的 isl (交换机间链路),或者与 fc hba 一起在主机连接模式下实现交换互操作性。当时的设想是,2g fc 之后的下一次迁移将达到 10g。但发现了几个问题,使这种假设降到了两倍,即 4g。首先是 fc 驱动器侧发生了变化,驱动器接口迁移到了 4g。开发出了 4g serdes 芯片内核,使交换机和 hba 的其他 4g 基础设施的功能组件达到了 4g。第二个问题是,10g 无法向后兼容 1g 和 2g。在从 1g 到 2g 和 4g 的迁移过程中,光基础设施保持不变,利用现已安装的 50/125 和 62.5/125 微米多模光缆实施短距离应用(最长 550 米)。但是,当速度达到 10g 时,这种光缆的距离不能超过 100 米,最短只有 33 米。为了达到最佳的 10g 多模性能,人们制定了新的光缆规范, 850 nm、激光优化、50/125 微米光纤,有效模式带宽为 2000 mhz*km。这种光纤可使用 10gbase-s 接口达到 300 米的距离。更加详细的讨论,请参见 10g 以太网联盟网站 (www.10gea.org)。这个网站上讨论了用传统 1g 和 100m 链路部署 10g 时的一些非常重要的光缆基础设施注意事项。
因此,尽管 10g 光线通道技术可成功运行,但是 10g 链路的高成本(10g 光收发器目前的价格在 1000 美元左右)加之现在很少有人需要这种带宽,使得 fc san 10g 应用近期只能限制在 isl 中;这种情况甚至可能持续很多年。
10g 以太网的情况如何?在以太网方面,10gbe 端口已经上市两年了,大多用作 isl。如果 fc san 近期不需要 10g 带宽,以太网/ ip 存储领域的发展趋势会推动 10g 主机连接的应用吗?是的,肯定会。如我们讨论过的,在过去的几年中,“融合存储”得到了初步部署 - 主要包括结合数据块级和文件级存储的设备。考虑到 10g 光口的成本,很难为一种流量类型(数据块或文件)采用一条 10g 链路。但是,如果可以在单一 hba 上支持多种流量类型,允许使用单一 10g 链路连接融合存储设备,则可以解决 10g 的成本问题。我们可以把这种单一流量管道称为“unified wire”。第一个可能使用这种管道的设备可能就是拥有额外的数据块存储支持功能的 nas filer。这种方法的一个明显优势就是,它消除了独立的文件和数据块存储网络。如果采用了 iscsi 数据块连接,则它可消除独立的光纤通道和以太网基础设施。为什么融合存储采用以太网,而不使用光纤通道?因为光纤通道只能支持数据块流量。光纤通道可以支持 tcp/ip 流量的隧道技术,但是不能加速 hab 中的 ip 堆栈。
为什么必须以 10g 的链路速度、在硬件中处理 tcp/ip 流量?如果我们注意目前实施的 iscsi,其中的软件 iscsi 堆栈可用于大多数操作系统以及在卡中实施了所有 iscsi 功能的硬件 hba。如果链路速度为 1g,则软件和硬件实施的性能会很接近 - 区别在于运行堆栈消耗的主机 cpu。如果使用硬件,运行堆栈只需 5% 的 cpu,而软件则可能消耗 40% 左右,甚至会更高 - 取决于数据块大小。大多数情况下,采用软件就已经足