在选择数据网络主干设备时的技术分析

27 次下载 91 收藏 doc 更新于 2026-03-13
VIP专享

适用对象

《在选择数据网络主干设备时的技术分析》是关于其它行业相关企业安全管理制度相关内容,适用于其它行业相关企业。

文本预览

在选择数据网络主干设备时的技术分析
随着 Internet 的飞速发展,数据网络技术及其设备也随之不断推陈出新。进入新的千年,我
国数据网络建设步入了一个崭新的发展阶段。在网络建设项目中,作为网络建设的决策者,
尤其是技术方面的负责人,如何因地制宜,既考虑现实需求,又兼顾过去网络的投资和未
网络的发展;如何冷静地面对激烈竞争的网络市场,作出正确的选择呢?
数据网络无论大小,或是城域网、园区网,或是一栋大楼内的局域网,通常不可避免的要
考虑在网络中采用什么样的主干设备。就这点而言,我们认为从网络主干设备的系统结构
入手,将使你的选型思路变得清晰和准确(本文不对设备中使用何种协议展开讨论)。这些
观点是结合许多网络项目的实践,并吸收国外第三方的一些评述而成的。我们的指导思想
是,尽可能从客观、中立的角度品评一些技术问题,以供广大的网络技术工作者在实践中
参考,并希望能有所陴益。
网络主干设备的系统结构 网络主干设备的系统结构直接决定了设备的性能和功能水平。
这犹如先天很好的一个婴儿和一个先天不足的婴儿,即便后天成长条件完全相同,他们的
能力依然有相当大的差别。因此,深入了解设备的系统结构设计,客观认知设备的性能和
功能,这对正确选择设备极有帮助,下面将从七个方面进行讨论。 1.交换结构
(Switching Fabric)
随着网络交换技术不断的发展,交换结构在网络设备的体系结构中占据着极为重要的地
位。为了便于理解,这里仅简述三种典型的交换结构的特点:
共享总线 由于近年来网络设备的总线技术发展缓慢,所以导致了共享总线带宽低,访问
效率不高;而且,它不能用来同时进行多点访问。另外,受 CPU 频率和总线位数的限制,
其性能扩展困难。它适用于大部分流量在模块本地进行交换网络模式。 共享内存 其
访问效率高,适合同时进行多点访问。共享内存通常为 DRAM 和 SRAM 两种,DRAM
速度慢,造价低,SRAM 速度快,造价高。共享内存方式对内存芯片的性能要求很高,
至少为整机所有端口带宽之和的两倍(比如设备支持 32 个千兆以太网端口,则要求共享
内存的性能要达到 64Gbps)。由此可见,既便不考虑价格因素,内存芯片技术本身在某种
程度上也限制了共享内存方式所能达到的性能水平。 交换矩阵(Cross bar) 由于 ASIC
技术发展迅速,目前 ASIC 芯片间的转发性能通常可达到 1Gbps,甚至更高的性能,于是
交换矩阵提供了极好的物质基础。所有接口模块(包括控制模块)都连接到一个矩阵式
背板上,通过 ASIC 芯片到 ASIC 芯片的直接转发,可同时进行多个模块之间的通信;每
个模块的缓存只处理本模块上的输入/输出队列,因此对内存芯片性能的要求大大低于共
享内存方式。总之,交换矩阵的特点是访问效率高,适合同时进行多点访问,容易提供非
常高的带宽,并且性能扩展方便,不易受 CPU、总线以及内存技术的限制。目前大部分
的专业网络厂商在其第三层核心交换设备中都越来越多地采用了这种技术。 2.阻塞与非
阻塞配置
阻塞与非阻塞配置是两种截然不同的设计思想,它们各有优劣。在选型时,一定要根据实
际需求来选择相应的网络设备
阻塞配置 该种设计是指:机箱中所有交换端口的总带宽,超过前述交换结构的转发能力。
因此,阻塞配置设计容易导致数据流从接口模块进入交换结构时,发生阻塞;一旦发生阻
塞,便会降低系统的交换性能。例如,一个交换接口模块上有 8 个千兆交换端口,其累加
和为 8Gbps,而该模块在交换矩阵的带宽只有 2Gbps。当该模块满负荷工作时,势必发生
阻塞。采用阻塞设计容易在千兆/百兆接口模块上提高端口密度,十分适合连接服务器集
群(因为服务器本身受到操作系统、输入/输出总线、磁盘吞吐能力,以及应用软件等诸
多因素的影响,通过其网卡进行交换的数据不可能达到网卡吞吐的标称值)。 非阻塞
置 该设计的目标为:机箱中全部交换端口的总带宽,低于或等于交换结构的转发能力,
这就使得在任何情况下,数据流进入交换结构时不会发生阻塞。因此,非阻塞设计的网络
设备适用于主干连接。在主干设备选型时,只需注意接口模块的端口密度和交换结构的转
发能力相匹配即可(建议:当要构造高性能的网络主干时,必须选用非阻塞配置的主干
备)。 3.采用何种方式实现第 3 层和第 4 层的处理
众所周知,每一次网络通信都是在通信的机器之间产生一串数据包。这些数据包构成的数
据流可分别在第 3、4 层进行识别。
在第 3 层(Network Layer,即网络层,以下简称 L3),数据流是通过源站点和目的站点的
网络地址被识别。因此,控制数据流的能力仅限于通信的源站点和目的站点的地址对,实
现这种功能的设备称之为路由器。一个不争的事实:无论过去、现在、还是将来,路由器
网络中都占据着核心的地位。传统路由器是采用软件实现路由功能,其速度慢,且价格
昂贵,往往成为网络的瓶颈。随着网络技术的发展,路由器技术发生了革命,路由功能由
专用的ASIC集成电路来完成。现在这种设备被称之为第三层交换机或叫做交换式路由器。
在第 4 层(Transport Layer 即传输层,以下简称 L4),通过数据包的第 4 层信息,设备
够懂得所传输的数据包是何种应用。因此,第 4 层交换提供应用级的控制,即支持安全过
滤和提供对应用流施加特定的 QoS 策略。诚然,传统路由器具有阅读第 4 层报头信息的
能力(通过软件实现),与第三层交换机(或交换式路由器)采用专用的 ASIC 集成电路
相比,设备的性能几乎相差了两个数量级,因此,传统路由器无法实现第 4 层交换
值得指出的是:网络主干设备的系统结构在设计上分成两大类:集中式和分布式。即便两
者都采用了新的技术,但就其性能而言,仍存在着较大的差异。
集中式 所谓集中式,顾名思义,L3/L4 数据流的转发由一个中央模块控制处理。因此,
L3/L4 层转发能力通常为 3M-4Mpps,最多达到 15Mpps。 分布式 将 L3/L4 层数据流的
转发策略设置到接口模块上,并且通过专用的 ASIC 芯片转发 L3/L4 层数据流,从而实现
相关控制和服务功能。L3/L4 层转发能力可达 30Mpps 至 40Mpps。 4.系统容量
由于网络规模越来越大,网络主干设备的系统容量也成为选型中的重要考核指标。建议重
点考核以下两个方面:
物理容量 各类网络协议的端口密度,如千兆以太网、快速以太网,尤其是非阻塞配置下
的端口密度。 逻辑容量 路由表、MAC 地址表、应用数据流表、访问控制列表(ACL)
大小,反映出设备支持网络规模大小的能力(先进的主干设备必须支持足够大的逻辑容量,
以及非阻塞配置设计下的高端口密度。) 5.关键部件冗余设计

文件预览

页码: /
企安文库 - 请下载后使用

免责申明

本网站提供的生产安全相关模板文件仅供参考和示例之用,属于通用性资料。用户下载并使用这些模板,即表示理解并同意:

  • 本文件不构成任何法律、专业安全咨询或特定情况下的建议。
  • 用户有责任根据自身具体业务、所在地法律法规及行业标准,对模板进行审查、修改和定制,确保其适用性、准确性和合规性。
  • 网站运营方对用户因使用、误用或依赖本网站提供的模板文件而导致的任何直接、间接、偶然或特殊的损失或损害(包括但不限于安全事故、经济损失、法律责任)概不负责。
  • 本网站及其运营方明确免除因用户访问、下载、使用或无法使用这些模板文件而直接或间接引起的或与之相关的任何及所有索赔、损失、损害(包括人身伤害、财产损失、业务中断、数据丢失等)或法律责任。

文件格式

提供Word(.doc)和PDF两种格式文件,包含可直接编辑的模板文件和参考示例。

相关推荐

猜您喜欢

您可能还需要以下模板