千兆以太网交换芯片BCM5690及其在交换整机中的应用

来源: 作者: 发布时间:2007-07-31

摘要:BCM5690是BroadCOM公司推出的集成有12个千兆端口和1个万兆端口的多层交换芯片。文章比较全面地介绍了该芯片的结构和功能特性,给出了他的访问控制方式和数据流程,同时给出了用BCM5690设计交换整机的硬件结构和软件实现方法。

关键词:千兆以太网;BCM5690;堆叠;数据流程

现在,万兆芯片技术不断取得新的发展,尤其在“真”万兆的问题上,只有拥有更先进的芯片,设备厂商才能够在芯片功能和特性的基础上研发自身的交换机体系架构。虽然Broadcom、Intel、Marvell、美国国家半导体(NS)、英飞凌(Infineon)和意法半导体(STMicro electronics)都推出了最新的千兆以太网芯片产品。但万兆芯片的发展无疑会从硬件和架构层面来加快万兆产品的发展速度。

为此, BroadCOM公司研发了BCM5690(12+1)单芯片交换方案。该集成电路芯片整合了12个千兆端口和1个万兆端口,是一款功能比较强大和全面的三层千兆以太网交换芯片。文中将周详介绍BCM5690芯片的功能特性连同基于该芯片的交换机实现方法。

1 BCM5690芯片简介

1.1 BCM5690芯片结构

BCM5690是芯片提供有12个GE接口(千兆端口)和1个HiGig接口(内联端口),并具备堆叠功能。器件的端口采用PCI接口进行管理。其结构框图如图1所示。

由图1能够看出:BCM5690芯片由以下一些主要功能模块组成:

(1)GIGA接口控制器GPIC:用于提供GE口和交换逻辑之间的接口。

(2)内联端口(HiGig)控制器IPIC:主要提供HiGig口和内部交换逻辑之间的接口,有时也被用于多片BCM5690之间的堆叠操作。

(3) CPU管理接口CMIC:主要提供CPU和BCM5690设备不同功能块之间的接口,同时也用于诸如MIIM、I2C和灯的处理等功能。该模块通过PCI接口和CPU相联,可使CPU访问和控制BCM5690,而DMA引擎则支持数据从CPU传向BCM5690或从BCM5690传向CPU。

(4) 地址解析逻辑ARL:该逻辑功能模块可在数据包的基础上确定该数据包的转发策略。他利用二层表(L2_TABLE)、二层组播表L2MC TABLE 、三层表(L3_TABLE)、三层最长前缀匹配表(DEF_IP_HI和DEF_IP_LO)、三层接口表L3-INTF 、IP组播表(L3_IPMC)、VLAN表(VLAN)连同spanning tree Group表(VLAN_STAG)来决定如何转发数据包。

(5) 公共缓冲池CBPCBP实际上是1MB共享的包缓冲区。CBP由8192(8K)个单元组成,每个单元128字节。设备里的每个数据包消耗一至多个单元。

(6)内存管理单元MMU:BCM5690有一个单独的内存管理单元。每个MMU和设备的功能块(GPIC、IPIC等)相关联。MMU负责数据包的缓冲和调度。他首先接收数据包,然后再将数据包缓冲,并在发送时加以调度,同时他还管理交换单元的流控特性。概括来说,就是缓冲逻辑、调度逻辑、流控逻辑。缓冲逻辑从CP-BUS接收包并存放在CBP,同样也从CBP获取包并将他们发送到CP-BUS上去。包的发送顺序由调度逻辑根据包的优先级别确定。流控逻辑包括Head-of-LineHOL 阻塞预防和Backpressure两种方式。

这些功能模块之间可通过两条内部总线联系起来:CP-Bus(图1粗黑线所示)、S-Channel Bus图1细黑线所示 。其中CP-Bus用于芯片内数据包的高速传输,他支持任何端口的同时线速转发。而S-Channel Bus则有两个作用:第一是用于MMU到其他功能块的流控;第二是通过CMIC利用软件控制来访问内部寄存器和表。

1.2 BCM5690芯片特性及功能介绍

Broadcom公司XGS系列芯片的重要特性是具备堆叠功能,该功能能够将多个交换芯片组合在一起,以形成一个更大规模的系统,或将多个带交换芯片的系统组合在一起形成一个完整的系统设备。这种功能最多能够实现30个设备的堆叠。

BCM5690能够通过Hi-Gig和GIGA来扩展系统容量。他有四种模式,其中cascade模式通过Hi-Gig口单向互联来形成(环行组网);而全双工堆叠模式则通过BCM5690的Hi-Gig口双向地和BCM567X相连来扩展容量(环形组网);第三是chassis模式,该模式是将Hi-Gig通过背板互连形成(星形组网)。可实现冗余备份和逐级交换,不需中转,且效率比环行组网高;最后是SL形式的堆叠,他通过GIGA口来互连BCM5690。图2所示为BCM5690的逻辑框图。

BCM5690是一款千兆以太网交换芯片,他支持二层交换、三层路由连同第2~7层数据包的分类和过滤等。

地址解析逻辑是BCM5690集成电路芯片的中央部件GPIC的入口逻辑用他来决定单个包的转发方向。

BCM5690集成电路芯片中的快速过滤处理器(FFP)是个通过第2~7层数据包进行分类和过滤的引擎。每个GE口各有一个FFP来负责包的分类和更新。FFP能够通过配置寄存器GIMASK和GIR-ULE来改变符合条件的数据包特性其中GIMASK用于配置匹配选项,GIRULE用于产生操作命令。对于每个数据包来说,最多能够改变16个匹配特性。假如同时有多个特性符合匹配条件,则在GIMASK里处于高位的优先配置。

对于包的缓冲和流控,BCM5690还整合了1MB的数据包缓冲区CBP,这个缓冲区可为任何端口共用。

BCM5690中的寄存器MIRROR_CONTROL和IMIRROR_CONTROL用来配置被映像端口和映像端口,两个寄存器的内容应保持一致。他支持本芯片内的映像。

BCM5690集成电路芯片中的链路聚合(trunk)最大可支持8端口的Trunking,共32组Trunk,并可进行跨芯片的端口Trunk。另外,BCM5690还支持速度高达 66MHz的PCI接口,并可对任何数据包的线速交换连同RMON、SNMP、STP和Rapid STP提供支持。

2 访问控制方式及数据流程

2.1 访问控制方式

BCM5690支持一系列符合PCI标准的寄存器这些寄存器允许对设备再分配MODID 、地址空间的自动配置和再映射。CPU对BCM5690的控制都是通过访问PCI寄存器来实现的。BCM5690的寄存器分为直接访问和非直接访问两种。可直接访问的寄存器映射到PCI的内存空间这些寄存器相对于PCI控制寄存器有一个固定的地址偏移。上电初始化期间,系统自动配置每个PCI设备的基地址及地址范围,以便能够唯一地访问每一个PCI设备中的寄存器。BCM5690的访问机制分为三个类型:一是PCI配置空间;二是PCI memory 映射的I/O,比如通过PCI设备对DMA、MIIM和I2C的控制;第三是消息机制。

2.2 数据流程

任何的数据流通过交换芯片都要经过输入部分(Ingress)、内存管理单元(MMU)和输出部分(Egress)这三个流程。其数据流程如图3所示。

Ingress(输入逻辑)是数据包在每端口上的逻辑流程。每端口都有自己的输入逻辑,输入逻辑负责任何包的转发(交换)策略,决定将包送给哪个端口,根据转发信息将数据包发送给MMU,进行缓冲和调度,并以线速对包进行处理。输入逻辑和大部分交换功能关联。

MMU(内存管理单元)主要负责数据包的缓冲和调度,他接收从输入逻辑过来的数据包并缓冲这些包,同时对这些包进行调度并将他们送给输出逻辑。数据包进入MMU时将存储在CBP里。CBP有1MB的大小供任何端口共用。MMU主要有四部分功能:资源计数、背压、HOL预防机制、调度。其中资源计数主要是统计当前消耗的CBP单元数或CBP数据包个数,决定数据包什么时候进入背压或HOL预防;调度则是根据优先级和COS的四种调度准则来确定包发送的先后顺序和权重。

Egress(输出逻辑)主要从MMU获取数据包并将其送入各个端口,这是整个流程中最简单的一环。他先将包发给输出端口,然后确定是否在发送的数据包上添加tag。具体流程如下:首先从MMU请求数据包,假如发送的包需要不带tag,则负责将tag去掉;然后计算数据包的CRC;最后将包交给MAC发送(特别情况下,CMIC将直接把数据包以DMA方式发送给CPU)。

3 基于BCM5690的交换整机设计

3.1 硬件实现

笔者在设计中采用了两片BCM5690和四片BCM5464,外加四个SFP接口的千兆光接口来实现16端口的10/100/1000M的电口和4个千兆光口的交换整机。BCM5464是BroadCom的四端口的千兆PHY。

图4是该交换整机的主控板硬件结构,其硬件电路由交换单元、物理接口单元、RJ45和灯接口单元、光接口单元、控制单元、CPU连接器单元、时钟单元、电源单元组成。其中交换单元选用了两片BCM5690,他们之间通过Hi-Gig口背靠背连接实现通信,带有和其他大部分单元的接口。每片BCM5690通过PCI接口和CPU连接器相连,主要用来和CPU通信以实现对芯片的管理。

图4所示电路中的CPU采用Motorola公司的PPC8240,主要负责整个系统的运转调度。12个电口通过背板总线和各个线卡相连,以实现各线卡的上联功能。当主控板单独作为一个单独的三层交换机时,他将同时作为和其他三层设备互联的接口。4个千兆光接口和本设备上联可扩展以太网的传输距离。

本系统使用了两个背靠背连接的BCM5690来进行设计,这样可将该系统归为cascade模式。在堆叠完成之后,通过在堆叠口的以太网包首部加上头信息,可使芯片和芯片之间、系统和系统之间通过Broadcom专有的通信协议来实现相互之间的信息传输,从而实现数据包在不同芯片、不同系统之间的转发。

另外,还能够通过配置IPIC CONFIG 寄存器(IPIC_CASCADE, MY_MODID)、MODPORT表和Giga bit端口CONFIG寄存器来对堆叠进行配置。

3.2 软件实现

a.初始化流程

在设计软件模块的初始化流程时,首先是头模式的配置,由于BCM5690固定工作在小头little_endian 模式,而PPC8240工作在大头模式,因此需要对头模式进行配置;接下来是查找PCI设备,以获取各个PCI设备的设备号连同各自的基地址;之后应对堆叠模式进行配置,以便两片BCM5690之间的二层表内容能够互通;最后是基本交换功能和DMA通道的配置。

b.软件结构

图5是笔者设计的软件结构简图。其中涉及驱动程式和驱动程式封装的是SAL层、Driver层和BCM层。SAL层可对操作系统和驱动层进行隔离,可提供PCI中断连同PCI设备的查找、线程、中断、同步和内存管理。Driver层包括BCM5690寄存器的访问方式实现、表的初始化、内存初始化、芯片堆叠模式的配置、L2和L3地址的操作和查找、数据包的发送/接收连同端口的管理等。

EPON系统中ONU的设计

更新于2007-07-26 02:03:36

EPONONUASICONU无源光网络

引言

千兆以太网无源光网络(EPON)是一种点到多点拓扑结构的光接入网技术,采用无源光器件连接局端和远端设备,实现以太网业务的透明传输,并能在同一架构中实现语音、视频等综合业务的接入。

EPON作为新兴接入网技术的突出优势在于低成本、易维护和扩展性好。EPON系统由OLT与ONU构成。

ONU硬件系统设计

系统硬件由嵌入式控制模块和网络交换模块两部分构成。嵌入式控制模块是ONU的控制和管理核心,它为嵌入式Linux操作系统的运行提供硬件平台,通过它来实现对网络交换模块的控制与配置,实现网络交换模块的正常运行。网络交换模块提供以太帧的交换与转发功能,嵌入式控制模块通过PCI总线与网络交换模块进行通信,访问网络交换模块内部各芯片的寄存器,对各芯片进行配置并获取各个芯片的状态信息。网络交换模块内部的交换芯片BCM5615将嵌入式控制模块对它的访问,转换为自己对网络交换模块内部各芯片的访问,这样就实现了嵌入式控制模块对网络交换模块内部各芯片的管理。

嵌入式控制模块接口设计

嵌入式处理器MPC8245简介

MPC8245由一个外设逻辑块和一个32位超标量体系结构PowerPC处理器内核构成。在外设逻辑块中集成了一个PCI桥、DUART、内存控制器、DMA控制器、EPIC中断控制器、一个消息单元和一个I2C控制器。处理器内核支持浮点运算和内存管理,具有16KB指令高速缓存(cache),16KB数据cache和电源管理特性。MPC8245内含一外设逻辑总线,用于连接处理器内核和外设逻辑块。处理器内核可在多种不同的频率下工作。MPC8245既可用作PCIhost,也可用作PCI代理控制器。支持多达2GB的SDRAM;支持1~8 组的4MB, 16MB, 64MB, 128MB, 或256MB存储器。

时钟电路

MPC8245输入时钟由33MHz的的晶振通过零延时缓冲器产生四路时钟信号,一路作为MPC8245的PCI总线时钟和内核的输入时钟,系统时钟信号OSC_IN未用,需要接地。MPC8245的引脚PLL_CFG[0:4]用于配置倍频因子,经过内部倍频器,产生SDRAM时钟和166MHz的CPU内核时钟。一路作为RTL8139的PCI总线时钟,一路作为BCM5615的PCI总线时钟。

PCI总线接口

PCI总线工作在33MHz,设计中要保证PCI时钟的时钟相位偏移小于2ns,否则,系统可能无法正常工作。MPC8245作为PCI主处理器,RTL8139和BCM5615的REQ#、GNT#分别连到MPC8245的REQ[0:1]#、GNT[0::1]#,由MPC8245来实现总线的仲裁。利用地址线AD31,AD30来决定RTL8139、BCM5615的IDSEL,实现PCI总线配置访问时对RTL8139、BCM5615的片选。这种方法会使AD31,AD30线上增加一个负载,因此将它们的IDSEL通过1K?电阻耦合到AD31、AD30上来解决负载加重的问题。PCI总线的控制信号都要求有上拉电阻,保证它们在没有驱动设备驱动总线的情况下仍然具有稳定的值,因而FRAME#、TRDY#、IRDY#、DEVSEL#、STOP#、SERR#和PERR#这些信号使用10K?电阻上拉。

Flash

在MPC8245中,ROM/Flash被分为2个BANK,BANK0 的地址为0xFF800000~0xFFFFFFFF ,片选为/RCS0, RCS0接存储代码的存储器片选;BANK1 的地址为0xFF000000~0xFF7FFFFF,片选为/RCS1。 ROM/Flash/SRAM 工作在不同的数据宽度(8位,16位,32位,64位)地址总线下,复位时,MPC8245的引脚MDL0、/FOE决定启动数据位宽度;复位后,硬件复位配置字决定数据的宽度。

本设计中选择512KB的Flash作为Bootloader代码存储器,系统工作在8位模式,对应的地址为0xFF800000~0xFF87FFFF。选用两片AM29LV320B分别作为Bootloader/Linux内核和文件存储器,AM29LV320B是32Mb、单3.3V电源供电的闪存,编程和擦写电压由内部产生,与JEDEC单电源闪存标准兼容;可组成4M×8Bit或2M×16Bit的存储器。可用标准EPROM编程器进行编程;存取时间最短为70ns;独立的片选(CE#)、写使能(WE#)和输出使能(OE#)控制,可减小对总线的压力。片选RCS1、RCS2分别选择两片Flash,RCS1选中的Flash对应的地址为0xFF000000~0xFF3FFFFF,RCS2选中的Flash地址由编程决定。

跳线J1用来将RCS0接到Flash1,RCS1接到Flash0,这样在Bootloader代码运行后,将Bootloader代码、Linux内核代码都烧到Flash1,节约一片512KB的Flash,同时留下RCS2、RCS3片选信号,留作以后扩展Flash用。

SDRAM

32MB的SDRAM由两片HY57V283220T组成。MPC8245的SDRAM接口使用一个片选信号CS1,同时作为两片HY57V283220T的片选,构成64位数据的SDRAM。HY57V283220T是4 Bank×1M×32Bit的CMOS SDRAM,单3.3±0.3V电源供电,所有引脚与LVTTL接口兼容,所有输入和输出都以系统时钟的上升沿为参考。

CONSOLE和EMS接口电路

串行通信通过MAX232芯片实现,工作在3.3V工作电压,它的体积比较小,工作稳定。通过串口可实现对ONU的网络管理。使用常用的PHY芯片RTL8139扩展一个10Mbps网口,使得在Bootloader代码引导系统后,通过该网口下载Linux内核代码,系统运行后通过该网口对ONU进行WEB管理。

交换模块接口设计

以太网交换模块由1个BCM5615交换芯片、3个BCM5228BPHY芯片、1个BCM5221PHY芯片、1个HDMP-1636A千兆SERDES和SDRAM芯片组成。该模块提供1个千兆光口(1000BASE-LX),25个百兆光口(100BASE-FX),是实现ONU功能的核心部分。一个千兆口作为PON的接收端口,接收OLT广播发送的数据包;另一个千兆口连接成百兆口,作为PON的发送端口,向OLT发送数据,该端口发射的是特殊波长的光。通过特殊的交换机制来实现ONU与OLT的连接。

BCM5615芯片简介

BCM5615是集成多层交换芯片,是以太网交换模块的核心。它具有24个10/100Mbps和2个10/100/1000Mbps以太网口;具有2层和3层交换和2~7层过滤功能;可实现全线速交换,交换速率达670万包/秒;支持IEEE802.1Q.D;具有256KB的内部数据包存储器,可以用SDRAM扩展64MB外部数据包存储器。

本设计选用3片BCM5228B来提供24个PHY端口。BCM5228B是物理层器件,单片内包含8个独立的PHY(端口)。BCM5615通过串行MII管理接口管理3个BCM5228B芯片的24个PHY端口,系统对BCM5228B的访问就是通过转化为BCM5615的串行MII管理接口上的操作来实现的。BCM5228B每个PHY端口的管理地址由PHYADD[4::0]引脚设置,若BCM5228B的PHYADD[4::0]为PHYAD,则每片8个端口对应的管理地址分别为ADDR=PHYAD+PORTX,PORTX为每个PHY端口的编号。

时钟电路

BCM5615的芯核时钟由133MHz的晶振产生,设计PCB时,应尽量靠近BCM5615的时钟输入引脚,BCM5615的GMII时钟与MII时钟均为125MHz,由125MHz的晶振通过74LCX245缓冲后产生四路125MHz的时钟源,输入到BCM5615的GMII_CLKIN引脚和3片BCM5228的REF_CLK引脚。注意连接到BCM5228B的时钟线应该等长,不管千兆口是否使用,GMII_CLKIN的时钟都必须提供。

系统复位电路

系统复位电路采用IMP811复位芯片,通过74LCX245缓冲后产生多路复位信号,分别接到各个芯片的复位引脚。为了可靠复位,要求复位信号的上升沿不能有振荡现象发生。

系统软件设计

本文选择Linux作为操作系统,使用Broadcom公司提供的软件开发包SDK开发BCM5615的驱动程序。PPCBOOT是独立于其它软件的,它只负责初始化并配置有关硬件,然后调用Linux内核映像引导操作系统运行,其它软件分为用户空间程序和内核空间程序两大部分。在内核空间运行嵌入式Linux操作系统、BCM5615驱动程序、RTL8139网口驱动程序、实现STP的STP内核模块、为方便整个软件系统设计和实现而采用的虚拟设备VND和VCD。它们之间的接口关系是:Linux提供内核API给BCM5615驱动和其它Linux可动态加载内核模块,如STP、VND、VCD、RTL8139网卡驱动等。

ASIC驱动

ASIC驱动主要是完成对BCM5615的初始化和配置工作,并为上层服务提供接口。其中SAL层的目的就是把操作系统所提供的各种服务映射为驱动程序本身的API。第二层即中间层,也可以说是整个驱动程序的核心层,它建立在SAL之上,其设计目标主要是提供底层寄存器和存储器的访问、PCI 总线操作、DMA 操作以及中断处理函数等。驱动程序的顶层是API层,它建立在DRV层之上,是对DRV 有关部分的封装,从而为上层的其他软件模块提供各种服务,其他模块通过调用这一层的函数来访问和控制ASIC。ASIC 驱动提供的API 对用户进程来说是无法直接调用的,因此本文设计了一个虚拟的字符设备(TTY),并编写其驱动程序,同时在/dev 目录下用mknod 命令建立相对应的字符设备文件。

对操作系统来说,BCM5615的26个端口对应于一个物理PCI设备,即ASIC,它们共享一个PCI通道和地址空间。这给那些与网络设备紧密相关的软件带来不少麻烦,因此可以把26个端口设计成26 个虚拟网络设备(VND)并编写其驱动程序。因此,SNMPD 和生成树协议软件所看到的是26 个虚拟网卡,和普通的网卡并无区别。

结语

本文采用波分多址(WDMA)实现的EPON系统,与同类产品相比较,有实现简单、性能好、易于升级、系统造价低的优势,已经在宽带接入网中获得重要应用。

三层以太网交换机CPU收发包问题的分析

( 2007/5/21 09:53 )

本文关键字: 以太网6,交换机13,网络7,ASIC7,令牌桶1,SP1

摘要:三层以太网交换机发展迅速,一方面网络设备的带宽及交换容量大幅提升,另一方面设备所支持的协议种类也随着用户的需求不断增加。如何在大业务量的网络环境下确保各设备之间协议包的正常交互,是以太网交换机设计面临的重要问题。文章以基于ASIC的三层以太网交换机为例,从CPU负载、软硬件队列配置、CPU和交换芯片的通信机制等方面入手,讨论并分析在多进程环境中与CPU收发包功能相关的一些典型问题,得到解决办法。解决方法对于网络处理器(NP)同样适用。

关键词:三层以太网交换机 CPU 中断 轮询 直接存储器存取 队列调度

在当前的三层以太网交换设备中,报文的二层交换和三层路由主要由交换芯片和网络处理器完成,CPU基本上不参与交换和路由过程,主要完成管理和控制交换芯片的功能[1]。

在这种情况下,CPU的负载主要来自以下几个方面:协议的定时驱动、用户的配置驱动、外部事件的驱动。其中,外部事件的驱动最为随机,无法预料。典型的外部事件包括端口的连接/断开(Up/Down),媒体访问控制(MAC)地址消息的上报(包括学习、老化、迁移等),CPU通过直接存储器存取(DMA)收到包,CPU通过DMA发包等。

在以上所列的外部事件中,又以CPU通过DMA收到包之后的处理最为复杂。因为数据包由低层上送到上层软件时,各协议的处理动作千差万别,可能会涉及到发包、端口操作、批量的表操作等。所以,只有处理好CPU的收发包的相关问题,才能使相关的上层协议正常交互,从而使交换机稳定、高效地运行。

1 可能涉及到的问题

以下就CPU收发包可能涉及的各个方面分别说明。

下面的分析都基于典型的CPU收发包机制:CPU端口分队列,通过DMA接收,采用环形队列等。

1.1 CPU的负载与收包节奏控制

根据交换机处理数据包的能力,决定单位时间上送到CPU的包的个数;决定了单位时间上送多少个包给CPU后,再考虑上送数据包的节奏。

假设通过评估,确定了单位时间上送CPU数据包的上限,例如每秒x个数据包。

图1

图1给出了两种典型的处理手段:匀速上报CPU、突发(Burst)方式上报CPU,下面分别分析一下这两种方式的优劣:

(1)匀速上报CPU

数据包匀速上报CPU时,对CPU队列的冲击较小,而且对CPU队列的缓冲能力要求不高,CPU队列不必做得很大。

(2)突发(Burst)方式上报CPU

交换芯片(采用ASIC)一侧的硬件接收队列和DMA内存空间中的环形队列,一起赋予了交换机一定的缓冲能力(针对上送CPU的数据包)。利用这个缓冲能力,我们可以把控制周期适当放长,并设定控制的粒度(单位控制周期内CPU收报个数的上限),采用类似于电路中负反馈的机制动态地使能和关闭CPU收包功能。这样就在宏观上实现了对数据包上送CPU速率的控制。另外,如果交换芯片(采用ASIC)支持基于令牌桶算法的CPU端口出方向流量监管或整形功能[2-3],且监管或整形的最小阈值可以满足CPU限速的需要,则可以利用这个功能控制数据包上送CPU的节奏,减小CPU的负载。这样软件的处理就简化了很多。

1.2 CPU端口队列的长度规划

如果仅考虑交换机CPU端口的缓冲能力,CPU端口队列当然是越长越好,但是必须兼顾对其他功能以及性能的影响。针对不同的ASIC芯片,需要具体问题具体分析。

1.3 零拷贝

零拷贝是指在整个数据包的处理过程中,使用指针做参数,不进行整个数据包的拷贝。这样可以大大提高CPU的处理效率。

使用零拷贝后,会一定程度上降低软件处理的灵活性,我们会面临到这样的问题:如果协议栈需要更改一个数据包的内容,会直接在接收缓存(buffer)上修改,但是如果需要在数据包中删除或添加字段(例如添加或删除一层标签(tag)),即数据包的长度需要变化时,应该如何处理。

添加或删除字段,必然会导致数据包头一侧或包尾一侧的位置发生移动,如果包尾一侧移动,问题比较简单,只要数据包总长度不超过buffer边界即可。由于通常此类操作都靠近包头的位置,如果包头一侧移动,效率会比较高,所以协议栈在处理时可能更倾向于在包头一侧移动,这时就需要驱动在分配buffer时做一些处理:

(1)接收数据包时,头指针不能指向buffer边界,需要向后偏移一定裕量,同时单个buffer的大小也必须兼顾到最大传送单元(MTU)和该裕量。

(2)释放数据包时buffer首指针需要作归一化处理(如图2所示)。

图2

1.4 中断/轮询

目前交换机涉及到的外部中断主要由交换芯片产生,交换芯片主要的外部中断包括DMA操作(如收到包、发包结束、新地址消息等等)和一些出错消息。如果中断请求过于频繁,中断服务程序(ISR)和其他进程之间频繁地上下文切换会消耗大量CPU时间。如果有持续大量的中断请求,CPU会始终处于繁忙状态,各种协议得不到足够的调度时间,从而导致协议状态机超时等严重故障。

为了避免事件触发频率不可控的问题,可以使用轮询机制,通常的做法是用CPU定时器触发原先由外部中断触发的ISR,由于定时器触发的间隔是固定的,所以ISR执行的频率得到了控制,避免了上述的问题。

轮询和外部中断相比,只是节奏可控(外部中断的节奏取决于外部事件发生的频率,CPU不可控)。但是,轮询也有其不可避免的缺点——响应慢。不能满足某些实时性要求较高的功能。另外,人们会发现用ping命令检测交换机3层接口大包时,使用轮询方式的交换机比使用中断方式的交换机的时延明显要大。

如果能通过某种机制,避免持续、大量的中断请求,则既可以保证CPU不会过于繁忙,又保留了中断实时处理的优点。

典型的会产生大量中断事件的行为是CPU接收数据包和MAC地址消息上报。以收包为例,在前面“CPU负载与收包节奏控制”部分提到的Burst方式就是根据实时的流量,控制接收DMA的开关,这样就达到了使中断源受控的目的,这种类似负反馈的机制可以很好的避免持续的中断事件上报CPU。

总之,轮询控制简单,但实时性较差;中断实时性好,但是使所有的中断源受控有一定难度。在系统初始设计阶段,我们需要综合考虑需求以及芯片对外部事件的处理方式,来决定采用中断或者轮询方式,或者两者兼用。

1.5 多进程环境中外部事件的处理机制

常见的外部事件(中断事件)包括收到包、包发送完(这里指的都是CPU收发包),包括收到MAC地址消息、MAC表操作完成等。

如果把各类中断事件的处理放在一个进程里,就人为地造成了各个事件耦合性增强,增加了各种事件相互制约的机会。

在多任务操作系统中,为了能更灵活地处理各个事件,减少事件之间的子相互制约关系,各种事件应当尽可能地单独起进程,或者根据处理方式的不同划分为几个进程,至少用单个进程来处理是不合适的。

1.6 协议包保护和CPU保护

对于基于ASIC的交换机,协议包保护是指利用ASIC芯片的某些机制,把特定的协议包指定到特定的端口队列上去,保证其经DMA队列上送CPU的优先级;CPU保护是指尽量减少不必要的数据包对CPU的冲击。

实现协议包保护的必要条件:

(1)CPU端口必需支持严格优先级(SP)或者带权重的罗宾环(WRR)的调度算法。

(2)交换芯片必需具有较强的流分类能力,且可以给不同的流指定不同的端口队列。

在系统方案设计时我们需要兼顾对协议报文的保护和对CPU的保护,应该尽量做到:

(1)保证CPU收包通道和发包通道的畅通。

(2)精确匹配,按需选取。充分利用ASIC芯片的访问控制列表(ACL)功能,尽量精确地匹配各类协议报文。必要时需要匹配到4层字段[4]。

实现以上几点时,应兼顾其他功能及整机性能的限制。

1.7 效率降低的避免

在多任务操作系统中,各种事件需要用尽量短的时间片处理完成,以保证其他任务有足够的机会得到调度。所以我们在调用任何函数时都要考虑其执行效率。除了算法本身会影响执行效率之外,频繁地访问某些硬件也相当耗时,而这一点往往容易被忽略。

2 结束语

随着以太网相关技术的发展,交换芯片和网络处理器的处理能力不断被提升;相比之下,数据交换设备中CPU处理性能的提升程度远远不及交换芯片和网络处理器;同时数据交换设备支持的业务种类也在不断增加,对CPU承载的业务量也有了更高的要求。在这种情况下,交换设备容量以及支持业务种类的大幅提升和有限的CPU资源之间的矛盾会日益凸显。因此,做好CPU和交换芯片以及网络处理器接口的缓冲管理、队列调度以及流量监管,合理利用CPU资源,是保证数据交换设备安全、稳定运行的前提,也是目前及将来数据交换设备开发的重要课题。

NAS与SAN的比较

[ 录入者:自由遁 | 时间:2007-10-15 15:29:50 | 作者:自由遁 | 来源:赛迪网 | 浏览:594次 ]

NAS与SAN都是在DAS的基础上发展起来的,是新型数据存储模式中的两个主要发展方向。

什么是SAN

SAN可以定义为是以数据存储为中心,采用可伸缩的网络拓扑结构,通过具有高传输速率的光通道的直接连接方式,提供SAN内部任意节点之间的多路可选择的数据交换,并且将数据存储管理集中在相对独立的存储区域网内。在多种光通道传输协议逐渐走向标准化并且跨平台群集文件系统投入使用后,SAN最终将实现在多种操作系统下,最大限度的数据共享和数据优化管理,以及系统的无缝扩充。

SAN Device

什么是NAS

网络附加存储设备(NAS)是一种专业的网络文件存储及文件备份设备,或称为网络直联存储设备、网络磁盘阵列。一个NAS里面包括核心处理器,文件服务管理工具,一个或者多个的硬盘驱动器用于数据的存储。 NAS 可以应用在任何的网络环境当中。主服务器和客户端可以非常方便地在NAS上存取任意格式的文件,包括SMB格式(Windows)NFS格式(Unix, Linux)和CIFS格式等等。NAS 系统可以根据服务器或者客户端计算机发出的指令完成对内在文件的管理。另外的特性包括:独立于操作平台,不同类的文件共享,交叉协议用户安全性/许可性,浏览器界面的操作/管理,和不会中断网络的增加和移除服务器。

SAN & NAS Coexistence

来源: IDC,2000

由以上两图说明,NAS是在RAID的基础上增加了存储操作系统,而SAN是独立出一个数据存储网络,网络内部的数据传输率很快,但操作系统仍停留在服务器端,用户不是在直接访问SAN的网络,因此这就造成SAN在异构环境下不能实现文件共享。NAS与SAN的数据存储可通过下面的图来表示:

来源: IDC,2000

来源: IDC,2000

以上两图说明:SAN是只能独享的数据存储池,NAS是共享与独享兼顾的数据存储池。因此,NAS与SAN的关系也可以表述为:NAS是Network-attached,而SAN是Channel-attached。

目前存储设备供应商能提供的SAN技术还是很有限的,例如:

1)存储设备能实现跨平台的存储是很多厂商宣传SAN时重点强调的,但在现阶段多平台的系统如S/390、各种厂家的UNIX和NT的服务器都要联到SAN中的一个存储设备上,并进行平台之间的数据共享、跨平台操作,实现起来还是有许多障碍的。现实中SAN往往只能作到NT与有限的UNIX平台间的互操作。而且SAN中不同操作系统间文件系统和数据格式不同所带来的不兼容性,尚未得到很好地解决。所以应用可以读取到网上不论什么地方、什么服务器、什么操作系统平台的数据,还只是人们的一个良好的愿望。

2)企业宣传SAN带来的另一大好处是管理简单方便,但存储的管理工具还不够完备,还不能用统一的管理控制平台管理所有SAN中的设备及应用。

3)SAN应能自动识别、配置新的存储设备,并根据使用情况平衡SAN内不同存储设备间的负载,进行存储设备间的数据复制、备份。但这只是理论上能作到的。

4)大多数厂商在一个SAN中只能联一种厂家的SAN存储设备。

5)SAN追求的是性能和速度,但SAN也是昂贵的代名词,对于大部分的企业用户,NAS的应用要比SAN要多得多。

当要求给提供许多客户提供文件共享的接入时,NAS一般来说是可选的方法。现在NAS设备在满足此种要求上有极大的功效。因为NAS系统是建立在现有的LAN和文件系统协议之上的。同SAN相比,NAS 技术是相对成熟的。尽管有一些SAN文件共享解决方案存在,它们一般是针对特定的要求,多个服务器要求高速的的接入通过私有的轻量级的协议来实现共享数据。

自由遁NAS在十大行业的应用

[ 录入者:spinit | 时间:2007-09-07 14:21:58 | 作者: | 来源: | 浏览:581次 ]

NAS(网络附加存储)在中小型NVR(网络视频监控)安防系统中的应用方案

http://www.cnwit.com/bencandy.php?fid=17&id=187

http://www.cnwit.com/bencandy.php?&fid=17&id=239

什么是NVR?

NVR是网络视频监控的缩写,相对于传统的DVR相比,其有以下的优点:

1、可以实现视频采集跟存储分开,从而有效的提高数据的可靠性和可用性;

2、由于在NVR系统中,视频采集跟存储分开且没有地域的限制,所以NVR系统具有一定的容灾能力;

3、即使视频采集器坏了,也不会对存储系统中文件的可用性产生任何影响;

4、NVR系统可以轻松实现高并发的在线播放;

5、NVR系统相比起DVR系统,不但可靠性更高,而且组建成本更低;

6、由于NVR系统可以轻松实现在线扩容、在线管理。

视频监控存储新技术NAS

自20世纪90年代以来,计算机信息技术、网络通讯技术、自动化控制技术与传统建筑业相结合,形成了21世纪建筑业的主流趋势——智能化建筑。智能化建筑推广以来,存储技术的升级改进一直是业内人士关注的焦点,NVR网络视频监控技术在当前及未来将扮演着一个越来越重要的角色。如当前在建筑工地广泛使用的遥控监控设备和其他远程监控系统的应用等方面,随着视频监控技术被广泛应用,使得视频数据存储的安全性、可靠性等各种需求也日益凸显,对视频数据储存也提出了迫切的需求。当前,一种新的数据存储备份方式已经开始在视频监控系统的应用中崭露头角——NAS网络附加存储设备。该存储方案主要以NAS的存储技术为核心,通过视频服务器将前端设备(摄像机)采集到的实时数据(模拟信号)转换为数字信号,储存在NAS网络存储设备中,以保证数据的安全性。此种存储备份结构体系与传统的单机备份体系相比有着更可靠、更安全、更便于操作的优势。

NVR作为网络视频监控系统,无需繁琐的缆线布线设计,充分利用网络资源,而且可以利用网络远程管理。他的缺点在于没有一个存储终端来存储其录像数据,而同样利用网络资源的存储设备NAS无疑是NVR的最佳伴侣。NAS是独立的存储设备,利用网线连接实现视频文件的读写传输。

相对于大型的NVR系统中,高数据量高并发在线播放的环境,自由遁NAS更加适合应用在中小型的NVR系统当中。因为在大型的NVR系统中,一般都会采用基于ISCSI磁盘组成的磁盘阵列柜来完成在线存储的任务,其性能很高,但价格也很高,所以一般只是少数对安防要求极高的,监控范围广泛的地方(如:监狱、军事基地、重要政府机关等)才会使用。而对于其他监控范围相对较小的NVR系统,则通常会应用文件服务器甚至是PC来完成存储任务。

采用文件服务器或PC作为中小型NVR系统中央存储设备存在的“隐患”:

PC:

随着磁盘的发展,磁盘的容量越来越大。因此,有一部分的NVR系统是通过普通PC来完成存储任务,这种方法虽然成本较低,但却有以下的缺点:

1)通过PC完成存储任务,权威的计算机系统安全标准之一,美国国家计算机安全中心颁布的橘皮书(Trusted Computer System Evaluation Criteria,即受信任计算机系统评量基准)指出,操作系统的易用性与安全性无法兼顾,广泛使用的商用操作系统,如Windows、各类Unix、Linux等,均属于中等安全的C1或C2级别。

因此操作系统对于数据来说是不安全的,因为在这些通用平台中,用户或应用程序可以很容易地对数据和文件进行任何操作,包括添加、删除、修改等。人为的有意或无意误操作、病毒的破坏、应用软件的Bug、程序运行冲突等,均可能导致在线数据丢失。

2)PC因要提供多样化的服务,从而造成自身安全性不足,任何一处的漏洞都可能导致被黑客入侵造成数据丟失

3)PC自身操作系统的不稳定性会影响数据的安全性

4)PC的维护工作需要专业人员操作,并且需要对机器进行定期维护

5)PC易受计算机病毒影响

6)耗电发热巨大,一台PC服务器的整机功耗大约在200W~300W之间,同时亦由于它的耗电量大,使其的稳定性的不够。

文件服务器

文件服务器的处理能力还有稳定性、可靠性都要比普通PC高很多。同样它的成本相对于PC而言,也会比较高。从应用的角度来讲,如果把它当成一个NVR系统的存储设备,它会存在以下几个缺点:

1)因为通常文件服务器所使用的操作系统,如Windows、各类Unix、Linux等,因为它们要提供多样化的服务,从而造成自身安全性不足,任何一处的漏洞都可能导致被黑客入侵造成数据丟失、泄密

2)从可维护性来讲,因为它是一台专业的设备,所以需要专业的人员来维护,对于用户来讲,间接增加了他的成本;

3)服务器对于工作环境的要求(温度、湿度)都比较高

4)易受计算机病毒影响

5)可扩展性不高

6)功耗较大

7)通过服务器对DVR数据进行备份,备份文件和原始文件存放在一起无法分担风险,一旦发生毁灭性的本地灾害,所有数据就会毁于一旦。

在中小型NVR中,相对于采用文件服务器或PC作为存储设备自由遁NAS在数据安全、稳定性、可靠性等方面,具有以下的优势:

1、自由遁NAS是完全按照军工标准来设计并制造的,所以其稳定性跟可靠性都是一般文件服务器和PC所不能相比的;

2、自由遁NAS所使用的操作系统是已经固化的Linux,相对与服务器和PC所使用的通用操作系统而言,自由遁NAS在防病毒黑客的侵入方面具有明显的优势;

3、利用自由遁NAS独有的磁盘管理软件可以轻松实现层级管理,确保数据的安全性;

4、自由遁NAS可以支持磁盘热插拔(前提是所使用的磁盘是SATA2或以上);

5、一般的PC跟服务器,其磁盘的供电都是直接由电源提供的,电源质量的好坏,直接影响到磁盘的寿命,而且一旦出现电涌时(如雷击、大功率电容性设备的启动等),而电源的“功力”又不足的时候(如:保护电路的缺失、启动过慢、甚至是没有等),磁盘极有会被烧毁.而自由遁NAS,磁盘的供电是由mini PCI-X提供的,这也意味着,磁盘的供电经过二次净化,而且还有完整的过压过流保护电路,所以可以最大限度地保证磁盘的工作寿命,还可以保证电涌出现时磁盘的安全;

6、自由遁NAS可以轻松实现在线扩容,避免了因磁盘容量不足而导致停机的担忧;

7、整机耗电发热小,约为PC服务器的1/3,更为节能。

自由遁NAS在中小型NVR安防系统中的应用:

NAS存储技术弥补了传统DVR存储技术所存在的问题,主要集中在以下几个方面:

首先,在由多台硬盘录像机组成的视频采集系统中,由于各个硬盘录像机每天采集的视频数据量差距很大,会导致系统资源使用率不平衡,整体性能及效率下降。NAS作为一种独立的存储系统,采用集中存储技术,系统内各终端对磁盘阵列进行数据读写操作。持续且具弹性的存储系统运作模式,可有效提升系统资源的使用效率并合理平衡工作量,实现快速的数据分享。同时NAS技术采用IP网络通道组建单独的存储网络,有效地改善了数据的读写速度,提高了系统运行的可靠性。

NAS系统具有良好的扩展性,同时采用了集中存储、集中管理、分权管理(可以为不同的用户设置不同的权限,从而避免了人为有意或无意的误操作,所导致的数据掉失)的模式使系统架构高度集成,最终用户不需再对存储系统进行任何操作。系统还具有快速数据分享的性能,只需使用一台服务器就可以对所有的视频数据进行统一管理,有效地降低了诸如硬件和人员上的操作成本。

作为安防系统,NVR本身数据的保密也是很重要的。录像数据存放在自由遁4020的硬盘里,如果自由遁4020或其内的硬盘被盗,那盗窃可以把其中硬盘取出安装在PC里从而窃取其录像数据吗?答案是否定的!因为只要把自由遁4020内的硬盘取出插在PC上使用的话,PC就会像读取新硬盘一样把硬盘读成是头一次使用的,要求格式化。换句话说,就是即便自由遁4020或是硬盘被盗,其中的录像数据也不会造成外泄。

通过以上的论述,不难看出自由遁4020在中小型的NVR系统中可以完全作为一台中央存储器。对于正式应用,在自由遁充当数据存储器的时候,建议使用视频采集器+自由遁NAS网络存储设备的解决方案,这是由于NAS是一种专门为存储/备份数据而设计的专业设备,其数据处理能力跟速度比起文件服务器要低不少,这是由于它们所针对的用途不一样而做成的,在多并发应用的环境下,通过视频采集器+NAS的组合应用,将NAS内部的磁盘组成RAID5阵列用于存储数据,综合两者的特点,从而达到更能保障数据的安全的效果。

NAS(网络附加存储)在大中型网络中的数据容灾应用方案

对于数据安全要求较高的大中型企业/单位来说,大型的集中备份存储系统显得必不可少,但大型的备份系统可能并不是每个人都懂得如何使用,懂得如何快捷地从中找到自己所需的备份数据。自由遁NAS则可以作为大型备份设置的补充,在一些关键部门,如财务部、人事部等关键部门范围内布署一台或多台自由遁作为部门内的数据备份设备,可大大提高数据的安全有数据查找的便利,更能确保部门保密信息不被泄漏。如下图所示:

大中型企业/单位的备份应用

对一个完整的企业/单位IT系统而言,备份工作是其中必不可少的组成部分。数据备份的作用主要目的是要保证资料及数据安全,资料及数据安全应该包含了两个含义:

1、资料及数据的完整;

2、资料及数据的保密,即不能(或不会)泄密。

下面我们对以上两个问题进行分析,可以发现NAS在一个大、中型网络中合理的应用是解决以上问题的一个非常适合的存储备份设备,是目前大、中型网络数据分级备份和管理的最佳方案。

1、保证资料及数据的完整:

对目前的网络系统来说,可能出现如下故障,它们都将导致系统无法正常运行:

1)物理故障:指造成系统无法正常运行的硬件损坏,常见的几种物理故障包括:

整机损坏:如掉电、主板系统损坏、各种I/O损坏口以及遭遇天灾等客观因数造成机器无法运行。

2)软件故障:指造成系统、程序无法正常启动的软件损坏。

3)资料及数据的保密,不能(或不会)泄密。

在电脑系统中如何有效保证资料及数据不对外泄密,或不让不应该接触到有关资料和数据的人接触到数据,是整个网络安全的核心问题之一,也是整个网络数据安全的工作重点。

在一个大、中型网络中有以下几个系统要求是相对对立的,其资料和数据只能让特定人员接触,其他人员(包括网络管理人员都不应该接触到的):财务子系统;人事管理系统、设计系统、案件处理子系统以及部门特定的资料系统。如果这些子系统的资料给其他人员(即使是本单位的人员,都有可能给工作带来严重的损失与影响,而且一旦发生问题,可能连查找到出问题的原因都很困难)。

无NAS的备份存储系统可能面临的问题:

1、网络里的所有数据均存放在系统的备份设备上,网络管理员是系统管理权限最高的人员,他们能随时接触到系统存储设备中的所有数据;

2、网络内的数据调用是凭用户名和密码进入,如果网络内的人员窃取或破解密码,数据泄密就成为必然;

3、如果某位人员因误操作,丢失了数据,可能过了相当时间才发现,他要从主数据备份系统中找回自己的数据也将是一件非常痛苦和工作量很庞大的事情。

所以如果我们在特定的子系统上增加一台自由遁4020 NAS,作为每个子系统服务器的备份设备,其投资小,管理方便(不需要专业的电脑人员),由部门直接管理,安全性高,下班之后可以关闭系统,

自由遁4020最大可储存2T容量的数据,足够部门一般的日常应用,通过设置Raid 5等级的阵列模式,能有效提高数据的安全性。4020能创建多个时间点的备份,并能为备份的数据提供12位长度密码的保护。

对于存放在4020内的资料,待工作完结后资料经过归档整理,可放在主网的磁盘阵列柜中作为永久资料保存,这样可以将子系统中NAS的空间腾出来,供其他资料存放。

除作为备份设置外,4020还可作为部门内文件交换的设备使用,对于一些需要在部门内共享、传阅的资料可直接放在4020上,利用4020的文件服务功能将资料分发给每一个部门成员,方便、快捷。

通过自由遁4020与磁盘阵列柜的配合,能有效的减少数据的丢失/错误,并能在事故发生时快速有效地恢复数据。

也许对于NAS,你会有以下的疑问:

1.NAS不就是一台文件服务器么?我们为什么要用NAS?

答:如果把NAS说成是文件服务器,在某程度来说是没有错。但请你不要忘记,NAS是一种基于文件传输为目的,建基于IP协议的一种存储/备份设备。它的作用类似于文件服务器,但如果真的是把它作为文件服务器来用的话,我相信,没有人会受得了。看看NAS的配置吧,几千块装台服务器,性能要比它强N倍。其实NAS的真正优势在于,它是一台完全独立的存储设备,也就是说,如果你把一台NAS作为五台计算机以下的工作站或者文件共享和备份设备的话,那即使是你那五台计算机或者工作站同时被黑客攻击,数据全都乱了,0变1,1变0,NAS也能为这五台以下的工作站提供必要的启动数据(也就是把它们看成是无盘工作站来启动),并自动把数据恢复。并且,你可以在工作站挂掉以后,通过其它任何平台的电脑去读取NAS中的数据。用NAS跟文件服务器比较,就像是用普通家用电脑去跟专业服务器比较游戏性能,应用取向都不一样所以两者之间没有太多的可比性。NAS的真正作用在于数据备份和恢复,因为NAS可以实现数据自动备份和恢复,而且由于NAS所使用的是嵌入式操作系统,有着很高的安全性,所以它的强项并不是所谓文件共享!适合文件共享的是SAN而不是NAS,因为SAN是基于块(Block)级数据传输为目的的设备,它的性能比NAS高N倍,价格也高N倍。NAS所面向的用户群不是普通的家庭,普通家用电脑中的数据即使丢失在一般情况下也不会造成严重损失,NAS真正面向的用户群是那些对历史数据极度依赖,一旦丢失就会带来灾难性的后果,如财务数据、资产数据、客户资料等等,并且是IT资产投入预算相对较少的中小企业和用户!

2.如果将NAS作为储存备份设备,可以连同系统一块备份,那么我们在服务器上多开一个区,在服务器上设置好同样也可以连系统一块备份,NAS有什么优势呢?

答:我们在对资料和数据进行备份时,通常不会对软件系统进行备份,如:我们会用移动硬盘或光盘对数据备份,但不会连软件系统一同备份,这样如果电脑中的操作系统或软件系统损坏,我们已经备份了的数据也可能无法使用。而且很多时候,恢复软件系统并不是一件容易的事情,如:系统是由上级下发的,或由政府某部门下发的,如果要重装软件系统,可能要另外支付服务费用。

那么为了安全起见,有些人会电脑中开辟一个专门的区域备份软件系统,采用定时对系统和数据进行备份的办法。但是这样需要有以下几个前提条件必须同时满足:

1、电脑使用人员对电脑的使用和操作系统非常熟悉;

2、电脑使用人员要有良好的数据备份安全意识,并具有良好的备份习惯;

3、电脑使用人员要定期(时间间隔不能太长)对系统和数据进行备份;

4、在两次备份之间的间隔时间内,电脑不要出现问题。

显然上述要求对于普通电脑使用者而言,可能难以做到,但如果使用NAS就可以轻松解决问题。下面我们着重比较一下用NAS和服务器进行数据和系统备份工作的优势。

NAS是一台完全独立,且能跨平台应用的网络存储/备份设备。由于其能够跨平台,所以不管是什么计算机,只要能连上网络,就可轻松应用和管理NAS(前提是你要有相应的权限)。

而服务器的首要任务就是要为网络上的计算机提供服务。不但不能跨平台应用,而且由于它所使用的是通用操作系统,跟操作系统已经固化的NAS相比,在数据的安全性和可管理性上,NAS都要比服务器更出色,而且在服务器上备份,会使服务器的运行速度降低。对于那些对服务器速度要求极高的场合(如:电子商务,文件服务等等)这样的情况显然是不可接受的。

NAS相对于PC服务器在稳定性、安全性和功耗方面还有以下几个优势:

NAS作为网络上的存储服务器,能提供大容量文件存储空间,用户可直接在NAS上存储各种形式的文件,且能跨平台应用。它的主要功能是数据备份和文件存储。而PC服务器主要任务则是为网络上的计算机提供多样化的服务,如文件共享、网页发布、FTP、电子邮件服务等,虽然通过安装相应的备份软件PC服务器也可以提供数据备份的功能,但与NAS的备份方案对比PC服务器的备份功能并不占优势,原因有以下几点:

1)通过PC服务器进行备份时,备份文件和原始文件在一起存放,无法分担风险

2)PC服务器因要提供多样化的服务,从而造成自身安全性不足,任何一处服务的漏洞都可能导致被黑客入侵造成数据丟失

3)PC服务器自身操作系统的不稳定性会影响数据的安全性

4)PC服务器的备份工作需要专业人员操作,必须有良好的备份意识,并且需要对机器进行定期维护

5)PC服务器易受计算机病毒影响

6)不能实时备份客户端操作系统,若客户端计算机正在使用则不能进行操作系统的备份工作

7)耗电发热巨大,一台PC服务器的整机功耗大约在300~400W之间

由此可以看到,PC服务器虽然能提供备份的功能,但却存在很多不安全的因素。而NAS则是为存储备份而优化的系统,对比PC服务器优势如下:

1)通过采用嵌入式的主板和Linux操作系统,大大提高设备运行的稳定性和可靠性

2)由于采用嵌入式的Linux操作系统,因而稳定性较PC服务器大为提高

3)控制软件简单易懂,任何人都可轻松对自己的数据进行备份

4)系统稳定性高,不受计算机病毒影响,因而不需要专业人员维护

5)通过自带的备份软件,即使用户正在使用计算机也能实时地对操作系统进行备份工作,而不会中断用户的正常工作

6)通过设置,能定时对用户指定的数据进行备份工作,不须人手干预,自动化程度高

7)即使用客户主机的操作系统崩溃,亦能通过网络启动事前备份在NAS上的操作系统,并恢复原有数据

8)整机耗电发热小,约为PC服务器的1/3,更为节能

通过以上对比不难看出,虽然PC服务器功能较为强大,但在数据的备份和恢复部份却远没有NAS的功能完善,系统稳定性亦没NAS的好。所以,对数据安全有较高要求的场合,显然还是用NAS作备份设备更为合适。

自由遁4020的主要特点

自动备份

1. 在Windows Client端电脑上安裝自由遁 4020自动备份软件DiskSafe Express。

2. 选择备份的磁盘或其他的存储设备,设定需要备份的文件存储到自由遁 4020网络资料保险柜(NAS),即开始进行第一次完全备份。

3. 设定分时段备份时间,最多可同时记录多个数据还原点。

远程还原

1. 当人为因素造成档案误删除或损毁时,通过操作DiskSafe Express的备份功能直接以档案管理员介面浏览备份在自由遁4020上特定时间点的资料,或直接回复整个资料盘。

2. 若是系統盘毁坏或因中毒无法开机时,可使用:

1)网络卡PXE协定启动机器(你的网络需支持PXE协议);

2)或用自由遁4020 NAS随机配带的启动光盘启动开机;

然后自由遁 4020 NAS的资料就会通过网络把备份的数据恢复到硬盘,实现以自由遁 4020 NAS 上的备份磁盘执行远程开机。

定时备份

能够选择一个分区或整个硬盘备份,可以自由选择备份时间点。时间点的数量只受限于磁盘有效容量。

具有时间差备份功能。避免如镜像备份的实时性错误,即使数据错误或损坏亦可通过还原最近的时间点恢复数据,把数据错误所带来的损失降到最低。

当系统崩溃时,能通过pxe或启动光盘进行数据恢复。

当系统受破坏或需要恢复数据时,你可以根据自己意愿选择还原整个分区/硬盘,或只还原某个文件。

差异备份

1. 在作一次以上备份时,第一次备份是完全备份,而其后的是差异备份。

2. 进行差异备份时,只会保存对上一次备份的分区或磁盘有差异的部分,不用每次都完全备份,大大节省时间与空间。

3. 数据丢失恢复时,只需先还原先前完全备份时的数据,再提取最近一次差异备份的数据对修改的部分进行更新。大大节省还原时的时间。

光纤通道卡  光纤交换机

品 牌 型    号 规  格  说  明 售 价

FC HBA                           QLogic、Emulex、LSI光纤通道卡

QLogic QLA2340  2Gb/s 64-bit 133Mhz PCI-X.  single-port, Fibre Channel adapter ¥2,200

QLogic QLA2342 64-bit, 133MHz PCI-X to 2 Gb , dual-port, Fibre Channel adapter ¥4,000

QLogic QLA2460 4Gb/s 64-bit 266Mhz PCI-X2.0.single-port.提供 150,000 IOPS 高吞吐率 ¥4,500

QLogic QLE2460 4Gb/s 64-bit 2.5 GHz PCI-e x4.single-port.提供 150,000 IOPS 高吞吐率 ¥3,500

QLogic QLE2462 4Gb/s 64-bit 2.5 GHz PCI-e x4.dual-port.Fibre Channel adapter ¥6,500

QLogic QLA2462 4Gb/s 64-bit 266Mhz PCI-X2.0.dual-port.Fibre Channel adapter ¥7,800

QLogic iSCSI QLA4050 64-bit,133-MHz PCI-X 1Gb iSCSI / network adapter, single port.Optical ¥8,500

QLogic iSCSI QLA4050C 64-bit,133-MHz PCI-X 1Gb iSCSI / network adapter, single port copper. ¥7,500

EMULEX LP101E  PCI-X 2Gbit 64-bit 133Mhz.  single-port, Fibre Channel adapter ¥4,300

EMULEX LP9802-F2  PCI-X 2Gbit 64-bit 133Mhz.  single-port, Fibre Channel adapter ¥6,000

EMULEX LP10000-M2  PCI-X 2Gbit 64-bit 133Mhz.  single-port, Fibre Channel adapter ¥6,000

EMULEX LP11000-M4 4Gb/s 64-bit 266Mhz PCI-X2.0.  single-port, Fibre Channel adapter ¥7,000

EMULEX LPE11000-M4 4Gb/s 64-bit 2.5 GHz PCI-E.  single-port, Fibre Channel adapter ¥7,000

EMULEX LP1150-F4 4Gb/s 64-bit 266Mhz PCI-X2.0.  single-port, Fibre Channel adapter ¥7,000

EMULEX LPE1150-F4 4Gb/s 64-bit 2.5 GHz PCI-E.  single-port, Fibre Channel adapter ¥7,000

EMULEX LP111-E 4Gb/s 64-bit 266Mhz PCI-X2.0.  single-port, Fibre Channel adapter ¥4,500

EMULEX LPE111-E 4Gb/s 64-bit 2.5 GHz PCI-E.  single-port, Fibre Channel adapter ¥4,600

LSI 7104 PCI-X 4Gbit 64-bit 266Mhz.  single-port, Fibre Channel adapter ¥5,200

LSI 7202P  PCI-X 2Gbit 64-bit 133Mhz.  dual-port, Fibre Channel adapter ¥5,000

FC Switch                        Brocade(博科)、McDATA、Qlogic光纤交换机

Brocade BR-210E-0001 4Gb,16端口交换机(已开8端口),单电源(固定),含8个短波SFP,含Web tools、Zoning软件授权,机架套件,不支持级联 ¥17,000

Brocade BR-220E-0001 4Gb,16端口交换机(已开8端口),单电源(固定),含8个短波SFP,含Web tools、Zoning软件授权,机架套件,全光纤支持级联 ¥22,000

Brocade BR-240E-0001 4Gb,16端口交换机,单电源(固定),含16个短波SFP,含Web tools、Zoning软件授权,机架套件,全光纤支持级联 ¥39,000

Brocade BR-5020-0001 4Gb,16端口交换机,双电源(热拔插),含16个短波SFP,Web tools、Zoning软件授权,机架套件,全光纤支持级联 ¥63,000

Brocade BR-5020-0001 4Gb,24端口交换机,双电源(热拔插),含24个短波SFP,Web tools、Zoning软件授权,机架套件,全光纤支持级联 ¥88,000

Brocade BR-5040-0001 4Gb,32端口交换机,双电源(热拔插),含32个短波SFP,Web tools、Zoning软件授权,机架套件,全光纤支持级联 ¥110,000

Qlogic SB1403 2Gb,10端口全光纤级交换机,含10个短波SFP ¥12,000

Qlogic SB5600-08A 4Gb,8端口全光纤级交换机,单电源(固定),含8个短波SFP,Web tools、Zoning软件授权,机架套件 ¥23,000

Qlogic SB5600-12A 4Gb,8端口全光纤级交换机,单电源(固定),含12个短波SFP,Web tools、Zoning软件授权,机架套件 ¥35,000

Qlogic SB5600-16A 4Gb,8端口全光纤级交换机,单电源(固定),含16个短波SFP,Web tools、Zoning软件授权,机架套件 ¥43,000

Qlogic SB5600-20A 4Gb,16端口交换机,单电源(固定),含4个堆叠口,含16个短波SFP,Web tools、Zoning软件授权,机架套件 ¥45,000

Qlogic SAN-C2000-KIT SB1403交换机一台、QLA2340 HBA卡四片、LC-LC 5M光纤线四根 ¥25,000

FC Bridge                        ATTO光纤桥接器

ATTO 2390 4GB ATTO FibreBridge  1xFC-to-2xU320 SCSI LVD,  19"  1U.  Fabric ¥40,000

MIA/GBIC/SFP/LC-LC、LC-SC光纤线

光纤模块 2GB SFP 短波 ¥200

2GB SFP 长波10公里 ¥500

4GB SFP 短波 ¥400

4GB SFP 长波10公里 ¥2,800

光纤线 SC-SC 多模  ¥180

SC-LC 多模  ¥80

LC-LC 多模 ¥80

IBM产品

2104 2GB光纤卡   ¥2,300

2210 2GB SFP   ¥200

IBM 5M光纤线   ¥260

nas(网络附加存储)与san知识解释

目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Network,简称SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上,因此本文主要针对开放系统的外挂存储进行论述说明。

表一:

今天的存储解决方案主要为:直连式存储(DAS)、存储区域网络(SAN)、网络接入存储(NAS)。如下表二:

开放系统的直连式存储(Direct-Attached Storage,简称DAS)已经有近四十年的使用历史,随着用户数据的不断增长,尤其是数百GB以上时,其在备份、恢复、扩展、灾备等方面的问题变得日益困扰系统管理员。

主要问题和不足为:

直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。

直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。

无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。

存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准(但各个厂商的光纤交换技术不完全相同,其服务器和SAN存储有兼容性的要求)。SAN娲⒉捎玫拇?宽??00MB/s、200MB/s,发展到目前的1Gbps、2Gbps。

网络接入存储(Network-Attached Storage,简称NAS)采用网络(TCP/IP、ATM、FDDI)技术,通过网络交换机连接存储系统和服务器主机,建立专用于数据存储的存储私网。随着IP网络技术的发展,网络接入存储(NAS)技术发生质的飞跃。早期80年代末到90年代初的10Mbps带宽,网络接入存储作为文件服务器存储,性能受带宽影响;后来快速以太网(100Mbps)、VLAN虚网、Trunk(Ethernet Channel) 以太网通道的出现,网络接入存储的读写性能得到改善;1998年千兆以太网(1000Mbps)的出现和投入商用,为网络接入存储(NAS)带来质的变化和市场广泛认可。由于网络接入存储采用TCP/IP网络进行数据交换,TCP/IP是IT业界的标准协议,不同厂商的产品(服务器、交换机、NAS存储)只要满足协议标准就能够实现互连互通,无兼容性的要求;并且2002年万兆以太网(10000Mbps)的出现和投入商用,存储网络带宽将大大提高NAS存储的性能。NAS需求旺盛已经成为事实。首先NAS几乎继承了磁盘列阵的所有优点,可以将设备通过标准的网络拓扑结构连接,摆脱了服务器和异构化构架的桎梏;其次,在企业数据量飞速膨胀中,SAN、大型磁带库、磁盘柜等产品虽然都是很好的存储解决方案,但他们那高贵的身份和复杂的操作是资金和技术实力有限的中小企业无论如何也不能接受的。NAS正是满足这种需求的产品,在解决足够的存储和扩展空间的同时,还提供极高的性价比。因此,无论是从适用性还是TCO的角度来说,NAS自然成为多数企业,尤其是大中小企业的最佳选择。

NAS与SAN的分析与比较

针对I/O是整个网络系统效率低下的瓶颈问题,专家们提出了许多种解决办法。其中抓住症结并经过实践检验为最有效的办法是:将数据从通用的应用服务器中分离出来以简化存储管理。

图1

由图1可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。

图2

从图2可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。

使用存储网络的好处:

统一性:形散神不散,在逻辑上是完全一体的。

实现数据集中管理,因为它们才是企业真正的命脉。

容易扩充,即收缩性很强。

具有容错功能,整个网络无单点故障。

专家们针对这一办法又采取了两种不同的实现手段,即NAS(Network Attached Storage)网络接入存储和SAN(Storage Area Networks)存储区域网络。

NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。

SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。

什么是NAS和SAN的根本不同点?

NAS和SAN最本质的不同就是文件管理系统在哪里。如图:

由图3可以看出,SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。

NAS是将目光集中在应用、用户和文件以及它们共享的数据上。SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。将来从桌面系统到数据集中管理到存储设备的全面解决方案将是NAS加SAN。


© 2024 实用范文网 | 联系我们: webmaster# 6400.net.cn