您的当前位置:首页正文

新手入门

来源:帮我找美食网
服务器综述 --------------------------------------------------------------------------------------- 2 宽带接入服务器BAS ------------------------------------------------------------------------- 5 IPV6技术详解(1) ------------------------------------------------------------------------- 6 IPV6技术详解(2) ------------------------------------------------------------------------ 12 服务器中的零基管理技术 ------------------------------------------------------------------- 13 网格计算初探 ----------------------------------------------------------------------------------- 14 IP存储概览 ------------------------------------------------------------------------------------- 15 独立磁盘冗余阵列技术 ---------------------------------------------------------------------- 17 服务器的S-ATA技术 ------------------------------------------------------------------------ 18 SCSI硬盘安装使用全攻略 ------------------------------------------------------------------ 19 SCSI简要回顾(表) ------------------------------------------------------------------------ 20 解析分级存储管理(HSM) ---------------------------------------------------------------- 21 什么是MAID? -------------------------------------------------------------------------------- 25 服务器中“U”的含义是什么? -------------------------------------------------------------- 26 双机热备知多少? ---------------------------------------------------------------------------- 26 什么是EXA和XDA? ----------------------------------------------------------------------- 28 联想万全服务器防雷击系统设计 ---------------------------------------------------------- 29 新手入门之轻松掌握KVM系统 ----------------------------------------------------------- 29 什么是服务器租赁 ---------------------------------------------------------------------------- 31 什么是虚拟主机 ------------------------------------------------------------------------------- 31

1

什么是主机托管 ------------------------------------------------------------------------------- 32

服务器综述

服务器是指在网络环境下运行相应应用软件,为网上用户提供共享信息资源和服务的设备。服务器是网络的中枢和信息化的核心,具有高性能,高可靠性,高可用性,I/O吞吐能力强,存储容量大,连网和网络管理能力强等特点。

一、服务器平台

服务器平台指驱动服务器的引擎,主要按OS和CPU分类,有如下三种; PC服务器(亦称NT服务器,标准Intel架构,32位CPU),主要运行Win NT和Win2000操作系统。

UNIX服务器(64位RISC CPU),运行商业UNIX操作系统(如SunOS,HP-UX,IBM AIX,Compaq Tru64,Solaris等)。

Linux服务器,运行开放源代码的UNIX即Linux操作系统(跨PC机和RISC CPU硬件平台)。

二、服务器规模

在服务器市场上,一般称100万美元以上的服务器为高档服务器或超级服务器(性能最高,适于大型关键应用领域),10万美元以下的服务器为入门级服务器(量大,面广,适于普及),价位和性能介于二者之间的为中档服务器。中高档服务器市场基本是UNIX服务器的天下,而入门级服务器市场则基本被PC服务器包揽,中档服务器市场是三种服务器平台争夺最激烈的战场,PC服务器和Linux服务器的市场份额不断上升,尤其是Linux服务器异军突起,受到各大服务器厂商的广泛关注和支持,发展前景不可限量。

三、服务器应用类型

互联网应用中服务器无处不在,它们完成不同的任务,提供不同的功能服务。典型的服务器有;Web服务器,数据库服务器,FTP/Gopher服务器,Telnet/WAIS服务器,群件服务器(Groupware),代理服务器(Proxy),IRC服务器,传真服务器,聊天服务器,新闻服务器,邮件表服务器,邮件服务器,音频/视频服务器和应用服务器等。互联网上的客户是通过浏览器向Web站点的服务器申请服务,Web本身是3层计算模式(客户端,Web服务器和数据库服务器),随互联网应用发展,为满足不同用户的不同需求,用以沟通和连接客户和数据库服务器的应用服务器应运而生,得到极大发展。作为一种\"中间件\",应用服务器可以减低客户程序的容量和复杂性,通过高速缓存和控制数据流提高性能,为客户提供扩展性、安全性、特定业务管理及数据库连通性等好处。

四、服务器市场

与WinTel联盟一统天下的PC市场不同,服务器市场上是群雄争霸,各大计算机硬件和软件巨头纷纷为争夺服务器平台的标准和服务器市场的份额而苦战,鹿死谁手难以预料。但可以清晰看到的是:PC服务器(尤其是64位CPU的服务器)的发展在威胁着中高档UNIX服务器,Linux服务器的发展正在成为潮流,而5大计算机巨头Sun、IBM、HP、Compaq、Dell公司的服务器战略正决定着服务器技术和市场的发展方向。

2

五、服务器性能

高档UNIX服务器即超级服务器的技术水平,代表着国家和企业实力,承担着大型关键领域的应用,在互联网应用中的重要作用是不言而喻的。过去5年来,高档UNIX服务器迅速成熟起来,已经成为世界各国大机构、大企业和大网络公司的重要选择。在少数场合,甚至代替了IBM S/390和插入兼容制造商(PCM)的大型主机。

由于VLSI(超大规模集成电路)技术的进步,处理机主频更快,内存带宽增加,交叉开关、光纤通道及其它新技术增加了I/O带宽,UNIX服务器性能得以全面提升。所有主要的UNIX服务器供应商都采用群集技术(多个系统的松散耦合)改进可用性和可扩展性,利用64位CPU的寻址能力来满足超大规模复杂的数据库应用需求。

大型UNIX服务器正获得S/390服务器一级的性能,例如,改进系统利用率的系统分区能力,几乎是瞬间容量升级的备用处理机功能等。但使大型UNIX服务器得以广泛商业应用的最主要因素恐怕是独立软件开发商(ISV)的支持,它们提供了大量功能全面的的应用软件,例如;

SAP、Baan、PeopleSoft和Oracle公司提供的企业资源计划软件ERP; Oracle、informix、Sybase、IBM公司提供的关系数据库系统; Computer Associates公司提供的系统管理工具等。

独立软件开发商ISV在服务器市场发展中具有重要作用,过去它们是主要为专有技术硬件如VAX和AS/400进行开发,当前多数ISV应用已移植到UNIX下,UNIX成为ISV们的主要的开发环境。没有大量独立软件开发商支持的服务器是不可能成为主流的。

六、服务器性能的几个重要指标

1、可扩展性

可扩展性一直宣传为MPP和NUMA服务器的主要优势,只要增加节点即可提高系统性能,保护了现有硬件和软件的投资。例如,基于MPP的IBM RS/6000 SP系列服务器,最多可支持512个节点,IBM声称其NUMA-Q服务器设计可超过250个CPU。然而,实际应用中,横跨多个节点的在线交易处理OLTP应用是不太容易处理的。

2、24*7的可用性

许多全球性机构,尤其是e商业公司,要求系统能够每天24小时,一年365天的连续运转。持续的停机时间对这些业务具有灾难性的影响,即使几分钟的系统不可用(计划的或意外)也会造成极大破坏和昂贵代价。

某些业务类型需要容错系统,采用冗余硬件和软件技术,可以提供100%的可用性。然而,容错系统价格昂贵,通常仅用于金融、电讯和政府部门等少数高度敏感的应用场合。

实际工作中,必须考虑升级或维护所需的计划停机时间。当然,也可以采用服务器群集或系统分区等技术减少计划停机时间。

3

可使用多种技术提高系统正常工作时间,高可靠性服务器通常采用冗余部件和热交换部件,如RAID磁盘、风扇和电源等。

Sun和Compaq支持去除、替换和动态重配置CPU主板的能力,无须关掉整个服务器。虽然许多部件都是热插入式的,但多数操作系统还不具备象支持磁盘和电源那样的全部热交换能力。

服务器群集提供系统失效保护功能,允许滚动升级(有助于消除计划停机时间)。系统必须监控可预计的失效,建立冗余通讯网络,为避免站点灾难性事件,利用扩充的群集互连建立远程灾难数据恢复中心或许是必要的。

高可用性是过去几年中UNIX服务器硬件和软件技术取得重大进展的一个例证。虽然在高可用性或连续可用性方面,UNIX服务器还达不到S/390或容错系统的水平,但对于满足分布式或基于网络的应用,UNIX服务器还是胜任有余。

七、服务器技术与市场的现状与发展

专有技术和开放技术的竞争在继续,但伴随着技术的转移(从高档转向中低档机型),高档UNIX服务器与S/390服务器的技术差距在不断缩小,过去UNIX服务器在系统性能、扩展能力和不完善的系统管理工具等方面的弱点,如今对多数机构已经不是重要问题了。

服务器技术的发展和独立软件供应商的支持,使UNIX服务器的功能越来越强。例如,在服务器的系统和网络管理工具方面,Compaq和Sun提供动态系统分区能力,隔离不同的业务,各分区运行自己的操作系统和应用,分区间采用硬件实现的防火墙。HP提供软分区或资源管理的能力,通过细粒度的控制,使系统资源与应用和用户需求相一致。

所有主要UNIX服务器供应商,对大型服务器几乎都提供不同特色的系统分区(有时称为域),到2002年,类似S/390主机的动态的逻辑分区能力,有望成为高档UNIX服务器的标准功能。

虽然S/390和UNIX服务器供应商目前分享了高档商用服务器市场,但它们都慎重地关注着来自迅速发展的PC服务器和Linux服务器的威胁,并纷纷采取了积极主动的对策。5大计算机巨头中,除Sun 专注于发展UNIX服务器,Dell只能提供PC服务器外,IBM、HP、Compaq公司都是UNIX服务器和PC服务器的世界级供应商。

PC服务器基于Intel CPU,运行Win NT和Win 2000操作系统,突出的优势在于;性能/价格比高,ISV的支持和庞大的PC用户群体。尽管32位CPU的PC服务器尚不具备高档UNIX服务器或S/390服务器的可用性、可扩展性、可管理性的能力,但基于Intel公司EPIC架构64位Itanium处理器的服务器,尤其是第二代McKinley处理器使PC服务器有机会问鼎中高档服务器。当然,短期内PC服务器对高档商用UNIX服务器还不会构成真正的威胁。

硬件兼容和开放标准及WinTel联盟曾造就了20年PC时代的辉煌,击败了计算机界的巨无霸IBM。技术在发展,市场在变化,互联网时代服务器犹如20年前的PC,WinTel联盟

4

已经风光不在。新的对手,新的组合,新的游戏规则,但正如Internet的开放精神风靡全球一样,开放源代码的Linux服务器近年也独领风骚,得以高速发展,得到Intel以及IBM等主要服务器供应商的广泛支持,成为业界潮流。Linux是跨硬件平台的,Linux是UNIX的,Linux是开放的,这可能就是Linux服务器年增长率达到178%的主要原因,而同期UNIX服务器或PC服务器都只有百分之十几的年增长率。Linux服务器的流行标志着对专有技术和垄断技术的挑战,Linux服务器不仅仅是对UNIX服务器的压力和机遇,同样是对操作系统和PC服务器的压力和机遇。未来服务器平台标准的竞争和演变将是引人注目的,谁能抓住机遇,谁就可能是下一轮市场的胜利者。

宽带接入服务器BAS

应该说,宽带接入服务器的推出在很大程度上得益于ADSL的大面积推广应用。围绕着宽带接入网络的技术特点和应用要求,效仿窄带拨号接入服务器的作用,宽带接入服务器应运而生,实现网络的IP接入一体化,解决了宽带用户在业务上、流量上和管理上的汇聚,达到了用户终端只通过一条网络连接便可以灵活、自主、方便地选择服务网络的目的,适应了宽带接入网络应用的发展趋势,成为宽带网络在接入层和骨干边缘层之间重要的网络单元。下面给出宽带接入服务器在整个接入网络中的基本框架结构图。

宽带接入服务器的系统要求

显然,宽带接入服务器必须具有高速、高效的包转发特性,在性能上有效地解决宽带网络高性能、高负荷、高突发所带来的问题,性能不佳的宽带接入服务器势必成为网络的“瓶颈点”。目前具有2G以上的交换背板容量,100Kpps以上的独立包转发性能成为业界对宽带接入服务器的基本要求。从硬件系统结构上看,宽带接入服务器已从早期低效的集中式包处理结构向当前分布式处理结构演变,前后插板(接口板和处理板)的设计思路成为主流。采用这样的系统结构,处理模块可以直接处理来自同一槽位接口模块的用户流量,而且对于输出在同一槽位上的网络流量能够不经过系统背板和交换矩阵模块直接进行转发,从而有效减轻系统负荷。另一方面,为了理想地实现在不同槽位间的包转发,系统结构必须提供高容量、相对独立、有冗余备份能力的系统交换矩阵模块(Switch Fabric)和相应容量的背板总线,保证宽带接入服务器总体性能随接口模块增加呈线性增长的态势。

接口类型和接入方式 显然,为了实现对各种宽带接入类型的支持,宽带接入服务器必须尽可能多地提供丰富的接口类型。宽带网络中,宽带接入服务器由接口处理模块直接完成对各种协议栈的封装重组处理,比如:PPPOE或PPPOA的呼叫。由于ASIC(专用集成电路)技术的引入,系统包处理能力显著提高,接入实现的时长大大降低(通常要求小于5秒,包括RADIUS认证时间);系统各处理模块的合理配合使得系统更加稳定,而且能够很好地完成对多用户并发接入情况的调度处理。目前,一台中等规模的宽带接入服务器应能支持8000个以上的并发PPP(包括PPPOA和PPPOE)呼叫,大型的宽带接入服务器可以实现100K个呼叫接入。宽带接入服务器具有这样的处理能力应该说已经完全能够满足实际大规模宽带接入应用的需要。

宽带接入服务器组网应用的补充

5

承前所述,宽带接入服务器主要是为了适应当前各种DSL接入应用要求,尤其是ADSL接入。目前ADSL接入都是基于ATM网络平台,是ATM的ADSL。但是,目前的网络架构以纯IP网居多且规模较大。同时,对于ATM技术的争论仍是业界讨论的焦点。ATM网络的进一步扩大有一定的困难,实现ADSL直接IP接入的要求有现实意义。另一方面,随着接入侧接入网设备集成度的提高,在一个上连的接入网络单元(如DSLAM)上,往往能够挂接成百上千个实际用户。对于这样的网络分布和如此多的单点上连用户,将宽带接入服务器由集中式接入转为分散接入,也是一种理想的选择。甚至可以在接入侧将其与边缘接入设备直接集成,直接接入网络的IP一体化。这种组网方案不仅有利于宽带接入服务器自身设备的简化,易于实现用户的QoS,而且将接入用户数据IP化后直接汇聚入边缘路由器,易于完成与现有IP网络的融合,还节省了在网络接入侧和边缘侧的网络传输设备和传输通道。应该说,这样的宽带接入服务器价格便宜,设计简单,往往捆绑作为接入设备的一部分直接使用。但功能上来讲相对简单,网络的伸缩性和扩展性较差。采用这种组网方案对于接入业务单一的网络来讲是可行的,但用于业务复杂的网络就显得有些力不从心。在目前实际的业务导向上,高速上网成为目前宽带接入网络的主流业务,业务类型单一而且附加业务较少,在这样的现状下采用分散接入有一定的优势。

从全网来看,宽带接入服务器既是全网接入业务的单一汇聚点,又是用户业务流量的统一转发点。在这个特殊的网络点,如果它能与其他专用网络设备实现联合组网应用,能够大大提高网络总体性能和用户的实际接入速度,就能取得事半功倍的效果。可以想象,对于Internet业务将宽带接入服务器直接挂接在专用Cache和四层交换机上。这样,对于用户频繁访问的信息就可以通过四层交换机过滤直接从专用Cache上高速获取,从而直接旁路了大量的用户数据流,减少许多重复的、不必要的网络流量,大大降低了骨干网络负荷,提高了网络的利用率,具有很高的应用价值。

如今,以光通信为代表的新一轮数据骨干网络和接入网络迅猛发展,这对宽带接入服务器在各方面都提出了更高的要求。宽带接入服务器在性能上的提高集中表现在接入处理能力方面、交换容量方面和接口带宽、密度方面。从各厂商的发展计划上看,下一代大型宽带接入服务器的系统性能要求将达到:交换容量至少40G;同时支持的PPP呼叫数目达到20K;可配置用户数达到100K;独立包转发能力达到1Mpps以上。

同时从IP发展趋势上看,由于多协议标签交换(MPLS)的引入可以平滑地实现网络升级,易于实现IP的服务质量保证和VPN应用。这些方面的应用与目前其他技术相比具有无法比拟的优势。MPLS已经成为业界对下一代IP发展方向的共识,宽带接入服务器对它的支持已是必然的选择。

总之,目前宽带接入服务器正处于初期大规模推广应用阶段。随着宽带网络建设的深入,它具有十分广阔的发展前景。

IPv6技术详解(1)

IPv6的报头格式

+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+

|Version| Prior | Flow Label |

6

+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+

| Payload Length | Next Header | Hop Limit |

+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+

+ Source Address +

+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+

+ Destination Address +

+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+

·版本域:4bit的IP协议版本号,值=6。 ·优先权域:4bit 的优先值。 ·流标签:24bit

·负载长度:16bit无符号整数。负荷的长度,即IPv6包头后面部分的长度,单位是8位组。

·8bit的选择器。紧跟在IPv6头后面用来识别包头的类型。和IPv4协议域的值相同。

跳数限制:

·8bit的无符号整数。向前传送分组时每过一个节点减1。如果跳数限制减到0时就把这个分组丢弃。

·源地址:128bit。分组发送者地址。

·目的地址:128bit。所期望的分组接受者地址(如果有一个可选的路由头的话可能不是最终的接受者地址)

IPv6的扩展头

IPv6包含一个改善了的选项机制。IPv6选项被放在IPv6头和传输层头之间。大多数的IPv6扩展头并没有被中间的路由器检查或处理直到到达最终目的地。这样就能提高路由器处理包含选项的分组的性能。在IPv4中路由器要检查所有的选项。另一个改善的地方是IPv6不象IPv4的 选项,它的扩展头可以是任意长,选项的总长度并没有限制在40字节内。这个特征加上选项的处理方式就使能使IPv6的选项真正被用起来,而在IPv4中选项实际上并没有用。一个好例子就是IPv6的认证和安全封装选项。为了提高处理后面选项头和传输层协议的性能,IPv6选项总是8字节长度的整数倍。

IPv6扩展头现在定义了以下一些选项:

·路由

·扩展路由(类似于IPv4的松散源路由) ·分段和重装

·认证:完整性和认证,安全封装,机密性。

·跳到跳选项:跳到跳的选项需要特殊的跳到跳的处理。

7

·目的选项:可选的被目的节点检查的信息。

IPv6的寻址

IPv6的地址有128位bit长,是独立接口的标志符。IPv6的所有类型的地址都是指派给接口而不是节点。.既然每个接口都属于一个节点,那个节点的认何一个接口地址都都可以被当做节点的标志符。一个接口也可能被指定多个IPv6类型的地址.IPv6有三种类型的地址。他们是单点传送地址,任意点传送地址和多点传送地址。单点传送地址标识一个接口。任意点传送地址标识一组接口,一个被送往一个任意点传送地址的分组将被这组接口中的一个所接收。多点传送地址标识一组接口,一个被送往多点传送地址的分组将被这个组中的所有节点接收。在IPv6中没有广播地址,他们的功能被多点传送地址所取代。IPv6支持四倍于IPv4bit数量的地址。也就是说IPv6的地址数量是IPv4的40亿倍。这是一个非常大的地址空间。实际上因为指定和路由地址需要创建层次,这就减少了地址空间使用的有效性。地址中的前几位指定了地址的类型。包含前几位的变量长度域叫做格式前缀。这些前缀的分配如下所示:

分配 前缀 所占寻址空间比例 保留 0000 0000 1/256 未分配 0000 0001 1/256 为NSAP分配保留 0000 001 1/128 为IPX分配保留 0000 010 1/128 未分配 0000 011 1/128 未分配 0000 1 1/32 未分配 0001 1/16 可聚集的全部单点传送地址001 1/8 未分配 010 1/8 未分配 011 1/8 为基于地理位置的地址保留 100 1/8 未分配 101 1/8 未分配 110 1/8 未分配 1110 1/16 未分配 1111 0 1/32 未分配 111 10 1/64 未分配 1111 110 1/128 未分配 1111 1110 0 1/512 链路本地地址 1111 1110 10 1/1024 站点本地地址 1111 1110 11 1/1024 多点传送地址 1111 1111 1/256

这种分配支持提供商地址,本地用户地址和多点传送地址的直接分配。 NSAP地址,IPX地址和中间互连地址的空间被保留。剩下的地址空间没有指定为将来保留。大约15%的地址空间在初始时分配了,剩下85%被保留给将来使用。

单点传送地址

在IPv6中有几种单点传送地址的分配方式:基于全球供应商的地址,中立互连单点传

8

送地址,NSAP地址,IPX分层地址,站点本地地址,链路本地地址,IPv4兼容IPv6主机地址。其他的地址类型可在将来定义。

基于供应商的全球聚集单点传送地址

基于供应商的全球单点传送地址被用于全球通信。它们类似于IPv4地址中无类域间寻址中的功能。格式是:

| 3 | n bits | m bits | o bits | p bits | o-p bits |

+---+-----------+-----------+-------------+---------+----------+

|010| REGISTRY ID|PROVIDER ID|SUBSCRIBER ID|SUBNET ID| INTF. ID |

+---+-----------+-----------+-------------+---------+----------+

前3个bit识别基于供应商的单点传送地址。接下来的注册域ID标识Internet地址注册,它指定了提供互连网服务的供应商标志符。然后是用户地址空间端口。这种表示方法类似于无类域间寻址中的IP分配方式。用户ID区分隶属于Internet服务提供者的供应商ID中的多用户。子网ID识别一个特殊的物理连接。在同一个物理连接上可能有多个子网。一个特定的子网不能跨越多个物理连接。.接口ID标识了一组有同一子网前缀的接口中的某一个接口。

本地用户地址

一个本地用户地址是一个单点传送地址,它只能在本地范围内可路由(在一个子网或一个用户网络中),可能有本地或全球专用范围。它们被用在一个既插既用的本地通信场所和全球地址的初始化过程中。有两种类型的本地使用者单点传送地址的定义。它们是链路本地和站点本地。链路本地地址用在一个连接上而站点本地地址用在一个站点 上。链路本地地址的格式如下:

| 10 |

| bits | n bits | 118-n bits |

+----------+-------------------------+----------------------------+

|1111111010| 0 | INTERFACE ID |

+----------+-------------------------+----------------------------+

链路本地地址被用来为一个链路寻址,例如自动地址配置。

站点本地地址的格式如下:

9

| 10 |

| bits | n bits | m bits | 118-n-m bits |

+----------+---------+---------------+----------------------------+

|1111111011| 0 | SUBNET ID | INTERFACE ID |

+----------+---------+---------------+----------------------------+

两种本地使用地址的类型都用了接口ID,它在一个域中是唯一的。大多数情况下接口ID都用了IEEE-802的48位地址格式。子网ID标识了一个站点的特定子网。子网ID和接口ID组成了站点本地地址以构造一个大的私有网络。站点本地地址允许没有和全球因特网互连的组织构造网络,而不需要申请一个全球因特网地址空间的地址前缀。如果这个组织后来要连入全球因特网,它可以用它的子网ID和接口ID与一个全球前缀组合成一个全球地址。IPv6自动进行重编号。

IPv6地址和嵌入的IPv4地址

IPv6转换机制有一种技术可以在IPv4路由基础上通过动态隧道技术在主机和路由器之间传递IPv6分组。使用这种技术的IPv6节点分配了特殊的IPv6单点传送地址的低32bit来携带IPv4地址。这种地址的术语叫\"IPv4兼容IPv6地址\",格式如下:

| 80 bits | 16 | 32 bits |

+--------------------------------------+--------------------------+

|0000..............................0000|0000| IPv4 ADDRESS |

+--------------------------------------+----+---------------------+

还有第二种内嵌IPv4地址的IPv6地址,这种地址被用来表示仅支持IPv4地址的节点。这种地址的术语是\"IPv4映射的IPv6地址\",格式如下:

| 80 bits | 16 | 32 bits |

+--------------------------------------+--------------------------+

|0000..............................0000|FFFF| IPv4 ADDRESS |

+--------------------------------------+----+---------------------+

10

任意点传送地址

一个 IPv6任意点传送地址被分配给不只一个接口(典型的属于不同的节点),它的特点是一个被送往任意点传送地址的分组被路由给根据路由协议度量距离为最近的符合此地址的接口.当任意点传送地址被用作一条路径的一部分时,允许一个节点选择一个它认为合适的互连网提供商。这项功能有时被叫作源选择策略。这项功能需要配置任意点传送地址来标识一组属于互连网服务供应商的路由器。这些任意点传送地址可以在一个IPv6路由头中被用作中间地址,以使一个分组能通过一个特定的供应商或一系列的供应商。任意点传送地址的其它可能的用途是标识一组属于一个特定子网的路由器或一组提供路由到一特定域的路由器。任意点传送地址是从单点传送地址空间中分配的,使用了单点传送地址格式中的一种。因此,任意点传送地址在语法上无法和单点传送地址区分开来。当一个单点传送地址被分配给不只一个接口时,就把它变成了一个任意点传送地址,配置了此地址的节点必须被显式地配置以表示它是一个任意点传送地址。

多点传送地址

一个IPv6多点传送地址是一组接口的标志符。多点传送地址的格式如下:

| 8 | 4 | 4| 112 bits |

+------ -+----+----+---------------------------------------------+

|11111111|FLGS|SCOP| GROUP ID |

+--------+----+----+---------------------------------------------+

·最前面的11111111将地址标识为多点传送地址.

+-+-+-+-+

·FLGS 是一个四位组: |0|0|0|T|

+-+-+-+-+

标志的高三位保留,必须初始化成0。

T=0 表示一个被全球互连网编号授权结构永久分配的多点传送地址

T=1表示一个临时的多点传送地址

·SCOP是一个4bit的组播范围域用来限制组播组的范围。这些值如下所示:

0 保留 8 本地组织范围

11

1 本地节点范围 9 未分配 2 本地链路范围 A 未分配 3 未分配 B 未分配 4 未分配 C 未分配 5 本地 站点范围 D 未分配 6 未分配 E 全球范围 7 未分配 F 保留

·组ID标识在给定范围内的组播组(永久或临时)

IPv6技术详解(2)

IPv6的服务功能

在IPv6分组头中的流标签和优先权域可以被主机使用来标识那些需要被IPv6路由器特殊处理的分组。这项功能对于支持需要固定带宽、延迟的应用非常重要。这些应用通常是多媒体或实时应用。

流标签

24bit的在IPv6头中的流标签域可以被源节点用来标签那些需要被IPv6路由器特殊处理的分组,例如非缺省的服务质量或实时服务。发送分组的但不支持流标签域功能的主机或路由器将此域置为0,当向前传送分组时不改变此域的值,当接受到分组时忽略此域。一个流是一系列从特定源发送到特定目的地的源希望被中间路由器特殊处理的分组。特殊处理的特性可以通过一个控制协议或在流的分组本身中的信息(例如跳到跳选项)传递给路由器,就象资源预留协议那样。从源到目的地可能有多个活动的流,也可能传送的和流无关。一个流被源地址和非0的流标签唯一标识。不属于流的分组将流标签设为0。一个流标签和流的源节点相联系。新的流标签是(伪)随机选择,从1到FFFFFF。随机分配的目的是使路由器将流标签域中的bit值通过hash的方法行成链表便于查询流的状态。所有属于同一个流的分组必须有相同的源地址,目的地址和非0的流标签。如果这些分组包含一个跳到跳选项头,那么也必须相同。目的节点或路由器可以但不是必须校验这些条件是否满足。

路由器可以自由的为任何流建立流处理状态,即使没有通过一个控制协议,跳到跳选项或其它方法来为它提供显式的流建立信息。例如,当从一个特定的源受到一个含有未知的非0流标签的分组时,一个路由器可以流标签当作0来处理分组的IPv6头和扩展头可能的处理包括决定下一跳接口和可能的其它动作,例如例如更新一个跳到跳选项,在路由头中前移指针和地址,或根据优先权域决定怎样将分组排队。路由器就可以选择记住这些处理步骤的结果并缓存这些信息,用源地址加流标签来标记缓存索引。后来的有相同源地址和流标签的分组就可以根据以前数据报的需求通过参考缓存信息来处理,而不用再检查分组头中的其它信息。

优先权

4bit的优先权域标识源所希望的传送优先权。优先权域被分成两个范围:0到7被用来指定源提供拥塞控制等的传输优先权,当遇到拥塞时传输就中止,就象TCP的传输。值8到15被用来指定即使遇到拥塞也不中止传输的优先权,例如实时业务分组就按照一个固定

12

的传输率进行传送。对于有拥塞控制的传输,以下的优先权值被推荐用于特定的应用:

0 普通传输

1 过滤传输(例如网络新闻)

2 不被注意的小量数据传输(例如email) 3 保留

4 引人注意的大量数据传输(例如FTP,HTTP,NFS) 5 保留

6 交互传输(例如telnet)

7 因特网控制信息(例如路由协议,SNMP)

对于没有拥塞控制的传输,最低的优先权值8被用来表示那些在拥塞的情况下最愿意被丢弃的分组(例如高保真视频传输),最高的优先权值15表示那些最不愿意被丢弃的分组(例如低保真音频传输)。在有拥塞控制和无拥塞控制的优先权之间并没有相关的推荐的排位顺序。

IPv6的安全性

现在的互联网存在很多安全问题,而且在应用层缺乏有效的保密性和授权机制。IPv6通过两个提供安全服务的集成选项改正了这两个缺点。这两个选项可以单独或一起为不同用户提供不同的安全等级。

第一个机制叫\"IPv6认证头\",这是一个扩展头提供了认证和完整性检查。当这个扩展头是独立于算法的并将支持不同的认证技术时,MD5被建议用来在世界范围的因特网中使用以提供互操作性。这将用来消除一类重要的网络攻击,包括主机伪装攻击。

当IPv6用了源路由时认证头变得非常重要因为在IP源路由中所熟知的危险。在网络层中放置这样一个字段可以为上层协议提供主机源认证和现在因特网中缺乏的有意义的保护服务。第二种安全扩展头:IPv6封装安全头\"。这种机制提供了完整性和机密性。它比一些类似的安全协议(如SP3D,ISO-NLSP)等简单,但仍然提供了灵活性和算法独立性。为了能和全球因特网互操作,DES CBC算法被用作IPv6封装安全头的标准算法。

服务器中的零基管理技术

“零基管理”原本指的是一个大中型企业只有一个厂长和全厂员工这两个阶层,而没有任何中间管理层,并强调一切不利于经营管理的负效应趋于“零”。

延伸到IT领域的零基管理技术与服务器相结合,则可使服务器大幅度减少TCO中技术支持和管理两大成本类别,最大化保护用户投资。

零基管理技术

零基管理技术简要来说由如下几个研发理念组成:零安装、零配置、零操作。基于零安装、零配置、零操作的服务器零基管理技术具体来说体现在如下三个方面。

零安装: 在零基管理技术中,用户对服务器的软件安装和升级维护是完全自动化的,用户只需要把操作系统和上层网络应用程序安装光盘放入光驱,所有的人机对话过程全部可忽略,零基管理系统自动在服务器平台上构建OS和上层网络应用服务,安装完毕后,系统自

13

动提示用户拿出光盘,并启动相应网络应用服务。

零配置: 顾名思义指没有配置文件,主要指用户通过使用服务器零基管理技术,可摆脱繁重的网络应用配置文件。比如:用户在构建DNS时,可能至少要配置5个配置文件。在构建配置文件时若稍有不慎,就有可能导致DNS配不通。使用零基管理技术,用户可通过零基管理平台轻松构建网络应用环境,彻底屏蔽成百上千个配置文件选项,从复杂困难的网络应用服务配置工作中解放出来。

零操作: 零操作指用户通过服务器前面板就能轻松实现相关服务器配置参数的更改、网络应用服务的配置启动、服务器硬件平台的监测和网络应用服务的监测。同时,零操作技术还可以让用户轻松实现服务器及网络应用报警处理。

未来发展趋势

零基管理技术作为当今全新的服务器管理与研发理念,一方面将继续沿着零安装、零配置、零操作这三个框架理念往下发展下去,同时,随着网络与计算机技术的发展,零基管理技术必将拥有全新的内涵与外延。具体体现在如下两个方面。

与服务器监控技术的融合

服务器监控技术将彻底融入到零基管理技术中,成为零基管理技术的基石,并在零基管理技术下被赋予新的内涵,如基于零基管理平台的故障报警系统能实现在系统发生异常的情况下向本地和远方用户传送报警信息,用户也可在远程读取零基管理平台硬件传感器信息和事件记录等数据。

与网络入侵检测技术的无缝结合

基于零基管理平台的IDS将能通过前面板实时动态反映基于主机或网络的黑客攻击,并在探测到黑客攻击后自动实施报警等。

曙光公司新近推出的零基管理服务器主要为满足基础教育行业和中小企业对服务器操作简单、易于管理、配置合适、价格适宜的需要,完全遵循了零基管理技术的内涵。

网格计算初探

被喻为互联网第三次浪潮的网格计算日渐成为IT巨头争夺的未来制高点。国外有预测表明,网格技术将在2005年达到高峰,并引致互联网的新生。而到2020年,网格计算将形成一个年产值20万亿美元的大产业。

网格计算概念

所谓网格计算是一种利用互联网或专用网络(一般通过Web服务的方式)把地理上广泛分布的各种计算资源互连在一起的技术。这些计算资源包括超级计算机、集群、存储资源和可视化系统等等。网格计算的构想来源于电力供应网,所以其基本思想也常被表述为:“就像人们日常生活中从电网中获取电能一样获取高性能的计算能力”。作为一个长期的设想,网格计算被划分为四个阶段,分别解决容量、数据、高可用性和安全公用等问题。

由于网格计算可以连接全球范围内不同标准的异构“孤岛”,形成庞大的全球性计算体系,因此它一经提出,便受到了世界各国政府和组织的高度重视。IBM、Sun和HP等

14

IT巨头则期望能将这种超级计算能力引入商业领域,以便在这一革命性浪潮中取得竞争优势。

网格计算在国内同样受到了高度重视。我国已开展了“国家高性能计算环境”和“先进计算基础设施北京上海试点工程”两个项目,对网格计算进行研究,这两个项目分别由中国科学院和清华大学牵头。中科院计算所正在进行的“织女星计划”(Vega计划)正在以元数据、构件框架、智能体、网格公共信息协议和网格计算协议为主要突破点对其进行研究。

标准是关键

构建网格计算需要对标准协议和服务进行定义。但迄今为止,网格计算还没有正式的标准(比如Web服务的标准竞争)。在核心技术上,现在比较普遍的是采用由美国Argonne国家实验室与南加州大学信息科学学院合作开发的Globus Toolkit。Globus Toolkit是一种开放架构和开放标准基础设施,它提供了构建网格应用所需的很多基本服务,如资源发现、资源管理、数据访问、安全等。IBM、微软、康柏、SGI、Sun等厂商已宣布将支持Globus Toolkit。

除标准以外,安全性和可管理性也是网格计算亟待解决的问题,否则它无法成功应用于商业活动。目前各企业为大学或公司内部建设的网格都只提供单纯的IT方案,供学术研究或内部使用,而与私有网格连接,以形成计算能力更强大的共享网格,则要冒很大的风险。

此外,网格应用所涉及的大量数据和计算在各组织间是否能安全共享,这也不是当前的Internet和网络基础设施所能做到的。显然,网格计算在实现商业应用之前还有很长的一段路要走。

IP存储概览

随着网络存储技术的飞速发展,各种存储设备和技术正趋于融合。总有一天,现在的光纤和SCSI磁盘阵列、NAS文件服务器、磁带库等设备都可以运行在一个统一标准的架构中。

IP存储(Storage over IP简称为SoIP)

在IP网络中传输块级数据--使得服务器可以通过IP网络连接SCSI设备,并且像使用本地的设备一样,无需关心设备的地址或位置。而网络连接则是以IP和以太网为骨干,这令人联想起今天耳熟能详的存储域网(SAN)结构。只是以廉价而成熟的IP和以太网技术,替代了光纤通道技术。

由于既有的成熟性和开放性,IP存储技术,使企业在制定和实现\"安全数据存储\"的策略和方案时,有了更多的选择空间。例如远程的数据备份、数据镜像和服务器集群等领域,IP存储的介入都可以大大丰富其内容。同时,IP存储也消除了企业IT部门在设计传统SAN方案时,必须面对的产品兼容性和连接性方面的问题。最重要的是,基于IP存储技术的新型\"SAN\",兼具了传统SAN的高性能和传统NAS的数据共享优势,为新的数据应用方式提供了更加先进的结构平台。

在过去的一年中,存储和网络厂商的注意力,主要集中在IP存储技术的两个方向上--存储隧道(Storage tunneling)和本地IP存储(Native IP-based storage)下面是这两个方面的一些粗略概况。 存储隧道技术顾名思义,这种技术是将IP协议作为连接异地两个光纤SAN的隧道,用以解决两个SAN环境的互联问题。光纤通道协议帧被包裹在IP数据包

15

中传输。数据包被传输到远端SAN后,由专用设备解包,还原成光纤通道协议帧。

由于这种技术提供的是两个SAN之间点到点的连接通信,从功能上讲,这是一种类似于光纤的专用连接技术。因此,这种技术也被称为黑光纤连接(Dark fiber optic links)。由于其专用性,使得这种技术实现起来成本较高,缺乏通用性,而且较大的延迟也对性能造成一定影响。其最大的优势在于,可以利用现有的城域网和广域网。这一优势,正好为炒作的沸沸扬扬,但至今无法充分利用的宽带资源,提供用武之地。

另一方面,虽然IP网络技术非常普及,其管理和控制机制也相对完善,但是,利用IP网络传输的存储隧道技术,却无法充分利用这些优势。其原因主要在于,嵌入IP数据包中的光纤通道协议帧。IP网络智能管理工具不能识别这些数据,这使得一些很好的管理控制机制无法应用于这种技术,如目录服务、流量监控、QoS等。因此,企业IT部门的系统维护人员,几乎不可能对包含存储隧道的网络环境,进行单一界面的统一集中化管理。

目前的存储隧道产品还有待完善,与光纤通道SAN相比,只能提供很小的数据传输带宽。例如,一个在光纤SAN上,用两到三个小时可以完成的传输过程,在两个光纤SAN之间以OC-3标准传输大约需要14个小时。这是目前存储隧道产品比较典型的传输速度。当然,这样的性能表现,不会限制到该技术在一些非同步功能中的应用。如远程的数据备份,就不一定需要很高的数据传输带宽。

总之,存储隧道技术,借用了一些IP网络的成熟性优势,但是并没有摆脱复杂而昂贵的光纤通道产品。

本地IP存储技术

这一技术是将现有的存储协议,例如SCSI和光纤通道,直接集成在IP协议中,以使存储和网络可以无缝的融合。当然,这并不是指,可以在企业IT系统中,把存储网络和传统的LAN,物理上合并成一个网络。而是指在传统的SAN结构中,以IP协议替代光纤通道协议,来构建结构上与LAN隔离,而技术上与LAN一致的新型SAN系统--IP SAN。

这种IP-SAN中,用户不仅可以在保证性能的同时,有效的降低成本,而且,以往用户在IP-LAN上获得的维护经验、技巧都可以直接应用在IP-SAN上。俯拾皆是的IP网络工具,使IP-SAN的网络维护轻松而方便。同样,维护人员的培训工作,也不会像光纤技术培训那样庞杂而冗长。

设想一下,一个大型企业的IT部门引入了一项新技术,并以此构建了底层的大型存储系统。却不需要调整现有的网络和主机,不需要改变应用软件,不需要增加管理工具,甚至不需要过多的技术培训。现有的网络管理工具和人员,完全可以应付这一切。这是一个多么诱人的系统升级方案!

与存储隧道技术相比,本地IP存储技术具有显著的优势。首先,一体化的管理界面,使得IP-SAN可以和IP网络完全整合。其次,用户在这一技术中,面对的是非常熟悉的技术内容:IP协议和以太网。而且,各种IP通用设备,保证了用户可以具有非常广泛的选择空间。事实上,由于本地IP存储技术的设计目标,就是充分利用现有设备,传统的SCSI存储设备和光纤存储设备,都可以在IP-SAN中利用起来。

本地IP存储技术,更进一步的模糊了本地存储和远程存储的界限。在IP-SAN中,只要主机和存储系统都能提供标准接口,任何位置的主机就都可以访问任何位置的数据,无论是在同一机房中,相隔几米,还是数公里外的异地。

访问的方式可以是类似NAS结构中,通过NFS、CIFS等共享协议访问,也可以是类似本地连接和传统SAN中,本地设备级访问。

随着带有IP标准接口的存储设备的出现,用户可以单纯使用本地IP存储技术,来扩展已有的存储网络,或构建新的存储网络。以千兆以太网甚至万兆以太网为骨干的网络连接,

16

保证了本地IP存储网络,能够以令人满意的效率工作。

选择哪一种技术

无论在哪个方面,用户总是要面对这样的问题。答案又总是,明确需求,从实际出发。简单的讲,存储隧道技术很好的利用了现有的IP网络,来连接距离较远的各个\"SAN岛屿\"。例如,对存储服务供应商来说,如果想向已经建有光纤SAN的用户,提供数据看护服务,存储隧道技术就是非常好的选择。

一些用户期望自己的IT系统具有很高的集成度,这一点是存储隧道技术难以达到的,而本地IP存储技术在这方面,具有相当强的竞争力。同时,这项技术也是实现从光纤SAN平滑升级到IP-SAN的最好选择。所以,越来越多的存储和网络厂商,开始对本地IP存储技术提供投入和支持

独立磁盘冗余阵列技术

独立磁盘冗余阵列(RAID)是在服务器等级用于高容量数据存储的公用系统。RAID系统使用许多小容量磁盘驱动器来存储大量数据,并且使可靠性和冗余度得到增强。对计算机来说,这样一种阵列就如同由多个磁盘驱动器构成的一个逻辑单元。

RAID存储的方式多种多样。某些类型的RAID强调性能,某些则强调可靠性、容错或纠错能力。因此,可根据要完成的任务来选择类型。不过,所有的RAID系统共同的特点--也是其真正的优点则是\"热交换\"能力:用户可以取出一个存在缺陷的驱动器,并插入一个新的予以更换。对大多数类型的RAID来说,不必中断服务器或系统,就可以自动重建某个出现故障的磁盘上的数据。

RAID并非保护大量数据的唯一途径,但是,常规的备份和镜像软件速度较慢,而且,如果一个驱动器出现故障,则往往需要中断系统。即使磁盘不导致服务器中断,IT工作人员仍需要断掉服务器来更换驱动器。相反,RAID利用镜像或奇偶信息来从剩余的驱动器重建数据,不必中断系统。

Level0、3和5是三种最常见的RAID实施方式:

RAIDLevel0即数据分割,是最基本的方式。在一个普通硬盘驱动器上,数据被存储在同一张盘的连续扇区上。RAID0至少使用两个磁盘驱动器,并将数据分成从512字节到数兆字节的若干块,这些数据块被交替写到磁盘中。第1段被写到磁盘1中,第2段被写到磁盘2中,如此等等。当系统到达阵列中的最后一个磁盘时,就写到磁盘1的下一分段,以下如此。分割数据将I/O负载平均分配到所有的驱动器。由于驱动器可以同时写或读,性能得以显著提高。但是,它却没有数据保护能力。如果一个磁盘出故障,数据就会丢失。RAID0不适用于关键任务环境,但是,它却非常适合于视频生产和编辑或图像编辑。

RAIDLevel3包括数据分割,另外,它还指定一个驱动器来存储奇偶信息。这就提供了某种容错功能,在数据密集型环境或单一用户环境中尤其有益于访问较长的连续记录。RAID3需要同步主轴驱动器来预防较短记录的性能下降。

RAIDLevel5类似于Level0,但是它不是将数据分成块,而是将每个字节的位拆分到多个磁盘。这样会增加管理费用,但是,如果一个磁盘出现故障,则它可以更换,数据可以从奇偶和纠错码中重建。RAID5包括所有的读/写运行。它需要三到五个磁盘来组成阵列,最

17

适合于不需要关键特性或几乎不进行写操作的多用户系统。

其它不常见的RAID类型:

RAIDLevel1是磁盘镜像--写到磁盘1中的一切也写到磁盘2中,从任何一个磁盘都可以读取。这样就提供了即时备份,但需要的磁盘驱动器数量最多,不能提高性能。RAID1在多用户系统中提供最佳性能和容错能力,是最容易实施的配置,这最适用于财务处理、工资单、金融和高可用数据环境。

RAIDLevel2是为大型机和超级计算机开发的。它可在工作不中断的情况下纠正数据,但是,RAID2倾向于较高的数据校验和纠错率。

RAIDLevel4包括较大的数据条,这样,就可以从任何驱动器读取记录。由于这种类型缺乏对多种同时写操作的支持,因而,几乎不使用。

RAIDLevel6几乎没有进行商用。它使用一种分配在不同的驱动器上的第二种奇偶方案,扩展了RAID5。它能承受多个驱动器同时出现故障,但是,性能--尤其是写操作却很差,而且,系统需要一个极为复杂的控制器。

RAIDLevel7有一个实时嵌入操作系统用作控制器,一个高速总线用于缓存。它提供快速的I/O,但是价格昂贵。

RAIDLevel10由数据条阵列组成,其中,每个条都是驱动器的一个RAID1阵列。它与RAID1的容错能力相同,面向需要高性能和冗余,但不需要高容量的数据库服务器。

RAIDLevel53是最新的一种类型,实施情况同Level0数据条阵列,其中,每一段都是一个RAID3阵列。它的冗余与容错能力同RAID3。这对需要具有高数据传输率的RAID3配置的IT系统有益,但是它价格昂贵、效率偏低.

服务器的S-ATA技术

服务器相关技术的发展现在越来越受到人们的关注,厂商在技术研发和拓展上也是使足了力气。因此总会有新的技术应运而生,作为这个时代的人我们也应该紧抓时代脉搏,为此对于新兴技术的关注你也应该有这个习惯的,今天为你介绍:“服务器的S-ATA技术”。 “S-ATA”即“Serial-ATA”,是一种非常先进的技术。它到底先进在哪里呢?众所周知,SCSI设备之所以能相对IDE有更加强大的数据传输能力,最重要的一点就是多任务模式,也就是所有SCSI设备能同时进行数据读取和传输,这样使总体数据传输能力大大提高了,这就是一种点对点的模式。长期以来,服务器上的IDE设备采用的是并行传输模式。在这种模式下,IDE设备中只要有一个处于运行传输数据状态中,其他设备就只能闲置,处于等待状态。最近Intel推出的Serial ATA也采用点对点模式,目的就是能在价格非常便宜的情况下向用户提供与SCSI一样的同时处理功能,采用Serial ATA接口的设备不存在所谓的传统IDE主、从之分,所有设备均为主设备,它将每个硬盘直接连接到了IDE控制器上,这样可以让IDE控制器对硬盘提供更好的控制能力,由于采用了点对点模式,Serial ATA将能非常方便地提升性能规范。

目前的市面上依然存在的ATA规范采用的是相当低的5V电路板控制电压,然而现代的PC设备正逐渐向更低电压靠拢。采用低电压将可以使IC芯片延长寿命,降低耗电量和发热量,低温将改善所有设备的使用寿命。目前一个标准的IDE设备需要5V和12V电压,其中5V提供的是电路板IC芯片的驱动和工作,12V用来驱动硬盘马达,总共需要12-14W的电力,

18

将5V电压降低到3.3V后,马达部分不变,总体耗电量将降低约2-3W,折合成温度可以让硬盘电路板降低约3摄氏度,不要小看温度,由于温度对电路板上各种零件的寿命有着极大的影响,在目前硬盘高速运转时,温度普遍接近50摄氏度的情况下,能降低3度对于硬盘的使用稳定性有极大帮助。

S-ATA是一种非常先进的技术,有相当大的优势,传输速率起步,比目前主流的ATA 100一下子提升了50%的传输速率,并且在未来,它的提升幅度将远远高于ATA结构,很快就会翻倍达到300MB/s,并迅速提升到600MB/s,而最终据说将允许Serial ATA提升到1.5GB/s的传输率,这在现在是不可想象的!

SCSI硬盘安装使用全攻略

SCSI(Small Computer System Interface,小型计算机系统接口)是一种连结主机和外围设备的接口,支持包括磁盘驱动器、磁带机、光驱、扫描仪在内的多种设备。它由SCSI控制器进行数据操作,SCSI控制器相当于一块小型CPU,有自己的命令集和缓存。目前存储设备的接口有五大类:IDE、SCSI、USB,并行口,串口,其中,最主要的就是IDE,usb,SCSI。IDE(Integrated Drive Electronics,电子集成驱动器)凭着其高速的传输和平常的价格,受到普通用户的欢迎,而usb设备大有后来者居上之势,至于SCSI(Small Computer System Interface,小型计算机系统接口),速度、性能和稳定性都比IDE要好,一向被认为是昂贵且高不可攀的存储设备,不仅本身价位高于IDE硬盘很多,而且必须另外选择SCSI接口卡,主要面向服务器和工作站市场,也就是本文要介绍的对象。 一、SCSI硬盘的安装方式: (一)以内置方式安装硬盘:

大部分从市面上买回来的硬盘都是内置式硬盘,只有某些厂商回将较高级的SCSI硬盘搭配外置盒来出售,如此一来便成为现成的外置式硬盘。如果你觉得自己的计算机机箱散热性良好,也有空余的空间,可以剩下外置盒的钱,直接将SCSI硬盘接在计算机机箱内。

(二)以外置方式安装硬盘:

将SCSI硬盘外置有很多好处,例如:

1、 不需要用到硬盘时可以关闭电源,减少硬盘无谓的工作量。 2、 拆卸、安装方便,不需要打开主机机箱。

3、 ID可以直接在机箱上的开关切换,不需要在硬盘上插拔Jumper。

4、 外置盒可以配备独立完善的三热系统,让硬盘有更好的散热工作环境。

一般较常见的SCSI硬盘外置盒,其外接接口为低密度50-Pin或是高密度50-Pin的SCSI接头,外置盒内部则以50-Pin的内接排线连接于硬盘。至于Ultra Wide SCSI硬盘的专用外置盒则较为少见,其外接接口为68-PinWide接头。内部则以梯形68-Pin Wide SCSI内接排线连接于硬盘。目前最新的Ultra2 Wide SCSI LVD硬盘,由于连接的排线要求较高,再加上特殊的双绞线设计,因此不论在外置盒排线或是SCSI外接线都必须重新设计,目前仍然没有看到这方面的产品。

二、SCSI硬盘的安装步骤:

19

1、 调整SCSI硬盘Jumper(跳线):硬盘上的Jumper可以用来设置SCSI ID、终端电阻、Parity Check等等。

2、 将SCSI接口卡插在主板上:将SCSI接口卡插在主板上的正确插槽,并确认是否正确插入;接着利用十字改锥与螺丝将接口卡固定好。

3、 固定硬盘:将硬盘固定在机箱固定架上。

4、 连接排线:用排线连接SCSI接口卡与硬盘,68-Pins Wide SCSI为特殊梯形接头,因此在连接上没有反接的困扰。若安装的是Narrow(50-Pin)的硬盘,请注意50-Pin排线的红线部分要对准硬盘或接口卡的Pin-1。

5、 将固定架插回机箱中并接上电源:确定固定架中的硬盘是否已经安装好,然后在将硬盘电源线插上。

到目前为止,硬件的安装大致上已经没有问题,再检查一次SCSI接口卡、排线、电源线是否连接正确;如果一切都确认无误,可以打开主机电源,看看屏幕上SCSI BIOS的显示是否已经可以找到这台SCSI硬盘的型号。启动后出现了SCSI BIOS的画面,找到了SCSI硬盘,表示硬件安装正确!

若是你有两块以上的SCSI硬盘,可采用以下的排列组合来安装:

1、 硬盘都内置于同一张SCSI接口卡:一般SCSI接口卡所附的内置排线只能连接1~2台设备,如果需要内置多块硬盘,可能需要另购排线。另外有些Ultra2 SCSI LVD接口卡不仅可以同时提供内置Ultra2 LVD SCSI与Ultra-Wide SCSI,而且能让这两种规格的SCSI设备,在同一个SCSI通道中不相互牵制、影响。

2、 两块SCSI卡连接多块硬盘:这是比较奢侈的做法,因为你需要再买一块SCSI接口卡;但是如此一来,连接的数量与SCSI的长度就没有顾虑了。

3、 同时使用外置与内置方式:同时内置与外置SCSI硬盘,也是一种连接多台硬盘的方式,但是也要注意内置排线加上外置线的总长度是否超过限制。还有外置的最后仪态与内置的最后一台硬盘都必须打开终端电阻。

许多SCSI用户都有这种经历,插上设备之后,操作系统怎样也不认,后来检查总线,才发现是终结和ID没有设置好。ID(identify)作为SCSI设备在SCSI总线的唯一识别符,绝对不允许重复,可选范围从0到15,SCSI主控制器通常占用id 7,即是说我们可以用在设备上的ID号共有15个。 总线终结器能告诉SCSI主控制器整条总线在何处终结,并发出一个反射信号给控制器,必须在两个物理终端作一个终结信号才能使用SCSI总线。常见的错误是把终结设置在ID号最高或最低的地方,而不是设置在物理终端的SCSI设备上。

其实,SCSI设备总是以链形来连接的,按顺序就能分辨出哪一个是终结设备。终结的方式有三种:自终结设备、物理总线终结器和自终结电缆。大多数新型SCSI设备都有自终结跳线,只要把非终结设备的自终结跳线设置成OFF即可避免冲突问题;物理总线终结器是一种硬件接头,又分为主动型和被动型两种,主动型使用电压调整器来进行操作,被动型利用总线上的能源信号来操作,被动型比主动型更为精确;自终结电缆可以代替物理总线终结器,也是一种硬件,它的价格非常昂贵,常用于两个主机连接同一个物理设备,如:两个服务器存取同一个物理SCSI硬盘。通过检查SCSI ID和总线终结器,我们可以找出大多数冲突现象的解决方法,这是SCSI设备用户必须重视的一点。

SCSI简要回顾(表)

20

SCSI是“Small Computer System Interface”(小型计算机系统接口)的英文缩写,它是专门用于服务器和高档工作站的数据传输接口技术。

SCSI经历了几代的发展,传输速度也越来越快。以下是到目前为止的SCSI规格

解析分级存储管理(HSM)

众所周知,企业的应用系统在线处理大量的数据,随着数据量的不断加大,如果都采用传统的在线存储方式,就需要大容量本地一级硬盘。这样一来一方面投资会相当较大,而且管理起来也相对较复杂;另一方面由于磁盘中存储的大部分数据访问率并不高,但仍然占据硬盘空间,会导致存取速度下降。在这种情况下,层次化存储管理软件,或称为数据迁移软件,可以在性能和价格间作出最好的平衡。这就是本文要与大家讨论的分级存储管理(HSM)。首先来了解一下分级存储中所涉及的三种存储方式。

一、三种存储方式 所谓分级存储,就是根据数据不同的重要性、访问频次等指标分别存储在不同性能的存储设备上,采取不同的存储方式。这样一方面可大大减少非重要性数据在一级本地磁盘所占用的空间,还可加快整个系统的存储性能。在这里就涉及到几种不同性能的存储设备和不同的存储形式了。

目前常用于数据存储的存储设备主要有磁盘(包括磁盘阵列)、磁带(包括磁带机和磁带库)和光盘(包括一切CD-R、CD-RW、DVD-R、DVD-RW等光盘塔和光盘库设备)。从性能上来说,磁盘当然是最好的,光盘次之,最差的是磁带。而从价格上来说,单位容量成本上升磁盘最贵、光盘次之,磁带最低。这就为我们不同的应用追求最佳性价比提供了条件,因为这些不同的存储媒介可应用于不同的存储方式中。这不同的存储形式包括在线存储(OnStore)、近线存储(NearStore)和离线存储(OffStore)。 在线存储

在线存储又称工作级的存储,存储设备和所存储的数据时刻保持“在线”状态,是可随意读取的,可满足计算平台对数据访问的速度要求。如我们PC机中常用的磁盘基本上都是

21

采用这种存储形式的。一般在线存储设备为磁盘和磁盘阵列等磁盘设备,价格相对昂贵,但性能最好。 离线存储

离线存储主要是用于对在线存储的数据进行备份,以防范可能发生的数据灾难,因此又称备份级的存储。离线海量存储的典型产品就是磁带或磁带库,价格相对低廉。离线存储介质上的数据在读写时是顺序进行的。当需要读取数据时,需要把带子卷到头,再进行定位。当需要对已写入的数据进行修改时,所有的数据都需要全部进行改写。因此,离线海量存储的访问是慢速度、低效率的。 近线存储

所谓近线存储,就是指将那些并不是经常用到,或者说数据的访问量并不大的数据存放在性能较低的存储设备上。对这些的设备要求是寻址迅速、传输率高。因此,近线存储对性能要求相对来说并不高,但由于不常用的数据要占总数据量的大多数,这也就意味着近线存储设备首先要保证的是容量。

在分级数据存储结构中,磁带库等成本较低的存储资源用来存放访问频率较低的信息,而磁盘或磁盘阵列等成本高、速度快的设备,用来存储经常访问的重要信息。数据分级存储的工作原理是基于数据访问的局部性。通过将不经常访问的数据自动移到存储层次中较低的层次,释放出较高成本的存储空间给更频繁访问的数据,可以获得更好的总体性价比。

二、分级存储的必要性和主要优点

今天企业的数据中心非常复杂,数据保护是其关键。但是,并非所有的数据都具有同样的价值,也并非所有的企业都具有同样的需求。的确如此,通常认为企业中的关键和非关键数据量也符合“二八原则”,就是只有20%的关键数据,而80%都是非关键的。系统中60%至80%的数据经常在一个月,甚至一年中都不会被访问。而在经常访问的数据中,重要性差别也十分突出,有的数据与用户的业务联系紧密,可靠性、可用性及性能要求都很高,有的尽管经常使用但是与业务联系不是特别紧密。一般来说,重用数据的概率自数据创建3天之后就会下降50%,当数据创建30天后,重用的概率通常会降至很低,而高达90%的数据超过90天后就不会或很少被读取。为了提供良好的数据保护,IT部门通常都保留巨大的空余空间,用以防止出现容量不足的现象。

IT企业总是要面对增长起来无休无止的数据量。各种应用都在创建越来越大的文件,用户也很少删除数据和存档,这就导致要访问旧一些的文件已经变得非常困难。之所以要采取分组存储,是因为它既能最大限度地满足用户随时访问所有需要经常使用的数据,又可使存储成本最小化。综合起来,可以得出分级存储的优点主要体现在以下两个方面: 1.减少总体存储成本 在传统的在线存储中,所有数据都存储在一线磁盘存储设备上,而由于绝大多数数据的访问率并不高,占住了大量宝贵的磁盘空间,在一定程度上是一种浪费。如果把这些数据转移到存储性能稍低的磁盘(如IDE或SATA接口磁盘)或光盘存储设备上,存储成本可得以大幅降低。

2.提高整体系统性能

由于绝大部分数据转移到下级存储设备上,那需要时刻保持在线的数据就少了,系统资源的占用也就少了许多,整体系统性能自然也就提高了。如果采用了离线存储方式对很少使用的数据保存在像磁带这样的离线存储媒体上时,则不仅可提高系统性能,还可确保数据的安全性。

三、分级存储的管理

22

分级存储管理(Hierarchical Storage Management,HSM)就是要将用户拥有的所有存储资源统一管理,提高每种存储设备的利用率,节约了成本。在分级存储中,存储的分级是十分明显的,仅从设备上说,就有磁带机、磁带库、NAS、中低端盘阵、高端存储系统等等。而且在线、近线与离线存储存放的数据价值不同,如何根据用户数据的不同价值合理利用好每种存储资源是一个不小的挑战。

分级存储管理起源于1978年,首先使用于IBM的大型机系统。近10年来,HSM被广泛应用于开放系统的Unix和Windows平台。其中最关键的技术就是近线存储和数据迁移技术。 分级存储管理是一种将离线存储与在线存储融合的技术。它将高速、高容量的非在线存储设备作为磁盘设备的下一级设备,然后将磁盘中常用的数据按指定的策略自动迁移到磁带库等二级大容量存储设备上。当需要使用这些数据时,分级存储系统会自动将这些数据从下一级存储设备调回到上一级磁盘上。对于用户来说,上述数据迁移操作完全是透明的,只是在访问磁盘的速度上略有怠慢,而在逻辑磁盘的容量上明显感觉大大提高了。通俗地讲,数据迁移是一种可以把大量不经常访问的数据存放在磁带库、光盘库等离线介质上,只在磁盘阵列上保存少量访问频率高的数据的技术。当那些磁带等介质上数据被访问时,系统自动地把这些数据回迁到磁盘阵列中;同样,磁盘阵列中很久未访问的数据被自动迁移到磁带介质上,从而大大降低投入和管理成本。

HSM应用也具备监测磁盘容量并在关键容量情况下做出反应的能力。这种软件经过配置后可以为某个卷设定一个最小的剩余空间,当达到这个极限后自动向用户发出警告,提示用户或自动进行数据迁移。这样便可以立即释放空间,管理员也可以在今后有空闲时再来解决空间的问题。

由此可见,分级存储管理更多从降低成本、不影响数据应用效果的角度解决数据的存储问题。事实上,降低成本、提高效率已成为IT厂商追逐技术进步的一个目标。近线存储就是这种进步的产物。伴随单盘成本的下降,近线存储市场渐热,有业内专家预测,不久的将来,近线存储技术将取代数据迁移技术,用户将以模拟海量空间的、更为安全可靠的磁盘介质保存历史数据。而成熟完善的数据迁移软件技术将更为恰到好处的融入到近线存储设备中,为近线存储技术的发展起到推波助澜的作用。

四、NeytApp NearStore分级存储管理方案

为了使大家对分级存储管理有一个具体的了解,下面结合Network Appliance公司的NearStore近线存储在HSM中的应用介绍分级存储网络架构,同时了解有关产品。 NearStore HSM存储方案体系结构如图所示。此方案的核心设备就是NetApp公司的NearStore存储设备,如NearStore R2000(如图所示)。HSM服务器可以是任何配置相应HSM软件的服务器,甚至PC机。

23

NetApp NearStore R200

NetApp NearStore R200 系统是一个磁盘近线存储系统,它结合了Data ONTAP操作系统功能强大的特点与ATA磁盘驱动器成本低廉的特点。NearStore能够以接近磁带的存储成本提供接近主存储系统的性能。NearStore R200系统可以从8TB扩展到96TB,它既能为中小型企业带来价值,也能为需要实施或增强其存储基础设施的全球性企业客户带来价值。NearStore近线存储设备和HSM服务器都通过交换机连接,而其它本地存储设备可直接挂接在HSM服务器上。

NearStore近线存储设备在如下图所示的三层存储体系结构的应用程序存储和磁带库之间插入经济而易用的磁盘式存储,从而完美地补充并显著地改善现有的磁带备份、存档与数据保护方案。

NearStore通过合并NetApp系统和其他存储设备的近线负载数据,进一步加强了数据保护和管理。

24

这一方案具有以下几个方面的特点:

(1)大多数HSM方案中,应用程序的源卷必须为本地磁盘或能提供基于块的界面,不能以CIFS或NFS方式进行安装。而在NearStore的HSM方案中,目标卷可以是HSM服务器上以CIFS或NFS方式安装的卷。这样,文件就可在源卷和NearStore卷间进行复制。管理员还可定义清除规则,从而将源卷上的文件变为一个指针,指向其在NearStore上的对应文件。根据操作系统的不同,简单情况下指针可以为符号链接或CIFS快捷方式,复杂情况下则可以为源文件系统中的占位程序。清除规则可由磁盘容量标记触发,或者由执行磁盘扫描过程触发。此外,客户还可使用删除规则将文件从源和NearStore卷中删除。

(2)通常,存档产品按“时间点复制”的模式工作,将存在于某个特定时间点的数据取出,并将其复制、移动或迁移到目标卷中去。而NearStore HSM产品则通常按照连续方式工作。如果文件与预先定义的规则或策略相匹配,即可立刻进行迁移。

(3)存档产品需要由管理员或由按时间表运行的操作系统调用。NearStore HSM产品则采用服务或守护程序,它们能随时监听请求、截取请求并采取行动。

(4)一些HSM产品还提供复杂的存储虚拟技术,从而客户可将所有可用的存储看作一个巨大的磁盘。存档应用程序则不具备该功能。

分级存储产品和方案还有许多,因篇幅关系在此就不多介绍了。

什么是MAID?

MAID是英文“Massive Arrays of Idle Disks”的缩写,中文意思是大规模非活动磁盘阵列存储。它是最新的分级存储技术之一。

MAID的原理类似于磁带库中的磁带一样,只有需要时才将一部分磁盘开机运转,而其他磁盘通常处于断电状态。从这种意义上讲,MAID也可以称作为磁盘库。因此,MAID中所有的磁盘(目前主要是SATA磁盘)并不是每时每刻都是活动的,MAID子系统中大部分磁盘处于睡眠(断电)状态,直到系统发出请求。SATA磁盘启动的时间大约为10秒。

25

服务器中“U”的含义是什么?

“U”是一种表示机架式服务器外部尺寸的单位,是unit的缩略语,详细尺寸由作为业界团体的美国电子工业协会(EIA)决定。 之所以要规定服务器的尺寸,是为了使服务器保持适当的尺寸以便放在铁质或铝质机架上。机架上有固定服务器的螺孔,将它与服务器的螺孔对好,用螺丝加以固定。

规定的尺寸是服务器的宽(48.26cm=19英寸)与高(4.445cm的倍数)。由于宽为19英寸,所以有时也将满足这一规定的机架称为“19英寸机架”。

厚度以4.445cm为基本单位。1U就是4.445cm,2U则是1U的2倍为8.89cm。也就是说所谓“1U的PC服务器”,就是外形满足EIA规格、厚度为4.445cm的产品。设计为能放置到19英寸机柜的产品一般被称为机架服务器。

将服务器放置到机架上,并不仅仅有利于日常的维护及管理,也可能避免意想不到的故障。首先,放置服务器不占用过多空间。机架服务器整齐地排放在机架中,不会浪费空间。其次,连接线等也能够整齐地收放到机架里。电源线和网线等全都能在机柜中布好线,可以减少堆积在地面上的连接线,从而防止脚踢掉电线等事故的发生。

双机热备知多少?

26

应众多网友的要求,本文仅就双机热备的基本概念做一阐释,希望能够起到抛砖引玉的作用。

问:能解释一下什么是双机热备吗?

答:所谓双机热备,就是将中心服务器安装成互为备份的两台服务器,并且在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会迅速的自动启动并运行(一般为2分钟左右),从而保证整个网络系统的正常运行!双机热备的工作机制实际上是为整个网络系统的中心服务器提供了一种故障自动恢复能力。 问:什么时候需要双机热备呢? 答:这个问题其实比较简单,一般服务器要长年累月的工作,其备份工作就绝对少不了。所以,决定是否使用双机热备,笔者觉得应首先对系统的重要性,以及终端用户对服务中断的容忍程度进行考虑,然后再来决定是否使用双机热备。比如网络中的用户最多能容忍多长时间恢复服务?如果服务不能很快恢复会造成什么样的后果等等。

问:已经采取了RAID技术和数据备份技术,还有必要做双机热备吗?

答:这其实没有个明确的区分,RAID和数据备份都同等重要!数据备份只能解决系统出现问题后的恢复;而RAID技术,以笔者的使用经验来看又只能解决硬盘的问题。我们知道,当服务器本身出现问题时,不论是设备的硬件问题还是软件系统的问题,都会造成服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。所以,对于高安全需求、持续可靠的提供应用服务的网络系统来说,双机热备还是非常重要的。其实我们可以这样想:如果你的服务器坏了,你要用多少时间将其恢复到能正常工作?这样你就能理解双机热备的重要性了!

问:双机热备方案与集群的区别?

答:从概念上来讲,双机热备属于集群中的一种。集群一般包括两类:一类是纯应用服务器的集群,即各个应用服务器都访问统一的数据库服务器,但彼些并不需要文件共享存储等,这种集群是比较简单的。另一类是数据库服务器的双机热备,这种双机热备实现,一般是两台服务器同时使用共享的存储设备,并且在普遍的情况下,均采取主、备的方式(也有高端的系统采用并行的方式,即两台服务器同时提供服务)。 问:数据库服务如何使用双机热备?

答:通过软件方式实现双机热备。即不采用共享的存储设备,而是本机数据可以直接在多台主机间流动。显而易见,此种方式最大的优点就是节约了昂贵的存储设备投资,而其缺点也不难发现:会产生数据的前后不一致、或者会影响数据库读取的速度。我们看看这样一个例子:如果在服务中断时切换到备份服务器,则可能有少量已经在主机完成的事务在备机上尚未实现。而与备份数据的恢复不同,备机启动后,后面的操作已经进行,因此丢失的数据包要找回就相当难。故此种方式适用于对于丢失少量数据不是非常敏感的系统。 在这儿提一下标准的解决方法,即基于共享存储设备和双机软件实现双机热备。它可以在无人值守的情况下提供快速的切换,并且不会有数据丢失现象,而购买存储设备等投资也会比较高。

问:如何选择与实施双机热备的配置方案?

答:1. 以应用为主导,进行认真的分析。以高可用性为宗旨。

2. 考虑是采用数据库双机热备还是应用服务器集群、还是软件备份方式。

3. 选择确定具体的设备、软件的型号等。笔者在这里提醒大家,不同的软件或是硬盘等存储设备,他们之间存在兼容性的问题,因此在购买之前应咨询专业人员,不要出现采购了双机软件对相关的存储设备存在不兼容等现象。

4. 在实施完成后,一定要进行测试,以确保工作正常,而且应注意在运行过程中定期的对系统是否能够正常切换进行测试。

27

什么是EXA和XDA?

[网友问题]最近单位要购买PC服务器,在选购IBM eServer xSeries服务器会经常遇到EXA架构以及XDA技术,请问什么是EXA和XDA技术?它们有什么特性?

[网友解答]所谓的EXA就是“企业级X-架构”(Enterprise X Archive,EXA)含义,2001年8月,IBM在基于X架构服务器设计蓝图的基础之上在实验室里成功引入了大型机的四项核心技术(Xpand On Demand扩展、XceL4服务器加速缓存、Active内存和“远程I/O”)技术开发了“IBM 企业级X架构”。

EXA架构的基础就是XA-32和XA-64系列芯片组,适用于32位和64位工业标准服务器。 EXA架构的特点首先看重性能,毕竟用单路和双路服务器去做更关键应用时,性能是很重要的因素。其次是高可用性,EXA架构的第三个特点是可管理性,EXA在高可管理性上添加了全新设计的光通路诊断。最后一个特点就是灵活性,EXA架构要求系统能够满足各种各样的客户的需求,而IBM也许会对很多应用进行认证。 这四大特点使得IBM能够与同质化的商品区分开来,在工业标准平台上做高可靠的关键应用的服务器。

所谓的XDA就是“扩展设计架构”(Xtended Design Architecture,XDA)含义,XDA结合了IBM大型主机和超级计算机的高性能特性,在具备64位计算能力的向外扩展型x系列服务器上赋予了关键应用水准的性能和可靠性。

XDA与IBM先前提出的Enterprise X-Architecture(EXA)企业级X架构共同构成了完整的“X架构体系”,同时又各有侧重:EXA主要应用在“向上扩展”的4路以上高端IA服务器的核心技术;而XDA则更加强调在“向外扩展”和分布式64位计算环境中,为中小企业客户和需要向外扩展产品运行企业关键应用的客户提供更高的可用性、可扩展性和可靠性。

IBM在中国市场推出了8款基于英特尔 Nocona 64位扩展技术处理器的IA64服务器新产品。包括x206、x226、x236、x306、x336、x346以及IBM eServer BladeCenter刀片服务器和图形工作站Intellistation Z Pro。它们全部采用IBM全新设计理念Xtended Design Architecture(XDA)。

28

目前EXA(企业级X架构)已经成了IBM中高端IA服务器的代名词之一,它是将原来用于大型机、UNIX服务器上的先进技术用在工业标准的IA服务器上,为IA服务器增添了更多的附加价值,也突出了IBM中高端IA服务器的卖点。对于低端服务器,IBM现在也推出了8款基于Nocona处理器的1路~2路服务器,并且都应用了XDA(扩展设计架构),使之提供了有别于其他竞争产品的附加价值。

实际上,IBM的XDA和EXA是整个X架构里的两个分支,二者互为补充。而整个X架构的目的则是在相对便宜、较易管理和维护的IA平台实现部分大型主机、小型机的技术。

联想万全服务器防雷击系统设计

作为一种自然灾害,雷击给人类生命、财产安全带来了严重危害。虽然多数的电子设备都安装在拥有避雷设施的建筑物内,但是,通过传输线路、电子脉冲辐射及地电位反击等途径,雷击仍然能够给电子设备造成损坏,轻者直接造成设备损坏,重者可能引起周边环境起火等严重事故。

服务器产品作为网络应用中枢,同样面临雷击的威胁。雷击可能通过电源线对服务器电源造成损害、也可能通过信号线对服务器内部造成损坏,这诸多情况只要有任一发生,无论轻重,都可能造成服务器故障,影响用户业务的长期稳定运行。

联想在进行万全服务器系统设计时,提供了全面的防雷击设计方案。首先,在电源设计中,通过对雷击浪涌进行能量泄放,杜绝了雷击危害;其次,对整机系统进行良好接地设计,保护服务器系统内多数功能模块免受雷击损害;最后,分析系统防雷击薄弱环节,保障服务器系统具备全面的防雷击能力。

在进行防雷击设计的过程中,联想服务器设计团队应用6 Sigma科学方法,对服务器故障进行了全面分析,确立了服务器防雷击设计中存在的盲点,即雷击带来的大量的网卡故障。通过防雷击设计6 Sigma项目的实施,推翻了业界对网卡电路防雷击1500V的设计标准,将联想万全服务器的网卡电路防雷击能力提升至3000V。预期将解决近80%的服务器网卡电路故障,从而降低近25%的主板故障,减少近10%系统故障。网卡电路防雷击能力的设计提升,也标志着万全服务器全面解决服务器系统雷击问题,目前仍居于国际领先水平。

具备全面防雷击方案设计的万全服务器,保障您的业务不再受雷击影响,任尔雷霆万钧,我自岿然不动。

新手入门之轻松掌握KVM系统

29

【网友问题】我们单位机房目前已经改造扩容完成了,随着服务器数量的日益增多,领导要求所有的服务器都要放在机柜里,为了节省机柜的有限空间,要使用KVM切换设备。听说使用它后,同一个机柜里的所有服务器只要使用一套KVM,就可以通过切换全部操作了。请问什么叫KVM?如何选购?

【网友解答】KVM就是键盘(Keyboard)、显示器(Video)、鼠标(Mouse)的缩写。 所谓KVM主机切换系统,就是用一套或数套KVM在多个不同操作系统的多台主机之间切换,实现一个用户使用一套键盘、鼠标、显示器去访问和操作一台以上主机的功能。KVM具有节省空间、提高效率、使用简单、易于管理、节约成本、远程管理、环保节能等特点。 目前领先的KVM厂商有Avocent、Belkin、Raritan、Rose以及CCC网络系统(CCC Network Systems)等公司。

KVM解决方案主要有三种:一、纯模拟系统 二、纯数字系统 三、模拟数字混合系统。 纯模拟系统

优点:拥有良好的视频操作效果,真彩、高分辨率、操作无任何滞后感;安全性高,完全不存在IP网络所面对的风险;不占用用户任何网络资源;不会因为IP网络的中断而影响对服务器的操作; 纯硬件环境,即插即用,安装调试简单,系统维护量少。

不足:受模拟信号的距离限制,如果超过距离,这无法操作。(目前已经可以实现300米的信号传输)等缺点。

纯数字系统

优点:所有用户通过IP网络操作,拥有远程访问能力;扩容相对容易。

不足:所有用户视频效果受到网络质量影响,无法做到真彩和高分辨率,一定会有滞后感,并且网络带宽大小影响到滞后感;占用IP资源,每一台设备必须占用一个IP;需要增加独立的用户认证系统,增加维护调试量,如果认证系统故障将无法工作; 模拟数字混合系统

它的优点则集成纯模拟和纯数字两者的全部优点。 企业用户首先要明确一下自己的实际需求,根据KVM产品的特点以及有关专家使用多年的经验,KVM系统一般需要考虑以下一些方面的因素: 1、服务器数量

企业目前的服务器数量,以后会增加多少服务器?(因为机房服务器一般都会有所增加,因此建议适当考虑一下服务器增长的幅度)这些方面的问题会涉及到选购KVM系统配置,以及扩容能力的预留。

2、用户终端数

往往用户终端数量不好确定,一般想多设几个,这是一种留有余地的习惯思维,因此,有关专家做出推荐是:100台服务器以下可设置1-4个用户终端,100-500台服务器可以设置4-8个用户终端500台服务器。原因主要有三点:首先, KVM系统可以存储很多操作用户,这些都是指的物理上的终端数。第二,一般机房使用轮班职守,因此同一时间在管理服务器的人不会太多。第三、这样的设置性价比较高,不会浪费投资。

3、安全性的问题

企业对安全性的要求级别,大家知道模拟信号在安全性方面是远远高于数字IP信号的,因为KVM是直接连接企业的服务器,当然安全性必须越高越好了。 4、产品稳定性

硬件比软件稳定,简单的比复杂的稳定,这是一般情况,大家都明白的。所以我们在选择KVM的时候也尽可能选择环境简单,纯硬件的环境。这样以后的维护量将大大减少。

30

5、KVM产品本身的成熟性

经过市场验证的产品才是可靠的产品,尽量不要选择一些概念性或者本身还在完善当中的产品。

当我们明确了企业的具体需求以后,就可以根据需要确定KVM解决方案了,目前 KVM的解决方案主要有数字和模拟两种,如果企业没有远程访问的需要,或者对安全性的要求特别高,专家建议模拟的产品应该就是企业的最佳选择了。

如果企业确实需要预留远程访问的接口,使用效果最好的是模拟+数字的方案,它把模拟和数字方案的优点揉合在一起,为企业用户带来最佳的使用效果和性价比;至于纯数字的KVM环境,如果企业的服务器是分散放置,并且管理用户也分散在各地的话,那是一个比较好的选择。

什么是服务器租赁

服务器租赁指的是一台服务器完全为单个客户服务,包括服务器在内的全部硬件设施都由太原通信数据局提供,您轻松享受从设备、环境到维护的一整套服务。租用此项业务,客户可使用单独的主机作为其WEB等应用的服务器,而不与其他的客户共享,安全、可靠;客户省去了自行购买服务器的麻烦。

什么是虚拟主机

1、什么是虚拟主机?

通俗的说,虚拟主机技术是将一台(或者一组)服务器的资源(系统资源、网络带宽、存储空间等)按照一定的比例分割成若干台相对独立的“小主机”的技术。每一台这样的“小主机”在功能上都可以实现WWW、FTP、Mail等基本的Internet服务,就像使用独立的主机一样。

采用虚拟主机建立网站,可以为企业节省大量的设备、人员、技术、资金、时间等各项投入,为即将建立Internet网站的企业提供了一种“物美价廉”的解决方案。目前,全球有80%的企业网站在使用虚拟主机。 2、如何选购虚拟主机?

目前市场上的虚拟主机服务有近百种之多,如何选择适合自己的虚拟主机呢?建议您从以下几个方面来考虑: 技术需要

如果您是网站的开发、设计人员,您要根据自己使用的编程语言来选择——

1、使用ASP的,请选用Windows系列虚拟主机,必须是经济型、标准型或智强型; 2、使用PHP的,请选用UNIX系列虚拟主机,必须是经济型、标准型或智强型; 3、使用PERL或CGI的,两种平台都可以,但必须是经济型、标准型或智强型;

31

如果您的网站需要使用数据库,则——

1、使用Microsoft SQL Server 2000须选择Windows系列标准型、智强型; 2、使用MySQL数据库的须选择UNIX标准型、智强型。

如果由服务商为您开发网站,可以向他们咨询。如果您只想做几个静态页面发布到网上,作为公司和产品的介绍,则租用一个普及型或经济型即可。 空间大小

虚拟主机的空间容量是考核虚拟主机性能的一个重要指标。通常情况下,我们必须要同时考核以下几种空间的容量大小——

1、Web空间——也叫网页空间,是存储网页、程序、图片等文件的主要空间; 2、数据库空间——支持数据库的虚拟主机所提供的数据库存储空间; 3、LOG空间——网站日志(LOG)文件的的存储空间。

目前看来,服务商提供的空间都比较大。如100M的Web空间,若以标准网页计算,大致可容纳5000张A4纸信息或2000张图片信息。也可折算为7500万个汉字。 价格水平

较大的价格差异往往是跟服务商的投入成正比的。一般来讲,规模较大的服务商由于其在硬件设备、网络资源、安全保障、人力资源、商业信誉、市场推广等方面的投入都远远超过了普通的服务商,因此价格往往比较高,但服务品质则更有保障。中国目前的虚拟主机的价位都普遍比较低廉,在每年300元到8000元之间。 管理权限

能不能自主管理域名信息? 能不能获得FTP密码?

能不能自已管理Email帐户、修改密码、过滤垃圾邮件? 自己管理网站是否简便、直观? 服务商资质

根据信息产业部及工商管理部门的要求,无论是域名注册业务还是虚拟主机、网站制作业务,您都需要选择具有合法经营该项业务资格的服务商。如域名注册要看其是否取得了信息产业部的批准、是否是中国互联网络信息中心CNNIC授权的顶级注册商;虚拟主机业务要看其是否申请了电信增值服务许可(ICP经营许可证)等等。 服务品质

有没有365X24全天候的电话支持服务?

网站访问速度如何?(可以要求服务商提供参考网站体验一下) 服务商对待问题的处理态度与响应速度如何?

从服务商处转出域名和网站时有没有难度,是否需要付费?

服务基础设施包括机房、带宽、服务器参数、服务器管理方式、系统平台如何? 不满意时能不能返还款项

什么是主机托管

1、什么是主机托管

32

主机(服务器)托管是客户自身拥有一台服务器,并把它放置在Internet数据中心的机房,由客户自己进行维护,或者是由其它的签约人进行远程维护。 2、主机托管的优越性

拥有一个良好的企业站点是企业发展、展示自己的重要手段。如果企业想拥有自己独立的WEB服务器,同时又不想花费更多的资金进行通讯线路、网络环境、机房环境的投资,更不想投入人力进行24小时的网络维护,可以尝试主机托管服务。主机托管的特点是投资有限,周期短,无线路拥塞之忧。 3、主机托管和虚拟主机的区别

1) 主机托管是用户独享一台服务器,而虚拟主机是多个用户共享一台服务器; 2) 主机托管用户可以自行选择操作系统,而虚拟主机用户只能选择指定范围内的操作系统;

3) 主机托管用户可以自己设置硬盘,创造数十G以上的空间,而虚拟主机空间则相对狭小;

4) 虚拟主机用户可以通过银行安全认证实现网上支付,而虚拟主机用户则不能;

主机托管业务主要是针对ICP和企业用户 他们有能力管理自己的服务器,提供诸如WEB、EMAIL、数据库等服务。但是他们需要借助IDC提升网络性能,而不必建设自己的高速骨干网的连接。

33

因篇幅问题不能全部显示,请点此查看更多更全内容

Top