西西河

主题:谁能给个估算 -- ppw

共:💬15 🌺1 新:
全看分页树展 · 主题 跟帖
家园 不是这样的

一。网络传输是以包为单位而不是以位为单位进行的,包的构成是字段和字节而不是位。CPU所作的工作不过是发指令读取数据、打包和发指令发送数据或者是接指令接收数据,拆包和发指令存储数据,并不是包揽所有工作,而只是拆包/打包和等待设备处理完毕,因此并不是很繁忙。

二。现代的IDE设备和网卡都有简单的独立运行能力。前者在接到读取数据的指令以后可以自行从磁盘读取数据然后以DMA方式传送到内存,这个是不需要CPU的介入的;后者在接到收送数据的指令以后可以自行从网络上接受/发送一定数量的数据然后再通知CPU,这样CPU的压力并不很大。另外,SCSI可以做到比IDE更好的并发度和性能,而高级网卡甚至带有独立的CPU和内存,这样它们可以进一步地降低CPU的压力。

三。CPU一般是用它的定点处理能力而不是浮点处理能力来处理非浮点计算型的任务(例如涉及网络数据传输的拆包/打包行为),原因是定点处理能力的开销/性能比要比浮点处理能力的开销/性能比经济的多。浮点处理能力一般是用在科学计算和图形处理方面。

四。网络中各层的数据包大小并不一致,但是数据包都是以字节流的方式来构成。CPU对处理字节流有特定的指令,很少几条指令就可以处理很长的字节流了。具体的指令(机器语言指令)记不清楚了,但是一般都是由确定源地址、目标地址、长度和传送指令这几条指令来构成,也就是所谓的设定ds:si源地址、设定es:di目标地址、设定cx长度、传送指令movb/movw。上面所列的是十六位指令,三十二位指令有一些变化,但是原理是一样的。指令的长度一般是固定的而传送的数据量则可以随意变化(当然还是有一定限制的,例如字长和内存可用量),因此不存在指令的长度和传送的数据量的直接关系。

五。目前的快速以太网卡标称是100M/bits,但是实际使用时在两台机器通过交换机直联,没有任何碰撞的情况下实际传输率只有2-3M字节/秒(这个数据是我用两台IBM小型机(配备快速以太网卡)、一台CISCO交换机、直联和用FTP传输1G的数据文件情况下得出的)。这里请注意位和字节并不是简单的除以几的关系,因为网卡工作在链路层,数据一般是从应用层下来,途经的每一层都有加各种字段的打包过程。100M/bits是指链路层的理论传输速度,而2-3M字节/秒是用户数据的实际传输速度,二者之间有着巨大的区别。

六。我给的数据并不意味着那5%是用足的了,而是说不超过5%,而且下载速度500K字节/秒是指的用户数据的实际传输速度。我不知道塞杨1.4G和AMD2500+是如何比较的,但是AMD2500+基本相当于Intel P4 2.5G,这里假定Intel P4 2.5G比塞杨1.4G快上一倍(前者的主频、结构和高速缓存均优于后者),那么可以算出两个因子:CPU相对处理能力指数是2,网络传输速度可用空间指数是6(3M字节/秒对500K字节/秒,同时假定对CPU处理能力的需求也同步增长,虽然我很怀疑这一点),这样塞杨1.4G所对应的CPU利用率将是2*6*5%=60%。这里假定你可以用足网络传输速度、CPU相对处理能力指数是2而且其它参数都是一样的。也就是说,塞杨1.4G应该可以充分利用目前的快速以太网卡的100M/bits 的流量指标了。

七。但是我很怀疑你能否用足网络传输速度,因为目前的快速以太网还依然是碰撞抢先结构,多台机器的以太连接所造成的碰撞会相当程度地降低实际的数据传输速率的。根据我的经验,实际速度能够接近2M字节/秒已经很不错了。

结论:塞杨1.4G的机器应该能够支持100M/bits 的流量要求。


本帖一共被 1 帖 引用 (帖内工具实现)
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河