总流程时间 5.643 5.777 8.594 50个用户的响应时间:
100个用户的响应时间:
200个用户的响应时间:
第17页共27页
从以上图中可以看出,服务器在50,100个并发的情况下所有事务都保持在5s左右,但稍微高于5s,应该有一定的上升空间。最大的问题在于并发数200后,处理时间已经在5s以上,达到8s。建议:优化请求响应模块以及检索应用模块,减少响应时间。
2、 TPS (事务数/秒) 50个用户的每秒事务数:
100个用户的每秒事务数:
200个用户的每秒事务数:
第18页共27页
从以上每个图中看到TPS达到峰值1后开始有下降的趋势,基本上均在1个事物以下,这个数据并不理想,我们服务器的性能还没有充分发挥,现有硬件条件下还可以在单位时间内处理更多的事务数,建议在下一阶段进行优化提升。或者是网络不佳的情况导致该情况的出现。
3、 吞吐量
并发数 50 100 200
Total Throughput (bytes) 128,707,404 257,386,009 514,838,226 Average Throughput (bytes/second) 347,858 993,768 2,394,596 50个用户的吞吐量:
100个用户的吞吐量:
200个用户的吞吐量:
第19页共27页
从图中可以看出总吞吐量随着用户的增加成正比的,数据交换正常。但是,在对网络带宽,系统架构,硬件资源的合理分配后应该能发挥系统的更大处理能力。
6.2并发测试性能分析
设计50、100、200个用户并发,分别持续10分钟,15分钟,20分钟,获取系统的各种表现。
50个用户并发的测试统计信息(以10分钟为例):
100个用户并发的测试统计信息(以10分钟为例):
第20页共27页
相关推荐: