1、首先准备一台机器作为web服务器,硬件配置为硬件配置为Intel(R) Celeron(R) CPU G530 @ 240GHz 32位 内存4G 双核,系统版本CentOS release 55,web服务器版本Apache/2214。
2、web服务器采用apache,采用worker模式,具体配置为:
默认开启5个进程,每个进程下2个线程,最大开75个线程(此参数关系到实际系统开启的进程数,如果开启进程设置过多,以最大线程数为准),最大连接数为500。
3、apache以调用php模块的方式执行php脚本(非fast-cgi模式)。
4、首先在两台不同的机器上对此服务器用ab进行压测,将两台不同的机器编号为A与B,A为一台笔记本,性能较差,2G内存,且上面运行了一些程序占用 了一定比率的CPU及内存。B为一台台式机,硬件配置为CPU Intel G530 24GHz 内存 4GB,下面是测试数据:
A
50个并发,执行50次页面(每个连接执行一次页面,页面为phpinfo页面)
平均执行时间在17~18秒 简直不能忍
B
50个并发,执行50次页面
平均执行时间在02秒左右 毫无压力(3次平均)
100个并发,执行100次页面
平均执行时间在04秒左右 (3次平均)
200个并发,执行200次页面
平均执行时间在08秒左右(3次平均)
用A机器进行的测试结果,并发量连50都达不到,但用B机器测试WEB服务器可以胜任200个并发处理。为什么会出现如此截然不同的数据差别,还是要从原理上来分析。
ab是客户端模拟多线程来通过socket对服务器发起TCP请求,并等待服务器处理执行页面输出页面结果并返回到客户端以此来计算页面的执行时间等相 关数据。那么客户端CPU处理多线程的能力,测试时客户机的CPU状态、内存状态都会对测试结果造成影响,如果客户机同时处理这么多请求的能力很弱,那么 需要很长时间才能将请求发送到服务器,服务器处理完后也需要很长时间对返回数据做处理,这样就达不到测试服务器性能的要求了。因为时间都被客户机耗去了。 所以我们在测试的时候首先要选择好测试机,尽量选择性能较好的机器测试。因为得出的结论是天差地别的。
5、接下来我们单独用B机器进行测试,进行高强度的测试,连续测试20组数据,以200个并发、执行200次页面为测试条件,测试页面还是phpinfo页面,以下是测试数据:
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
每秒请求数:237 每个请求执行时间:843
测试结果非常稳定,没有大差异的结果。那么用300个并发、执行300次页面为测试条件结果会是怎样呢,以下是测试数据:
每秒请求数:79 每个请求执行时间:3765
每秒请求数:80 每个请求执行时间:3718
每秒请求数:81 每个请求执行时间:3671
每秒请求数:80 每个请求执行时间:3750
每秒请求数:79 每个请求执行时间:3796
每秒请求数:81 每个请求执行时间:3687
每秒请求数:79 每个请求执行时间:3765
每秒请求数:82 每个请求执行时间:3656
每秒请求数: 81 每个请求执行时间:3703
每秒请求数: 82 每个请求执行时间:3640
在高并发下的执行结果也比较稳定。
6、接下来我们在web服务器上进行测试,看测试结果是怎样的,测试10组数据 以200个并发、执行200次页面为测试条件,测试页面为phpinfo页面,以下是测试数据:
每秒请求数:1716 每个请求执行时间:116
每秒请求数:1764 每个请求执行时间:113
每秒请求数:1706 每个请求执行时间:117
每秒请求数:1643 每个请求执行时间:114
每秒请求数:1767 每个请求执行时间:113
每秒请求数:1732 每个请求执行时间:115
每秒请求数:727 每个请求执行时间:274
每秒请求数:249 每个请求执行时间:801
每秒请求数:1728 每个请求执行时间:115
每秒请求数:113每个请求执行时间: 1765
以上结果,比在B机器上表现的更好,但存在几个不稳定的数据。分析一下,一方面是网络传输速度的原因导致(本机上网络传输速度更快,所以成绩较好)。另一 方面是由于ab本身在执行的时候消耗的cpu的性能,但这个我的观点是影响可以忽略不计。还有一方面导致数据不稳定的因素可能是由于TCP连接在上一次测 试时为完全释放导致的原因。
综上所述,对于测试web服务器的性能,我们最好可以找一台独立的、性能较好的、并且上面没有运行很多应用程序的机器进行测试,这样的结果会更接近生产环 境的实际结果。实际的php页面执行复杂度可能是phpinfo的好几倍,所以在选定测试页面时,可以预先做一些复杂度更高的php页面进行测试,这样测 试的准确度会更高。
21 测试环境
作者使用了Tomcat作为Web服务器进行测试,被测试的内容是一个jsp文件和一个servlet,jsp文件调用JavaBean、打印相关信息,servlet接受用户参数、调用javabean、输出相关信息。详细的内容请参考作者提供的JMeterwar的内容。
22 安装启动JMeter
大家可以到通过>
现在,请使用%JMeter%/bin下面的jmeterbat批处理文件来启动JMeter的可视化界面,下面的工作都将在这个可视化界面界面上进行 *** 作。下面的是JMeter的可视化界面的屏幕截图。
图一: JMeter打开时的屏幕截图
图一: JMeter打开时的屏幕截图
23 建立测试计划(Test Plan)
测试计划描述了执行测试过程中JMeter的执行过程和步骤,一个完整的测试计划包括一个或者多个线程组(Thread Groups)、逻辑控制(Logic Controller)、实例产生控制器(Sample Generating Controllers)、侦听器(Listener)、定时器(Timer)、比较(Assertions)、配置元素(Config Elements)。打开JMeter时,它已经建立一个默认的测试计划,一个JMeter应用的实例只能建立或者打开一个测试计划。
现在我们开始填充一个测试计划的内容,这个测试计划向一个jsp文件和一个servlet发出请求,我们需要JMeter模拟五个请求者(也就是五个线程),每个请求者连续请求两次,下面的章节介绍了详细的 *** 作步骤。
24 增加负载信息设置
这一步,我们将向测试计划中增加相关负载设置,是Jmeter知道我们需要模拟五个请求者,每个请求者在测试过程中连续请求两次。详细步骤如下:
1 选中可视化界面中左边树的Test Plan节点,单击右键,选择Add'Thread Group,界面右边将会出现他的设置信息框。
2 Thread Group有三个和负载信息相关的参数:
Number of Threads: 设置发送请求的用户数目
Ramp-up period: 每个请求发生的总时间间隔,单位是秒。比如你的请求数目是5,而这个参数是10,那么每个请求之间的间隔就是10/5,也就是2秒
Loop Count: 请求发生的重复次数,如果选择后面的forever(默认),那么 请求将一直继续,如果不选择forever,而在输入框中输入数字,那么请求将重复 指定的次数,如果输入0,那么请求将执行一次。
根据我们演示例子的设计,我们应该将Number of Threads设置为5,Ramp-up period设置为0(也就是同时并发请求),不选中forever,在Loop Count后面的输入框中输入2,设置后的屏幕截图如下:
图二:设置好参数的Thread Group。
图二:设置好参数的Thread Group。
25 增加默认>
实际的测试工作往往是针对同一个服务器上Web应用展开的,所以Jmeter提供了这样一种设置, 在默认>
我们这里将采用这种属性。你可以通过下面的步骤来设置默认>
1 选中可视化界面中左边树的Test Plan节点,单击右键,选择Add'config element'>
2 默认>
protocal:发送测试请求时使用的协议
server name or ip:被测试服务器的ip地址或者名字
path: 默认的起始位置。比如将path设置为/jmeter,那么所有的>
port number: 服务器提供服务的端口号
我们的测试计划将针对本机的Web服务器上的Web应用进行测试,所以protocal应该是>
图三: 测试计划中使用的默认>
图三: 测试计划中使用的默认>
26 增加>
现在我们需要增加>
1 选中可视化界面中左边树的Thread Group节点,单击右键,选择Add'sampler'>
2 他的参数和25中介绍的>
我们现在增加两个>
图四:设置好的jsp测试请求
图四:设置好的jsp测试请求
图五:设置好的Servlet测试请求(带参数)
图五:设置好的Servlet测试请求(带参数)
27 增加Listener
增加listener是为了记录测试信息并且可以使用Jmeter提供的可视化界面查看测试结果,里面有好几种结果分析方式可供选择,你可以根据自己习惯的分析方式选择不同的结果显示方式,我们这里使用表格的形式来查看和分析测试结果。你可以通过下面的步骤来增加listener:
1 选中可视化界面中左边树的Test Plan节点,单击右键,选择Add'listener'view result in table,界面右边将会出现他的设置信息和结果显示框。
2 你可以设置界面上面的filename属性设置将测试结果保存到某个文件中 界面下面将使用表格显示测试结果,表格的第一列sampleno显示请求执行的顺序和编号,url显示请求发送的目标,sample-ms列显示这个请求完成耗费的时间,最后的success列显示改请求是否成功执行。
界面的最下面你还可以看到一些统计信息,最关心的应该是Average吧,也就是相应的平均时间。
28 开始执行测试计划
现在你可以通过单击菜单栏run -> Start开始执行测试计划了。下面这两个图是作者第一次、第二次执行该测试计划的结果图:
大家可以看到第一次执行时的几个大时间值均来自于jsp request,这可以通过下面的理由进行解释:jsp执行前都需要被编译成class文件。所以第二次的结果才是正常的结果。
apache自带的abexe 可以 如果没有理解错误,websocket是依托于web server, 比如IIS,Apache所以性能测试也是针对他们提供的socket模型进行。并发的意思是指网站在同一时间访问的人数,人数越大,瞬间带宽要求更高。服务器并发量分为:1业务并发用户数;2最大并发访问数;3系统用户数;4同时在线用户数;
说明服务器实际压力,能承受的最大并发访问数,既取决于业务并发用户数,还取决于用户的业务场景,这些可以通过对服务器日志的分析得到。
一般只需要分析出典型业务(用户常用,最关注的业务 *** 作)
给出一个估算业务并发用户数的公式(测试人员一般只关心业务并发用户数)
C=nL/T
C^=C+3×(C的平方根)
C是平均的业务并发用户数、n是login session的数量、L是login session的平均长度、T是指考察的时间段长度、C^是指业务并发用户数的峰值。
假设OA系统有1000用户,每天400个用户发访问,每个登录到退出平均时间2小时,在1天时间内用户只在8小时内使用该系统。
C=400×2/8=100
C^=100+3×(100的平方根)=100+3×10=130
另外,如果知道平均每个用户发出的请求数u,则系统吞吐量可以估算为u×C
精确估算,还要考虑用户业务 *** 作存在一定的时间集中性(比如上班后1小时内是OA系统高峰期),采用公式计算仍然会存在偏差。
285-104-1346
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)