如果是一些简单的网站或者小型应用,ASPnet能够支持的并发量可能较低,一般在几十到几百之间。但是对于一些高并发的应用,如电商平台、社交网站等,ASPnet需要支持数以万计的并发访问,需要采用分布式架构、负载均衡等技术手段进行优化和提升性能。
综上所述,ASPnet的并发量并没有一个固定的数值,需要根据具体情况进行评估和测试,并采取相应的优化措施来提高应用程序的性能和并发能力。
个人理解:
并发是指同时要服务器有反应(下载网页,提交表单什么的),同时在线,如果他们什么都不做,理论上可以很多人同时在线。选用iis7服务器批量管理工具来减少带宽占用
并发应该是要求每个人都能在几秒之内打开网页,那么下载网页的时候,带宽是限制,至于同时在线,应该需要根据网站的实际情况估计。我朋友那边是说5-20倍都有可能。
1000人在线,则一般来说并发量应该在50-200人,一般你得按高了估吧,就算200人好了。团购网站一个网页也算多一点,100K,那就是2000K,还得8,16M的带宽吧。
我觉得我已经比较估得多了,我觉得10M独享应该差不多了。
在实际的性能测试中,经常接触到的与并发用户数相关的概念还包括“并发用户数”、“系统用户数”和“同时在线用户数”,下面用一个实际的例子来说明它们之间的差别。假设有一个OA系统,该系统有2000个使用用户——这就是说,可能使用该OA系统的用户总数是2000名,这个概念就是“系统用户数”,该系统有一个“在线统计”功能(系统用一个全局变量记数所有已登录的用户),从在线统计功能中可以得到,最高峰时有500人在线(这个500就是一般所说的“同时在线人数”),那么,系统的并发用户数是多少呢?
根据我们对业务并发用户数的定义,这500就是整个系统使用时最大的业务并发用户数。当然,500这个数值只是表明在最高峰时刻有500个用户登录了系统,并不表示实际服务器承受的压力。因为服务器承受的压力还与具体的用户访问模式相关。例如,在这500个“同时使用系统”的用户中,考察某一个时间点,在这个时间上,假设其中40%的用户在较有兴致地看系统公告(注意:“看”这个动作是不会对服务端产生任何负担的),20%的用户在填写复杂的表格(对用户填写的表格来说,只有在“提交”的时刻才会向服务端发送请求,填写过程是不对服务端构成压力的),20%部分用户在发呆(也就是什么也没有做),剩下的20%用户在不停地从一个页面跳转到另一个页面——在这种场景下,可以说,只有20%的用户真正对服务器构成了压力。因此,从上面的例子中可以看出,服务器实际承受的压力不只取决于业务并发用户数,还取决于用户的业务场景。
在实际的性能测试工作中,测试人员一般比较关心的是业务并发用户数,也就是从业务角度关注究竟应该设置多少个并发数比较合理,因此,在后面的讨论中,也是主要针对业务并发用户数进行讨论,而且,为了方便,直接将业务并发用户数称为并发用户数。
公式(1)中,C是平均的并发用户数;n是login session的数量;L是login session的平均长度;T指考察的时间段长度。
公式(2)则给出了并发用户数峰值的计算方式中,其中,C’指并发用户数的峰值,C就是公式(1)中得到的平均的并发用户数。该公式的得出是假设用户的login session产生符合泊松分布而估算得到的。
实例:
假设有一个OA系统,该系统有3000个用户,平均每天大约有400个用户要访问该系统,对一个典型用户来说,一天之内用户从登录到退出该系统的平均时间为4小时,在一天的时间内,用户只在8小时内使用该系统。
则根据公式(1)和公式(2),可以得到:
1M带宽可以支持的同时在线人数大概为17个。N M带宽可以支持的同时在线人数大概为N17个。人数越多,需要宽带越大。
影响在线人数的因素
一、访问量
二、网站类型:如果是出文字的网站(如小说站),1M带宽带动日均5000IP。如果是普通网站有,有文字、论坛、新闻资讯类型网站 大概1M能带一千IP。考虑到高峰期并发,1M高峰期还会卡。(最低配 单核CPU+512内存。1千IP CPU占用10%左右,内存200到300之间)。
下面根据影响因素计算下1M带宽能同时承受多少人在线(以网络状况良好为前提)
1、 打开网站8秒原则;
2、 评判的只是:用户从云服务器下载文件的速度;
3、 页面的标准尺寸大小为:60KB;
参考公式:支持连接个人 = 服务器带宽/页面尺寸大小
通过计算大致结果是,1Mbps的带宽(服务器的1M带宽最快上下速度能达到1M/s,跟我们家用的带宽稍有区别)支持的连接数为:17个
因此,N M带宽可以支持的同时在线人数大概为N17个。
扩展资料:
带宽 /8 =流量(常说的网速),1 Mps / 8 = 1024 Kps / 8 = 128 k/s。
1M带宽是指上行最高512K下行最高1024K,连接速度只是指你连接到某某服务器的实时速度,下载与选择的下载服务器有关,如果连接速度快下载速度当然最好了。所以测试的网速只是连接到测试服务器的网速与下载无关。
上行带宽就是本地上传的带宽,一般server的上传带宽需求比较大。
下行带宽就是客户从server上下载文件的带宽就称为下行带宽。网速和带宽是两者密不可分。宽带理论最大速度512k=512kbps=512k bits/s=64k bytes/s,1M=1024kbps=1024k bits/s=128k bytes/s等。
要说可以支持多少用户,是无法得到一个准确答案的。用户支持的数量由许多因素组成,例如使用的语言、架构、处理的业务类型 数据大小等。这是一个需要连续调整优化过程的。
第一需要确定业务类型
1、不同的服务有不同的特性,有些CPU占用比较高,有些内存比较高,还比如数据处理,有些需要大量带宽,例如网络爬虫,有些磁盘很高,例如和数据库类。
2、同一配置的机器运行不同的业务,效果会有所不同,而且未使用的资源将大大浪费。
3、根据自己的业务类型调整机器的资源比率是节省资金和改善支持的好方法。
第二确定数据大小
1、网络传输的数据大小决定了带宽占用。尺寸越小,带宽越大,每单位时间可以访问和处理的用户请求越多。
2、然后,减少无效数据传输并减小请求分组的大小是必须考虑的地方以改善用户访问能力。
第三连续测算和调整
1、支持的TPS数量,是不断监控并不断调整的。很多时候,小参数调整可以带来多重性能提升。几十秒的业务请求,可能会在几十毫秒内完成调整。
2、真正的在线服务,持续监控和持续调整是一个长期的过程的。
第四使用恰当的语言架构
1、设计良好的系统,与随便设计的系统,终端能力是全然有所不同的。
2、克服资源浪费问题,可使用Docker之类的容器化,微服务化,能精确的提高资源使用率,减少服务器压力。
3、使用Nginx或是Tengine、打开NIO、打开压缩、及设立静态与局部缓存等,减少服务器负载。
4、使用MongoDB、NoSQL数据库,减少数据查询压力提升响应速度。
总之,减少前端无效请求,后端请求在靠近用户侧解决掉,避免业务过长,堆积在后端底层。
扩展资料:
1、服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。
2、服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
3、在网络环境下,根据服务器提供的服务类型不同,分为文件服务器、数据库服务器、应用程序服务器、WEB服务器等。
参考资料来源:百度百科–服务器
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)