HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\tcpip\Parameters\TcpTimedWaitDelay to 30
and HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\tcpip\Parameters\MaxUserPort to 65534
and rebooting the machine
See the readmedoc file for more information
通过百度搜索介绍最多的还是让修改TimedWaitDelay 和MaxUserPort这2个值,其中是将TimedWaitDelay修改的相对小点,可以根据实际情况来定,
同时将MaxUserPort这个值修改大些,但是修改完并重启机器后,该问题仍然存在,通过多方查资料,然后对一些注册表进行修改:
[HKEY_LOCAL_MACHINE \System \CurrentControlSet \Services \Tcpip \Parameters]
TcpNumConnections = 0x00fffffe (Default = 16,777,214)
以上注册表信息配置单机的最大允许的TCP连接数,默认为 16M。这个数值看似很大,这个并不是限制最大连接数的唯一条件,还有其他条件会限制到TCP 连接的最大连接数。
最大动态端口数
TCP客户端和服务器连接时,客户端必须分配一个动态端口,默认情况下这个动态端口的分配范围为 1024-5000 ,也就是说默认情况下,客户端最多可以同时发起3977 个Socket 连接。我们可以修改如下注册表来调整这个动态端口的范围
[HKEY_LOCAL_MACHINE \System \CurrentControlSet \Services \Tcpip \Parameters]
MaxUserPort = 5000 (Default = 5000, Max = 65534)
最大TCB 数量
系统为每个TCP 连接分配一个TCP 控制块(TCP control block or TCB),这个控制块用于缓存TCP连接的一些参数,每个TCB需要分配 05 KB的pagepool 和 05KB 的Non-pagepool,也就说,每个TCP连接会占用 1KB 的系统内存。
系统的最大TCB数量由如下注册表设置决定
[HKEY_LOCAL_MACHINE \System \CurrentControlSet \Services \Tcpip \Parameters]
MaxFreeTcbs = 2000 (Default = RAM dependent, but usual Pro = 1000, Srv=2000)
非Server版本,MaxFreeTcbs 的默认值为1000 (64M 以上物理内存)
Server 版本,这个的默认值为 2000。
也就是说,默认情况下,Server 版本最多同时可以建立并保持2000个TCP 连接。
最大TCB Hash table 数量
TCB 是通过Hash table 来管理的,下面注册表设置决定了这个Hash table 的大小
HKEY_LOCAL_MACHINE \System \CurrentControlSet \services \Tcpip \Parameters]
MaxHashTableSize = 512 (Default = 512, Range = 64-65536)
这个值指明分配 pagepool 内存的数量,也就是说,如果MaxFreeTcbs = 1000 , 则 pagepool 的内存数量为 500KB
那么 MaxHashTableSize 应大于 500 才行。这个数量越大,则Hash table 的冗余度就越高,每次分配和查找 TCP 连接用时就越少。这个值必须是2的幂,且最大为65536
MaxUserPort = 65534 (Decimal)
MaxHashTableSize = 65536 (Decimal)
MaxFreeTcbs = 16000 (Decimal)
这里我们可以看到 MaxHashTableSize 被配置为比MaxFreeTcbs 大4倍,这样可以大大增加TCP建立的速度。用Jmeter做了一次简单的压测,通过JDK自带的Jconsole工具和对应的进程建立连接,可以通过很形象的观察到Tomcat内存大小、活动线程的个数、加载类的个数、CPU的占有率的变化然后就想看一下tomcat内部是如何管理这些请求的
请求在Acceptor登录,Acceptor是一个Runnable,里面有个while循环,在不停的接收请求分两步:
很多困难和阻碍是自己想象出来的尊敬的迅雷用户,您好:
下载的速度受到本地网络跟网络资源的一个受限的,您下载的时候,如果资源少的话,在大的带宽,速度还是很慢的。
另外几种就是电脑某些软件使用了大部分流量,导致迅雷下载没速度的原因。
特别是杀毒软件,防火墙这些,您可以关闭试试看看速度有没提升。
在配置中心里面顺便设置一下最大上传速度,调成10KB/S就可以了。
有时候您下载的文件是需要通过账号登录,才可以获取下载链接的,比如说网盘,邮件附件这些,都属于加密文件,迅雷有时候是下载不了的,这些只能用浏览器自带的下载工具下载,您可以找到您下载文件的链接,然后右键,目标另存为看看是否能达到正常速度。
另外一种是搜索到资源不饱和的状态下,您可以暂停文件,然后再重新开启下载看看是否能提速。
BT文件时长出现这种情况,每一个子文件的资源都是不一样的,下载资源少的文件,就会慢,然后下载完资源少的,速度又会回到可观的一个速度的。
更多疑问,欢迎您向迅雷网络平台提问。我有一个脚本,它使用 PHP 中的 curl_multi_ 函数运行 1000 个 cURL 请求。
超时背后的瓶颈是什么?
会不会是 CPU 使用率?就服务器处理出站连接数的方式而言,是否有更有效的方法来做到这一点?
我无法更改功能,请求本身只是对远程 API 的简单调用。我只是想知道限制是什么——我是否需要增加服务器上的内存、Apache 连接或 CPU? (或者我错过的其他东西)
最佳答案
您的请求是在单个执行线程中发出的。瓶颈几乎肯定是 CPU,你真的看过 curl 多代码运行吗? CPU 非常饥饿;因为您实际上没有足够的控制权来处理请求。 curl_multi 使您可以一次编排 1000 个请求,但这并不是一个好主意。您几乎没有机会有效地使用 curl_multi,因为您无法足够精细地控制执行流程,只是为套接字提供服务并在其上选择()将导致大量高 CPU 使用率,您会看到代码在其上运行命令行。
在此类任务中 CPU 使用率高的原因是这样的; PHP 旨在运行几分之一秒,尽可能快地完成所有 *** 作。 CPU 的使用方式通常无关紧要,因为它只占用很短的时间。当您像这样延长任务时,问题变得更加明显,程序员可以看到每个 *** 作码产生的开销。
我知道您说过您不能更改实现,但仍然需要一个完整的答案。这样的任务比 curl multi 更适合 Threading,你应该开始阅读 >
在用jmeter做压测时,会遇到线程数超过5000时报错,这个错并不是程序的错,而是请求被我们本地的服务器给拒绝了。这时候就需要我们修改本地服务器的注册表了。
注:我这里新建的是“二进制值(B)”类型的,上面的值是10进制数据,应该转换为二进制数据再输入
(这里只能输入偶数位数,由于65536转换为二进制后是奇数位数,所以这里65536的值用65535的值替换的)
参考文章: >
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)