最近的项目用go实现的服务器需要挂载大量的socket连接。如何判断连接是否还存活就是我们需要考虑的一个问题了。
通常情况下面,socket如果被客户端正常close,服务器是能检测到的,但是如果客户端突然拔掉网线,或者是断电,那么socket的状态在服务器看来可能仍然是established。而实际上该socket已经不可用了。
为了判断连接是否可用,通常我们会用timer机制来定时检测,在go里面,这非常容易实现,如下:
ticker := time.NewTicker(60 * time.Second)for { select { case <-ticker.C: if err := Ping(); err != nil { close() } }}
上面我们使用一个60s的ticker,定时去Ping,如果Ping失败了,证明连接已经断开了,这时候就需要close了。
这套机制比较简单,也运行的很好,直到我们的服务器连上了10w+的连接。因为每一个连接都有一个ticker,所以同时会有大量的ticker运行,cpu一直在30%左右徘徊,性能不能让人接受。
其实,我们只需要的是一套高效的超时通知机制。
Close channel to broadcast在go里面,channel是一个很不错的东西,我们可以通过close channel来进行broadcast。如下:
ch := make(bool)for i := 0; i < 10; i++ { go func() { println("begin") <-ch println("end") }}time.Sleep(10 * time.Second)close(ch)
上面,我们启动了10个goroutine,它们都会因为等待ch的数据而block,10s之后close这个channel,那么所有等待该channel的goroutine就会继续往下执行。
TimingWheel通过channel这种close broadcast机制,我们可以非常方便的实现一个timer,timer有一个channel ch,所有需要在某一个时间 “T” 收到通知的goroutine都可以尝试读该ch,当T到达时候,close该ch,那么所有的goroutine都能收到该事件了。
timingwheel的使用很简单,首先我们创建一个wheel
//这里我们创建了一个timingwheel,精度是1s,最大的超时等待时间为3600sw := timingwheel.NewTimingWheel(1 * time.Second,3600)//等待10s<-w.After(10 * time.Second)
因为timingwheel只有一个1s的ticker,并且只创建了3600个channel,系统开销很小。当我们程序换上timingwheel之后,10w+连接cpu开销在10%以下,达到了优化效果。
timingwheel的代码在这里。
总结以上是内存溢出为你收集整理的golang:使用timingwheel进行大量ticker的优化全部内容,希望文章能够帮你解决golang:使用timingwheel进行大量ticker的优化所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)