预计应用程序将持续繁忙,并且将尽快丢弃数据.连接将在大多数时间保持不变,因此与http不同,它们不会经常被拆除.
我一直在寻找各种选项,如epoll,sendfile API等高性能和aio(看起来太不成熟和风险恕我直言).
我也一直在寻找使用下面的epoll的提升asio API.我之前使用过它,但不是像这样的高性能应用程序.
我有超过4个处理器核心可用,所以我可以利用它.
但是,我读到由于反应器设计中的一些锁定,使用多线程的boost asio不是很好.这对我来说可能是一个问题吗?
如果我有很多可用的cpu核心,我应该创建尽可能多的线程或分叉进程并将它们设置为在每个处理器核心上运行吗?
怎么样锁定等我想要一些设计建议.我怀疑我的主要瓶颈是磁盘I / O但是仍然……我想要一个好的设计,以后再进行大量的返工.
有什么建议?
解决方法I’m develoPing an application under linux that will need to support around 250 connections and be transmitting large files over TCP sockets in the 100MB+ size range. The aim is to tune for throughput rather than latency. I want to keep saturated 2x1Gbit ethernet connectons at all times. These will be channel bonded.
磁盘IO通常比网络慢. 250个客户端对现代cpu来说毫无用处.
大文件的大小并不重要.真正的问题是数据的总量是否适合RAM – 并且可以扩展RAM以使数据适合它.如果数据适合RAM,那么不要过分优化:带有sendfile()的哑单线程服务器就可以了.
应考虑使用SSD进行存储,尤其是在优先读取数据时.
It’s expected that the application will be busy continuously and will just be throwing out data as quick as possible. The connections will remain up most of the time so unlike http they won’t be torn down so often.
“尽可能快”是一场灾难.我负责至少一个这样的多线程灾难,由于它导致的磁盘数量,它无法扩展.
通常,您可能希望每个存储器具有很少(例如4个)磁盘读取线程,这将为非常大的块调用read()或sendfile(),以便OS有机会优化IO.由于人们希望乐观地认为某些数据可以并行地从OS的IO缓存中提供,因此很少需要线程.
别忘了还设置大套接字发送缓冲区.在您的情况下,轮询插槽的可写性也是有意义的:如果客户端无法以您可以读取/发送的速度接收,则读取没有意义.服务器上的网络通道可能很胖,但客户端NIC /磁盘不是这样.
I’ve been looking at the varIoUs options such as epoll,sendfile API etc for high performance and aio (which looks too immature and risky IMHO).
几乎所有FTP服务器现在都使用sendfile(). Oracle使用AIO和Linux是他们的主要平台.
I’ve also been looking at the boost asio API which uses epoll underneath. I’ve used it before but not for a high performance application like this.
IIRC仅适用于插座. IMO任何便于处理插座的实用程序都很好.
I have more than 4 processor cores available so I can make use of that.
NIC加速TCP,磁盘IO主要由控制器本身完成.理想情况下,您的应用程序将处于空闲状态,等待磁盘IO.
However,I read that boost asio is not very good with multiple threads because of some locking in the reactor design. Is this likely to be an issue for me?
检查libevent作为替代方案.您可能只需要sendfile()的线程数量有限.并且数量应该是有限的,否则你会用磁盘搜索来消除吞吐量.
If I have lots of cpu cores available should I just create as many threads or forked processes and set them to run on each processor core?
不是.磁盘受搜寻影响最大. (我是否重复了足够的时间?)如果您有许多自主读取线程,您将失去控制发送到磁盘的IO的可能性.
考虑最糟糕的情况.所有read()必须转到磁盘==更多线程,更多磁盘搜索.
考虑最好的情况.所有read()都是从cache == no IO提供的.然后你正在以RAM的速度工作,可能根本不需要线程(RAM比网络快).
What about locking etc. I’d like some design suggestions. I SUSPECT my main bottleneck is going to be disk I/O but nonetheless…
这是一个非常长的答案的问题,这不适合这里(我也没有时间写).它还主要取决于您要提供的数据量,使用的存储类型以及访问存储的方式.
如果我们将SSD作为存储,那么任何愚蠢的设计(如为每个客户端启动一个线程)都可以正常工作.如果后端有真正的旋转介质,那么您必须对来自客户端的IO请求进行切片和排队,试图避免一侧的客户端和另一端的客户端不能以一定的方式调度IO,从而导致最少量的搜索.
我个人本想开始使用简单的单线程设计,在主循环中使用poll()(或boost.asio或libevent).如果数据被缓存,则无法启动新线程.如果必须从磁盘中提取数据,单线程将确保我避免搜索.使用读取数据填充套接字缓冲区并更改等待PolLOUT模式以了解客户端何时使用了数据并准备好接收下一个块.这意味着我在主循环中至少有三种类型的套接字:监听套接字,客户端套接字我正在等待请求,客户端套接字我正在等待再次变为可写.
I want a good design up front withough much rework later.
啊…甜蜜的梦……
总结以上是内存溢出为你收集整理的linux – 高性能文件服务的设计选择全部内容,希望文章能够帮你解决linux – 高性能文件服务的设计选择所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)