不是。我们现在用 Infiniband FDR10 QSFP,40G 的,还有一个 FDR 是 56G,规划中的下一个集群应该是用EDR了,100G,如果用12x链路的话是300G。下一代HDR是单链路50G,4x 的话是 200G,12x 就 600G 了,M社规划是17年年底发布。

所以你们要么换 IB 要么做 Link Aggregation 吧。Ethernet 虽然有 400G 标准了不过凭委员会那尿性等我们 IB 用到 NDR 了 400G ethernet 的都未必量产。

好多地方都是瓶颈,唯独网络环境不怎么是瓶颈

  1. 网卡通讯会产生软中断,到了100G级别,软中断很容易把 CPU 性能打高,算上实际服务的压力,直接 CPU 100%。需要良好的调优技巧才能把网卡跑满。
  2. 另外常规服务器主板的PCIE带宽只有128G,你光网卡就要占用100G,其他设备怎么办?这也是一个挑战。
  3. 最后,100G这个量,数据你要怎么存储?
    1. 你内存的交换能力够不够?怎么使用?
    2. 你的SSD要怎么利用,数据才不至于压垮机械硬盘?甚至SSD本身都可能被网络过来的流量压垮。
  4. 你的软件是单实例的还是多实例的?能不能发挥CPU多个核心的能力来处理这些网络数据?

总之,在100G网络环境下,网卡瓶颈是很后面的事情,不需要太早关心。大多数时候是网卡还没跑满,你的其他各种软件硬件先扛不住了。能把这些瓶颈都摆平消除的人,技术都不错的,找份薪水满意的工作轻轻松松。