<div dir="ltr"><div>A comment from Brock Palane please?</div><div dir="ltr"><a href="https://www.nextplatform.com/2018/10/18/great-lakes-super-to-remove-islands-of-compute/">https://www.nextplatform.com/2018/10/18/great-lakes-super-to-remove-islands-of-compute/</a></div><div dir="ltr"><br></div><div>I did a bid for a new HPC cluster at UCL in the UK, using FDR adapters and 100Gbps switches, making the same arguments abotu cutting down on switch counts but still having a non-blocking network (at the time Mellanox were promoting FDR by selling it at 40Gbps prices).</div><div><br></div><div>But in this article if you have 1x switch in a rack and use all 80 ports (with splitters) - there are not many ports left for uplinks!</div><div>I imagine this is 2x 200Gbps switches, with 20 ports of each switch equipped with port splitters and the other 20 ports as uplinks.<br></div><div><br></div><div><br></div><div><br></div></div>