AMD EPYC Rome CPU

核心:128核

内存:512GB

AMD EPYC Rome CPU

核心:64核

内存:256GB

Intel Ice Lake

核心:56核

内存:768GB

Intel Cascade Lake

核心:56核

内存:384GB

Intel Cascade Lake

核心:48核

内存:192GB

Hygon Dhyana X86 CPU

核心:64核

内存:256GB

Hygon Dhyana X86 CPU

核心:32核

内存:128GB

Intel Xeon Gold CPU

核心:24核

内存:64GB

Intel Xeon E CPU

核心:8核

内存:30GB

Intel Xeon E CPU

核心:8核

内存:14GB

NVIDIA Tesla A100

配置:8*A100 80G Nvlink / Intel Ice Lake 56c CPU

内存:768GB

NVIDIA Tesla A100

配置:8*A100 40G Nvlink / Intel Ice Lake 56c CPU

内存:512GB

NVIDIA Tesla V100

配置:8*V100 32G Nvlink / Intel Ice Lake 32c CPU

内存:512GB

NVIDIA Tesla V100

配置:2*V100 16G / Hygon Dhyana 64c CPU

内存:192GB

NVIDIA Tesla T4

配置:8*T4 16G / Intel Cascade Lake 32c CPU

内存:512GB

NVIDIA Tesla T4

配置:4*T4 16G / Intel Xeon Gold 24c CPU

内存:256GB

NVIDIA GeForce RTX3090

配置:8*3090 24G / Intel Ice Lake 56c CPU

内存:512GB

NVIDIA GeForce RTX3080

配置:4*3080 24G /Hygon Dhyana 64c CPU

内存:256GB

Tesla A10

配置:8*A10 24G / Intel Ice Lake 32c CPU

内存:256GB

国产DCU

配置:4*DCU2 / Hygon Dhyana 32c CPU

内存:128GB

服务器托管

有效降低维护费用和机房设备投入、线路租用等高额费用

整机柜租赁

具备完善的机房设施,高品质的网络环境和丰富的带宽资源

应用优化

一套“工具+服务”组合,帮助客户在任何基础架构上构建,部署和运行应用程序,一次构建即可在任何地方运行。

智能调度

强大的算法能力为核心,通过灵活配置约束条件,大规模计算的算法优势,来为不同物流模式下的各种场景提供高效的调度解决方案。

集群服务

集群服务打破了多集群服务访问的边界,更加方便的构建多集群应用系统。

云端分布式存储

支持十亿个文件和数千客户端,均具有高性能和高可用性。基于工作负载的智能数据缓存和分层,以优化性能和成本 全局统一命名空间。

智能决策辅助

智能分析平台,辅助IT管理员进行业务决策 。

自由访问

提供多种访问方式,方便用户以熟悉的方式运行任务。