软银集团宣布计划在美国建设全球规模最大的AI数据中心,总投资额约660亿美元,选址聚焦电力资源丰富且网络延迟低的区域。该中心将部署自研及合作方的高性能AI芯片集群,面向大模型训练与超大并发推理需求,具备液冷散热与模块化扩容能力,以满足未来数年指数级增长的算力消耗。
巨额投入凸显软银对AI算力基建的战略押注,意在抢占北美AI云服务与模型托管高地,同时通过规模效应降低单位算力成本。行业来看,该动作将加剧全球AI基础设施竞争,推动上下游产业链在芯片供应、冷却方案与能源管理上加速创新,以应对高功率密度数据中心的运营挑战。
该数据中心计划预示AI算力正由分散建设向超大规模集中化演进,未来或与可再生能源深度结合,形成绿色低碳算力枢纽,为全球模型训练与实时推理提供稳定且可持续的底层支撑。










