PolifonIA | Inteligencia Artificial para Humanidades y Ciencias Sociales en América Latina | Proyecto CIESAS | México
Conócenos
PolifonIA | Inteligencia Artificial para Humanidades y Ciencias Sociales en América Latina | Proyecto CIESAS | México

¿Cuánto cuesta crear una Supercomputadora Top10?

Supercomp

¿Cuánto cuesta crear una Supercomputadora Top10?

polifonia.org | (Carlos Macías). Crear y operar una Supercomputadora que pueda figurar en el Top10 mundial (como El Capitán, Frontier o Aurora) representa en estos días uno de los retos de ingeniería más complejos.

En el periodo 2026-2027, formar parte de ese selecto grupo requiere superar el umbral de 500 Petaflops de rendimiento real.

El desafío es ubicarse muy cerca -o ligeramente arriba- de la exaescala, que comporta el mayor salto actual en el rendimiento de la Supercomputación.

Pero…, ¿qué son los flops, petaflops y exaflops?

Como se sabe, la medición estándar partió de flops (Operaciones de Punto Flotante por Segundo, en español), es decir, las operaciones potenciales para ser realizadas en el tiempo señalado.

Hace apenas algunos años, la velocidad de procesamiento máxima de una Supercomputadora se tasaba en petaflops, el equivalente a mil billones de flops (1015). Un petaflop = mil billones de flops.

Ahora, con la capacidad que representa la exaescala, se pueden realizar al menos 1018 Operaciones de Punto Flotante por segundo (o Coma Flotante, en España), que equivalen a un exaflop.

¿Dónde quedarían los planes de México?

De acuerdo con la versión dada a conocer a la prensa el pasado 26 de noviembre, la Supercomputadora Coatlicue tendrá capacidad para procesar «314 mil billones de operaciones por segundo».

De funcionar con esa capacidad (314 mil billones de flops = 314 petaflops), Coatlicue ocuparía la posición numero 10 del Top500. (Se enlista el Top10 en la Tabla 1).

La inversión anunciada para Coatlicue asciende a seis mil millones de pesos.

Dicha cantidad, según la cotización del 30 de marzo, equivale a casi 332 millones de dólares.

Si ello ocurriera, ese monto la colocaría también dentro del Top10 en el rubro de inversión. (Ver la Tabla 5).

¿Y qué es el Top500?

Desde 1986 se ha sistematizado la información acerca de los equipos de cálculo de alto desempeño en el mundo. El precursor fue el profesor Hans Meuer (Universidad de Mannheim, Alemania).

El equipo de trabajo del Top500 pudo consolidar una metodología que propuso uno de sus integrantes: Jack Dongarra (University of Manchester).

Se trata de LINPACK Benchmark, basado en un sistema denso de ecuaciones lineales. Tiene la virtud de ayudar a los usuarios (entidades poseedoras de Supercomputación) a escalar el tamaño del problema y optimizar el software, para lograr el mejor rendimiento de los equipos.

La medición por LINPACK Benchmark, hoy, es la más utilizada para recolectar los datos de rendimiento de casi todos los sistemas.

Con base en esa medición, la lista Top500 de Supercomputación se publica desde 1993. A partir de entonces, el equipo de Meuer se consolidó para crear dicho ranking.

Los especialistas que colaboran son:

  • Erich Strohmaier, del NERSC/Lawrence Berkeley National Laboratory;
  • Jack Dongarra, de la Universidad de Tennessee, Knoxville;
  • Horst Simon, del NERSC/Lawrence Berkeley National Laboratory; y
  • Martin Meuer, de Prometeus.

La lista Top500 se publica en junio y en noviembre de cada año.

Aunque el fundador Meuer falleció en 2014, el resto de la membresía se conserva como en 1993.

Equipos líderes Top10

La clasificación está basada en el rendimiento que alcanzan las Supercomputadoras, en sus sistemas de procesamiento y en la potencia de su cálculo.

De esta clasificación derivan los primeros 10 lugares.

Tabla 1: TOP500.org · 66.ª edición · Noviembre 2025

Las 10 Supercomputadoras más potentes del mundo

Clasificación basada en el benchmark HPL (Linpack) · Rendimiento en Petaflop/s (PFlop/s)

Sistema Exascale (≥ 1,000 PFlop/s)
#SistemaInstalación / PaísProcesadoresRmax (PFlop/s)
1
El Capitan Exascale
Lawrence Livermore National Laboratory · 🇺🇸 EE.UU.
HPE Cray EX255a · AMD EPYC 4.ª gen. + AMD Instinct MI300A
🇺🇸 LLNL, California, EE.UU.AMD EPYC 24C 1.8GHz + AMD MI300A1,809.0 PFlop/s
2
Frontier Exascale
Oak Ridge National Laboratory · 🇺🇸 EE.UU.
HPE Cray EX235a · AMD EPYC 64C + AMD Instinct MI250X
🇺🇸 ORNL, Tennessee, EE.UU.AMD EPYC 64C 2.0GHz + AMD MI250X1,206.0 PFlop/s
3
Aurora Exascale
Argonne Leadership Computing Facility · 🇺🇸 EE.UU.
HPE Cray EX – Intel Exascale Blade · Intel Xeon Max + Intel GPU Max
🇺🇸 ALCF, Illinois, EE.UU.Intel Xeon CPU Max + Intel Data Center GPU Max1,012.0 PFlop/s
4
JUPITER Booster Exascale
Jülich Supercomputing Centre / EuroHPC · 🇩🇪 Alemania
ParTec / Eviden · NVIDIA Grace Hopper GH200 Superchip
🇩🇪 JSC, Forschungszentrum JülichNVIDIA Grace Hopper GH2001,000.0 PFlop/s
5
Eagle
Microsoft Azure · 🇺🇸 EE.UU.
Microsoft Azure · Intel Xeon + NVIDIA H100
🇺🇸 Microsoft Azure, EE.UU.Intel Xeon + NVIDIA H100 80GB561.2 PFlop/s
6
HPC6
Eni S.p.A. · 🇮🇹 Italia
HPE Cray EX235a · AMD EPYC 64C + AMD Instinct MI250X
🇮🇹 Eni, Ferrera Erbognone, ItaliaAMD EPYC 64C + AMD MI250X477.0 PFlop/s
7
Fugaku
RIKEN Center for Computational Science · 🇯🇵 Japón
Fujitsu · A64FX 48C 2.2GHz (ARM)
🇯🇵 RIKEN-CCS, Kobe, JapónFujitsu A64FX 48C 2.2GHz442.0 PFlop/s
8
Alps
Swiss National Supercomputing Centre (CSCS) · 🇨🇭 Suiza
HPE Cray EX254n · NVIDIA Grace 72C + GH200 Superchip
🇨🇭 CSCS, Lugano, SuizaNVIDIA Grace 72C + GH200434.9 PFlop/s
9
LUMI
CSC / EuroHPC · 🇫🇮 Finlandia
HPE Cray EX235a · AMD EPYC 64C + AMD Instinct MI250X
🇫🇮 CSC, Kajaani, FinlandiaAMD EPYC 64C + AMD MI250X380.0 PFlop/s
10
Leonardo
CINECA / EuroHPC · 🇮🇹 Italia
Atos BullSequana XH2000 · Intel Xeon Platinum 8358 + NVIDIA A100
🇮🇹 CINECA, Bolonia, ItaliaIntel Xeon Platinum 8358 + NVIDIA A100 SXM4241.2 PFlop/s
Fuente: TOP500.org – Noviembre 2025 · 66.ª edición Rmax = rendimiento máximo medido (HPL benchmark) · 1 Exaflop/s = 1,000 PFlop/s | Diseño de tabla: Claude Sonnet 4.6.
La Supercomputadora como instrumento de política pública

En el presente artículo vamos a exponer las sucesivas etapas necesarias para cumplir a satisfacción con los requerimientos para crear y operar una Supercomputadora Top10.

Abordaremos todos los rubros a presupuestar: infraestructura, sistemas, procesadores, socios tecnológicos, integradores de infraestructura, requerimientos técnicos, energéticos y ambientales, perfiles de especialización operativa y costos.

También vamos a estimar la indisoluble relación entre los costos de creación y los costos asociados con la operación y mantenimiento, con base en las experiencias internacionales previas.

Imagen: Instalación de la Supercomputadora Frontier. (Cortesía de Oak Ridge National Laboratory).
Las etapas del proyecto

El ciclo de vida que se considera, desde la concepción hasta la operación, debe cubrir entre 3 y 5 años.

El lector encontrará con detalle más adelante la sección que compara distintas alternativas tecnológicas.

Es decir, lo que ofrece el mercado en cuanto a socios tecnológicos, modelos de procesadores e integradores de infraestructura tecnológica.

Por lo pronto, estas son las etapas que deben programarse para crear una Supercomputadora.

  • Planificación y Diseño (12-18 meses). Se define la arquitectura (especificaciones de CPU y GPU). Se seleccionan los socios tecnológicos (HPE, NVIDIA, AMD, Intel) y se diseña la infraestructura eléctrica y de enfriamiento.
  • Construcción de Infraestructura (18-24 meses). Se edifica el centro de datos especializado. Con pisos reforzados y subestaciones eléctricas.
  • Instalación y Ensamblaje (6-12 meses). Se instalan los racks y el cableado de interconexión. Se despliega el software base.
  • Pruebas y Optimización (6 meses): Se pone en marcha el benchmark LinPack: es una condición para obtener certificación Top500. Consiste en medir la capacidad de cálculo de punto flotante, en la resolución de operaciones densas de ecuaciones lineales. El objetivo siempre será alinear rendimiento con eficiencia energética.
Infraestructura y ambiente controlado

Se entiende que una supercomputadora de esta dimensión no debe instalarse en espacios acondicionados, es decir, en lugares no creados ex profeso.

Requiere un edificio propio, diseñado para albergarla, según sus necesidades.

  • Superficie interior. Se requieren entre 500 y mil metros cuadrados de sala blanca (es decir, ambiente controlado).
  • Carga de Suelo. El piso debe contar con especificaciones que aseguren la base de los racks (gabinetes de soporte). Debe permanecer estable, de preferencia en espacios no sísmicos. Habilitado para albergar un peso fijo mayor a 3,500 kg, según la medida de cada rack.
  • Enfriamiento Líquido (DLC). Este recurso es indispensable. Al margen del aire acondicionado tradicional, se requiere enlace de enfriamiento líquido directo a cada chip. El agua debe fluir sobre placas que fijan los procesadores.
    • Condición. Debe asegurarse la disipación de entre 20 MW y 40 MW de calor.
    • Equipo de alimentación. Lazos externos de enfriamiento masivos y bombas de circulación redundantes.
  • Ambiente interior. Control de humedad (40-50%). Filtro de aire con grado industrial, que garantice ausencia de cualquier partícula implicada en la conducción.

[Véase, para mayor información: Oak Ridge & Lawrence Livermore National Labs (LLNL), El Capitán y Frontier. Además: Documentación sobre las misiones de Frontier.]

Componentes de las Supercomputadoras

Para alcanzar el Top 10, los caminos que han seguido las distintas arquitecturas están basados en combinaciones hererogéneas de equipos y sistemas.

La clave reside en la combinación optimizada para los semiconductores (GPUs).

Tabla 2. Especificaciones técnicas de los equipos líderes del Top10

ComponenteEspecificación estimada para figurar en el Top 10
Arquitectura de RackGabinetes para computación de alto rendimiento. Destacan HPE, Cray EX o Eviden BullSequana).
Nodos de CómputoSuelen elegirse entre 5,000 y 10,000 nodos. Cada nodo tiene entre uno y dos CPUs y entre cuatro y ocho GPUs.
Procesadores (CPUs)AMD EPYC de 4ta/5ta Gen o Intel Xeon Platinum (64+ núcleos por chip).
Aceleradores (GPUs)Con procesadores NVIDIA H100/B200 o AMD Instinct MI300A/MI350.
Memoria RAMHabilitada para contar con entre dos y cinco Petabytes de memoria total del sistema. Es decir, HBM3 (Memoria de Ancho de Banda 3) en cada GPU.
AlmacenamientoHabilitada con sistemas de archivos paralelos Lustre/Spectrum Scale (antes conocidos como GPFS), que son usuales para computación de alto rendimiento (HPC) e Inteligencia Artificial. Que tengan capacidad de 100+ PB.
InterconexiónEmpleo de redes que registren bajísima latencia (NVIDIA InfiniBand NDR o HPE Slingshot), a 400-800 Gbps.

[Véase: Chapman, Henry, “Top10 Energy-Efficient SuperComputers”, en Data Center knowledge, 23 de agosto, 2023].

Recursos financieros (costos en USD)

El costo total de propiedad estimado para operar un sistema Top 10 es muy elevado. Por ello, podría ser apropiado dividirlo entre capital inicial y capital de operación.

Para una mejor comprensión, dividiremos ambos estimados. En Costo de Adquisición (CapEx) y Costo Operativo Anual (OpEx).

  • Costo de Adquisición (CapEx). Entre $300 millones y $600 millones de dólares.
    • Hardware. Se lleva el 70% del costo (donde las GPUs o procesadores registran el mayor costo).
    • Infraestructura. Representa el 20% (edificio, potencia, enfriamiento).
    • Software y Soporte: Importa el 10% restante.
  • Costo Operativo Anual (OpEx). Entre $31 y $36 millones de dólares al año.
    • Electricidad. Una planta de 30 MW operando 24/7 a un costo de $0.10/kWh cuesta cerca de $26 millones de dólares al año, solo en energía.
    • Mantenimiento. Los contratos de soporte ascienden entre $5 y $10 millones anuales.
Personal de operación y sistemas

El sistema de las Supercomputadoras Top10 requiere un equipo de trabajo multidisciplinario.

Perfil profesional del personal:

  1. Administradores de Sistemas (15-20). Expertos en Linux, gestión de clusters y sistemas de archivos paralelos.
  2. Ingenieros de Hardware y Redes (10-15). Mantenimiento físico, reemplazo de componentes fallidos (al haber miles de nodos se presentan fallos diarios) y gestión de la red de alta velocidad.
  3. Especialistas en Soporte Científico (10-15). Ayudan a los usuarios a optimizar el código para aprovechar las GPUs (Aunque Claude ayuda mucho, son necesarios).
  4. Ingenieros de Instalaciones (5-10). Responsables de la subestación eléctrica y el complejo sistema de enfriamiento líquido.

En sistemas:

  • Sistema operativo. No está de más señalar que en la computación de alto rendimiento, no se usa el estándar de Windows. Se emplean versiones de Linux personalizadas, como RHEL (que es la estadounidense Red Hat), SUSE (de origen aleman) y Cray OS (de la estadounidense Hewlett Packard E.).
  • Gestor de trabajos. Slurm (dominante en el Top 500) para programar tareas.
  • Pila o capas jerárquicas de software para IA/HPC. Bibliotecas MPI, CUDA (NVIDIA) o ROCm (AMD), con sus frameworks de contenedores.

En suma, el nuevo estándar en las Supercomputadoras pasa por la eficiencia energética. Ya no es suficiente ser rápida.

Los sistemas Frontier, por ejemplo, logran más de 50 Gigaflops/vatio. Es imprescindible una estrategia de sostenibilidad.

Con ello se garantiza que el costo operativo no supere al propio costo de compra en menos de 10 años.

¿Qué tan determinante resulta la buena elección del socio operativo?

Lograr colocar a las supercomputadoras en el Top10 mundial en 2026-2027, depende en gran medida de la elección del socio tecnológico.

Ello se revelará decisivo desde la etapa de arranque al apreciar el rendimiento bruto, la viabilidad del software y el costo energético que requerirá en el largo plazo.

Este es el comparativo de los tres mayores proveedores en procesamiento (GPUs y CPUs) y de los integradores de sistemas.

Comparación de costos de hardware (estimados en 2026)

Los precios del mercado de alto rendimiento varían de modo sustancial, de acuerdo con el volumen de compra.

Sin embargo, podemos tomar como base los valores del costo por unidad, para los componentes de grado exaescala.

Tabla 3. Comparativo de costos de hardware

ComponenteProveedorModelo LíderCosto Unitario (USD)Rendimiento / Nota
GPU (IA/HPC)NVIDIABlackwell B200$35,000 – $45,000El estándar de oro; máxima eficiencia en IA.
GPU (IA/HPC)AMDInstinct MI350X$20,000 – $28,000Mayor memoria HBM (tipo de RAM, de ancho de banda); buena relación costo-beneficio.
AceleradorIntelGaudi 3$15,000 – $18,000Opción económica; para inferencia y redes abiertas.
CPU (Host)AMDEPYC «Turin»$7,000 – $12,000Líder en número de núcleos y eficiencia energética.
CPU (Host)IntelXeon 6 (Granite)$8,000 – $13,000Excelente rendimiento por núcleo; ecosistema considerado maduro.
Véanse los artículos de Alex Koller, «Nvidia shares close up after company unveils latest AI chips», en CNBC, 19 de marzo, 2024; de Hassan Mujtaba, «Lanzamiento del AMD Instinct MI350: 3 nm, 185 mil millones de transistores, 288 GB de memoria HBM3E, compatibilidad con FP4 y FP6, MI355X 35 veces más rápido que el MI300 y 2,2 veces más rápido que el Blackwell B200», en WCCFTech, 12 de junio, 2025; y Newsroom Intel, «IBM Cloud is First Service Provider to Deploy Intel Gaudi 3», 1 de mayo, 2025.
Pros y Contras de cada Socio tecnológico

A. NVIDIA (líder actual del ecosistema)

  • Ventajas. Su plataforma CUDA es el estándar de la industria. Si compras NVIDIA, casi cualquier software científico o de IA funcionará de inmediato. Su red InfiniBand es la más rápida para conectar miles de GPUs.
  • Desventajas. Es la opción más costosa. Existe un «bloqueo de proveedor» (vendor lock-in), lo que dificulta migrar a otros chips en el futuro. Los tiempos de espera para entrega pueden ser de meses.

B. AMD (dominante en memoria y Open Source)

  • Ventajas. Ofrece mucha más memoria integrada (VRAM) que NVIDIA a un precio menor, lo que permite procesar modelos científicos más grandes en menos chips. Su ecosistema ROCm es de código abierto, permitiendo mayor personalización.
  • Desventajas. El software a veces requiere optimización manual (portar código de CUDA a ROCm), lo que puede aumentar el tiempo de desarrollo y los costos de personal especializado.

C. Intel (alternativa para escala)

  • Ventajas. Su iniciativa OneAPI busca que un mismo código corra en CPUs y GPUs de cualquier marca. Sus aceleradores Gaudi son significativamente más baratos, lo que permite comprar casi el doble de hardware con el mismo presupuesto.
  • Desventajas. Actualmente tiene menos presencia en el Top 10 comparado con NVIDIA y AMD. Su eficiencia energética en GPUs de gama ultra-alta aún está alcanzando a la competencia.

[Véase: PWC, “Semiconductor and beyond Global semiconductor industry outlook 2026”, Full Report, 2026].

Integradores de infraestructura (HPE vs. Dell vs. Eviden)

Cuando se construyen Supercomputadoras, es imprescindible contratar a un integrador.

El integrador es el encargado de ensamblar todos los componentes, y colocarlos en los racks especializados.

  • HPE (Cray). Es el líder absoluto en el Top 10 (ha construido la número 1: El Capitán; y la número 2: Frontier). Su arquitectura Slingshot es única para manejar el tráfico de datos en sistemas de Exaescala. Se considera la mejor opción en «misión crítica».
  • Dell Technologies. Tiene fortalezas en la personalización para empresas y centros de datos híbridos. La mejor en lo relativo a logística y soporte técnico global.
  • Eviden (Atos). Es líder en Europa, con su arquitectura BullSequana. Se enfoca en la eficiencia energética y el enfriamiento líquido ultra-eficiente. Ambos aspectos son cruciales para reducir el pago de electricidad.
Imagen: Instalación de la Supercomputadora Discovery, la sucesora de Frontier. ( Cortesía de HPE).
Resumen del presupuesto para arrancar una Supercomputadora

Para alcanzar el nivel de Top 10, nuestra elección iría así:

  1. Arquitectura. Nodos con 1 CPU AMD EPYC y 4-8 GPUs NVIDIA B200 o AMD MI350.
  2. Red. Interconexión de 800 Gbps (InfiniBand NDR).
  3. Presupuesto. La inversión ascenderá al menos a $400 millones de dólares, de los cuales el 75% va para pagar las GPUs.
Resumen del presupuesto para mantenimiento anual

Para entrar en el Top 10 del ranking Top500, debe combinarse de forma adecuada la potencia bruta y el equilibrio financiero. Esto último implica aquilibrio entre costo de adquisición (CapEx) y costo de mantenimiento energético (OpEx).

A continuación, presentamos el cuadro vigente de consumo electrico que se registra en el Top10, actualizado a 2026.

Cuadro comparativo de consumo eléctrico anual

Representa el costo de mantener encendida una Supercomputadora de clase mundial las 24 horas del día, los 365 días del año.

Para el cálculo, se utiliza un costo promedio industrial de $0.10 USD por kWh.

Tabla 4. Costo operativo anual de energía

SistemaPotencia (Megavatios – MW)Consumo Anual (GWh)Costo Energía Anual (USD)
Aurora (Intel)38.7 MW339.0 GWh$33.9 Millones
El Capitán (AMD)29.6 MW259.3 GWh$25.9 Millones
Fugaku (Fujitsu)29.9 MW261.9 GWh$26.2 Millones
Frontier (AMD)24.6 MW215.5 GWh$21.5 Millones
Jupiter (NVIDIA)13.1 MW114.7 GWh$11.5 Millones
HPC6 (Eni S.p.A)8.5 MW74.5 GWh$7.4 Millones

[Véase: Chapman, Henry, “Top10 Energy-Efficient SuperComputers”, en Data Center knowledge, 23 de agosto, 2023].

El costo operativo real suele estimarse al aumentar un 30-40% a la suma siguiente. El personal de ingeniería, las licencias de software y el mantenimiento físico de las piezas a reparar. (Discos, ventiladores, bombas de agua).

Inversión estimada: Top10 vs. Proyectos emblemáticos

La creación de una Supercomputadora es, la mayoría de las veces, el resultado de grandes contratos gubernamentales.

Estos son los costos de adquisición estimados de algunos de los sistemas más potentes del mundo.

Tabla 5. Costos estimados de las Supercomputadoras líderes

PosiciónNombre del SistemaPaísCosto Estimado (USD)Fabricante / Socio
1El CapitánEstados Unidos$600 millonesHPE / AMD
2FrontierEstados Unidos$600 millonesHPE / AMD
3AuroraEstados Unidos$500 millones*Intel / HPE
4JupiterAlemania$270 millonesEviden / NVIDIA
7FugakuJapón$1,200 millonesFujitsu / Riken
Top 20LeonardoItalia$240 millonesEviden / NVIDIA
Top 20MareNostrum 5España$165 millonesBull / Lenovo

*Nota sobre Aurora: El costo contractual fue de $200M originalmente. Versiones señalan que retrasos y multas elevaron la inversión del fabricante (Intel) por encima de los $500M.

[Véase el artículo de Nicole Hemsoth Prickett, «Intel To Take On OpenPower For Exascale Dominance With Aurora», en The Next Platform, 18 de marzo de 2019].

¿En qué áreas contribuyen con cada país las Top 10?

Las Supercomputadoras del Top10 representan, en esencia, instrumentos de política pública y soberanía científica.

Aquí ilustramos los campos o áreas de atención en los que enfocan su trabajo.

Tabla 6. Vocación sectorial de Supercomputadoras del Top10 en cada país

Posición / SistemaPaís / SectorÁreas y Tareas ClaveImpacto Sectorial
1. El CapitánEstados Unidos / DefensaSeguridad nuclear (stewardship) sin pruebas físicas, física de alta densidad de energía.Defensa y Seguridad Nacional. Garantiza la viabilidad del arsenal sin explosiones reales.
2. FrontierEstados Unidos / CienciaModelado de virus (COVID-19), fusión nuclear, genómica de microbiomas.Salud y Energía. Acelera el descubrimiento de fármacos y energías limpias.
3. AuroraEstados Unidos / CienciaMapeo cerebral, diseño de aeronaves, modelos climáticos de alta resolución.Innovación Industrial. Revoluciona el transporte y la comprensión de la biología humana.
4. EagleEstados Unidos / Privado (Cloud)Entrenamiento de Modelos de Lenguaje Masivos (LLMs), IA generativa comercial.Sector Terciario/IA. Base para la nueva economía de servicios digitales.
5. HPC6Italia / EnergíaExploración de yacimientos, transición a energías renovables, descarbonización.Energía y Petróleo. Optimización de recursos y reducción de huella de carbono.
6. FugakuJapón / IntegralPredicción de desastres (Tsunamis), simulación de flujos de aire en ciudades, nuevos materiales.Protección Civil. Vital para un país con alta actividad sísmica.
8. JupiterAlemania / EuropaGemelos digitales de la Tierra, investigación cuántica, conducción autónoma.Soberanía Tecnológica. Primer sistema exaescala europeo para reducir dependencia externa.

[Para dilucidar las vocaciones sectoriales que se enlistan, se confirmaron las siguientes fuentes: TOP500.org (áreas de contribución: research, academic, government o industry); Green500 (sobre eficiencia energética); Oak Ridge National Laboratory (ORNL), para Frontier, proyectos: materiales, biología y energía nuclear; Lawrence Livermore National Laboratory (LLNL), para El Capitán. Mantenimiento del arsenal nuclear sin pruebas físicas; Argonne National Laboratory (ANL), para Aurora: Mapeo cerebral y ciencia de datos a gran escala; EuroHPC Joint Undertaking: para sistemas como LUMI (Finlandia), Leonardo (Italia) y MareNostrum 5 (España). Sus comunicados informan la capacidad que se asigna a Pymes, medicina y cambio climático; y el RIKEN Center for Computational Science (R-CCS), para Fugaku (Japón). En el portal incluye aplicaciones prácticas en mitigación de desastres naturales y transporte].

El caso de México: proyecto 2026

Los documentos preliminares de la Supercomputadora mexicana en ciernes, refieren que Coatlicue se enfocará en resolver «problemas públicos apremiantes», con cuatro ejes iniciales:

  1. Meteorología y prevención. Modelos climáticos para alertamiento masivo ante fenómenos hidrometeorológicos.
  2. Soberanía de datos (SAT/Aduanas). Análisis de riesgos en transacciones fronterizas y fiscalización masiva de datos aduaneros.
  3. Seguridad alimentaria. Procesamiento de imágenes agrícolas para optimizar cosechas y detectar plagas.
  4. IA con identidad. Desarrollo de modelos de lenguaje (LLMs) propios para evitar la dependencia de corporaciones privadas internacionales.

Vendría bien, consideramos, un eje adicional dedicado a la protección civil y al mejoramiento del monitoreo de la actividad sísmica.

Recapitulemos. De acuerdo con la versión dada a conocer a la prensa el pasado 26 de noviembre, Coatlicue tendrá capacidad para procesar «314 mil billones de operaciones por segundo», lo que la colocaría eventualmente en la posición numero 10 del Top500. Con 314 petaflops.

No sólo sería la mayor de América Latina, sino también estaría por delante de España. Vale recordar que un petaflop es igual a mil billones de flops.

Como se destacó al inicio, la inversión anunciada para Coatlicue la colocaría, asimismo -en el rubro de inversión- dentro del Top10.

Conclusión

Craer y operar una Supercomputadora de alto rendimiento (HPC) Top10, con capacidad de Petaflops (en el umbral de la Exaescala), como señalamos antes, es un asunto de soberanía tecnológica.

De acuerdo con el análisis financiero estimado, resulta así nuestro cuadro resumen.

Tabla 7. Inversión inicial y costo de operación y mantenimiento anual /Impacto del consumo energético

ConceptoMonto Estimado (USD)Componentes
Inversión Inicial (CapEx)$400M – $600MHardware, infraestructura física y licencias.
Operación Anual (OpEx)$35M – $45MEnergía eléctrica, mantenimiento y nómina especializada.
Desglose de energíaMonto Estimado (USD)Consumo estimado
Costo Energético~$25M anualesBasado en un consumo de 30 MW a tarifa industrial.

Imacto

El buen resultado de cualquier proyecto, no sólo depende de la adecuada adquisición del hardware (o del más costoso), sino de la creación y funcionamiento del ecosistema de soporte científico.

La inversión se justifica al reducir la dependencia de la nube extranjera. También podría justificarse al permitir que la academia mexicana resuelva problemas complejos inscritos en sus ejes prioritarios, que han resultado difíciles de abordar con la infraestructura vigente.

¿Qué opinión tienes acerca de los costos actuales de las Supercomputadoras, o computadoras de alto rendimiento?

Fuentes:

Barcelona Supercomputing Center (BSC-CNS): “Detalles del convenio de colaboración México-España para el uso de infraestructura Exaescala”.

California NanoSystems Institute (CNSI) at UCLA, «High-Performance Computing/Linux Systems Administrator» (Job Oportunity).

Chapman, Henry, “Top10 Energy-Efficient SuperComputers”, en Data Center knowledge, 23 de agosto, 2023.

Forschungszentrum Jülich (Alemania), “Especificaciones y objetivos del proyecto JUPITER”.

Gemini 3. Estructura de contenido, mediante el siguiente prompt: “Analiza y decribe las etapas, componentes y costos de crear y operar una supercomputadora, que sean parte del Top 10 mundial. Que pueda superar la barrera de los 500 Petaflops de rendimiento real, Rmax. Que pueda estar cerca de la Exaescala ($10^{18}$operaciones por segundo”.

Gobierno de México (Presidencia / Agencia de Transformación Digital y Telecomunicaciones), “Comunicados sobre la creación del Clúster Nacional y Centro Mexicano de Supercómputo (Nov 2025 – Mar 2026)”.

Hemsoth Prickett, Nicole, «Intel To Take On OpenPower For Exascale Dominance With Aurora», en The Next Platform, 18 de marzo de 2019

Massod, Adnan, “Semiconductors in 2026: The AI‑Driven Upswing Meets Structural Bottlenecks”, en Medium, 28 de enero, 2026.

Oak Ridge & Lawrence Livermore National Labs (LLNL), El Capitán y Frontier. Además, véase: Documentación sobre las misiones de Frontier.

PWC, “Semiconductor and beyond Global semiconductor industry outlook 2026”, Full Report, 2026

The Art of HPC, textbooks by Victor Eijkhout of TACC, “The Science of Computing(formerly: Introduction to High-Performance Scientific Computing)”, 2025-2026.

The European High Performance Computing Joint Undertaking (EuroHPC JU), «European Exascale Supercomputer JUPITER Sets New Energy Efficiency Standards with #1 Ranking in GREEN500», (Press release),13 de mayo, 2024

TOP500.org, “Listas oficiales de rendimiento y arquitectura (Ediciones 65 y 66)”.

Turczyn, Coury, «OLCF Pioneers Approaches to Energy Efficient Supercomputing«, en Oak Ridge National Laboratory (U.S Department of Energy, 10 de septiembre, 2024.

Imagen de la portada:

Grok 4.2. Prompt: «Crea una imagen vívida, realista, iluminada, con algunas personas, que ofrezca una idea bien lograda de las instalaciones que poseen las Supercomputadoras de alta capacidad, ubicadas en el Top10 global».

Comenta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Relacionados

Mythos2

Con Claude Mythos, Anthropic elevará apuesta IA

El viernes 27 de marzo, las redes sociales hicieron amplio eco a los ambiciosos planes de Anthropic para liderar la nuev
Leer mas
Tres profes

Apóyate en IA para las transcripciones masivas

La IA ofrece nuevas posibilidades, con múltiples recursos, para ser aprovechada en las disciplinas de Ciencias Sociales
Leer mas
Imagen de portada para la reseña de Agents of Chaos

IA: Agents of Chaos, un debate oportuno

En las más recientes semanas, han aparecido diversos artículos que han causado interés entre los círculos interesado
Leer mas