Coatlicue: entre la ambición tecnológica y la controversia técnica

El gobierno federal presentó este miércoles “Coatlicue”, el que promete ser el sistema de supercómputo público más potente de América Latina. Con una inversión de 6 mil millones de pesos y una capacidad declarada de 314 mil billones de operaciones por segundo, la administración de la presidenta Claudia Sheinbaum busca colocar a México en la élite tecnológica regional. Pero el anuncio, lejos de generar consenso, detonó un intenso debate técnico en redes sociales que hoy ya salpicó al ámbito político.

Durante la conferencia matutina, la secretaria de Ciencia, Humanidades, Tecnología e Innovación (Secihti), Rosaura Ruiz, y el titular de la Agencia de Transformación Digital y Telecomunicaciones (ATDT), José Antonio Peña Merino, detallaron que Coatlicue integrará 14 mil 480 unidades de procesamiento gráfico (GPUs), un poder de cómputo equivalente —según dijeron— a casi 400 mil computadoras trabajando en paralelo. El sistema, cuya construcción iniciaría en enero de 2026 con un plazo de 24 meses, se enfocará en aplicaciones estratégicas: predicción de desastres naturales, exploración de hidrocarburos, optimización energética, movilidad, planificación agrícola y detección de fraudes fiscales mediante inteligencia artificial.

“Queremos que sea una supercomputadora pública, del pueblo de México”, afirmó Sheinbaum, subrayando que Coatlicue se integrará al Clúster Nacional de Supercómputo y contará con la colaboración del IPN, Infotec y el Centro de Supercómputo de Barcelona (BSC-CNS) para la formación de personal especializado.

Las autoridades aseguran que Coatlicue multiplicará por siete la capacidad de la supercomputadora más potente de Brasil —actual líder regional— y que impulsará la investigación científica en salud, clima, movilidad y energía. Además, el gobierno plantea ofrecer servicios de cómputo masivo a empresas privadas bajo supervisión de un consejo directivo encabezado por Secihti y ATDT.

Un hilo viral prende focos rojos

El entusiasmo oficial chocó rápidamente con un escrutinio técnico severo. Horas después del anuncio, el usuario de X @macciudadano, quien se presenta como especialista en tecnología, publicó un hilo que suma más de 129 mil vistas, 2,900 likes y 800 reposts en menos de 24 horas.

Su conclusión central es contundente: “los números no cuadran”.

Según su análisis, una configuración de 14,480 GPUs modernas —como las NVIDIA H100— debería superar 1 exaflop (1,000 petaflops) de potencia. Sin embargo, el gobierno reporta 314 petaflops, lo que para él implica una discrepancia insalvable.

“Una GPU moderna entrega entre 60 y 90 TFLOPS. Incluso con cálculos conservadores, esto te da casi 1 EXAFLOP. Pero ustedes dicen ‘314 PFLOPS’. No hay forma”, escribió, dirigiéndose al titular de la ATDT, @PepeMerino.

El hilo plantea dos posibles explicaciones:

  1. Las GPUs serían de gama baja u obsoletas, con menos de 20 TFLOPS cada una, insuficientes para IA avanzada.
  2. Las especificaciones habrían sido copiadas de proyectos externos, como el supercomputador español MareNostrum 5, que también reporta 314 PFLOPS.

El autor también cuestiona la viabilidad presupuestal. Solo el costo de 14,480 GPUs H100 —según sus estimaciones— oscilaría entre 362 y 579 millones de dólares, cifra superior a los 327 millones de dólares equivalentes a los 6 mil millones de pesos anunciados. A ello, dice, habría que sumar infraestructura en racks, redes InfiniBand, almacenamiento en petabytes, enfriamiento y gasto energético.

“Con 6,000 millones de pesos no te alcanza ni para arrancar”, concluye, acusando a Peña Merino de “mentir o no entender lo que anunciaste”.

La discusión se mueve a la ciberseguridad

La comunidad tecnológica reaccionó de inmediato. Usuarios como @ivanvladimir celebraron el anuncio, pero expresaron dudas sobre si las GPUs serán de última generación. Otros, como @DpProa, replicaron el hilo advirtiendo que “las tarjetas que compren serán viejas o usadas”.

Incluso surgieron comentarios irónicos desde perfiles relacionados con ciberseguridad, como @HackersOIHEC:

“A ver si no termina hackeada y usada por los mexican mafia team”.

Aunque el comentario es sarcástico, refleja una preocupación real en el sector: México lleva años arrastrando brechas de seguridad en sistemas críticos del Estado, desde plataformas educativas hasta sistemas bancarios, y la falta de controles o transparencia podría convertir a Coatlicue en un objetivo atractivo para actores maliciosos.

Hasta el momento, ninguna autoridad ha respondido públicamente a las críticas. De manera extraoficial, fuentes de Secihti señalan que las cifras podrían referirse a tipos distintos de FLOPS —por ejemplo, FP16 para IA vs. FP64 para cómputo científico— lo que explicaría parte de la diferencia. También subrayan que el proyecto cuenta con asesoría técnica del organismo indio C-DAC y el acompañamiento del BSC-CNS, lo que reduciría el riesgo de obsolescencia.

Un hito… con preguntas pendientes

Coatlicue representa uno de los intentos más ambiciosos del país por democratizar el acceso al supercómputo en un momento en que supercomputadoras como Frontier (EE. UU.) y Fugaku (Japón) definen el estándar global.

Sin embargo, la controversia exhibe una realidad incómoda: la falta de claridad técnica puede convertir un proyecto estratégico en un problema político.

En un país donde la ciberseguridad gubernamental sigue siendo un tema pendiente, la presión por transparentar especificaciones, costos y capacidades reales será clave para evitar que Coatlicue pase de ser un símbolo de innovación a un nuevo frente de críticas.

El gobierno ha prometido actualizaciones conforme avance la construcción. Por ahora, el hilo de @macciudadano dejó en claro que, en la era digital, la tecnología también se fiscaliza en público.

Autor

Scroll al inicio