La cadena ecológica de Space Computing de NVIDIA sale a la luz: Space-1 Vera Rubin envía la potencia informática de IA de nivel de centros de datos al espacio

NVIDIA Space Computing se presenta en el GTC 2026; recientemente, Nvidia publicó más información oficial e intentó llevar la plataforma de computación acelerada desde los centros de datos en tierra hasta las órbitas espaciales. El proyecto se centra en la infraestructura de IA necesaria para las nuevas misiones espaciales, permitiendo que satélites, plataformas en órbita y estaciones terrestres usen GPUs NVIDIA y módulos de computación en el borde (edge computing) para acelerar el procesamiento de imágenes, datos de sensores e información geoespacial.

(NVIDIA GTC 2026|Nvidia envía Space-1 Vera Rubin al espacio, creando una plataforma de “computación en la nube” real)

NVIDIA afirma que, con el desarrollo de la industria espacial comercial, las futuras misiones ya no se limitarán a enviar datos desde el espacio de regreso a la Tierra, sino que requerirán procesamiento, análisis y toma de decisiones en tiempo real en órbita. Esto incluye respuesta ante desastres naturales, monitoreo ambiental, predicción de clima y de clima/tiempo, gestión de infraestructura y operaciones espaciales automatizadas.

De la Tierra al espacio: NVIDIA busca resolver la latencia de los datos satelitales y los costos de enlace descendente

Las misiones satelitales tradicionales a menudo necesitan transmitir grandes volúmenes de datos en bruto de vuelta a la Tierra, y luego los centros de datos en tierra realizan el análisis. Sin embargo, en aplicaciones como observación de la Tierra, imágenes infrarrojas, radares SAR y detección de señales de radiofrecuencia, el volumen de datos puede llegar a cientos de TB; si se depende por completo de las transmisiones de enlace descendente, no solo los costos aumentan, sino que también se alarga el tiempo de respuesta.

El objetivo de NVIDIA en Space Computing es colocar parte de las capacidades de inferencia de IA y de fusión de datos directamente en el extremo espacial. Mediante Jetson Orin, IGX Thor y el nuevo módulo Space-1 Vera Rubin, las plataformas en órbita pueden procesar en tiempo real los datos de sensores, generar información geoespacial y reducir la dependencia de la transmisión desde tierra.

En otras palabras, en el futuro los satélites no solo tomarán fotos y enviarán datos, sino que podrán “entender” los datos directamente en la órbita.

Space-1 Vera Rubin: llevar la potencia de IA de nivel centro de datos al espacio

El producto más destacado en esta ocasión es el módulo Space-1 Vera Rubin de NVIDIA. NVIDIA afirma que este módulo puede proporcionar hasta una mejora de 25 veces en capacidad de cómputo de IA por GPU para inferencia en espacio y para centros de datos en órbita.

Space-1 Vera Rubin utiliza una arquitectura integrada CPU-GPU y una interconexión de alto ancho de banda; su objetivo es procesar grandes flujos de datos directamente en el espacio, permitiendo que los modelos frontier model y foundation model se ejecuten en las plataformas en órbita. Esto significa que, en el futuro, algunos modelos de IA no necesariamente tendrán que depender por completo de los centros de datos en tierra, sino que podrán completar análisis en tiempo real dentro de satélites o centros de datos en órbita.

Esto también coincide con la dirección planteada por el CEO de NVIDIA, Huang Jen-sun (Jensen Huang), en el GTC: la IA no se quedará solo en la nube y en los centros de datos en tierra, sino que entrará en robots, fábricas, vehículos e incluso en infraestructuras espaciales.

Jetson Orin, IGX Thor: dotar a los satélites con capacidades de IA en el borde en tiempo real

Además de Space-1 Vera Rubin, NVIDIA también llevará sus plataformas existentes de IA en el borde a aplicaciones espaciales.

Jetson Orin se enfoca en inferencia de IA pequeña, de bajo consumo y de alto rendimiento, adecuada para satélites, vehículos de mantenimiento orbital y plataformas de sensores espaciales. Puede procesar directamente en el vehículo espacial datos de visión, navegación y sensores, reduciendo la latencia y ahorrando ancho de banda.

IGX Thor, en cambio, se posiciona como una plataforma de borde más orientada a misiones con alta confiabilidad y nivel crítico; admite procesamiento de IA en tiempo real, seguridad funcional, arranque seguro y operación autónoma. Para misiones espaciales que deben operar en entornos exigentes, este tipo de plataformas permite a las naves espaciales contar con un mayor grado de capacidad de juicio autónomo, además de la latencia de control desde tierra.

El Space Computing de NVIDIA no solo se enfoca en el segmento espacial, sino que también incluye el procesamiento de datos de las estaciones terrestres. NVIDIA indica que la GPU RTX PRO 6000 Blackwell Server Edition se puede usar para procesamiento de datos de alta capacidad en el lado terrestre, incluyendo síntesis de imágenes satelitales, corrección ortográfica (ortho-rectification), atmospheric compensation y análisis de imágenes geoespaciales a gran escala. En comparación con sistemas tradicionales de procesamiento por lotes en CPU, NVIDIA afirma que puede lograr hasta una mejora de rendimiento de 100 veces.

Esto significa que Space Computing no es un solo producto de chip, sino un conjunto de arquitectura completa de cómputo de IA que va desde el extremo de satélite, pasando por el centro de datos en órbita, hasta la estación terrestre.

Sale la cadena ecológica de Space Computing de Nvidia: Axiom Space y Planet Labs se suman

NVIDIA afirma que compañías de la industria espacial como AetherFlux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space y Starcloud ya están usando sus plataformas de cómputo acelerado de NVIDIA para respaldar misiones en órbita y en tierra.

En el ecosistema, NVIDIA también lista varios socios de hardware, incluyendo Aethero, Aitech, EDGX, Eizo y WOLF, entre otros, quienes lanzan equipos robustos para el espacio y de nivel defensa con Jetson Orin o Jetson Thor. Las aplicaciones abarcan misiones en órbita terrestre baja, CubeSat, satélites pequeños, sistemas no tripulados, fusión de múltiples sensores y misiones ISR en tiempo real.

Entre ellos, el módulo NxA Edge Computing de Aethero utiliza NVIDIA Jetson AGX Thor u Orin; puede admitir implementación modular con múltiples redundancias e incluso despliegues distribuidos habilitados con Kubernetes para cómputo espacial. Se posiciona como un nodo de IA en el borde muy cercano para misiones en órbita.

Aitech presentó el supercomputador COTS AI S-A2300, usando NVIDIA Jetson Orin; está enfocado en misiones en órbita terrestre baja (LEO) e integra productos listos para uso comercial (COTS) en aplicaciones de supercomputadoras de IA en el espacio.

La Sterna de EDGX es un ordenador en el borde ya con verificación de vuelo, equipada con NVIDIA Jetson Orin NX, orientado a misiones de satélites pequeños como CubeSat y micro-sat; enfatiza ofrecer la eficiencia de cómputo líder por vatio-hora en misiones de órbita heliosincrónica LEO durante un periodo de cinco años.

Condor Thor 3U VPX Series de Eizo es una computadora de placa única robusta con NVIDIA Jetson Thor; los casos de uso incluyen ISR en tiempo real, sistemas no tripulados y fusión de múltiples sensores, con enfoque en escenarios de defensa, aeroespacio y misión crítica.

WOLF-14T5 de WOLF es una computadora de placa única robusta 3U VPX con NVIDIA Jetson AGX Orin y ConnectX-7; puede ofrecer procesamiento de IA de alto rendimiento y capacidades de red de hasta 100GbE, apuntando a misiones embebidas con alta seguridad y alta capacidad de transmisión de datos.

Este artículo, en el que la cadena ecológica de Space Computing de Nvidia se da a conocer, y Space-1 Vera Rubin lleva la potencia de IA de nivel centro de datos al espacio, apareció por primera vez en Chain News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La plataforma B.AI agrega 8.756 usuarios el 11 de mayo, DeepSeek-V4 impulsa el 60% del consumo de tokens

Según B.AI, la plataforma añadió 8.756 nuevos usuarios el 11 de mayo, mientras que la adopción de pagos de Stripe entre los usuarios pagadores principales alcanzó el 69,0%, lo que refleja una mejor retención de los desarrolladores tradicionales y de los usuarios de nivel producción. Los modelos de la serie DeepSeek-V4 representaron casi el 60% del consumo de tokens, aprovechando la latencia ultrabaja, la alta concurrencia y las capacidades de rendimiento para servir como un motor central de ejec

GateNewsHace14m

Esta semana se intensifican los catalizadores macro: una visión general desde la publicación del IPC hasta la revisión del proyecto de ley CLARITY

2026 年 5 月中旬,加密货币市场正经历一个极为罕见的宏观敏感窗口。美国 4 月 CPI 数据于 5 月 12 日公布,川习北京峰会定于 5 月 13 日至 15 日举行,参议院银行委员会则将在 5 月 14 日审议 CLARITY 法案(数字资产市场清晰法案)。三个独立但高度关联的事件在短短四天内集中落地,形成对加密资产定价机制的阶段性压力测试。 5 月 12–15 日的事件日历与信息密度分布? 从信息释放节奏来看,本周的关键节点呈“三峰”排列:周二的 CPI 数据率先打开第一个信息窗口,周四的 CLARITY 法案审议与周四至周五的川习峰会几乎同步推进。CPI 数据的市场消化窗口约为数小时,主要影响利率预期定价;CLARITY 法案审议的决定性在于它可能推动立法进入参议院全体表决阶段,进而影响数字资产的长期监管预期;川习峰会的博弈结果则会在更大范围内冲击全球风险资产的估值中枢。三个事件共同营造出高度压缩的时间窗口,市场面临同时消化多个方向信息的压力,这本身就是波动率提升的典型前提条件。 今晚的 CPI 数据为何成为加密市场的“第一道关口”? 摩根士丹利全球宏观策略主管 Matt

GateInstantTrendsHace36m

La startup de voz con IA Vapi completa la $50M serie B liderada por Peak XV Partners

Según TechCrunch, Vapi, una startup de voz con IA, completó una ronda de financiación de Serie B de 50 millones de dólares liderada por Peak XV Partners, con una valoración post-money de aproximadamente 500 millones de dólares. Ring, la subsidiaria de Amazon, desplegó Vapi para gestionar el 100% de sus llamadas entrantes después de evaluar a más de 40 proveedores de voz con IA, ayudando a impulsar la ronda de financiación.

GateNewshace1h

La precisión de GPT-5.4 cae de 100% a 54% en ARC-AGI tras la resumir repetidamente la memoria

De acuerdo con Beating, un reciente estudio sobre la memoria de agentes de Dylan Zhang, estudiante de doctorado en la Universidad de Illinois, encontró que resumir repetidamente las experiencias del modelo puede degradar el rendimiento en lugar de mejorarlo. En tareas ARC-AGI, GPT-5.4 logró 100% de precisión en 19 problemas sin memoria, pero después de múltiples rondas de compresión de memoria basadas en trayectorias de solución correctas, la precisión cayó a 54%. De manera similar, en tareas de

GateNewshace1h

NVIDIA y el MIT publican el framework Lightning OPD, mejorando 4x la eficiencia de la destilación de modelos mientras eliminan los problemas de memoria de la GPU

Según los informes, investigadores de NVIDIA y del MIT lanzaron Lightning OPD (Offline On-Policy Distillation), un nuevo marco de post-entrenamiento para modelos de lenguaje grandes que elimina la necesidad de mantener un modelo docente en funcionamiento durante el entrenamiento. Al precomputar las log-probabilidades del modelo docente sin conexión, el marco mejora la eficiencia del entrenamiento en 4x y libera todos los recursos de GPU para el entrenamiento del modelo estudiante. En pruebas con

GateNewshace1h

OpenAI amplía el programa de acceso confiable a decenas de empresas europeas el 12 de mayo

Según los informes del 12 de mayo, OpenAI anunció planes para ampliar su Programa de Acceso de Confianza a docenas de empresas europeas.

GateNewshace1h
Comentar
0/400
Sin comentarios