BitcoinWorld Los chips de IA de Google al descubierto: el lanzamiento de TPU 8t y 8i para desafiar el dominio de Nvidia En un movimiento estratégico para capturar más del floreciente mercado de inteligencia artificialBitcoinWorld Los chips de IA de Google al descubierto: el lanzamiento de TPU 8t y 8i para desafiar el dominio de Nvidia En un movimiento estratégico para capturar más del floreciente mercado de inteligencia artificial

Chips de IA de Google desatados: lanzamiento de TPU 8t y 8i para desafiar el dominio de Nvidia

2026/04/23 02:50
Lectura de 8 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante [email protected]

BitcoinWorld

Google AI Chips Unleashed: TPU 8t y 8i se lanzan para desafiar la dominancia de Nvidia

En un movimiento estratégico para capturar una mayor parte del floreciente mercado de inteligencia artificial, Google Cloud anunció el lanzamiento de sus chips de IA personalizados de octava generación el miércoles 30 de abril, en San Francisco, CA. La compañía reveló un enfoque bifurcado, presentando dos chips especializados: el TPU 8t para el entrenamiento de modelos de IA y el TPU 8i para cargas de trabajo de inferencia. Este desarrollo señala el impulso más significativo de Google hasta ahora para ofrecer a las empresas una alternativa poderosa y rentable a las GPU estándar de la industria de Nvidia, aunque el gigante de búsquedas mantiene que su asociación con el líder en chips es más sólida que nunca.

Google AI Chips: Una estrategia de doble enfoque para el entrenamiento y la inferencia

La decisión de Google de dividir su Unidad de Procesamiento Tensorial (TPU) de octava generación en dos modelos distintos representa una evolución importante en su estrategia de hardware. Históricamente, las TPU manejaban tanto el entrenamiento como la inferencia, pero la explosiva demanda de cómputo de IA especializado ha impulsado este cambio arquitectónico. El TPU 8t está diseñado específicamente para el proceso computacionalmente intensivo de entrenar grandes modelos de lenguaje y otros sistemas de IA. Por el contrario, el TPU 8i está optimizado para la inferencia, que es el proceso en curso de ejecutar modelos entrenados para generar respuestas a las solicitudes de los usuarios.

Según los benchmarks de rendimiento de Google, los nuevos chips ofrecen mejoras sustanciales sobre sus predecesores. La compañía afirma que el TPU 8t ofrece hasta 3 veces más velocidad en el entrenamiento de modelos de IA y un 80% mejor rendimiento por dólar. Además, la ingeniería de Google ahora permite que más de un millón de TPU trabajen juntos en un único y masivo clúster. Esta escala permite el entrenamiento de modelos de frontera de próxima generación que antes eran inviables. El resultado para los clientes de la nube es significativamente más potencia computacional con menor consumo de energía y costo.

La carrera de chips de los hiperescaladores se intensifica

El anuncio de Google lo sitúa firmemente dentro de la tendencia más amplia de los principales proveedores de la nube que desarrollan silicio personalizado. Amazon Web Services (AWS) tiene sus chips Graviton y Trainium, mientras que Microsoft Azure está desarrollando sus aceleradores Maia. Este movimiento, a menudo denominado la "carrera de chips de los hiperescaladores", está impulsado por el deseo de un mayor control sobre la cadena de suministro, la optimización del rendimiento para pilas de software específicas y la mejora de los márgenes de costos. Sin embargo, los analistas advierten que esto no es un juego de suma cero contra Nvidia.

"La narrativa de 'hiperescaladores vs. Nvidia' suele estar exagerada", explica Patrick Moore, un destacado analista del mercado de chips. "Estas compañías están construyendo capacidad suplementaria y optimizando para sus propios ecosistemas. No buscan desplazar completamente a Nvidia, especialmente a corto plazo." Moore predijo famosamente en 2016 que la primera TPU de Google podría amenazar a Nvidia e Intel, una previsión que resultó prematura ya que la capitalización de mercado de Nvidia desde entonces se ha disparado a casi 5 billones de dólares. La realidad actual es más simbiótica. Google, por ejemplo, ha confirmado que ofrecerá el próximo chip Vera Rubin de Nvidia en su nube a finales de este año.

Un futuro colaborativo, no combativo

De hecho, Google enfatiza su colaboración en curso con Nvidia. Los dos gigantes tecnológicos están diseñando conjuntamente soluciones de redes informáticas para que los sistemas basados en Nvidia funcionen de manera más eficiente en la infraestructura de Google Cloud. Un proyecto clave implica mejorar Falcon, una tecnología de redes basada en software que Google creó y publicó como código abierto en 2023. Esta colaboración subraya una perspectiva crítica de la industria: el crecimiento de los servicios de IA en la nube amplía el mercado total direccionable para todo el silicio de alto rendimiento, ya sea que lleve la marca de Nvidia o la de un proveedor de la nube.

La lógica financiera es clara. A medida que las empresas migran cada vez más sus cargas de trabajo de IA a la nube, la demanda de cómputo se dispara. Los proveedores de la nube pueden entonces dirigir ciertas cargas de trabajo optimizadas a sus chips personalizados, mientras ofrecen la amplia compatibilidad de las GPU de Nvidia para otras. Este modelo híbrido les permite mejorar la rentabilidad en algunas cargas de trabajo mientras mantienen la plena libertad de elección para el cliente. Para Nvidia, cada nueva aplicación de IA alojada en Google Cloud representa un cliente potencial para su hardware de red, licencias de software y, en muchos casos, sus GPU.

Análisis de rendimiento e impacto en el mercado

Las especificaciones técnicas de las nuevas TPU de Google sugieren una reducción de la brecha de rendimiento con las GPU de mejor calidad. El enfoque en el rendimiento por dólar y la eficiencia energética aborda dos puntos de dolor principales para las empresas que escalan la IA: los costos disparados y el impacto ambiental. La capacidad de Google para enlazar más de un millón de TPU también desafía directamente una de las ventajas clave de Nvidia: su tecnología NVLink, líder en el mercado, para conectar grandes cantidades de GPU.

Principales ventajas de las nuevas TPU de Google:

  • Especialización: Chips dedicados para el entrenamiento (TPU 8t) y la inferencia (TPU 8i) optimizan para tareas específicas.
  • Eficiencia de costos: Un 80% mejor rendimiento por dólar puede reducir significativamente la barrera de entrada para proyectos de IA.
  • Escala: Los clústeres de un millón de chips permiten el entrenamiento de modelos de IA sin precedentes.
  • Integración: Integración profunda de software con los frameworks de IA de Google como TensorFlow y JAX.

No obstante, el ecosistema de Nvidia, en particular su plataforma de software CUDA, sigue siendo un foso formidable. Millones de desarrolladores de IA están formados en CUDA, y un sinfín de aplicaciones están construidas para él. Si bien los chips de Google ejecutan frameworks populares, la necesidad de portar aplicaciones potencialmente genera fricciones. La batalla a largo plazo puede ser menos sobre la velocidad bruta de los transistores y más sobre qué plataforma ofrece la solución total más convincente para desarrolladores y empresas.

Conclusión

El lanzamiento del TPU 8t y TPU 8i por parte de Google marca un momento crucial en la evolución de la infraestructura de IA. Demuestra el serio compromiso de la compañía para competir en la arena del hardware de IA de alto riesgo, ofreciendo a las empresas potentes y nuevos chips de IA de Google para tareas especializadas. Sin embargo, el anuncio también refuerza la naturaleza compleja y colaborativa de la industria de semiconductores moderna. En lugar de un asalto frontal, Google está ejecutando una sofisticada estrategia de doble vía: avanzando en su silicio propietario mientras profundiza su asociación con Nvidia. Este enfoque garantiza que Google Cloud pueda atender la gama más amplia posible de cargas de trabajo de IA, desde aquellas optimizadas para sus TPU personalizadas hasta las que requieren el estándar universal de las GPU de Nvidia. Los ganadores finales serán probablemente las empresas, que se beneficiarán de una mayor competencia, más opciones e innovación continua en rendimiento y costo.

Preguntas frecuentes

P1: ¿Cuál es la diferencia entre los chips TPU 8t y TPU 8i de Google?
El TPU 8t está diseñado específicamente para el entrenamiento de modelos de IA: el proceso de enseñar a un modelo utilizando grandes conjuntos de datos. El TPU 8i está optimizado para la inferencia, que es el proceso de usar un modelo entrenado para hacer predicciones o generar respuestas en tiempo real.

P2: ¿Dejará Google Cloud de ofrecer GPU de Nvidia?
No. Google ha declarado explícitamente que no está reemplazando a Nvidia. La compañía confirmó que ofrecerá las GPU Vera Rubin de próxima generación de Nvidia en su nube a finales de este año y está colaborando activamente con Nvidia en tecnología de redes.

P3: ¿Cómo se comparan los nuevos chips de IA de Google con las versiones anteriores de TPU?
Google afirma que las nuevas TPU de octava generación ofrecen hasta 3 veces más velocidad de entrenamiento y una mejora del 80% en el rendimiento por dólar en comparación con las generaciones anteriores. También admiten clústeres de más de un millón de chips, lo que permite un entrenamiento de modelos a mayor escala.

P4: ¿Por qué los proveedores de la nube como Google están desarrollando sus propios chips de IA?
Los proveedores de la nube desarrollan silicio personalizado para optimizar el rendimiento de su software y servicios específicos, obtener mayor control sobre su cadena de suministro, mejorar la eficiencia de costos y diferenciar sus ofertas en un mercado competitivo.

P5: ¿Qué significa esto para el futuro de Nvidia?
Si bien los chips personalizados de los hiperescaladores representan competencia, el crecimiento general del mercado de IA está expandiendo la demanda de todo el cómputo de alto rendimiento. El robusto ecosistema de software de Nvidia (CUDA) y la innovación continua significan que es probable que siga siendo una fuerza dominante, incluso mientras colabora con empresas que desarrollan silicio alternativo.

Esta publicación Google AI Chips Unleashed: TPU 8t y 8i se lanzan para desafiar la dominancia de Nvidia apareció primero en BitcoinWorld.

Oportunidad de mercado
Logo de Movement
Precio de Movement(MOVE)
$0.01841
$0.01841$0.01841
-1.39%
USD
Gráfico de precios en vivo de Movement (MOVE)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección [email protected] para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

Génesis USD1: tarifa 0 + 12% APR

Génesis USD1: tarifa 0 + 12% APRGénesis USD1: tarifa 0 + 12% APR

Nuevos usuarios: ¡stakea y gana hasta 600% de APR!